Directrices de IA

Comercio Responsable

Directrices

Uso responsable de la inteligencia artificial

La inteligencia artificial (IA) es creada por humanos, por lo que refleja sus patrones de pensamiento, comportamientos, suposiciones y condicionamientos culturales, aunque sigue siendo una máquina. Para una convivencia responsable entre humanos y máquinas, es fundamental abordar tanto el por qué como el cómo de esta colaboración. Generamos confianza al guiar los algoritmos hacia principios éticos.

Al desarrollar decisiones automatizadas basadas en IA o métodos estadísticos, seguimos directrices claras. La premisa fundamental es: creamos aplicaciones de IA para el ser humano, no contra él. Nos basamos en las condiciones regulatorias, leyes vigentes y principios éticos, con el Código de Ética del Grupo Otto y los valores corporativos de one.O como marco esencial.

1. Prioridad del ser humano sobre la IA

La acción humana prima sobre la Inteligencia Artificial; la IA debe ayudar a nuestras decisiones, no sustituirlas. Supervisamos de forma continua el rendimiento de las aplicaciones y podemos intervenir en cualquier momento. Además, validamos periódicamente los modelos en entornos operativos y visualizamos los resultados para detectar con rapidez cualquier irregularidad. Este enfoque es especialmente importante cuando existen consecuencias de gran alcance o riesgo de pérdida de confianza, como en el desarrollo de bots y en el uso de modelos de lenguaje a gran escala (LLM). El departamento responsable evalúa y determina el grado de autonomía que se concede a la IA.

Recompensa

2. Confianza mediante la transparencia

Transparencia hacia los departamentos
Una aplicación de IA solo prospera si quien la usa percibe su valor y confía en ella. Por eso avisamos con claridad cuando un usuario está interactuando con inteligencia artificial y señalamos esa interacción de forma visible. Comunicamos de manera abierta tanto las capacidades como las limitaciones de la IA; explicamos, siempre que sea posible, cómo funciona y por qué se obtienen ciertos resultados. También valoramos alternativas: examinamos si puede alcanzarse el mismo objetivo con un sistema algorítmico menos complejo y más interpretable, sin sacrificar calidad. Esta claridad facilita la detección temprana de irregularidades y acelera la toma de decisiones internas.

Confianza del cliente
El desarrollo de una solución de IA parte del valor que aporta al cliente y se valida y mejora de forma continua mediante pruebas con usuarios (Friendly User Tests) y pruebas de negocio (Business User Tests). La puesta en producción se realiza por fases cortas y controladas tras procesos de prueba rigurosos. Creemos que la transparencia es clave para generar confianza en la IA generativa; por eso informamos abiertamente sobre las capacidades y límites de herramientas como el voicebot, en línea con el Reglamento de la UE sobre IA. Los clientes deben saber exactamente qué esperar; cuando una petición excede el alcance actual, lo comunicamos de forma clara. Además, reforzamos la confianza mediante monitorización y análisis continuos del rendimiento, lo que nos permite detectar oportunidades de mejora y optimizar la experiencia del cliente de manera constante.

Código

3. No discriminación, diversidad y equidad

Revisión crítica de resultados
La diversidad es un pilar: buscamos modelos que tomen decisiones justas y eviten la discriminación. Por eso las hipótesis y los datos de entrenamiento deben ser lo más representativos posible. Somos conscientes de que la automatización puede generar sesgos, y que distintos criterios de equidad pueden entrar en conflicto al diseñar un algoritmo. Por ese motivo, no siempre es posible eliminar por completo la discriminación en sistemas automatizados, incluidas las soluciones de IA generativa. Integramos estas limitaciones en el desarrollo y la programación, y sometemos los resultados a revisiones críticas y continuas para identificar y mitigar sesgos.

Principio de reversibilidad
Aplicamos el principio de reversibilidad: los resultados de la IA deben poder revertirse mediante intervención humana. La capacidad de anular decisiones garantiza control y responsabilidad. Además, el empleo de IA (incluida la generativa) se orienta a fomentar la participación y a reducir activamente la discriminación, conforme a la Ley de Mejora de la Accesibilidad (Accessibility Enhancement Act).

Revisión de soluciones externas de IA
Antes de incorporar soluciones generativas externas, las evaluamos cuidadosamente según criterios como protección de datos, neutralidad política, no discriminación y cumplimiento de directivas de la UE. Mantenemos nuestros principios y adaptamos las soluciones externas cuando sea necesario para asegurar que cumplen nuestros estándares éticos y legales.

Más

4. Sostenibilidad

Solo desarrollamos una aplicación de IA cuando es realmente apropiada. Si un método más sencillo ofrece mejores resultados, lo aplicamos y lo comunicamos claramente a nuestros clientes. Aplicamos el principio de minimalismo de datos: seleccionamos únicamente los datos estrictamente necesarios para los modelos y simplificamos los modelos siempre que sea posible. Esto protege la privacidad, reduce los tiempos de retención y disminuye el consumo de recursos. Somos conscientes del impacto ambiental potencial —incluidas las emisiones de CO2 asociadas al uso intensivo de IA— y valoramos con atención el balance entre consumo energético y beneficios operativos.

Sostenibilidad

5. Segura y resistente frente a la manipulación

Resumen breve: Protegemos los datos y validamos resultados para evitar manipulaciones y alucinaciones de la IA.

Somos conscientes de que las aplicaciones de IA pueden ser deliberadamente engañadas o manipuladas. Por eso, para entornos productivos aplicamos estándares de seguridad actuales y medidas orientadas a proteger tanto los datos como la base de decisión frente a manipulaciones intencionadas y no intencionadas. Invertimos tiempo en investigación específica por aplicación, especialmente cuando incorporamos datos externos, para identificar vectores de ataque y diseñar contramedidas. Nuestro objetivo es claro: la IA debe servir a las personas y no causarles daño. Esta protección es especialmente crítica en la IA generativa; por eso estamos implementando, entre otras medidas, la “Segunda Instancia” como capa adicional de control y revisión. Somos también conscientes del fenómeno de las “alucinaciones” en modelos generativos y lo combatimos con pruebas diversas (tests adversariales, validación de fuentes, verificación automatizada de salidas y control humano), integradas en el ciclo de desarrollo y despliegue.

Omnicanal

6. Protección y gestión de datos

Resumen breve: Gestionamos y almacenamos los datos de forma segura y transparente, protegiendo especialmente los datos personales y sensibles.

La gestión responsable de los datos y su almacenamiento seguro no son solo obligaciones para nosotros como miembro del Grupo Otto, sino un signo de confianza. Reconocemos la importancia de proteger los datos personales y sensibles: aplicamos controles de acceso, cifrado, anonimización/pseudonimización cuando procede y políticas claras de retención. Informamos con la máxima transparencia qué datos se usan, por quién y con qué finalidad, y documentamos responsabilidades y flujos de datos para facilitar auditorías y revisiones. Cumplimos la normativa aplicable (por ejemplo, RGPD) y complementamos las exigencias legales con medidas internas que refuerzan la seguridad y la confianza.

Privacidad

7. Responsabilidad, responsabilidad legal y rendición de cuentas

Resumen breve: Definimos y documentamos quién es responsable de cada sistema y función; la responsabilidad legal permanece siempre en manos humanas.

Asignamos de forma explícita la responsabilidad técnica al departamento correspondiente y la registramos de manera documentada para auditorías y seguimientos. La gestión operativa se ejerce según los principios de human-in-command (HIC), human-in-the-loop (HITL) y human-on-the-loop (HOTL), en función del alcance y criticidad de la decisión: HIC y HITL para aplicaciones críticas; HOTL para funciones de menor riesgo, como recomendaciones. Las personas designadas deben conocer sus obligaciones y cómo actuar, también en escenarios de responsabilidad compartida. La responsabilidad no se transfiere a la IA, aunque sí se pueden delegar tareas específicas a sistemas automatizados. Las cuestiones de responsabilidad civil y legal se abordan conforme a la normativa vigente y a los procedimientos internos de cumplimiento y gestión de incidentes.

Cuadrado

8. ECultura de desarrollo y orientación al futuro

Resumen breve: Empezamos en pequeño, aprendemos de los errores y solo avanzamos a menor supervisión cuando garantizamos fiabilidad y seguridad.

Nos entusiasman las posibilidades de la IA y asumimos que equivocarse forma parte del aprendizaje: extraer lecciones de los fallos es clave para avanzar. En las primeras fases desarrollamos en pequeño y con alta supervisión —aplicando enfoques HITL y HIC— para monitorizar comportamiento, corregir desviaciones y aumentar la confianza en el sistema. Solo cuando alcanzamos un nivel comprobado de fiabilidad y seguridad evaluamos la transición hacia el principio human-on-the-loop (HOTL). A lo largo de todo el proceso la responsabilidad permanece alineada con nuestros ocho principios: la innovación responsable no sustituye la rendición de cuentas. Miramos con curiosidad las próximas etapas de la IA; queremos ser referentes, aprovechar oportunidades y afrontar los retos futuros con rigor y apertura al cambio.

Una bombilla y engranajes que simbolizan la cultura de desarrollo y la orientación al futuro.

Glosario

Este enfoque establece que la IA no ejecuta acciones por sí misma: la decisión final exige siempre la aprobación previa de una persona. Ejemplo: un empleado revisa una respuesta de correo generada por IA y únicamente la envía tras su validación.

La IA puede operar de forma parcialmente autónoma, pero un humano puede intervenir en cualquier momento. Ejemplo: un voicebot responde consultas rutinarias y transfiere la conversación a un agente humano para asuntos complejos.

La IA actúa con mayor independencia sin supervisión humana en cada interacción; en segundo plano, personal humano evalúa métricas de calidad y solo interviene si se detectan anomalías. Ejemplo: un voicebot gestiona gran parte de las conversaciones y el equipo supervisa KPIs y corrige cuando hace falta.

Prueba temprana con usuarios externos que usan la aplicación con una actitud benevolente para aportar feedback inicial desde la perspectiva del cliente.

Prueba interna con usuarios de la propia empresa, realizada tras incorporar el feedback externo y pulir la aplicación en una fase posterior.

Productos de IA en el comercio

Descubra nuestro AI Hub

Nuestro AI Hub le ofrece una infraestructura unificada para utilizar diversas aplicaciones de IA. Desde asistentes de compras hasta aplicaciones basadas en voz, le permitimos ofrecer servicios personalizados y experiencias de compra únicas a sus clientes.


  • Shopping Assistant
  • Voice Bot
  • Brand Voice Generator
  • Accessibility Bot
  • Knowledge Bot
Soluciones de IA

IA en comercio y logística

La inteligencia artificial no es un fin en sí mismo para nosotros, sino una herramienta importante para apoyar el comercio y la logística. El ser humano siempre mantiene la responsabilidad en este proceso. Esto significa para nosotros comercio responsable.

 

Un repartidor revisando un paquete en el almacén

Más sobre inteligencia artificial y asistentes virtuales

Faro solitario en la costa que ilumina como símbolo de orientación

Descubre cómo crear contenido con IA en el que tus clientes confíen — y que tu marca respalde con orgullo.

Una mujer sentada frente a un portátil generando videos con inteligencia artificial

Descubre cómo las marcas de retail y comercio electrónico eligen las herramientas de IA adecuadas para sus campañas y estrategias de storytelling.

Un hombre con una camisa azul sentado en el sofá, usando una tableta y disfrutando de las compras en línea con la ayuda de un asistente de IA, con una bicicleta al fondo.

Los asistentes virtuales impulsados por IA transforman la frustración del cliente en una experiencia de compra fluida.

Un hombre usando un chatbot de IA en su dispositivo móvil

Cómo beneficiarte del uso de los chatbots e la IA en el comercio electrónico.

Por favor, tenga en cuenta el aviso legal sobre el uso del asistente de inteligencia artificial.
text bubble ¿Cómo puedo ayudarte?