Código chileno de ética publicitaria integra directrices para el uso de IA
La inteligencia artificial ha transformado la industria, pero también ha sumado dilemas éticos al competir con la creatividad humana y generar riesgos de manipulación. El Consejo de Autorregulación y Ética Publicitaria (CONAR) de Chile acaba de actualizar sus recomendaciones, para así garantizar transparencia, responsabilidad y control humano en las prácticas publicitarias en el sector, estableciendo un precedente ético.
El Séptimo Código Chileno de Ética Publicitaria marca un hito al considerar la IA generativa como parte de sus lineamientos. Hernán Triviño, presidente del CONAR (Consejo de Autorregulación y Ética Publicitaria), explica que el cambio no fue una decisión apresurada, sino parte de una revisión periódica y que se ajusta a los nuevos tiempos.
Cada cinco años, en el CONAR revisan el código para incorporar las mejores prácticas de la industria, y ahora coincidió con la expansión de la inteligencia artificial y las dudas éticas que el uso de estas genera.
El tema de no deja de ser relevante. Según un informe reciente, se espera que el mercado de la publicidad generada por IA alcance los US$13 mil millones de dólares en 2026, con un crecimiento anual del 29,6%. Esto refleja la creciente adopción de este tipo de herramientas para personalizar y optimizar las campañas publicitarias, así como para mejorar la segmentación de los consumidores.
La nueva propuesta establece principios fundamentales, como la transparencia en las piezas publicitarias. Según Hernán Triviño, “uno de los objetivos es que una pieza creada por IA no confunda al consumidor ni lo lleve a creer en algo irreal”.
El enfoque planteado va en línea con lo planteado en el código: la publicidad debe ser veraz, comprobable y nunca inducir a error.
Además, se refuerza la necesidad de supervisión humana para garantizar que las piezas cumplan con estos estándares éticos antes de su difusión. Triviño subraya que “la ejecución final debe pasar siempre por un control humano, porque solo así podemos asegurar que se respeten los principios éticos y se minimicen los riesgos de sesgos o manipulaciones”.
Otro punto relevante es el uso responsable de datos personales. El código enfatiza que las marcas deben contar con el consentimiento explícito de los usuarios para recopilar información y evitar la manipulación. “Nosotros no regulamos la captura ni el uso de data, porque eso es materia legal y, en pocos meses, vamos a tener una ley nueva”, delimita, puesto que el CONAR vela por cómo la publicidad incentiva, llama, utiliza o convoca a las personas para entregar su información.
Control humano y la lucha contra los sesgos
En parte de la industria, el control humano se presenta como un principio irrenunciable en el uso de IA. Según el código, cualquier pieza publicitaria debe pasar por la supervisión de una persona, pensando particularmente en evitar la perpetuación de sesgos que puedan existir por la propia tecnología.
“Los datos con los que se entrena la IA pueden reforzar estereotipos de género, etnia o edad y es nuestra responsabilidad asegurar que estas tecnologías no dañen la dignidad de grupos o individuos”, advierte el abogado.
La inteligencia artificial no está ajena a cometer errores. Uno de los mayores peligros que surge es la reproducción de patrones discriminatorios como resultado de datos sesgados.
Por ejemplo, una herramienta de IA que genera anuncios para productos de tecnología podría reproducir el sesgo de mostrar solo hombres como consumidores principales y este tipo de prácticas no solo son poco éticas, sino que podrían dañar la percepción pública hacia las marcas.
“El control humano sigue siendo necesario para que el sesgo no se produzca... uno de los puntos relevantes para la IA es que debe ser educada para aplicar todo lo que está aprendiendo y, por lo tanto, el mismo sesgo del educador puede estar presente en la herramienta”, dice el presidente del CONAR.
Este control también busca mitigar el riesgo de mensajes manipuladores o desinformativos, así como el uso de voces artificiales o avatares que imitan a personas reales sin autorización. “No creo que haya ninguna restricción para que ninguna marca, a través de IA generativa, pueda crear algún personaje si este encarna ciertos elementos que no sean de abuso, de sesgo o estereotipos... El problema está cuando sí se producen esos sesgos”, comenta.
Además, el código hace un llamado a la industria para adoptar estándares éticos superiores a la mera legalidad. Es decir, monitoreos estrictos y capacitaciones sobre el uso ético de la IA, en un trabajo colaborativo con expertos en tecnología y ética.
“La autorregulación es clave para mantener la confianza del consumidor en las marcas... Sin ella, las empresas arriesgan perder su activo más valioso: la credibilidad”, enfatiza Triviño.
Un modelo de autorregulación
El CONAR forma parte de ICAS, una red internacional que agrupa a más de 40 organismos de autorregulación publicitaria. Esto le permite tomar algunas referencias de países miembro como España, Brasil y Colombia, en donde también se discuten ciertos principios similares.
Según Hernán Triviño, “la IA es un tema central en todas estas conversaciones... Los principios de transparencia, control humano y uso responsable de datos son compartidos por muchos códigos en el mundo”.
Chile se ha establecido como un referente regional en autorregulación en el sector. El CONAR, que ya cuenta con más de tres décadas de historia, ha evolucionado constantemente para abordar los desafíos de cada periodo y eso incluye las tecnologías emergentes. “Lo relevante no es solo incorporar nuevas tecnologías, sino hacerlo con responsabilidad y ética, que es el sello del CONAR”, afirma Triviño.
Este modelo de autorregulación ha generado interés en otros países de la región que aún no cuentan con organismos similares. A través de ICAS, se promueve la creación de consejos de autorregulación en otros países que no los tienen, donde la regulación aún es incipiente.
Publicidad responsable
El nuevo Código Chileno de Ética Publicitaria no solo establece algunas bases en la integración de la inteligencia artificial en la publicidad responsable. También refuerza el compromiso de la industria con el consumidor, que es uno de los puntos más relevantes.
En una época en la que la tecnología avanza progresivamente cada día y más rápido que la legislación, entregar principios éticos y de control humano podría ser la guía para las empresas hacia un panorama más transparente y confiable, particularmente para los usuarios.
Para las marcas, cambiar es un desafío y una oportunidad para crear diferenciación en un mercado más competitivo. “Las empresas que adopten estos principios no solo protegerán su reputación, sino que también fortalecerán la relación de confianza con sus consumidores, que es el activo más valioso en cualquier industria”, dice el presidente del CONAR.
Con la inteligencia artificial incluida en el Código Chileno de Ética Publicitaria, Chile pasa a ser un líder regional en la gestión ética de las tecnologías emergentes y es un ejemplo de cómo la autorregulación, en combinación con un enfoque ético y de transparencia, puede preparar a la industria para enfrentar los desafíos de la tecnología sin perder los valores fundamentales.
Como en otras aplicaciones, ¿Cree que el uso de la IA en la publicidad podría afectar a la creatividad humana e incluso la propia cercanía con los consumidores? Triviño es tajante. “Tengo dudas”, dice él.
“Nos hemos dado cuenta que, muchas veces cuando vemos la ejecución de la inteligencia artificial, lo que hace cada vez es sacar algo de algún lugar que ha sido producto de la intervención o creatividad humana que creó esa obra y la IA solo le integra, reproduce o multiplica: eso no significa una amenaza a la creatividad de las personas”, plantea.
Lo que dice el código
El Código Chileno de Ética Publicitaria, en su séptima edición, dedica atención específica al uso de la IA en publicidad. Uno de los primeros puntos clave en el documento es el uso ético de la herramienta y señala que las piezas publicitarias que usen algoritmos o instrumentos de IA deben adherirse a los principios éticos generales establecidos en el texto, además que la responsabilidad recaerá en los avisadores que las realicen, encarguen o se beneficien de ellas.
A este se suma el factor de control humano y responsabilidad, en el que se establece que las herramientas de IA no deben de restarse del control de una persona. Las decisiones éticas no pueden delegarse completamente a los algoritmos. También se incluye la transparencia, por la que se exige claridad respecto al uso de contenido generado por IA, para evitar confusión o engaño al público.
La prevención de los sesgos, así como planteó Triviño, es uno de los tópicos más relevantes. El código enfatiza que el entrenamiento y diseño de las herramientas IA deben considerar evitar la multiplicación de sesgos relacionados con género, edad, etnicidad, entre otros.
Además, incluye un artículo en específico hacia influencers, definiéndolos como cualquier individuo, sea o no una celebridad, o incluso una representación creada o controlada por medios tecnológicos (como avatares digitales), que hagan comunicación comercial en redes sociales, plataformas interactivas o medios similares a cambio de algo.
Todo contenido emitido por ellos será considerado marketing si han recibido algún tipo de contraprestación, económica u otra. Al igual que con la publicidad, los avisadores serán responsables del contenido generado por estas personalidades cuando soliciten su creación o patrocinio. No serán responsables por publicaciones de terceros independientes.
Todo contenido generado por los influenciadores debe ser explicitado como tal, indicando que se trata de contenido pagado, patrocinado o en colaboración con una marca o empresa. En caso de ser menores de edad, deben tener el consentimiento explícito de sus padres o tutores y tomar medidas para proteger su privacidad y garantizar que el contenido sea adecuado para su edad.
Este evento, que reunió en el Teatro Municipal de esa ciudad a expositores de distintas soluciones tecnológicas -entre ellos, Kinesix VR, Zeus y Huawei, partners de Claro empresas- fue también el punto de partida para la nueva Corporación de Innovación y Desarrollo Sostenible de la Ciudad Jardín.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.