La Comisión Federal de Comercio de EE.UU. investiga a ChatGPT

ChatGPT ha ganado popularidad por su capacidad de generar textos similares a los de un ser humano en respuesta a instrucciones.  FOTO: THE WALL STREET JOURNAL
ChatGPT ha ganado popularidad por su capacidad de generar textos similares a los de un ser humano en respuesta a instrucciones. FOTO: THE WALL STREET JOURNAL

La FTC está examinando si una aplicación de inteligencia artificial perjudicó a personas publicando información falsa. La nueva investigación de la FTC bajo la presidencia de Lina Khan marca una escalada significativa del papel del gobierno federal en la vigilancia de la tecnología emergente.


WASHINGTON - La Comisión Federal de Comercio (FTC) de EE.UU. está investigando si ChatGPT, de OpenAI, ha perjudicado a personas publicando información falsa sobre ellas, lo que supone una posible amenaza legal para la popular aplicación que puede generar contenidos inquietantemente parecidos a los humanos utilizando inteligencia artificial (IA).

En una citación civil a la empresa hecha pública el jueves, la FTC dice que su investigación a ChatGPT se centra en si OpenAI ha “participado en prácticas desleales o engañosas relacionadas con los riesgos de daño a los consumidores, incluido el daño a la reputación”.

En una de las preguntas se pide a la empresa que “describa detalladamente en qué medida ha tomado medidas para abordar o mitigar los riesgos de que sus productos de modelos lingüísticos de gran tamaño puedan generar afirmaciones sobre personas reales que sean falsas, engañosas o despectivas”.

La nueva investigación de la FTC bajo la presidencia de Lina Khan marca una escalada significativa del papel del gobierno federal en la vigilancia de la tecnología emergente.

Khan, que compareció ante el Comité Judicial de la Cámara de Representantes el jueves, dijo que a la agencia le preocupa que ChatGPT y otras aplicaciones basadas en IA no tengan controles sobre los datos que pueden extraer.

“Hemos oído hablar de informes en los que la información sensible de las personas aparece en respuesta a una consulta de otra persona”, aseguró Khan. “Hemos oído hablar de calumnias, declaraciones difamatorias, cosas totalmente falsas que están apareciendo. Ese es el tipo de fraude y engaño que nos preocupa”, sostuvo.

Para los críticos de la FTC, la investigación representa otra incursión en territorio desconocido para una agencia que ha sufrido recientes reveses legales en sus esfuerzos por hacer cumplir la legislación antimonopolio.

“Cuando ChatGPT dice algo incorrecto sobre alguien y puede haber causado daños a su reputación, ¿es competencia de la FTC? No creo que esté nada claro”, comentó Adam Kovacevich, fundador de Chamber of Progress, un grupo comercial del sector.

Este tipo de asuntos “pertenecen más al ámbito de la expresión y se convierten en una regulación de la expresión, que está fuera de sus competencias”, afirmó Kovacevich.

Es “decepcionante ver que la petición de la FTC empieza con una filtración y no ayuda a generar confianza”, tuiteó el jueves el director ejecutivo de OpenAI, Sam Altman, en referencia a la información inicial sobre la citación.

Altman aseguró que la empresa colaborará con la FTC.

Marc Rotenberg, que encabeza un grupo que presentó una queja ante la FTC por ChatGPT en marzo, dijo que podría no estar claro si la agencia tiene jurisdicción sobre la difamación. Pero “la publicidad engañosa es claramente competencia de la FTC”, señaló Rotenberg, presidente del Center for AI and Digital Policy. “Y la desinformación relacionada con prácticas comerciales ya es, según la FTC, un área dentro de su autoridad”, agregó.

La denuncia relativa a ChatGPT la calificó de “tendenciosa, engañosa y un riesgo para la privacidad y la seguridad pública”, y argumentó que no satisface ninguna de las directrices de la FTC para el uso de la IA.

La FTC tiene amplia autoridad para vigilar las prácticas comerciales desleales y engañosas que puedan perjudicar a los consumidores, así como la competencia desleal, pero los críticos dicen que a veces ha llevado su autoridad demasiado lejos, como ilustra la decisión de un juez federal esta semana de desestimar el intento de la FTC de bloquear la adquisición de Activision Blizzard por Microsoft.

En la audiencia de la comisión de la Cámara de Representantes realizada el jueves, Khan fue criticada por la investigación de su agencia sobre la protección de la privacidad de los consumidores en Twitter. Los republicanos dicen que la investigación fue impulsada por los liberales enojados por la adquisición de Twitter por Elon Musk y su relajación de las políticas de moderación de contenidos. Y Twitter pidió el jueves a un tribunal federal que pusiera fin a un acuerdo de 2022 que acordó con la FTC sobre supuestas violaciones de la privacidad, alegando que había sido objeto de una “investigación de aplicación onerosa y vejatoria”.

Khan respondió que la agencia sólo estaba interesada en proteger la privacidad de los usuarios y que “estamos haciendo todo lo posible para asegurarnos de que Twitter cumple la orden”.

En su citación civil a OpenAI, la FTC formuló a la empresa preguntas detalladas sobre sus prácticas de seguridad de datos. Citó un incidente ocurrido en 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre los chats de otros usuarios y algunos datos relacionados con pagos.

Otros temas cubiertos por la citación de la FTC incluyen los esfuerzos de marketing de la empresa, sus prácticas para la formación de modelos de IA y su manejo de la información personal de los usuarios. La investigación de la FTC fue publicada anteriormente por el Washington Post.

El gobierno de Biden ha empezado a estudiar la necesidad de controlar herramientas de inteligencia artificial como ChatGPT. En un primer paso hacia una posible regulación, el Departamento de Comercio hizo pública en abril una petición formal de comentarios sobre lo que denominó medidas de responsabilidad.

La Oficina de Política Científica y Tecnológica de la Casa Blanca está trabajando para desarrollar estrategias que aborden tanto los beneficios de la IA, como la posibilidad de utilizarla para ampliar el acceso a los servicios gubernamentales, como los perjuicios, como el aumento de las capacidades de piratería informática, las decisiones discriminatorias de los sistemas de IA y la posibilidad de que los contenidos generados por la IA perturben las elecciones.

Legisladores de ambos partidos -en un esfuerzo liderado por el líder de la mayoría en el Senado, Chuck Schumer (D., N.Y.)- han hecho de la regulación de la inteligencia artificial una prioridad para el actual Congreso.

Además de los riesgos para la reputación, a los legisladores les preocupa que se pueda abusar de las herramientas de IA para manipular a los votantes con desinformación, discriminar a grupos minoritarios, cometer sofisticados delitos financieros, desplazar a millones de trabajadores o causar otros perjuicios. Los legisladores se han mostrado especialmente preocupados por los riesgos de los llamados videos deepfake, que muestran falsamente a personas reales realizando acciones o declaraciones vergonzosas.

Es probable que falten meses, o incluso más, para que se aprueben nuevas leyes u otras medidas. Y a los legisladores debe preocuparles que cualquier medida significativa que tomen corra el riesgo de ralentizar el ritmo de la innovación estadounidense, en lo que se perfila como una competencia vital con China por dominar los mercados de herramientas de IA.

Los propios creadores de ChatGPT han instado a una mayor supervisión gubernamental del desarrollo de la IA.

En una comparecencia ante el Congreso realizada en mayo, Altman pidió a los legisladores que establecieran normas de autorización y seguridad para los sistemas avanzados de inteligencia artificial, en un momento en que los legisladores inician el impulso bipartidista hacia la regulación de las nuevas y potentes herramientas a disposición de los consumidores.

“Entendemos que la gente esté preocupada por cómo puede cambiar nuestra forma de vivir. Nosotros también lo estamos”, comentó Altman sobre la tecnología de IA en la audiencia del subcomité del Senado. “Si esta tecnología sale mal, puede salir bastante mal”, añadió.

Altman ha estado viajando por el mundo hablando tanto de las promesas como de los peligros de la IA, incluso reuniéndose con jefes de Estado como el presidente francés Emmanuel Macron y el primer ministro indio Narendra Modi.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.