¿Debe el gobierno regular la tecnología de la IA? Los lectores opinan

Algunos lectores dicen que es mejor empezar a regular la IA ahora. Otros dicen que el gobierno debe mantenerse al margen. SIUNG TJIA/WSJ; ISTOCK (2)
Algunos lectores dicen que es mejor empezar a regular la IA ahora. Otros dicen que el gobierno debe mantenerse al margen. FOTO: SIUNG TJIA/WSJ; ISTOCK (2)

Para muchos, la regulación es lo último que necesita este campo en rápida evolución. Para otros, sería absurdo no intervenir.


El Presidente de EE.UU. Joe Biden emitió hace un mes una orden ejecutiva para mejorar la supervisión gubernamental de la inteligencia artificial (IA). Pero hay mucho desacuerdo sobre cuánta supervisión -si es que la hay- es mejor para la IA y para el mundo, ya que los innumerables avances de la IA prometen transformar las industrias y la vida cotidiana.

Como parte de nuestra serie sobre los dilemas éticos que plantea la IA, queríamos saber cuál debería ser el papel del gobierno a la hora de potenciar los beneficios y reducir los riesgos de la inteligencia artificial.

Hemos planteado estas preguntas a los lectores del WSJ:

Dado el potencial de la IA para causar daños (como ser imprecisa o tendenciosa), ¿debería haber un proceso de evaluación y aprobación gubernamental para los principales desarrollos de IA, como lo hay para los medicamentos? ¿Qué pasaría si esto retrasara significativamente el lanzamiento de nuevas herramientas de IA?

Aquí están algunas de las respuestas:

¿Qué nos han enseñado las redes sociales?

Sí! Incluso si el proceso retrasa el lanzamiento de nuevas herramientas de IA, necesitamos regular la IA ahora en su infancia y no más tarde. Me encantaría aplazar el uso de herramientas de IA a cambio de un proceso de evaluación exhaustivo y una regulación significativa. Si incluso los creadores de IA creen que podría ser perjudicial para la humanidad, es hora de escuchar. Ahora estamos viendo cómo la falta de una regulación temprana de las redes sociales ha abierto una compuerta de conversaciones en torno a las salvaguardas tecnológicas. Tenemos que aprender la lección y controlar la IA antes de que sea (potencialmente) demasiado tarde.

Tory Wicklund, Washington, D.C.

Seguir el modelo de Internet

La regulación gubernamental de la IA debería ser mínima o nula. La rápida innovación de Internet, de la que todos disfrutamos, se consiguió con una regulación mínima. He descubierto que ChatGPT cambia las reglas del juego en mi trabajo en la ciencia de datos y sería terrible pensar que la tecnología se bloqueara sólo porque se le pudiera incitar a decir algo inapropiado o inexacto.

Beecher Adams, Dublín, California

¿Por qué tanta prisa?

¿Por qué tanta prisa por lanzar nuevas herramientas de IA? Silicon Valley ha contribuido a un enorme despilfarro físico al “actualizar” sus productos con demasiada rapidez, así como a un enorme despilfarro psíquico al obligar a los consumidores a mantenerse al día con los constantes parches de un software que, para empezar, probablemente se lanzó demasiado pronto.

ChatGPT era defectuoso desde su lanzamiento; incluso una breve experimentación demostró rápidamente que escupe “hechos” delirantes. Obviamente, tenemos que ir más despacio y tratar de acertar con la IA para que beneficie a la humanidad en lugar de causar aún más ansiedad, así como nuevos servicios o productos derrochadores que simplemente serán desechados. Al fin y al cabo, ya tenemos suficientes herramientas para hacer cálculos matemáticos básicos, y una búsqueda de información en Google suele ser mucho más precisa que recurrir a ChatGPT (aunque incluso ahí hay que trabajar por capas para asegurarse de que realmente se está obteniendo la información correcta).

Así que sí, retrasémoslo y pongamos en marcha un proceso gubernamental de evaluación y aprobación.

Xu Xi, Morrisonville, N.Y.

Necesitamos un USDAI

Dada la enorme complejidad de esta tecnología, debería existir un USDA -sigla en inglés del Departamento de Agricultura- (llamémosle “USDAI”) que pudiera ejercer cierta supervisión. Por desgracia, el gobierno no tiene las competencias necesarias para vigilar este desarrollo. Pero el gobierno podría evitar que la IA desplace a cantidades masivas de humanos en el lugar de trabajo, que es con mucho el peor resultado de la IA.

Cualquiera que haya llamado a una empresa para pedir ayuda últimamente, ha experimentado la ausencia de un humano real al otro lado de la línea que pueda responder adecuadamente al problema único que tienes y que no encaja en el menú “pulse 1 para...”.

Hugh Jamieson, Dublín, Ohio

EE.UU. no es la UE

No. En la UE, claro, porque esa cultura está más acostumbrada a la regulación y no está preparada para la innovación. Sin embargo, la Comisión Federal de Comercio (FTC) debería ser especialmente agresiva a la hora de emprender acciones contra las empresas que liberan inteligencia artificial generativa para el consumidor que provoca daños, y los tribunales federales deberían conceder un amplio margen de maniobra para emprender acciones por responsabilidad extracontractual contra las empresas que resulten ser la causa próxima de determinados daños. Utilicemos nuestro probado y verdadero sistema de derecho estadounidense para abordar cualquier problema, pero con énfasis y dientes. Esto contrastaría con lo que ha ocurrido en los tribunales por las deficiencias de seguridad en el software de consumo.

Tracy Beth Mitrano, Penn Yan, N.Y.

Responsabilizar a los creadores

No debería haber límites de ningún tipo, pero es necesario responsabilizar a los humanos de lo que puedan hacer sus motores de IA. Por ejemplo, es bastante fácil para un motor de IA diseñar un ataque de denegación de servicio contra los computadores de una empresa. Si la IA ejecutara el plan (cosa que podría hacer si tuviera acceso a Internet), habría que responsabilizar a las personas implicadas. En teoría, sería bastante fácil diseñar este plan, programar el ataque para un momento futuro y no hacer nada más que esperar. Alguien podría vender en corto las acciones de una empresa, etc. O podrían planear un ataque a la red e inventar formas de monetizar sus ataques (o vender el ataque a un actor extranjero).

Jack Alexander, Sacramento, California

Sí, en algunos sectores

Como casi todo en la vida, depende. Si la IA se utiliza para diagnosticar y tratar enfermedades, funciona como un dispositivo médico y lógicamente estaría regulada por la FDA -Administración de Alimentos y Medicamentos de EE.UU.-. Las decisiones bancarias y de inversión son otras áreas que parecen exigir controles. En ambos casos, los mecanismos reguladores básicos ya existen. Quizás el área más preocupante, por su potencial para afectar a un gran número de nosotros, sería el uso de la IA por parte de Hacienda y las autoridades fiscales estatales para auditar las declaraciones. ¿Quién los regulará?

Joyce L. DeYoung, Devon, Pensilvania

Educar, no regular

En lugar de la regulación gubernamental, el dinero y el esfuerzo estarían mejor empleados en educar al público sobre las limitaciones de la IA y en animar a la gente a pensar de forma crítica sobre lo que obtienen de la IA. Lo mismo vale para las redes sociales.

Carl C. Hagen, Fallon, Nevada

El zorro y el gallinero

Dejar que los drones del Ministerio de la Verdad del gobierno sean los verificadores de hechos o los analistas de la nueva tecnología de IA es, en el mejor de los casos, dejar que los ciegos guíen a los ciegos. En el peor, una verdadera situación de zorro guardián del gallinero, ya que la IA podría afectar directamente al poder del gobierno.

Tengo algo más de fe en que el público en general lea opiniones, considere las fuentes, evalúe quién se beneficia de cualquier delito y llegue a una conclusión. Los usuarios descubrirán rápidamente cualquier deficiencia y la denunciarán en los medios públicos.

William Llewellin, Littleton, Colorado

Demasiado grande para regular

La regulación es una misión imposible. Por muy bien intencionada que sea, será cada vez más difícil de gestionar a medida que madure la disciplina. Es como regular las estructuras de datos o las técnicas de codificación. No es probable que sea eficaz.

La tecnología de IA pronto será omnipresente. El número de profesionales de TI que comprenden el funcionamiento interno de la IA está creciendo exponencialmente. ¿Qué regularía usted? ¿Cómo saber exactamente lo que hace el código? Habrá muchos abusos, entre ellos que quienes abogan por la regulación serán a menudo líderes de la industria que buscan erigir barreras de entrada y frustrar de otro modo la competencia.

Deberíamos centrarnos en cómo identificar y protegernos de quienes quieren aprovecharse de esta tecnología y hacernos daño.

Gordon Davis Jr., West Chester, Pensilvania

Prueba. Y luego volver a probar.

Creo que el gobierno, en consulta con los líderes en el campo de la IA, debería diseñar parámetros y activadores que alerten a los desarrolladores de un programa de IA que no esté funcionando como se esperaba o que se esté descontrolando. Los desarrolladores probarían sus programas de IA utilizando estos parámetros para determinar si el programa de IA funciona según lo esperado antes de ser lanzado al público.

Dado que los parámetros y los desencadenantes se establecerían de antemano, el “efecto de ralentización gubernamental” normal se vería mitigado, de modo que podrían lograrse avances importantes permitiendo que la IA creciera orgánicamente, pero con barreras.

Terry McCarthy, Millwood, N.Y.

El problema se complica

“Dado el potencial de daño de la IA (como ser inexacta o tendenciosa), ¿debería haber....?” ¿Quieres decir dejar que una organización a menudo inexacta o sesgada como el gobierno decida qué inexactitudes o sesgos son aceptables y cuáles son información errónea? Ah, sí, eso es justo lo que necesitamos.

David Hufford, Spokane, Washington

No hay que perjudicar a la IA

La preocupación por la parcialidad y la desinformación en los contenidos producidos por la IA generativa es demasiado prematura y demasiado tardía. Con “demasiado pronto” me refiero a la falta de conocimientos sobre el funcionamiento de estos modelos, que muy probablemente se traducirá en una regulación subóptima que obstaculizará la tecnología. (La protección de los derechos de autor del software es un ejemplo de ello.) Por demasiado tarde me refiero a que una vez que un modelo está entrenado, no puede desaprenderse: cualquier influencia indeseable en sus datos de entrenamiento no puede sustraerse de los parámetros del modelo.

Entre las dos cosas, prefiero tener muy poca protección que demasiada. Siempre han sido artefactos de la comunicación entre humanos, y los humanos aprenden a utilizar habilidades de pensamiento crítico para filtrar e interpretar la información recibida basándose en lo que se sabe de la fuente y en los propios prejuicios. Para ser justos, esto será más difícil a medida que más empresas integren la IA generativa en sus productos de cara al consumidor, sin que éste se dé cuenta.

Aun así, no quiero ni necesito que esta administración ni ninguna otra regule esta tecnología naciente con el pretexto de protegerme por mi propio bien.

Ann DeFranco, Superior, Colorado

Dejar que el mercado gestione los riesgos

Que el gobierno no se meta. Que las empresas que inventen y vendan chatbots de IA a los consumidores sean responsables monetariamente de los daños y perjuicios que inflijan. Eso les obligará a no lanzar un producto peligroso y poco confiable. Si lo hacen, se arruinarán.

Siendo nuestro gobierno lo que ha llegado a ser con su politización, la revisión llevaría a retrasos que darían a los malos actores globales, como China y Rusia, la oportunidad de alcanzar y superar el liderazgo del que disfrutamos actualmente en inteligencia artificial en nuestro detrimento. Mantener alejado al gobierno.

Edwin Vizcarrondo, Wellington, Florida.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.