Qué es la “caja negra” de la Inteligencia Artificial y por qué inquieta a los ingenieros
En medio de las discusiones sobre los acelerados avances de la inteligencia artificial, especialistas en el área han alertado sobre el fenómeno de la “caja negra” y los factores que se deben considerar al analizarlo. Revisa de qué se trata en esta nota.
Cuando un grupo de ingenieros de Google se encontraban trabajando recientemente en un software de Inteligencia artificial, se sorprendieron al notar que este sistema aprendió —de manera inesperada— a hablar un nuevo idioma.
Inicialmente, los expertos solo le habían dado “muy pocas indicaciones” en bengalí, pero de un momento a otro, aprendió a traducir esa lengua en prácticamente su totalidad.
Así lo relató el jefe de la división de IA de la firma, James Maneka, en el programa 60 Minutes de la cadena televisiva CBS.
Por su parte, el director ejecutivo de la empresa, Sundar Pichai, profundizó en que ese episodio cabe dentro de un fenómeno que numerosos especialistas han denominado como la “caja negra”.
Según explicó, este se caracteriza porque “no lo entiendes del todo”.
“No puedes decir muy bien por qué dijo esto o por qué se equivocó en eso otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos hasta ahora”.
Piden “pausar” la Inteligencia Artificial
Sin duda alguna, la IA se ha posicionado como probablemente el tópico más comentado en cuanto a tecnología.
Compañías como Open AI han desarrollado chatbots como ChatGPT. Microsoft está apostando por su propia versión en el motor de búsqueda de Bing. El empresario Elon Musk fundó recientemente X.AI. Y por supuesto, Google está invirtiendo en Bard.
Asimismo, especialistas de diversas áreas como Bill Gates y Noam Chomsky han manifestado públicamente sus opiniones al respecto, mientras que a finales del mes pasado, un grupo de líderes e investigadores tecnológicos presentaron una carta en la que pidieron una “pausa” en los avances de la IA.
Entre los firmantes, se encontraron el cofundador de Apple, Steve Wozniak, y el mismísimo Musk.
Los debates sobre esta temática se han incrementado y se pronostica que seguirán aumentando progresivamente.
Por un lado, unos plantean que una forma de implementar los beneficios de la IA en la sociedad es introduciéndola poco a poco, mientras que por otro, se argumenta que se deberían tener mayores consideraciones en torno a cómo enfrentar sus potenciales riesgos.
En medio de aquella discusión, la “caja negra” a la que se refería Pichai cobra un carácter fundamental.
Qué es la “caja negra” y por qué inquieta a los expertos en IA
Es lógico pensar que —en contraposición al fenómeno mencionado— también exista otro conocido como la “caja blanca”.
Según explicó a la BBC el cofundador de la firma Plural y coautor del análisis The State of AI Report, Ian Hogarth, esta última se caracteriza porque sus creadores construyen un software “tradicional” que sigue fielmente las órdenes que se le solicitan a través de códigos.
Aquello es muy distinto a los sistemas de IA como tal, debido a que estos se abren la posibilidad de adquirir nuevas habilidades para las que no fueron diseñados, ya que sus creadores —en términos sencillos— tratan de conseguir mecanismos que imiten a las “redes neuronales” de los seres humanos.
Para esto, también se les suministra una extensa cantidad de datos con las que pueden responder en función de lo que están haciendo. Aunque como han demostrado expertos, la información que arrojan no siempre es verídica.
“Están más cerca de una caja negra en muchos sentidos, pues no entiendes realmente lo que sucede dentro. Me gusta pensar que las cultivamos. Esa es la mejor idea que he oído sobre cómo construimos estos sistemas en la actualidad. Lo difícil es que, a medida que las desarrollamos, se producen grandes saltos bruscos en sus capacidades”.
El gerente de investigación cuantitativa de G-Research, David Stern, agregó al citado medio que “el enfoque de red neuronal” es un “procedimiento de entrenamiento que determina la configuración de millones de parámetros internos que interactúan de manera compleja y son muy difíciles de explicar”.
Un escenario similar —aunque aún más difícil de descifrar— se ve en el “aprendizaje de refuerzo profundo”, es decir, cuando “un diseñador simplemente especifica los objetivos de comportamiento del sistema y este aprende automáticamente interactuando directamente con el entorno”.
Se presume que los avances en la inteligencia artificial generativa seguirán presentándose exponencialmente, en medio de un escenario en donde programas de este tipo ya están funcionando.
Para Pichai, no entender al 100% las respuestas que pueden dar estos sistemas no es un problema mayor, ya que según dijo en el programa de CBS, “tampoco creo que entendamos completamente cómo funciona la mente humana”.
En este sentido, manifestó la necesidad de que especialistas de distintas áreas se sumen a la discusión, para que así se implemente progresivamente y considerando múltiples factores.
Por su parte, Hogarth destacó a la BBC que confía en que “tiene un potencial notable para transformar todos los aspectos de nuestras vidas”, aunque también subrayó que “deberíamos tener un debate mucho más público sobre la rapidez con la que progresan”.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.