Los constantes avances en el ámbito de la inteligencia artificial han posicionado a esta rama de la tecnología como la más comentada en la actualidad. Y no solo es de la que más se habla, sino que también, es la que genera más debate.
Pese a que numerosos especialistas profundizan en que la IA ofrece oportunidades para enfrentar problemáticas que hoy afectan a la humanidad, otros también han advertido que si esta no se controla podría desatar complicaciones adversas.
A mediados de este mes, el director ejecutivo de OpenAI —la firma de ChatGPT y DALL-E— , Sam Altman, manifestó en el Congreso de Estados Unidos que si no se imponen marcos regulatorios podría ocasionarse “un daño significativo”.
Junto con ello, en marzo de este año más de mil líderes y expertos en este campo se unieron para redactar una carta en la que pidieron “pausar” los avances de la IA. Entre ellos se encontraron el cofundador de Apple, Steve Wozniack, y el magnate de Twitter, SpaceX, Neuralink y Tesla, Elon Musk, quien poco tiempo después creó la compañía X.AI para adentrarse en esta carrera.
Si bien, las opiniones son diversas y figuras de distintas áreas han compartido su visión, recién estamos en medio de lo que es considerado como la primera de tres etapas de la inteligencia artificial.
En qué consisten las dos primeras etapa de la IA
La primera es conocida como “inteligencia artificial estrecha” (ANI, por sus siglas en inglés) y se caracteriza porque está enfocada en cumplir solo con una tarea específica de forma repetitiva.
Según informaciones reunidas por la BBC, los sistemas que funcionan con esta lo hacen a través de grandes conjuntos de datos que se consiguen, por ejemplo, a través de internet, mientras que pueden tomar decisiones o realizar acciones solo en el marco del objetivo con el que fueron diseñados.
Tal como se mencionaba anteriormente, esa es la etapa en la que estamos actualmente, mientras que la ANI —también conocida como “IA débil” por sus características— está presente en varias de las aplicaciones que utilizas en tu celular y otros dispositivos electrónicos que son habituales en tu rutina diaria.
Desde asistentes virtuales como Siri de Apple y Alexa de Amazon hasta los mapas que funcionan con GPS incorporan esta tecnología. Asimismo, está en el buscador de Google e incluso en las aspiradoras robots que pueden limpiar automáticamente.
También, programas como ChatGPT utilizan distintas variaciones de la ANI.
Respecto al mencionado programa de OpenAI, numerosos expertos consultados por el citado medio consideran que sus acelerados y contundentes avances serán clave para abrir las puertas a la segunda etapa de la Ia IA, conocida como “inteligencia artificial general” (AGI).
Esta se caracteriza porque, a diferencia de la ANI, las máquinas adquieren la posibilidad de comprender y realizar tareas intelectuales y no únicamente labores repetitvas dentro de un único marco.
Aquel es precisamente uno de los factores que destacó el grupo de más de mil expertos y líderes de la tecnología en la carta que presentaron a inicios de este año.
“Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad”, manifestaron, para luego cuestionarse, “¿deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?”.
Cómo es la última etapa y por qué es la que genera más preocupación
Es aquí cuando llegamos a la tercera, conocida como “súper inteligencia artificial” (ASI), frente a la cual se ha planteado que sus capacidades podrían superar a las de los humanos.
Declaraciones reunidas por la BBC del filósofo de la Universidad de Oxford y experto en IA, Nick Bostrom, la definen como “un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”.
En este sentido, se presume que una tecnología con estas características podría aprender en profundidad materias de distintas áreas de forma exponencial, a través de su propio aprendizaje autónomo.
El investigador de políticas públicas en el Future of Life Institute, Carlos Gutiérrez, explicó al citado medio que “los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por muchísimo tiempo”, mientras “el tema con la AGI es que es escalable de inmediato”.
Tales facultades serían posibles con el apoyo de un proceso llamado “superación personal recursiva”, el cual permite que los sistemas con IA puedan “mejorarse continuamente, en un tiempo que nosotros no podríamos hacerlo”.
Es por esto que el apodado “padrino de la inteligencia artificial”, Geoffrey Hinton —quien es reconocido por sus investigaciones de redes neuronales y aprendizaje profundo— , dijo a la BBC que “en este momento (las máquinas) no son más inteligentes que nosotros, por lo que puedo ver, pero creo que pronto podrían serlo”.
Bajo esta línea, ejemplificó con “un escenario de pesadilla”, en el que la ASI podría desatar un gran impacto negativo en el mundo.
“Imagina, por ejemplo, que algún mal actor como (el presidente ruso Vladimir) Putin decidiera dar a los robots la capacidad de crear sus propios subobjetivos”.
Si ese escenario hipotético ocurriera, según Hinton, estos sistemas podrían “crear subobjetivos como: ‘necesito obtener más poder’”, lo que se traduciría en “un riesgo existencial”.
Aún así, “el padrino” de la IA hizo hincapié en que “no debemos dejar de desarrollarla”, debido a que sus beneficios serán más prominentes que sus riesgos, desde su visión.
Bajo esta línea, sugirió que más bien se deben considerar estas posibilidades para pensar en medidas preventivas y así evitar presuntas situaciones de este tipo en un futuro.
Mientras tanto, el debate en torno a los avances de la IA y las medidas que se deben tomar continúa.