Inteligencia artificial, metaverso y neurotecnología: cómo se legisla en el mundo del futuro

Visitantes de la instalación artística "Machine Hallucinations – Space: Metaverse" en Hong Kong. Foto: Reuters.
Visitantes de la instalación artística "Machine Hallucinations-Space: Metaverse" en Hong Kong. Foto: Reuters

Los avances en estas áreas del conocimiento podrían llegar a poner en peligro los derechos humanos, y requieren de legislaciones que las regulen.


Presentado por Banner Sinergia blanco

Dados los avances de la tecnología, ideas que sonaban a ciencia ficción, como la lectura de la actividad mental, en el mundo actual van camino a convertirse en realidad. Con eso, nuevas discusiones legales se hacen cada vez más necesarias, y ya en distintos países se está avanzando -por ejemplo- para regular tecnologías que se prometen de uso masivo en cosa de décadas. ¿Qué ocurre con las interacciones en el metaverso? ¿Hasta dónde puede llegar el uso de la inteligencia artificial si este compromete la vida de los seres humanos?

En miras a que el desarrollo de la tecnología no se desbande y nos sobrepase, los expertos ya están buscando formas de regular el uso de la neurotecnología, la inteligencia artificial y el metaverso.

En el ámbito de la neurotecnología, la última década ha sido de un avance enorme. Desde la medicina, a través de electrodos se ha conseguido leer la actividad mental, de tal modo que se pueden mapear y grabar con precisión los impulsos eléctricos del cerebro en estados mentales específicos. Con el avance de estas tecnologías, la capacidad de “leer la mente” parece estar a unos cuantos años de distancia.

El neurocirujano Edward Chang mirando un monitor que escanea el cerebro de un paciente. Foto: AP

Rafael Yuste, neurobiólogo español y uno de los iniciadores del proyecto Brain, habló con La Tercera sobre el estado en que estas investigaciones se encuentran. “En nuestros experimentos con ratones, en la parte visual del cerebro, con láseres podemos leer la actividad cerebral, podemos adivinar lo que el animal está viendo, y también podemos cambiar lo que está viendo hasta el punto de controlar su visión. Esto se puede hacer en ratones desde hace algunos años, y en el futuro se podrá hacer en humanos, entonces con neurotecnología en el futuro, no sé en cuánto tiempo, de cinco a 20 años, se podrá hacer lo mismo: descodificar la actividad cerebral y manipularla”, comenta Yuste.

Estos experimentos pueden llevar a grandes avances en la ciencia: descifrando la actividad mental, equipos como el de Yuste han logrado comunicarse con paralíticos, registrando hasta 30 palabras por minutos. También se está intentando desarrollar dispositivos que permitan recobrar la vista a los ciegos: “Se está haciendo con 100 o 200 electrodos, pero hay unas prótesis que está desarrollando precisamente el proyecto Brain con un millón de electrodos. Así que con esta prótesis, que se está probando en monos, pero si funciona lo hará en humanos, pues imagínate: le podrías curar la ceguera a un ciego, devolverle la vista, conectando su cerebro a una cámara. Con una prótesis de un millón de electrodos, un ciego sería capaz de leer y hacer una vida prácticamente normal. Sería una visión como de una pantalla con un millón de píxeles”, comenta el neurobiólogo.

Rafael Yuste foto
El neurobiólogo español Rafael Yuste. Foto: AP

Pero esta misma lectura y manipulación de la actividad mental, tan benigna en casos médicos, podría degenerar en grandes riesgos: si se llegasen a implantar imágenes en la mente de los humanos, o a leer los pensamientos, tanto las democracias y gobiernos, como las mismas voluntades de las personas, serían objeto de manipulación. Por esto mismo, Chile llegó a ser pionero en la regulación de la neurotecnología con la presentación de una reforma constitucional impulsada por el senador Guido Girardi para asegurar los “neuroderechos”.

Esta iniciativa, única en el mundo, protege “la actividad cerebral y la información procedente de ella”. Yuste explica que, a la base de cualquier legislación a la neurotecnología, debería haber cinco principios que seguir: el derecho a la privacidad mental, el derecho a la identidad personal -”que no te cambien el tú o el yo, que es algo que se podría hacer con la conciencia”-, el derecho al libre albedrío, el derecho al acceso justo a la aumentación y la protección frente a sesgos de información.

Siendo Chile el único país que ha aprobado leyes al respecto, otros avanzan en esa dirección. “En España, el gobierno ha proclamado lo que llama la Carta de Derechos Digitales, que es una carta, pero no tiene valor jurídico ni legal. Es como una declaración de intenciones, y en esta carta se protegen los neuroderechos de una manera muy amplia, los derechos de la ciudadanía con las tecnologías digitales”, comenta Yuste.

En miras a evitar que la neurotecnología sea usada con fines puramente comerciales o militares, el neurobiólogo recomienda mantenerla dentro del ámbito médico, en miras a que se rija por los tres principios de esa ética: los principios de justicia, beneficencia y dignidad.

Inteligencia Artificial Ex Posta Central
El Dr. Christian Pérez Núñez, jefe del servicio de imagenología de la ex Posta Central. mostrando el uso del sistema de inteligencia artificial en el diagnóstico de casos Covid-19 a través de una tomografía.

La inteligencia artificial, con el aprendizaje automático de sus sistemas y la solución de problemas, también abre la puerta a una serie de riesgos: por un lado, accidentes y malos usos, pero también la estimulación de una carrera armamentística.

Para evitar estos riesgos, la Unión Europea ya empezó a trabajar borradores que legislen el uso de la inteligencia artificial. La idea es separar los niveles de riesgo de cada uso: por ejemplo, en un primer nivel de riesgo estarían aquellos usos que supongan amenazas para la seguridad. La Comisión Europea ya discutió el tema del reconocimiento facial, y la legislación prohibiría su uso en zonas públicas, aunque dando paso a excepciones: la búsqueda de niños desaparecidos y las amenazas terroristas.

Miguel Ángel Román, doctor en IA y cofundador del Instituto de Inteligencia Artificial en Alicante, España, comenta los principales riesgos del mal uso de estas tecnologías. “Hay usos que pueden suponer un perjuicio directo a las personas. Estamos hablando de modelos que predicen la probabilidad de que una persona devuelva un préstamo, o que determine si hay que darle la libertad provisional o no a un preso. Estos modelos aprenden de los datos para tomar decisiones, y aunque de media acierta más que falla, podrían estar cometiendo injusticias ante personas que no están suficientemente representadas en esos datos”, señala Román, acotando que de todos modos, hay una infinidad de casos en que la IA no supone un riesgo.

Respecto del borrador europeo, Román opina que la regulación debe centrarse más en el uso que en la tecnología misma. “China, sin que sea un ejemplo a seguir, ha regulado ya el uso de algoritmos de recomendación y ajuste de precios para evitar discriminaciones. De manera independiente está en proceso de regular el uso de deepfakes, para evitar engaños o difamaciones. Son dos aplicaciones de inteligencia artificial muy diferentes, que tendrán en China leyes especializadas”, comenta el ingeniero.

En comparación, “el enfoque de Europa es categorizar todas las aplicaciones de IA bajo un mismo paraguas, a pesar de sus diferencias. El futuro dirá si esta aproximación resulta eficaz en su cometido y, lo más importante, si dado su carácter generalista no perjudica el desarrollo de la inteligencia artificial en Europa frente a EE.UU. y China”, señala Román.

Usuario utilizando un dispositivo de realidad virtual inmersiva. Foto: AFP.
Usuario utilizando un dispositivo de realidad virtual inmersiva. Foto: AFP

Otra innovación que ha generado polémica en el último tiempo tiene que ver con el llamado “metaverso”: un ecosistema virtual y tridimensional, en el que empresas como Meta -dueña de Facebook e Instagram- y Microsoft han estado desarrollando activamente. En estos espacios, los usuarios pueden interactuar con otros en una realidad virtual, y si en un principio se imaginaba como juego, ya hay desarrollos que permiten trabajar, comprar, estudiar y consumir en estas realidades.

El metaverso, como una evolución de internet que los humanos puedan habitar, trae problemas desde ya con su regulación: las grandes empresas tecnológicas que lo promueven y desarrollan casi no tienen contrapesos, y por eso mismo, el futuro de la sociedad y la democracia podría jugarse peligrosamente ahí.

Rodrigo González, CEO del metaverso chileno Minverso, comenta el avance de esta tecnología. “Creemos que el 2022 es el año cero del metaverso, de aquí en adelante se viene solo desarrollo y algunos especialistas hablan de una instalación total en unos 10 años más, aunque algunos más optimistas hablan de la mitad de ese tiempo”, señala.

Hasta el momento, el metaverso no tiene legislaciones que lo separen de cualquier otro uso de internet. “Es todo muy incipiente, las regulaciones son, por lo pronto, de acuerdo con cada experiencia metaversal. Por ejemplo, Horizon, que es el metaverso de Meta, tiene sus propias reglas, que son diferente a las de otras experiencias. Es importante avanzar en regulación para el metaverso, porque necesitamos que sea un lugar que potencie lo mejor de la humanidad, que sea seguro y no se traspasen los problemas del mundo físico”, comenta González.

Según él, estas legislaciones deberían apuntar a tres cosas básicas, siendo la primera la protección de los datos de los usuarios, ya que el registro del comportamiento de estos es mucho más profundo que aquello a lo que se acostumbra en internet. Las otras dos cosas serían “evitar que se reproduzcan los prejuicios del mundo físico en el metaverso, como por ejemplo abusos, suplantación de identidades o phishing”, por un lado, y por el otro, “evitar la concentración del poder y velar por estructuras más descentralizadas, que fomenten la colaboración; el metaverso debería ser un espacio esencialmente democrático y participativo”.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.