Carlo Casonato: “La IA es un poder que está influyendo en nuestras vidas”
El abogado y experto italiano advierte sobre el peligro de algoritmos complejos e incomprendidos en distintos sectores, donde pueden surgir resultados discriminatorios hacia las categorías más vulnerables de la sociedad. Además, señala la creciente polarización causada por las IA, especialmente en redes sociales, que crean burbujas ideológicas, afectando la libertad de elección y la democracia al condicionar a la ciudadanía a recibir información sesgada.
Día a día la inteligencia artificial (IA) gana alguna posición en los distintos sectores de la sociedad. Usuarios comunes, grandes empresas e incluso gobiernos. Todos, en diversos niveles, están (estamos) usando herramientas de este tipo y delegando tareas antes humanas a las facilidades de la innovación.
Pero hay un tema del que pocos hablan: los algoritmos, un conjunto de operaciones tan, tan complejo en su construcción que muchas veces resultan incomprensibles para sus propios desarrolladores. Algo importante pensando en que estas herramientas son las que se están usando desde para predecir comportamientos y automatizar procesos hasta para recomendar la serie de TV que veremos el domingo por la tarde.
No por nada hay partidos políticos que han sugerido su uso para lograr una mayor eficiencia en los procesos electorales, y programas médicos que recolectan data para construir algoritmos que permitan refinar los diagnósticos médicos.
Pero, ¿qué ocurre con todos esos datos?
Existe una gran complejidad al momento de definir los algoritmos que sustentan la IA. Carlo Casonato, destacado abogado y académico italiano que recientemente estuvo exponiendo sobre el tema en la edición 2024 de Congreso Futuro, destaca la importancia vital de la participación humana al momento de integrar la IA en diversos niveles.
Hay que evitar la delegación total a las máquinas, enfatiza.
“No debemos delegar todo a la IA, pero tampoco podemos dejarle todo a la inteligencia humana: necesitamos que la tecnología haga bien lo que realmente sabe hacer con su poder computacional, capacidades probabilísticas y predictivas, pero siempre debe mantenerse el control, porque esta puede ser discriminatoria”, precisa el experto.
Estas situaciones de discriminación por parte de los algoritmos se han visto en los sectores de Justicia y Medicina, dice, donde han quedado expuestos resultados arbitrarios hacia las clásicas categorías más vulnerables de la sociedad.
De hecho, los algoritmos pueden provocar influencia, privilegio o discriminación entre las personas que se ven expuestas a ellos, como lo expuso Casonato en su intervención en el Congreso Futuro; en este espacio, el experto expresó su preocupación sobre el desarrollo y la implementación de estos y subrayó la importancia de tener precaución al hacerlos y emplearlos, especialmente en términos éticos y jurídicos.
Por ello, dice, el desafío radica en utilizar el potencial tecnológico de manera adecuada, evitando así la creación de problemas y daños en la población.
Casonato propone que los equipos de programación no solo estén compuestos por informáticos, sino que también lo integren personas expertas en sociología, antropología, derecho y ética, “porque la IA no solo es una tecnología: es un poder que está influyendo en nuestras vidas”.
“De hecho, puede influir para mejorar o empeorar y lo importante es que se tomen en consideración los valores públicos hacia los que debe ir la IA”, dice el académico de Derecho Constitucional Comparado de la Universidad de Trento, y entrega algunos casos.
Por ejemplo, dice, puede haber médicos que recomienden medicamentos a través de una tecnología y que no sean ideales para ese paciente, “pero tal vez sea porque los vende tal empresa” a través de un sesgo del algoritmo; eso es lo que se busca evitar con la intención que sea “una actividad neutral”, ya que los intereses comerciales de quienes controlan los algoritmos son una preocupación.
Polarización algorítmica
Hoy existe un frente a frente entre el poder del algoritmo, capaz de entender a los usuarios y ciudadanos con solo la información que se disemina en la red, y la falta de transparencia del mismo, puesto que ni los cibernautas o quienes usen ciertas herramientas saben el origen de toda la data con que disponen los sistemas.
“Más que información oculta, es su estructura: cuanto más compleja sea, menos transparente será”, dice el especialista en Bioderecho y Bioética.
No solo hay problemas por el posible interés de quienes programen los algoritmos, sino también debido a que, si una salida está mal o es concretamente falsa, sin conocer el mecanismo interno no se sabrá “dónde ir para corregirlo”.
“Ese no es el caso fácil, porque el interior del aprendizaje automático es una caja negra... Pero lo que dicen los expertos en informática es que todavía no es posible volver ese aprendizaje ‘blanco’ y tampoco ‘gris’, para al menos poder hacer transparente esa operación”, advierte el italiano.
Si en medicina se utilizara en urgencias, por ejemplo, y se le pidiera a la máquina que decidiera la prioridad de acceso a un tratamiento -dice Casonato- esto no se podría hacer sin dar antes explicaciones al paciente.
“Si es así, un problema de transparencia pasa a ser un problema de legitimación de la actividad, porque si es algo profesional y no se es capaz de explicar por qué la decisión, el trabajo también sufre”, plantea.
En Italia, Europa y América Latina, cuenta, se usan muchos algoritmos en la administración pública. “Si no se puede dar conocimiento y razones a los ciudadanos, como sus usos a la hora de construir un edificio, entregar una licencia de armas o un permiso a un inmigrante, ellos no creerán más a las instituciones”, afirma.
Y cuando se trata de procesos electorales, puede que los algoritmos produzcan una burbuja de la cual los usuarios y ciudadanos no pueden escapar. Esto, dice Casonato, es particularmente grave para las nuevas generaciones, que ya no forman sus opiniones políticas a través de los diarios o por la TV, sino en “mensajes personalizados y filtrados que llegan a sus teléfonos, que son seleccionados para reforzar los intereses que ya existen”.
La burbuja de la democracia
“Si compro un par de zapatillas de tal marca, puede que al próximo mes reciba sugerencias para comprar más de la misma”, asegura el abogado, pero añade que “Si la máquina se da cuenta de que soy votante de derecha o de izquierda, me seguirá dando esa información que me llevará a ser más de esos lados y se genera un problema de condicionamiento de individuos, pero también de democracia”.
De esta manera, a través de la influencia de los algoritmos, en este caso de las redes sociales, los ciudadanos ya no se comparan con personas con opiniones diferentes a las suyas, sino que entran en eso que Casonato llama “burbuja de la democracia”.
“Es una bomba o una cámara de eco, en la que sólo escuchas cosas que te convienen y, de esa manera, los comportamientos se polarizan y se extreman, pero la democracia que necesitamos es la de ciudadanos democráticos que sepan lidiar con algo diferente de sí mismos”, señala.
Sin la diferencia de opiniones, viviendo en la “cámara de ecos” propuesta por los algoritmos y las redes, los ciudadanos “no tienen la posibilidad de ser verdaderamente libres, porque las elecciones serán resultado de un condicionamiento externo y no de la comparación”.
“Sobre esto, es difícil con la ley para intervenir, porque se necesita educación para las personas, porque deben saber que lo que llega a su teléfono no es la realidad, sino sólo un trozo diseñado para ellos”, declara.
Se necesita una intervención regulatoria por parte de las instituciones gubernamentales a nivel internacional. Pero el problema es cómo llegar a acuerdos sobre qué tipo de ley quieren proponer estos organismos.
“Debemos tener cuidado, porque si se impone una ley demasiado dura, se corre el riesgo de retrasar la innovación”, sugiere el académico. Eso sí, si se deja “un derecho muy amplio” pueden existir violaciones de derechos fundamentales o de respeto al medioambiente. Por eso mismo, lo primero es encontrar el equilibrio adecuado entre un derecho que permite mejorar los derechos fundamentales de las personas, pero que también permita innovar.
El segundo problema, dice, es que la solución es difícil de encontrar a nivel nacional, porque la IA es un fenómeno transnacional, por lo que se requerirá de regulaciones que funcionen sin fronteras.
Justamente, el Parlamento Europeo debería aprobar, aunque no está seguro, un reglamento sobre inteligencia artificial que se aplicará en la Unión Europea (UE) para activar lo que se llama “Efecto Bruselas”. Con este, cada IA que se lance en el mercado del Viejo Continente, tendrá que tener ciertos requisitos de cumplimiento de derechos y transparencia. “Y si un fabricante de Estados Unidos o de China quiere vender sus sistemas en Europa, tendrá que respetarlos”, dice Casonato.
Hay que tener en mente una IA pensada en el ser humano, más allá de los intereses comerciales de las grandes firmas, dice. Un productor podría realizar un sistema para vender en Europa con los requisitos de respetar derechos, pero podría vender otro, quizá menos respetuoso y que pueda ser comercializado en el extranjero.
“Lo interesante de la IA no es tanto cómo la regularemos, sino que nos obliga a pensar qué tipo de humanidad y qué tipo de sociedad queremos tener a futuro”, afirma el especialista.
Este evento, que reunió en el Teatro Municipal de esa ciudad a expositores de distintas soluciones tecnológicas -entre ellos, Kinesix VR, Zeus y Huawei, partners de Claro empresas- fue también el punto de partida para la nueva Corporación de Innovación y Desarrollo Sostenible de la Ciudad Jardín.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.