José María Lasalle: “La IA podría ser la mayor de las oportunidades para el progreso del ser humano, o podría ser también la peor de las manifestaciones del fracaso”

José María Lassalle, invitado por la Universidad San Sebastián con motivo de la inauguración del centro País Humanista USS.

El ex ministro de Cultura de España, escritor y autor de los libros “Civilización Artificial” y “Ciberleviatán” fue el primer invitado internacional para la inauguración de País Humanista, el nuevo centro de la Universidad San Sebastián (USS) que dirige Cristián Warnken. Lasalle recorrió las cuatro sedes de esta institución en Santiago, Concepción, Puerto Montt, y Valdivia, reflexionando sobre el avance de la Inteligencia Artificial, los desafíos desde el mundo político y regulatorio que implica y cómo su vínculo con las humanidades influye en el rol que las universidades deben cumplir en la materia.



“Estoy encantado de estar en este país”, señala José María Lassalle. El profesor universitario, exsecretario español de las carteras de Cultura y para la Sociedad de la Información y la Agenda Digital, y escritor de una serie de libros en los que aborda temas relacionados con la política, la cultura y la tecnología, arribó al país invitado por la Universidad San Sebastián con motivo de la inauguración de País Humanista, centro de pensamiento que busca contribuir a la reflexión de los grandes temas globales, desde las humanidades, dirigido por el escritor y académico de esta casa de estudios, Cristián Warnken.

Lasalle recorrió las cuatro sedes de la casa de estudios hablando de su más reciente libro ensayo “Civilización Artificial” (Arpa, 2024), en el cual se explaya en cómo afrontar los avances tecnológicos para avanzar hacia lo que él define como un nuevo “humanismo tecnológico”. Un tema que le preocupa desde hace tiempo, abordando otras aristas como el colapso de la democracia liberal frente a la revolución digital en “Ciberleviatán” (2019), o la reivindicación de la libertad frente a la nostalgia del autoritarismo en “El liberalismo herido” (2021). Un tema que a País Humanista le interesa poner en el plano de la conversación porque abre una serie de interrogantes que necesitan respuesta.

-¿Cuáles fueron los motivos que te inspiraron a escribir “Civilización Artificial” y cuál es el mensaje central que esperas transmitir con este libro?

Tengo la preocupación de que las sociedades democráticas no están sabiendo dimensionar correctamente el impacto que puede tener para nuestra civilización la generalización del uso de la Inteligencia Artificial (IA). Hoy vemos a la IA sólo como una oportunidad, lo que efectivamente es, pero muchas veces evitamos abordar los riesgos que acompañan su desarrollo, especialmente desde la mirada ética y moral, la necesidad de regulación, tema que no está en la agenda pública. Y eso tiene implicancias de fondo en materia política, social y económica. El libro ha nacido de esas inquietudes acerca de ver cómo no estamos abordando con absoluta ambición crítica que puede suponer la generalización de la IA en nuestras vidas.

Roberto Ampuero, José María Lasalle y Cristián Warnken en el lanzamiento de País Humanista, el nuevo centro de pensamiento USS.

-¿Cuáles son los mayores desafíos y oportunidades que presenta esta tecnología?

Hay que plantearnos estas preguntas desde su impacto en su uso político, laboral o cultural. Creo que el primer impacto es en el mundo del trabajo. Según previsiones del World Economic Forum, al año 2027 probablemente más del 40% de las profesiones se van a ver alteradas en su desarrollo y en su concepción, porque la IA va a ir paulatinamente sustituyendo al ser humano en el desarrollo de actividades como la ingeniería, la arquitectura, la abogacía. Ese impacto, que va a tener en el mundo del trabajo, es el primer dato que muchas veces pasamos por alto cuando hablamos de la IA. Pero al mismo tiempo puede convertirse en una oportunidad si, por ejemplo, esas profesiones vieran reforzadas sus capacidades humanísticas y de dirección de la propia IA, incorporando una mirada crítica sobre su gestión y reforzando su capacidad de decisión alrededor de ella. Pero también hay un impacto de la IA en los ámbitos de la creatividad y del conocimiento. En fin, los desafíos que está planteando son innumerables y lo que necesitamos en el seno de las sociedades democráticas es ponerlas sobre la mesa para plantear un debate público que pueda identificar correctamente los riesgos, pero también las oportunidades y abordarlas desde la regulación, desde las políticas públicas.

-Menciona como prioridad poner atención al impacto de la IA en el mundo laboral. ¿Cómo plantear a las empresas la necesidad de educar a la fuerza laboral en vez de priorizar su reemplazo por herramientas de IA?

Ese es uno de los debates de fondo más importantes que deberíamos estar abordando en estos momentos, y que nos permitiría también superar ciertas miradas polarizadas que equivocan la agenda y que giran alrededor de debates ideológicos que son más propios de principios del siglo 20, de un capitalismo industrial, que del siglo 21, que es un capitalismo cognitivo que se asienta sobre algoritmos y que va a utilizar la IA como la herramienta revolucionaria de transformación social, tan importante como fue la máquina de vapor, que liberó una prosperidad extraordinaria, pero al mismo tiempo una desigualdad tan extraordinaria como la prosperidad que fue capaz de provocar.

En ese sentido, creo que es imprescindible colocar estas cuestiones en el debate público, pero también imaginar las políticas que puedan reconducir esa realidad hacia una oportunidad para todos. Es indudable que no podemos prescindir de la IA, que ha llegado para quedarse, pero debe quedar bien, no mal para el ser humano. Y eso implica que se dé una política regulatoria que introduzca una función social en los algoritmos, que se salvaguarde en todo momento una dimensión humano-céntrica en la gestión de la IA. No puede estar para sustituir al ser humano, sino para complementarlo. Esa complementariedad requiere también reformas educativas muy profundas para que el ser humano sea capaz de agregar valor a lo que le va a aportar la IA que se va a asentar, sobre todo en ámbitos que tiene que ver con el conocimiento humano, y eso requiere un conocimiento humano que ha de evolucionar cualitativamente hacia otras áreas que están en contacto con el conocimiento de siempre, pero que debe ser selectivamente orientado hacia las capacidades directivas, hacia las capacidades creativas, hacia las capacidades imaginativas. Por eso es muy importante la complementariedad de las humanidades, una complementariedad que ya no debe ser sólo accesoria, sino transversal.

-Hablando de regulación, ¿qué podrías contarnos de la experiencia española? ¿Cómo han enfrentado el tema en el pasado reciente?

Lo más importante ha sido la participación directa de España en el debate sobre el reglamento que ha probado la Unión Europea hace tan sólo unos pocos meses y que supone la primera regulación legal que en el contexto mundial se ha introducido sobre IA, y que ha subordinado al desarrollo y al entrenamiento de los sistemas de IA al respeto escrupuloso de los derechos fundamentales. Ha introducido también la identificación de una serie de niveles de riesgo que el entrenamiento y el uso de la IA no puede franquear y que tienen que ver con el respeto a la dignidad humana y al dominio humano-céntrico que en todo momento el ser humano ha de tener en relación con la IA. Yo creo que esa es la apuesta que de manera decisiva debemos ser capaces de impulsar a nivel global como una regulación que facilite la articulación de sistemas de IA que no sean incompatibles con la dignidad humana.

-En Chile, en mayo pasado, el Gobierno anunció lo que será el proyecto de ley para regular el uso y desarrollo de IA en Chile. ¿En qué puntos deberíamos tener atención a la hora de legislar?

Precisamente el diseño del modelo de riesgo, que es el modelo que ha incorporado la Unión Europea, es un diseño adecuado e inicialmente para abordar los problemas más concretos que puede plantear el entrenamiento de sistemas de IA para evitar que puedan vulnerarse los derechos fundamentales que pueda dañar la privacidad, la intimidad, y que pueda subordinarse el ser humano. En ese sentido, creo que la regulación que adopta Chile está orientada en la línea del vector iniciado por Europa, y me parece absolutamente razonable, pero no debe incurrir en las exigencias que el Reglamento europeo tiene también.

No solamente debemos identificar los riesgos para controlarlos, sino que debemos darle un propósito a la IA. Debemos desarrollar una ética de la responsabilidad, como planteaba un filósofo alemán de origen judío, Hans Jonas, discípulo de Heidegger y compañero de estudios de Hannah Arendt, que planteaba la necesidad de desarrollar tanto poder como seamos capaces de asumir responsablemente desde una ética conductiva del poder que somos capaces de liberar.

Creo que es muy importante también identificar para qué queremos introducir la IA en el mundo del trabajo, en el mundo de la creatividad, en el mundo de la empresa. Es decir, la IA tiene que estar sometida a propósitos que den sentido a su despliegue. Ese yo creo que es el principal déficit que plantean los diseños de desarrollo de la IA basados en modelos de riesgo a los que les falta una profundidad ética de responsabilidad. En cualquier caso, bienvenida sea la regulación y una nueva área geográfica, en este caso un país tan importante como Chile y tan significativo, que ha intentado ya abrir hueco en el ámbito de los neuroderechos y que sería un complemento fantástico en el ámbito de la IA.

-Hace poco se ha conocido en Chile que un colegio, un grupo de estudiantes varones ocuparon imágenes de sus compañeras para hacer imágenes eróticas con IA. ¿Cómo ve el papel de la ética en el desarrollo y la implementación de tecnologías avanzadas?

Por eso debe ser un esfuerzo pedagógico que esté inserto en la educación desde el primer momento. Es decir, no puedes desarrollar un reglamento de IA que identifique los riesgos si no lo acompañamos de una pedagogía formativa que capacite a las personas a encontrar en la IA un propósito ético ajustado a las políticas públicas que deben acompañar su desarrollo. Es decir, sin pedagogía y sin educación, no puede haber una correcta aplicación de la inteligencia artificial. Es necesario que la regulación ética sobre IA no solamente tenga que ver con los riesgos, sino también con la educación, con el acompañamiento formativo que permita a las personas utilizarla adecuadamente.

-Visita Chile de forma extensa, recorriendo las sedes de la USS. ¿Cómo enfrenta este viaje?

Lo acabo de decir, Chile es un referente, lo está siendo en el ámbito de los neuroderechos, y si lograra desarrollar una regulación sobre ética de la IA, pues estaría realmente posicionándose como un país a la cabeza de la regulación y de los avances normativos imprescindibles para poder liderar la transformación digital de su sociedad. Incorporó también la Carta de Derechos y Deberes Digitales que se aprobó en la Cumbre Iberoamericana del año pasado y que ha supuesto también generar un espacio de normatividad en el reconocimiento de derechos ciudadanos, que son imprescindibles para que el diseño de una ética de la IA se fortalezca. Porque no solamente tiene que ser una ética respecto de las empresas, sino que debe ser también pública, que incorpore valores, principios, que respeten a la persona, con derechos que le empoderen frente a la propia IA.

-¿Cómo estamos frente al resto de Latinoamérica?

Creo que Chile está marcando una diferencia tremendamente interesante y digna de valoración respecto de su país vecino Argentina, que desgraciadamente bajo el gobierno de Milei está haciendo una apuesta geopolítica por atraer la inversión de las grandes corporaciones tecnológicas norteamericanas para desarrollar ensayos y diseños de IA sin ética, que trabajen el ámbito de las llamadas “Inteligencias Fronterizas” que incorporan altísimos riesgos de vulneración de los derechos fundamentales. Y en ese sentido, me alegro que Chile esté asumiendo una conciencia crítica de defensa de los valores de la dignidad humana frente a su vecina Argentina.

-Durante sus charlas por la USS, ¿qué preguntas han repetido en dichas instancias?

Me ha llamado la atención la preocupación de los jóvenes de ver cómo es posible que ellos convivan con el desarrollo de la IA desde un nivel profesional. Si la IA va a influir tanto en una lógica que amenaza sus salidas profesionales, cómo abordar precisamente la manera de reconducir esos conflictos que identifican como posibles en el futuro. Bueno, y la solución está precisamente en la propuesta que se hace desde País Humanista, en convertir las humanidades y la capacidad de las humanidades mediante el pensamiento crítico, la reflexión, la creatividad aplicada e intuitivamente también sobre la toma de decisiones. Es una herramienta imprescindible para garantizar esa aportación de valor que el ser humano necesita agregar al desarrollo tecnológico y al uso profesional que la inteligencia artificial va a tener.

-Su carrera ha abarcado tanto la política como la escritura. ¿Cómo ha evolucionado su pensamiento sobre la tecnología y la sociedad a lo largo de los años?

Lo reflejan un poco los libros que he ido escribiendo al respecto. Siempre he defendido la transformación tecnológica, porque creo que es una herramienta de progreso. No podemos entender el avance de la civilización si no va de la mano de la ciencia. La ciencia siempre ha sido una forma a través de la cual el ser humano ha desplegado su curiosidad por entender e interpretar el mundo y conseguir una transformación progresista de los fundamentos morales que organizan la convivencia humana.

Me parece que es imprescindible que el ser humano siga apegado al desarrollo científico. Pero ese desarrollo científico debe aprender de la historia y evitar, como se ha vivido en determinados momentos, desarrollos totalitarios de la ciencia, como pudo ser en su momento el uso del arma nuclear al término de la Segunda Guerra Mundial; o lo que supuso el desarrollo de la carrera armamentística que al día de hoy sigue comprometiendo la supervivencia de la especie humana por la barbaridad de acumular, como hacen las dos grandes superpotencias Estados Unidos y Rusia, miles de cabezas nucleares que no sirven para nada salvo para amenazarnos unos a otros con destruir a la especie humana.

Creo que ese tipo de aprendizaje es lo que debería acompañar el diseño de la Inteligencia Artificial. No hay olvidar lo que dijo Stephen Hawking cuando advirtió que la IA podría ser la mayor de las oportunidades para el progreso del ser humano, o podría ser también la peor de las manifestaciones del fracaso del ser humano, que podría llevarle a la desaparición. Esa advertencia es la que está acompañando la reflexión que hago, que es tratar de mover ciertas conciencias críticas en las sociedades democráticas para que la IA sea una oportunidad y no un fracaso.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.