Stephen Hawking y Elon Musk llaman a evitar los peligros de la inteligencia artificial
Junto a 800 científicos e investigadores, entregaron un documento que analiza los problemas éticos y entrega posibles soluciones para un área que "podría implicar el fin de la humanidad".
En diciembre de 2014, el físico teórico Stephen Hawking generó una inusitada polémica en el ámbito científico al referirse al desarrollo de la inteligencia artificial, afirmando que los avances en el área, lejos de ayudar a la raza humana, implicarían su extinción.
No era la primera vez que el científico se refería al tema. Ya lo había hecho a propósito de la película "Transcendence: Identidad virtual", señalando que un mundo donde las computadoras superen las capacidades de los humanos sería "el peor error en la historia", y el hecho que "no exista ley física que impida que estos sistemas realicen cálculos más avanzados que los cerebros humanos" también derivaría en el fin de la humanidad, tal como aparece en películas como "Terminator".
Y hoy, junto a Elon Musk, co-fundador de PayPal, la empresa aeroespacial SpaceX y Tesla Motors, firmó una carta abierta llamando a investigar los problemas de la inteligencia artificial y los peligros que conlleva, incluyendo un documento donde se detallan sus preocupaciones y posibles soluciones.
Pero no están solos. La iniciativa tiene el respaldo de Future of Life, una asociación que busca defender el desarrollo de la inteligencia artificial de forma responsable, potenciando los usos benéficos para la sociedad y evitando que pueda avanzar en campos militares, por ejemplo.
El documento, firmado por cerca de 800 expertos en inteligencia artificial, académicos de prestigiosas universidades como Yale, stanford, Harvard, Oxford y Cambridge, además de representantes de Google y el MIT, recomienda la investigación enfocada en aumentar el desarrollo, pero al mismo tiempo considerando que estos sistemas "deben hacer lo que nosotros queramos que hagan".
El informe involucra aspectos a corto y mediano plazo, como los pros y contra de los diversos proyectos y cómo afectarán a la economía mundial, hasta un planteamiento que se ha hecho repetitivo: ¿qué ocurrirá con los automóviles autónomos en casos de un accidente inevitable, donde tenga que elegir entre la salvación de sus pasajeros o una probabilidad alta e importante de daños materiales?.
Recordemos que en enero de 2013 Stephen Hawking anunció su incorporación a la iniciativa "Cambridge Project for Existential Risk", un programa que reúne a filósofos, matemáticos e ingenieros que intenta crear conciencia sobre los avances en inteligencia artificial y cómo influyen en sectores como la biotecnología, las guerras nucleares y cambio climático.
Elon Musk por su parte, ha expresado de forma reiterada su preocupación con estos sistemas autónomos, describiendo el avance como "convocar al demonio", o señalándolo como la "mayor amenaza existencial".
Aún así, hay científicos que creen que estas medidas son exageradas, asegurando que este escenario es muy lejano y que sólo se trata de "palabras alarmistas".
Fuente: Future Life
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.