Inteligencia Artificial
“No harás daño a un ser humano”: las 3 reglas que impuso Google a su Inteligencia Artificial

“No harás daño a un ser humano”: las 3 reglas que impuso Google a su Inteligencia Artificial

DeepMind, la compañía de IA de Google, desarrolló tres nuevos sistemas que serían capaces de tomar decisiones por sí solos. Por ello, establecieron una Constitución del Robot, para minimizar los riesgos.


Una “constitución robot” para intentar que la tecnología no se les vaya de la mano. Eso es lo que estableció DeepMind —la compañía de Inteligencia Artificial (IA) de Google— quien acaba de presentar tres nuevos sistemas de tecnología que harían que un robot sea más inteligente y autónomo.

Pero darle más independencia a una tecnología que no es humana tiene sus riesgos. Por eso, Google incluyó una guía de seguridad, bautizada como Constitución del Robot, donde establece una serie de reglas que la IA —en el mejor de los casos— podría entender y aplicar.

Inteligencia artificial
“No harás daño a un ser humano”: las 3 reglas que impuso Google a su Inteligencia Artificial

Qué dice la Constitución del Robot de Google, las reglas para la IA

Los nuevos sistemas de IA que presentó Google son AutoRT, SARA-RT y RT-Trajectory, que prometen hacer que una máquina pueda entender y ejecutar órdenes más complejas con mayor facilidad.

“Antes de que los robots puedan integrarse en nuestra vida cotidiana, es necesario desarrollarlos de manera responsable con investigaciones sólidas que demuestren su seguridad en el mundo real”, aseguró la empresa en su página web.

Como una forma de responsabilizarse por la magnitud y el incierto poder que va a tener esta IA, la empresa incluyó la guía de seguridad Constitución del Robot, que está basada en las leyes de Isaac Asimov, un escritor de obras de ciencia ficción y divulgación científica.

Estas leyes establecen que:

  1. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
IA
“No harás daño a un ser humano”: las 3 reglas que impuso Google a su Inteligencia Artificial

Estas reglas llegan a regular y fiscalizar las acciones que puedan hacer las nuevas tecnologías, principalmente porque se estima que los robots de Google puedan entender cosas fácilmente, adaptarse e incluso poder decidir las tareas que considera apropiadas para ciertas situaciones.

En esta línea, la Constitución del Robot evitaría que la Inteligencia Artificial decida por sí misma hacer tareas que involucren a humanos, animales, objetos punzantes y otros aparatos electrónicos.

DeepMind también aseguró que sus robots están programados para detenerse automáticamente cuando la fuerza de sus articulaciones sea demasiada y que, además, tienen un botón de apagado físico, que cualquier humano puede presionar para desactivarlos, cuando lo crean conveniente.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.