¿Hacia una ética probabilística?
Lo sustancial es que el advenimiento de los robots obligará a repensar muchos problemas éticos en forma probabilística. ¿Están los programadores de robots preparados para desarrollar una ética probabilística?
Un tren, de continuar su trayectoria, matará a cinco personas que están situadas en la vía pues no tiene tiempo para frenar. Usted puede accionar un desvío que pondría al tren en una ruta donde solo hay una persona. ¿Accionaría usted el desvío (lo que implica matar a una persona), o dejaría que el tren arrolle a las cinco personas ubicadas en la trayectoria original?
Este dilema ético, y otros similares, tienen una característica común: son determinísticos. Es decir, se basan en cursos de acción cuyas consecuencias están claramente definidas. Puede que estos dilemas aparezcan como teóricos, es decir, sin ninguna relevancia en la práctica. Pero cuidado, la realidad está por cambiar.
Consideremos una situación levemente más compleja: la de un robot que debe ser programado para operar un vehículo sin conductor. El robot recibe varias señales (que describen su entorno), y las debe procesar para decidir en qué dirección moverse. La dificultad es que la interpretación de este tipo de señales tiene siempre un margen de error. Es decir, el robot nunca tendrá que decidir entre seguir derecho (y atropellar a un adulto que va atravesando la calle con dos niños de la mano), o subirse a la vereda (y atropellar a un perro). Tendrá que considerar que la probabilidad de que la masa móvil frente al vehículo corresponda a un adulto con dos niños es solo del 80%, pues existe 20% de probabilidad de que se trate de un adulto arrastrando dos maletas. Y el perro en la vereda podría no ser un perro, sino que en el 15% de los casos podría tratarse de un coche con una guagua cuya madre va unos pasos más atrás.
Lo concreto es que, en el caso del robot, al programarlo, estamos necesariamente obligados a tomar una decisión ética en base a "valores esperados" (en el sentido probabilístico del término). Esto es, debemos considerar la incertidumbre asociada con cada escenario, y las consecuencias positivas y negativas de cada curso de acción.
Dicho sea de paso, reconozcamos que el problema del tren no es tan simple como parece. Cinco vidas no son necesariamente más "valiosas" que una (podría tratarse de cinco criminales versus un adolescente lleno de virtudes). Pero lo sustancial es que el advenimiento de los robots obligará a repensar muchos problemas éticos en forma probabilística. ¿Están los programadores de robots preparados para desarrollar una ética probabilística?
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.