Investigadores del MIT Media Lab diseñaron en 2014 una plataforma experimental online, Moral Machine; una especie de juego en línea multilingüe que recopila datos a gran escala sobre cómo los ciudadanos querrían que los vehículos autónomos resolvieran dilemas morales en un contexto de accidentes inevitables.

La plataforma reunió 40 millones de decisiones en 10 idiomas de millones de personas en 233 países y territorios.

Un nuevo artículo publicado en Nature, presenta el análisis de esos datos y revela la divergencia de la ética intercultural en función de la cultura, la economía y la ubicación geográfica.

Sin un principio ético normativo simple, como las tres leyes de la robótica que escribió Isaac Asimov, los fabricantes de automóviles se encuentran actualmente luchando contra los dilemas morales a los que se enfrentarán sus vehículos próximamente.

Ya en 2017, la comisión de Asuntos Jurídicos del Parlamento Europeo pidió a la cámara de la Unión Europea que desarrollara ciertas normas de seguridad, ética y legal que regularan los importantes avances logrados en campos como la IA y la robótica, que se encuentran recogidos en el documento European civil laws rules in robotics.

Estamos entrando en una era en la que las máquinas no solo tienen la tarea de promover el bienestar y minimizar el daño, sino también de distribuir el bienestar que crean y el daño que no pueden eliminar. Pero las decisiones sobre los principios éticos no pueden dejarse únicamente en manos de ingenieros ni especialistas en ética, porque en el caso en que los ciudadanos estuvieran en desacuerdo con la solución aprobada por dichos sectores, se estaría decidiendo en contra del status quo, cuando cualquier intento de diseñar una ética para IAs debe ser, al menos, consciente de la moral pública, midiendo las expectativas sociales sobre cómo los vehículos autónomos deben resolver los dilemas morales.

¿Cómo se planteó el experimento?

En la interfaz principal de Moral Machine, a los usuarios se les muestran escenarios de accidentes inevitables con dos posibles resultados, dependiendo de si el vehículo autónomo se desvía o permanece en curso, donde tienen que elegir cuál consideran que sería opción que causaría daños menores.

Te mostramos un ejemplo. En las dos figuras de abajo aparecen, en la de  la izquierda un vehículo autónomo con tres ocupantes: una mujer y varón adultos y un niño y, por otro lado y cruzando la calle, tres peatones: dos ancianos y una anciana. En la figura izquierda aparecen los mismos ocupantes del vehículo y los mismos peatones, pero las diferencias entre una situación y otra son los fallecidos. ¿Deberías salvar a la familia que ocupa el interior del vehículo o a los peatones?

Este es solo un ejemplo de las infinitas combinaciones reales a las que tendrán que enfrentarse diariamente las IAs y, es básico, tratar de acordar de antemano cómo deberían resolverse.

Los escenarios de accidentes fueron por Moral Machine, siguiendo una estrategia de exploración enfocada en nueve factores: preservar humanos frente mascotas, mantener el rumbo del vehículo frente a desviarse, evitar la muerte a los pasajeros del vehículo frente a los peatones, etc. Además, se incluyeron personajes adicionales en algunos escenarios (criminales, mujeres embarazadas o médicos) que no estaban vinculados a ningún factor anterior, consiguiendo escenarios menos repetitivos para los usuarios.

En una encuesta típica se pueden resolver si las personas prefieren salvar muchas vidas que pocas, si prefieren salvar jóvenes frente ancianos, si prefieren salvar a aquellos peatones que cruzan legalmente la calle o los que cruzan de forma ilegal, etc. Pero cuando se trata de combinar múltiples escenarios surgen millones de situaciones posibles que desafían cualquier tipo de recopilación de datos convencional.

Tras completar una sesión de 13 accidentes, los participantes pudieron completar una encuesta que recopiló, entre otras variables, información demográfica como género, edad, ingresos, educación y actitudes políticas y religiosas. Además, los usuarios fueron geolocalizados para que sus coordenadas pudieran ser utilizadas en un análisis de agrupamiento que buscaba identificar grupos de países o territorios con preferencias morales homogéneas.

¿En qué orden se llevó a cabo el experimento?

En primer lugar se resumieron las preferencias morales globales; En segundo lugar documentaron las variaciones individuales en las preferencias, en función de la demografía de los encuestados; en tercer lugar informaron sobre la variación ética intercultural y descubrieron tres grupos principales de países; en cuarto lugar mostraron que estas diferencias están correlacionadas con las instituciones modernas y los rasgos culturales profundos.

Conclusiones

Un hecho importante (y a tener en cuenta) es que los resultados de este experimento podrían estar sesgados por el hecho de que los participantes actuaron por voluntad propia, tienen fácil acceso a internet, a pertenecer a un alto nivel social y con conocimiento de la tecnología, además de aquellas personas interesadas en coches autónomos que también cumplirían esas características.

Los autores de este estudio han enfatizado en que los resultados no pretenden dictar cómo deben actuar los diferentes países. Es más, en algunos casos, los autores consideraron que los tecnólogos y formuladores de políticas de este tipo deberían anular la opinión pública colectiva, pero sí debería servir como una base para entender cómo el público reaccionaría en diferentes situaciones.

Se vio que los países más próximos entre sí mostraban preferencias morales más similares a países más lejanos; en países como China y Japón, salvar la vida a los jóvenes frente a la de los ancianos era menos probable, debido a su énfasis en el respeto a los ancianos; los países más pobres con instituciones más débiles son más tolerantes con los transeúntes que con los peatones que cruzan legalmente y, los países con un alto nivel de desigualdad económica muestran mayores brechas entre el tratamiento a las personas según su estatus social.

Por otro lado, aspectos como preservar la vida humana frente a la animal, a niños frente adultos y salvar más vidas que menos, son algunas de las respuestas más comunes que deberían tenerse en cuenta a la hora de formular las políticas y leyes para los vehículos autónomos. 

Edmond Awad, uno de los autores del artículo, dijo: “En los últimos dos, tres años más personas han comenzado a hablar sobre la ética de la IA” […] El hecho de que veamos personas comprometidas con esto, creo que eso es algo prometedor”.