SANTIAGO.- En tiempos que la perfección de los vehículos autónomos está cada vez más cerca, una de las aristas que sigue preocupando a las autoridades, conductores y peatones es la forma en que este tipo de autos toma decisiones en casos extremos como en el de un accidente.
En ese contexto, un equipo del Instituto de Tecnología de Massachusetts (MIT) creó una base de datos que recopila cerca de cuarenta millones de decisiones "morales" tomadas por humanos para ayudar a diseñar vehículos autónomos que reaccionen de forma "socialmente aceptable", publicó la revista Nature.
Iyad Rahwan y su grupo esperan que el proyecto contribuya a abrir un debate global sobre cómo deben desarrollarse los algoritmos que determinan el comportamiento de un vehículo sin conductor ante dilemas éticos.
Para elaborar su base de datos, los investigadores presentaron una encuesta a ciudadanos de todo el mundo en la que les preguntaban cómo reaccionarían en caso de una situación de peligro o un accidente inevitable.
Uno de los escenarios propuestos representaba una carretera de dos carriles en la que circulan diversos vehículos y hay varios peatones en las inmediaciones.
Los encuestados debían decidir qué tipo de acción tomarían en caso de una colisión inevitable, teniendo en cuenta que la vida de otros conductores y peatones estaba en peligro.
A partir de los millones de respuestas que han acumulado, los autores del trabajo han identificado diversas preferencias morales que comparten la mayoría de personas en todo el mundo.
Salvar el mayor número de vidas posible y priorizar la seguridad de los más jóvenes es uno de los rasgos comunes detectados en los juicios éticos.
Entre los criterios morales que varían por regiones, los investigadores destacan que en Sudamérica y Centroamérica, así como en Francia y sus antiguas colonias, se expresa una fuerte preferencia por poner a salvo a las mujeres y los individuos con rasgos atléticos.
Las personas que viven en países en los que las desigualdades económicas son más pronunciadas tienden además a tener más en cuenta el estatus económico de las personas a la hora de decidir quién debe ponerse a salvo en primer lugar.
"Antes de permitir que nuestros autos tomen decisiones necesitamos mantener una conversación global para expresar nuestras preferencias a las compañías que diseñan algoritmos morales y los políticos que los regularán", señalaron los autores del trabajo.