Guía de decisiones «morales» ayudará a los coches autónomos

Londres.- Un equipo del Instituto de Tecnología de Massachusetts (MIT) ha creado una base de datos que recopila cerca de cuarenta millones de decisiones “morales” tomadas por humanos para ayudar a diseñar vehículos autónomos que reaccionen de forma “socialmente aceptable”, según publica hoy la revista Nature.

Iyad Rahwan y su grupo esperan que el proyecto contribuya a abrir un debate global sobre cómo deben desarrollarse los algoritmos que determinan el comportamiento de un vehículo sin conductor ante dilemas éticos.

Para elaborar su base de datos, los investigadores presentaron una encuesta a ciudadanos de todo el mundo en la que les preguntaban cómo reaccionarían en caso de una situación de peligro o un accidente inevitable.

Uno de los escenarios propuestos representaba una carretera de dos carriles en la que circulan diversos vehículos y hay varios peatones en las inmediaciones.

Los encuestados debían decidir qué tipo de acción tomarían en caso de una colisión inevitable, teniendo en cuenta que la vida de otros conductores y peatones estaba en peligro.

A partir de los millones de respuestas que han acumulado, los autores del trabajo han identificado diversas preferencias morales que comparten la mayoría de personas en todo el mundo.

Salvar el mayor número de vidas posible y priorizar la seguridad de los más jóvenes es uno de los rasgos comunes detectados en los juicios éticos.

Entre los criterios morales que varían por regiones, los investigadores destacan que en Sudamérica y Centroamérica, así como en Francia y sus antiguas colonias, se expresa una fuerte preferencia por poner a salvo a las mujeres y los individuos con rasgos atléticos.

Las personas que viven en países en los que las desigualdades económicas son más pronunciadas tienden además a tener más en cuenta el estatus económico de las personas a la hora de decidir quién debe ponerse a salvo en primer lugar.

“Antes de permitir que nuestros coches tomen decisiones necesitamos mantener una conversación global para expresar nuestras preferencias a las compañías que diseñan algoritmos morales y los políticos que los regularán”, han señalado los autores del trabajo.

EFE

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

quince − 1 =