Actualizado el 20/01/2022

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. Moral Machine: la web que propone dilemas para vehículos autónomos

Moral Machine: la web que propone dilemas para vehículos autónomos

Escrito por Guillem Alsina el 19/11/2019 a las 18:36:45
1311

¿Qué pasará cuando un vehículo autónomo tenga que matar a una persona para salvar más vidas? No es una disyuntiva nueva, y ya hemos podido verla, por ejemplo, en la película Yo robot protagonizada por Will Smith, aunque no sea exactamente la casuística descrita, si no similar.


Los vehículos autónomos son una inevitabilidad histórica, pero también lo es que algún día, alguno deba tomar esta terrible decisión; a quien matar para poder salvar otra u otras vidas.


Y para conocer qué pensamos las personas sobre esta clase de dilemas y, por lo tanto, poder entrenar mejor las inteligencias artificiales que deban equipar a los coches, el MIT (Massachusetts Institute of Technology) mantiene en línea una página web llamada Moral Machine en la cual podemos jugar a un macabro juego.


Y es que en las diversas escenas que nos sugiere, debemos decidir qué hará un coche autónomo que ha perdido la capacidad de frenar, y que puede llevar o no pasajeros, ya que para poder parar, deberá o bien embestir a alguien o bien chocar contra un muro, y en ambos casos habrá víctimas mortales.


¿Quién debe sobrevivir? ¿Una mujer adulta o un niño? ¿Alguien que cruza la calle cuando es su turno, o el ocupante del vehículo que iba siguiendo las normas? ¿O tal vez en este caso deberíamos decantarnos por el de mayor edad, o tener en cuenta sus respectivos sexos?


Pero, ricemos más todavía el rizo: las pruebas se vuelven políticamente incorrectas para según qué sensibilidades haciéndonos decidir sobre, por ejemplo, un mendigo o un ciudadano que se presupone “productivo” para la sociedad. Si elegimos al primero ¿no tendremos remordimientos luego por haber elegido en función del estatus social?


¿Y un ladrón versus una persona que se presupone honrada? ¿A quién preferiríamos matar o a quien consideraríamos una baja de menor importancia? Porque, en todos los casos, alguien debe morir, la cuestión es a quien salvar y a quien condenar?


Las pruebas son duras y no escatiman las dudas a quien ha solicitado pasarlas. El test, en total, consta de 13 preguntas que siguen todas el mismo estilo.


Creando nuestras propias pruebas morales


¿No contentos con la “caña” que nos da el sistema? Ningún problema, puesto que disponemos de un diseñador de escenarios en los cuales podemos situar personas tanto como pasajeros, como transeúntes, con elementos como semáforos (en rojo y en verde).


Para las personas, tenemos distintas tipologías, como los antes mencionados ladrones, así como ejecutivos, atletas, niños, ancianos, e incluso animales de compañía.


Podemos, en definitiva, jugar a ser Dios (por lo menos, una inteligencia artificial) decidiendo a quién ponemos en riesgo. Los usuarios decidirán luego quien muere y quien vive.