?C¨®mo reaccionar¨ªas en un accidente de tr¨¢fico? Esta web te pone a prueba
?Salvar¨ªas a los que van contigo? ?Atropellar¨ªas a un adulto en vez de a un ni?o?
Quien haya experimentado alguna vez el horror que supone tener un accidente de tr¨¢fico siendo el conductor, sabe que la decisi¨®n de dar una tacada de freno o girar el volante se produce en d¨¦cimas de segundo. Pero hay casos extremos en los que adem¨¢s de los reflejos o la experiencia entra en juego un elemento tan subjetivo como es el sentido de la moral del propio conductor. Y esto es precisamente lo que esta web pone a prueba con un particular test moral relacionado con el Tr¨¢fico y la circulaci¨®n llamado la M¨¢quina Moral.
La M¨¢quina Moral
Desde los veh¨ªculos aut¨®nomos en v¨ªas p¨²blicas hasta los cohetes reutilizables no tripulados que aterrizan en buques aut¨®nomos, las m¨¢quinas inteligentes est¨¢n apoyando o asumiendo actividades humanas cada vez m¨¢s complejas a un ritmo creciente. Y por m¨¢s que el escenario ¡®Skynet¡¯ que planteaba el film Terminator a¨²n parece por fortuna lejano, la mayor autonom¨ªa dada a las m¨¢quinas inteligentes en estos papeles puede llevar a situaciones en las que ¨¦stas tengan que tomar decisiones de manera aut¨®noma que afectar¨¢n a la integridad f¨ªsica de humanos en una ¨¦poca en que no tenemos las tres Leyes de la Rob¨®tica de Isaac Asimov implementadas del todo.
Tesla Motors, Uber y otras son compa?¨ªas que est¨¢n trayendo la conducci¨®n aut¨®noma a los veh¨ªculos, y tambi¨¦n hemos visto ejemplos de transporte urbano automatizado. Pero ?qu¨¦ suceder¨ªa si una m¨¢quina tuviese que elegir entre dos factores dentro de un contexto de accidente, siendo el A por ejemplo estrellarse contra la mediana y el B atropellar a ciudadanos? Esto requiere, no s¨®lo una comprensi¨®n m¨¢s clara de c¨®mo los seres humanos toman tales decisiones, sino tambi¨¦n una comprensi¨®n m¨¢s clara de c¨®mo los seres humanos perciben la inteligencia de la m¨¢quina tomando tales decisiones.
Este es precisamente el objetivo de la M¨¢quina Moral, una plataforma creada por el prestigioso MIT para recopilar ¡°una perspectiva humana sobre las decisiones morales tomadas por las m¨¢quinas inteligentes¡±, como son los coches aut¨®nomos. A trav¨¦s de un test veremos dilemas morales en forma de escenarios en los que un coche sin conductor debe elegir el menor de dos males, como elegir si es m¨¢s factible chocar y matar a dos pasajeros que llevamos en el coche o por contra salvarlos a costa de atropellar y matar a cinco personas. ?Valen m¨¢s las vidas de los ocupantes del veh¨ªculo que las de personas desconocidas? ?Es mejor morir chocando contra un quitamiedos que vivir si ello implica atropellar a un anciano?
?C¨®mo reaccionar¨ªas en un accidente de coche?
Como observadores externos, nos toca juzgar cu¨¢l es el resultado que considerar¨ªamos m¨¢s aceptable. Cada escenario nos plantea un dilema moral diferente, y si por lo que sea no entendemos la imagen descrita, el comando Mostrar Descripci¨®n nos aclarar¨¢ la prueba. Al terminar veremos una serie de estad¨ªsticas que describir¨¢n nuestro comportamiento en base a elementos como si obedecemos las normas, si tendemos m¨¢s a proteger a un grupo de edad o g¨¦nero espec¨ªfico antes que a otro, si nuestra decisi¨®n se basa m¨¢s en factores puramente de cifras que morales, etc.
Un elemento ciertamente curioso es la posibilidad de comparar respuestas y estad¨ªsticas con miles de usuarios de todo el mundo, viendo lo variado que es el propio comportamiento humano y c¨®mo en tal o cual sociedad puede estar m¨¢s o menos influenciado. Si quer¨¦is hacerlo, basta con entrar aqu¨ª y darle al bot¨®n adecuadamente llamado ¡®Comenzar a Juzgar¡¯.