Jaime Rubio Hancock 25 OCT 2018
El MIT recurre al dilema filosófico del tranvía para saber a quién podrá atropellar un coche autónomo
Vas viajando en coche autónomo cuando alguien cruza la calle sin mirar. El vehículo no tiene tiempo para frenar: sus únicas opciones son atropellar a esa persona, matándola, o estamparse contra un muro, matándote a ti. ¿Qué debería hacer? ¿Y si esa persona es un niño? ¿Y si son cinco personas y tú vas solo en el coche? ¿Y si es el coche el que ha cometido un error y se ha saltado un semáforo en rojo?
Un grupo de científicos del Instituto de Tecnología de Massachusetts (MIT) diseñó una serie de escenarios parecidos y los publicó en su web, llamada Máquina Moral. Estos escenarios se basan en el dilema del tranvía, un problema filosófico con más de medio siglo de historia que se ha convertido en uno de los más debatidos y con más variantes.
El objetivo del MIT era recoger información acerca de cómo reaccionaríamos en estas circunstancias para que programadores de vehículos sin conductor y reguladores las tengan en cuenta. Tal y como explica este artículo de EL PAÍS, participaron dos millones de personas, llegando a tres conclusiones principales: por lo general, damos prioridad a salvar al mayor número de gente posible, a salvar a niños frente a personas mayores y a preferir a humanos frente a mascotas.
El dilema del tranvía
La primera versión del dilema del tranvía es obra de la filósofa Philippa Foot, que lo publicó en un artículo de 1967. Dice así: imagina un tranvía desbocado y sin frenos que se dirige hacia cinco trabajadores que están en la vía. No puedes avisarles y tampoco puedes detener el tren, pero sí puedes accionar una palanca que lo desviará hacia otra vía. Allí hay otro trabajador, pero está solo.
¿Debes apretar la palanca? La mayor parte de la gente a la que se le plantea esta pregunta contesta que sí.
En 1985, la filósofa, Judith Jarvis Thomson, propuso una variante de este experimento. En este caso estás en un puente y ves cómo el tranvía se dirige hacia esos cinco trabajadores. Solo hay una forma de detenerlo: empujar a un tipo corpulento que está a tu lado. Él morirá, pero al menos los otros cinco salvarán sus vidas.
En este caso, la mayor parte de la gente cree que no podemos empujar a una persona. Y eso que también estamos hablando de sacrificar una vida para salvar otras cinco.
Uno de los escenarios que propone el MIT en su web
No se trata solo de estimaciones más o menos a ojo: el Test de Sentido Moral de la Universidad de Harvard, al que contestaron más de 200.000 personas, planteaba estos dilemas. Según recoge el filósofo David Edmonds en su libro Would You Kill The Fat Man? (¿Matarías al hombre gordo?), el 90% de estas personas accionarían la palanca, pero solo un 10% empujaría al hombre.
Aunque el resultado parece el mismo (matar a un tipo para salvar a otros cinco) no nos sentimos igual cuando accionamos una palanca que cuando empujamos a alguien. El neurocientífico Joshua Greene usó resonancias magnéticas para mostrar que en el primer escenario se activan regiones del cerebro asociadas al razonamiento, mientras que cuando se propone empujar a alguien las regiones activadas son las relacionadas con la emoción.
Este dilema no es solo un juego y tiene implicaciones en el mundo real. Y no solo en lo que se refiere a vehículos como tranvías y coches autónomos. Por ejemplo, cuando se financia el estudio de un medicamento en detrimento de otros. ¿Es correcto hacerlo si creemos que vamos a salvar más vidas? O cuando se habla de “daños colaterales” en un ataque con drones. ¿Tiene derecho un gobierno occidental a acabar con la vida de civiles inocentes en otros países si con eso va a evitar la muerte de civiles inocentes en su propio país? O cuando te compres tu coche autónomo. ¿Qué derecho tiene Google a decidir si debes sacrificarte por otras cinco personas?
El dilema del túnel
El dilema ya tenía versión con coche autónomo antes de que llegara el MIT. Se llama “El túnel” y la expuso Jason Millar, ingeniero y filósofo, en 2014:
“Estás viajando por una carretera de un solo sentido en un coche sin conductor y te acercas a un túnel muy estrecho. Justo cuando estás a punto de entrar, una niña intenta cruzar, pero tropieza y cae, bloqueando la entrada al túnel. No hay tiempo para frenar y el coche solo tiene dos opciones: arrollar a la niña o girar y estrellarse contra el muro. ¿Qué debería hacer el coche?”.
Como explica Millar, un humano reacciona por instinto, con un volantazo o bloqueando los frenos, por ejemplo. Pero los coches autónomos como los que está desarrollando Google estarán programados para responder a este tipo de emergencias. Quizás también con un volantazo y bloqueando los frenos: según recoge The Guardian, los ingenieros de la empresa aseguraban que, en caso de que se llegara a una situación similar, la respuesta más habitual sería frenar todo lo que se pudiera, ya que no suele haber tiempo para nada más (a pesar de los esfuerzos del MIT).
En opinión de Millar, la responsabilidad de responder a esta pregunta no debería ser de los ingenieros, sino de los conductores. Por ejemplo, alguien que viajara con su hijo podría preferir que en caso de accidente el coche arrollara a quien fuera necesario antes de poner su vida en peligro. No se trata de dejar un margen arbitrario para sembrar el terror en la carretera, sino de permitir que los conductores sigan responsabilizándose de sus decisiones.
El dilema del trasplante
Michael Sandel arrancaba su curso en Harvard sobre ética y justicia hablando de este dilema. Proponía una variante, la de los trasplantes: eres un cirujano y tienes a cinco pacientes enfermos que necesitan cinco trasplantes de órganos diferentes o morirán. Y en otra habitación tienes a un paciente ya recuperado y con órganos sanísimos. ¿Puedes matarlo para salvar cinco vidas?
Sandel resume las posturas respecto al dilema del tranvía, enlazando con las ideas de dos corrientes filosóficas:
– El consecuencialismo de Jeremy Bentham y John Stuart Mill: lo importante son los resultados. Es mejor que muera solo una persona a que mueran cinco.
– La deontología de Immanuel Kant: tenemos unos deberes y uno derechos que no son relativos. Nadie tiene derecho a matarnos aunque sea para salvar a otras cinco personas.
El estudio de MIT recuerda que es la primera vez que hemos permitido que una máquina decida quién debe vivir o morir. Este reto es «una oportunidad única para decidir, como comunidad, qué creemos que está bien y qué está mal, y para asegurarnos de que las máquinas, al contrario que los hobre, siguen sin error esas preferencias morales». También añade que no podemos olvidar que en lo que se refiere a la ética, «los humanos experimentamos conflictos internos, desacuerdos personales y diferencias culturales».
Difícil trasladar todo eso a un coche. Las preguntas que planteaba esta universidad aún están disponibles en su web. Están traducidas al español y, además, al final comparan tus respuestas con la media.