Por qué un coche autónomo preferirá atropellar antes a un pobre que a un rico

por | 3 febrero 2020

Además de dilemas morales, la inteligencia artificial aplicada a la conducción plantea una revolución en el Derecho, la economía, el urbanismo y hasta en la condición de ciudadano

J. Corbacho

Imagina que un tranvía corre fuera de control y que unos metros más adelante hay cinco personas en los raíles. Si el tren continúa su recorrido, las atropellará. Pero si alguien acciona un mecanismo, la locomotora se desviará y arrollará solo a una. ¿Apretarías el botón?

Esta difícil pregunta es conocida como el ‘dilema del tranvía’, un experimento ético ideado en 1967 por la filósofa Phillipa R. Foot, que durante su vida investigó sobre la conexión entre racionalidad y moral. La complicada pregunta no tiene —y posiblemente nunca tenga— una respuesta ‘correcta’.

Imagina ahora algo similar con un coche autónomo sin conductor. La decisión de desviarse o no ya no depende de un observador externo; el vehículo actuará en función de cómo haya sido programado. Pero esta tarea —la de dotar de inteligencia artificial al automóvil— sí que depende de personas de carne y hueso; de las mismas que no se ponen de acuerdo para solucionar el primer dilema.

La ética y el cerebro humano

Un estudio del grupo de Ingeniería Biomédica de la Universidad de Valladolid (UVa), en colaboración con científicos de Ottawa (Canadá) e Hiroshima (Japón), ha descubierto cómo funcionan nuestras ondas cerebrales cuando nos enfrentamos a una decisión moral. Las ‘delta’, ‘theta’ y ‘alfa’ aparecen en estos casos, según revela la investigación, que ha sido publicada en la prestigiosa revista ‘Scientific Reports’.

«Para realizar la investigación diseñamos una metodología que consistió en presentar una serie de situaciones hipotéticas a los participantes en los que tuvieran que decidir si salvar a unas personas o a otras», explica a Teknautas Javier Gómez, investigador de la UVa y uno de los responsables del descubrimiento.

«Mientras realizaban esta tarea, se les registró la actividad eléctrica cerebral mediante un electroencefalograma. A esos mismos participantes se les presentó de nuevo una serie de casos ficticios en los que debían volver a tomar una decisión; en esta ocasión esa elección era puramente deductiva, sin ningún tipo de carga moral», añade. «Igual que antes, se supervisó su respuesta cerebral. De esta manera pudimos comparar ambas gráficas y aislar la parte relacionada con la carga moral».

Y aunque, como explica Gómez, «solo estamos empezando a vislumbrar la punta del icerberg», a —muy— largo plazo, uno de los ámbitos en el que se podrá aplicar estos conocimientos (por el momento, sin utilidad práctica) es el sector de los coches autónomos, vehículos que, con mayor o menos independencia del ser humano, sean capaces de moverse por sí mismos.

He aquí el ‘dilema del tranvía’ del siglo XXI: «Imagina que viajas en un automóvil sin conductor y llega a un cruce, pero por cualquier razón no puede detenerse», propone Javier. «¿Debería el coche sacrificarte? ¿O debería sacrificar a los peatones de la acera? ¿Qué preferirías como pasajero?», se pregunta.

Cómo aplicarlo a los coches sin conductor

Cuestiones similares a las planteadas por Javier Gómez son las que propone la ‘Moral Machine’, un juego ‘online’, desarrollado por el Massachusetts Institute of Technology (MIT), que te permite decidir si coches virtuales —autónomos o no— ‘matan’ a ancianos, ladrones, niños, perros, gatos, gente obesa, deportistas, médicos o vagabundos que cruzan la calzada en verde o en rojo. [Pruébalo aquí]

Del mismo modo, los usuarios pueden disponer si el vehículo debería desviarse o no de su camino y sacrificar a sus ocupantes, también de distintas edades, especies, profesiones o sexos. El objetivo de esta ‘máquina moral’ es elaborar un perfil personalizado en función de la importancia que quien lo pruebe concede al respeto a la ley, al estátus, a la edad de las potenciales víctimas o a la especie a la que pertenezcan.

La web, además, elabora tablas estadísticas con las respuestas obtenidas, según el sexo, la edad o el país de nacimiento de cada jugador. Pero lo que podría parecer una aproximación hacia una ética (casi) universal acabó topándose con un nuevo reto: el cultural.

«Los científicos del MIT se dieron cuenta, tras analizar las sugerencias de casi 40 millones de personas, de que en algunos países prefieren atropellar antes a un pobre que a un rico. Y en otros sucede lo contrario», explica a este diario Fernando Aguiar, investigador del CSIC especializado en ética experimental e identidad social.

«Lo que sí arrojó el estudio es que existe bastante acuerdo para salvar una vida humana frente a la de un animal», añade. «Y lo mismo con la edad: jóvenes antes que ancianos».

‘Matar’ a alguien a golpe de click resulta más o menos fácil. Pero en la vida real estas decisiones y sus consecuencias son más complejas: una investigación, aún en desarrollo —realizada por Aguiar, en colaboración con Pilar Aguilar e Ivar Hannikainen— reveló que los tripulantes de un vehículo totalmente autónomo que atropelle a alguien se sentirían culpables del suceso, a pesar de no haber tocado ni una sola vez el volante.

La IA, por marchas

«Podemos decir que existen dos tipos de inteligencia artificial: la débil, encargada de una tarea concreta; y la fuerte, que sí puede tomar decisiones de alto nivel como hacemos los humanos. De momento, todo el software implementado en los coches pertenece al primer grupo, que no contempla conflictos morales», explica a ‘El Confidencial’ Felipe Jiménez, director de la Unidad de Sistemas Inteligentes en el Instituto Universitario de Investigación del Autómovil (INSIA), quien coincide con Gómez en que aún estamos lejos de los dilemas morales vinculados a los coches sin conductor.

«A día de hoy, hemos llegado al nivel 2 de conducción autónoma y cuestiones vinculadas a la ética estarán más presentes en el nivel 4», indica. «Pero hay fabricantes que son más cautos y ni siquiera se plantean llegar al nivel 3, porque creen que nadie estará protegido jurídicamente«, expone Jiménez.

Hay otros que sí aseguran que el quinto nivel —vehículos inteligentes que no precisan de ayuda humana— llegará en apenas media década. «Algunos lo fechan en 2025«, apunta Borja Adsuara, profesor de Derecho y experto en Abogacía Digital. «Pero cuando la conducción autónoma sea una realidad —recuerda— deberían también estar desarrolladas otras cosas, como una legislación adecuada o una señalización acorde a ella».

«El sector de la conducción autónoma avanza con mucha rapidez, hasta el punto de que ya circulan coches inteligentes sin tener las ciudades totalmente preparadas para ello», comenta Fernando Broncano, doctor en Filosofía especializado en la ética de la ciencia. «Imagínate que hiciéramos eso mismo en el ámbito de los medicamentos. ¿Qué pasaría si no analizamos suficientemente los efectos secundarios o las intolerancias?».

¿Hacia una ciberdistopía?

¿Y qué rol deben desempeñar los gobiernos? «Pongamos que la DGT empieza a obligar a todos los fabricantes a que sus coches cuenten con un dispositivo de asistencia con inteligencia artificial», plantea Adsuara. «Quizá empiecen sugiriéndolo, como algo opcional, pero ese aparato es un chivato, y registrará cada vez que un conductor infrinja una norma», detalla.

«El interés superior que motivaría esta norma hipotética sería noble: la reducción de accidentes, ¿pero estamos dispuestos a sacrificar el libre albedrío por tener mayor seguridad? ¿Dónde quedará la libertad humana con tanto control externo? No seremos libres ni para infringir las normas», relata.

¿Estamos dispuestos a sacrificar la libertad, el libre albedrío por tener mayor seguridad? ¿Dónde quedará la libertad humana?

Adsuara contempla también otros posibles riesgos: «Si se nos va de las manos, los coches autónomos podrían tomar decisiones en función del ‘valor social’ de los ciudadanos —una clasificación que ya existe en China— y que la IA esté programada para, dado el caso, atropellar a los disidentes y a los ‘malos’ ciudadanos. ¿Qué gobierno podría establecer quién merece vivir y quién menos?».

Para que una futura normativa sobre conducción autónoma contemple estos dilemas, Adsuara propone incluir el punto de vista de abogados o profesores de ética en los debates «al mismo nivel que los de programadores o ingenieros».

Coincide con él Broncano, quien apuesta por «realizar estudios amplios en los que se consulte tanto a especialistas en moral como a cualquier ciudadano». El propósito —relata— es el de reforzar el «conocimiento ético colectivo» que luego va a aplicarse a la máquina.

Claro está —52 años lleva el ‘dilema del tranvía’ sin resolverse— que va a haber controversias inevitables. «Pero estos debates nos van a servir para ver qué opinan estudiosos y legos, además de para localizar qué asunto es el que causa conflicto y aplicar entonces el Derecho sobre ese supuesto», expone Fernando Broncano.

«En algunos casos serán dilemas nuevos, nunca antes abordados, pero esto también ha ocurrido en ámbitos que evolucionan, como la Medicina. De esta forma, podemos adelantarnos», detalla. «Y ya pasó algo similar tras el 11-S«, explica Fernando Aguiar. «Se planteó si era ético derribar a un avión secuestrado, con 100 pasajeros dentro, que podía atentar contra las torres a fin de salvar las vidas de 3.000 personas, por ejemplo, que trabajaban en ellas».

Desde el punto de vista de la filosofía existen dos tradiciones morales mayoritarias: el utilitarismo (que busca maximizar el beneficio) y la deontología, asociada a Kant (que aboga por cumplir un deber por encima de las consecuencias). «Y la mayoría de la gente tiene una intución utilitarista —creen, a priori, que más vidas salvadas es mejor que menos— al igual que los ingenieros y los economistas, acostumbrados a tener que maximizar el beneficio», expone.

«Pero el problema viene cuando entramos en los matices: ¿y si una víctima es mi hija? ¿Moriría yo, como pasajero, para evitar matar a un peatón de menor edad?», se pregunta Aguiar, aunque descarta de momento una ‘regulación ética a la carta’, gracias a la cual los dueños de un coche autónomo podrían decidir si su vehículo se decanta por sacrificar a unos a otros. «Supongo que no; es exagerado, pero podría darse el caso».

El papel de los fabricantes

La otra pata de esta difícil ecuación son los fabricantes. «Cada marca puede programar a sus coches de una manera: imagina que los de la marca equis prefieren estrellarse contra un muro antes que atropellar a un viandante que pasa por delante. ¿Te lo comprarías? A la hora de vender coches hay un interés comercial. ¿Y serán capaces las empresas de programarlos para poner en riesgo las vidas de los compradores?», se pregunta Adsuara, además de recordar que estos vehículos son la suma de las tecnologías de distintas compañías.

Los Ayuntamientos también tendrán voz y voto en la regulación. Y en pleno debate sobre las ventajas e inconvenientes de las normativas municipales —véase Madrid Central— sobre tráfico y contaminación, Adsuara avanza que, dentro de poco, a los consistorios les tocará legislar sobre «las zonas por las que puedan circular los coches autónomos».

Además, según expone el experto, debemos plantearnos qué pasará con las multas y los radares —adiós a la recaudación; eso parece claro— y qué modelos estarán permitidos por la ley y cuáles no.

Por el momento, el del estado de Florida (EEUU) es el primer gobierno del mundo que que ha redactado una norma que permite la circulación «experimental» de los coches totalmente autónomos, a los que otorga la misma consideración legal que a los convencionales. La idea es atraer a los fabricantes a la región, para que prueben sus vehículos.

Hace un año y a tres mil kilómetros de allí, en Tempe (Arizona, Estados Unidos), otro experimento dejaba la primera muerte provocada por un coche autónomo, cuando un Uber arrolló fatalmente a una viandante.

El cofundador de Tesla no se atreve

El escepticismo hacia la conducción autónoma llega incluso a Martin Eberhard. Y sorprende, porque este ingeniero estadounidense fundó y dirigió durante varios años la compañía Tesla, el más famoso fabricante de vehículos eléctricos del mundo y que —ahora bajo la batuta del polémico Elon Musk— se adentra en todo ámbito tecnologíco que suene a ‘futuro’.

«Nunca [me he montado en un coche autónomo]. Sé demasiado como para subirme a uno», declaró a este mismo periódico durante una entrevista. «No sabemos cómo hacer un software sin fallos», expuso. «Y si lo que falla es el coche en el que viajas, puedes morir«.

Qué harán las aseguradoras

La revolución que promete la conducción inteligente no solo transformará a las empresas directamente vinculadas a la fabricación de vehículos sino a todas las compañías, en mayor o menor grado, del sector. Si los coches autónomos se convierten en una realidad —expone Borja Adsuara— las aseguradoras deberán cambiar su modelo de negocio.

«Los accidentes de tráfico se producen casi siempre debido a distracciones o fallos en los reflejos, no por dilemas éticos», explica. Pero al meter a la inteligencia artificial en la ecuación, la cosa cambia: «Si el código de circulación está integrado en el ‘software’ de un coche, no podremos infringirlo, por lo que las antiguas compañías de seguros acabarían dedicándose a responsabilizarse por los posibles fallos de la máquina». «El seguro del coche —añade— será entonces como el de un ascensor».

Para detectar los posibles errores en los automóviles —según Felipe Jiménez— lo mejor que podemos hacer es echarlos a rodar. «Veo más razonable ponerlos ya en marcha —con todos los riesgos que implica— y ver lo que sucede que trabajar sobre el aire», indica. «Es mejor descubrir así los fallos, en la calle, donde se dan supuestos que no existen en un circuito cerrado».

De momento, a los coches sin conductor les falta ‘rodaje’. «Hay un porcentaje bastante alto de situaciones que los coches semiautónomos no saben manejar y en las que devuelven el control al humano», detalla. «Imagínate que las rayas de la carretera están mal pintadas en un tramo. En casos como estos, lo que habría que hacer es dotar de mayor información al vehículo —que cuente con un detallado mapa de las carreteras digitalizado— para que pueda seguir su camino». Y para ello, estos aparatos necesitan horas y horas sobre el asfalto.

Discrepa con este planteamiento Fernando Broncano, quien aboga por implantar «muchos controles previos» y que existan «comités de ética para controlar este fenómeno», como ocurre con el sector de la salud.

Y ya existen en algunos países, como Alemania, —explica su colega Aguiar— donde se elabora una guía de comportamiento para los vehículos autónomos. Según han acordado los expertos germanos, la vida de un humano vale más que la de un animal, aunque «no deja claro si se opta por maximizar el número de vidas que salvar».

«Lo que se hacía hace años con la Inteligencia Artificial tradicional —un ordenador que juega al ajedrez, por ejemplo— es intentar que la máquina simule la inteligencia humana, introduciendo ‘sentido común’, un guion, en los sistemas procedimentales de los aparatos; ahora eso ha cambiado», apunta Broncano.

«Y dejar que, ante grandes problemas como estos, la máquina calcule simplemente las consecuencias de sus actos y tome ella sola la decisión no es buena idea», expone. «Aunque este consecuencialismo frívolo, que sólo tiene en cuenta los resultados de las acciones, está en la mente de bastantes de quienes trabajan en esta cuestión».

Code is the ‘new law’

«Estamos caminando hacia la coexistencia, lo que no debemos es entregar el mundo a las máquinas«, advierte Borja Adsuara. «Si dejamos a la IA que interprete las leyes, se dará cuenta de que hay normas mejorables —y hasta contradictorias— e incluso podrá redactar unas nuevas. Pero, ¿y si la singularidad humana fuese la imperfección? Además, la aplicación automática de la ley genera injusticia; hace falta un juez que valore y decida en función de cada caso concreto».

«Hablar de ética es quizá muy etéreo aún«, explica Felipe Jiménez, quien considera indispensable «que las decisiones de los vehículos sin conductor sean explicables». «Necesitamos saber qué ha motivado que la inteligencia artificial tome una decisión u otra e incluso qué le ha llevado a equivocarse». Y, por el momento, está siendo difícil conseguirlo.

Y como recuerda el director de Sistemas Inteligentes del INSIA, que las decisiones que tome una inteligencia artificial se parezcan a las humanas no es garantía ni de ética ni de éxito. «Aunque todavía es difícil extrapolarlo, las motivaciones de un conductor de carne y hueso no tienen por qué ser las más correctas».

Está costando —y nada garantiza que sea bueno— que una máquina se comporte como un humano. Y está costando que un humano deje de comportarse como tal: hace escasos días, el CEO de Waymocompañía propiedad de Google, cuyos vehículos semiinteligentes son hoy de los más avanzados— anunciaba que la empresa tuvo que paralizar en 2013 unos experimentos con coches autónomos.

¿El motivo? Los conductores que probaban un dispositivo de asistencia incumplieron la única norma que les impuso el fabricante: tener las manos al volante. Y los jefes les ‘cazaron’ mandando mensajes de móvil, rizándose las pestañas o incluso dormidos a 90 km/h. La perfectamemente imperfecta naturaleza humana.