¿Podemos fiarnos de la inteligencia artificial?

08/05/2016 – 00:00 Por Carlos Manuel Sánchez – XL Semanal

Los gigantes de la tecnología están invirtiendo fortunas en inteligencia artificial. Pero ¿por qué científicos como Stephen Hawking nos alertan contra ella? ¿Perderemos el control frente a las máquinas? El debate científico está servido.

¿Llegará el día en que los autómatas, que nos obedecían como esclavos, se emanciparán y después de escapar a nuestro control pretenderán incluso dominarnos?

Suena a ciencia ficción. Si no fuera porque científicos de la talla de Stephen Hawking han alertado de que el destino de la especie humana está en juego. ¿Es así? ¿De verdad estamos ante una amenaza comparable al impacto de un asteroide o la bomba atómica? El debate está servido. Elon Musk, creador del coche eléctrico Tesla, ha donado nueve millones de euros para investigaciones que mitiguen los riesgos existenciales de la inteligencia artificial. Y Steve Wozniak, cofundador de Apple, confía en que los robots «se darán cuenta de que nos necesitan y nos cuidarán como si fuéramos sus mascotas». En el otro bando, Stephen Pinker profesor de Harvard pide menos alarmismo. «El miedo actual a la tiranía de los ordenadores descontrolados es una pérdida de energía emocional». Y lo compara con psicosis anteriores como la suposición de que se fabricarían clones para suministrar órganos de repuesto a personas enfermas; o el temor a que el gran colisionador de hadrones crease un agujero negro. Oren Etzioni, del Instituto Allen, zanja la cuestión: «Nos ha entrado complejo de Frankenstein».

Ya está por todas partes 

Los expertos solo están de acuerdo en que el desarrollo de la inteligencia artificial es uno de los mayores retos tecnológicos de la historia. Y no hay que fijarse solo en la robótica. La inteligencia artificial está ya por todas partes: el coche sin conductor de Google; los asistentes virtuales como Siri, de Apple; las armas autónomas… Y el Internet de las cosas la hará aún más ubicua. ¿Pero cuál es su nivel actual? Todavía estamos en una fase temprana. Lo que se conoce como ‘inteligencia artificial estrecha o débil’, porque está diseñada para realizar tareas limitadas, como una búsqueda por reconocimiento facial o controlar un marcapasos… Pero los científicos aspiran a crear una inteligencia artificial fuerte, que será multidisciplinar y que adelantará a la inteligencia humana.

No hace falta correr tanto… La inteligencia artificial débil ya está dando problemas. El primero: le está quitando el pan a mucha gente. Un informe del último Foro Económico de Davos señala que, combinada con otras tecnologías, eliminará siete millones de empleos de aquí a 2020 en los 15 países más avanzados. La automatización afectará sobre todo a profesiones que precisan tareas repetitivas o peligrosas, como telefonistas, cajeros de supermercado, mineros… Los Kiva, esos autómatas de color naranja que recorren los almacenes de Amazon, no son muy listos, pero tampoco duermen ni se van de vacaciones. Funcionarios y administrativos serán sustituidos por los chatbox, aplicaciones de conversación. En contrapartida, se crearán dos millones de empleos, sobre todo para ingenieros y matemáticos. Pero el saldo es negativo. Otro estudio alerta de que la mitad de las ocupaciones de hoy serán obsoletas en 2025. En Silicon Valley ya hay quienes reclaman, como el inversor Paul Graham, una renta básica para obreros de baja cualificación expulsados para siempre del mercado laboral por los robots.

¿Y si manipulan la bolsa?

Más problemas. La capacidad de los ordenadores de procesar cantidades gigantescas de datos puede permitir la manipulación de las Bolsas o el ataque a una red eléctrica. Otro peligro es una carrera armamentista tan temeraria como lo fue la nuclear: soldados robóticos, sistemas de combate autónomo, drones… Estados Unidos dispone de unos 8000 de estos aparatos que ya han matado a más de 2400 personas, según la Institución Brookings.

Un manifiesto firmado por 700 científicos alerta de la necesidad de regular la inteligencia artificial a nivel internacional. Y de hacerlo ya. Porque los riesgos aumentarán cuanto más cerca estemos de una inteligencia artificial fuerte. ¿Y cuándo sucederá eso? La mayoría de los expertos considera que la probabilidad de que existan máquinas más inteligentes que el ser humano antes de 2060 es alta.

¿Por qué? Porque los ordenadores han empezado a aprender por sí mismos… Siri, por ejemplo, ya es una inteligencia híbrida, que aprovecha su acceso a millones de datos en la nube para sacar sus propias conclusiones y optimizarse. Es lo que se conoce como ‘aprendizaje profundo’. Cierto es que todavía les cuesta horrores. El coche sin conductor de Google también se estrella. Y se necesitaron 16.000 ordenadores trabajando en red y diez millones de visionados para identificar a un gatito en vídeos de YouTube. ¿Cuántos mininos necesita ver un niño para entender lo que es un gato? Uno.

Emulando la intuición

Pero si Facebook, Apple, Microsoft y otros colosos se empeñan en crear una máquina inteligente, lo más probable es que tarde o temprano lo consigan. Ante todo porque es un negocio. IBM ya ha invertido mil millones en su superordenador Watson. Google compró la start-up DeepMind, especializada en redes neuronales, y derrotó al campeón humano de Go, un juego de estrategia. ¿Por qué es importante este hito? Porque es la primera vez que una máquina emula la intuición, ese valor intangible del cerebro humano. En un tablero de Go, en el que se pueden dar tantas combinaciones como átomos tiene el universo, no basta con utilizar la fuerza bruta del cálculo, como en el ajedrez, que fue lo que hizo Deep Blue contra Kaspárov; hay que descartar cantidades ingentes de jugadas posibles y fiarse de las corazonadas.

El aprendizaje profundo y cada vez más acelerado podría llevar a la superinteligencia. El gran teórico de este fenómeno es Nick Bostrom, profesor de Filosofía en Oxford. «Una neurona envía impulsos a 200 hercios, es decir, 200 veces por segundo, mientras que un transistor opera en la frecuencia de los gigahercios (mil millones de ciclos por segundo). Las neuronas propagan el impulso lentamente a lo largo de los axones, a un máximo de 100 metros por segundo. Pero en las computadoras las señales pueden viajar a la velocidad de la luz», explica. Además, el tamaño importa… El cerebro humano tiene que encajar dentro del cráneo, pero una computadora puede ser tan grande como una habitación; y trabajar en paralelo con otras computadoras. «Ante la perspectiva de una explosión de la inteligencia, nosotros los humanos somos como bebés que juegan con una bomba», advierte Bostrom.

«No nos queda otra que alinear los intereses de la humanidad con los de las máquinas», opina Viktoriya Krakovna, de la Universidad de Harvard. La inteligencia artificial no tendrá emociones. No será amable o malvada a propósito, así que primero hay que obligar a los ingenieros a que la creen para respetar unas normas morales universales. Y después confiar en que las máquinas sigan respetándolas cuando se independicen. Y quizá no baste con darle al botón para neutralizarlas.

Al pie de la letra

Otro riesgo es que las máquinas, por muy listas que sean, se toman las instrucciones al pie de la letra. Y si ya es difícil programar bien, ¿qué pasará cuando las máquinas piensen por su cuenta? «Un sistema de prospecciones geológicas podría idear métodos muy eficaces para lograr su misión, sin tener en cuenta si son dañinos e irreversibles para el planeta», alerta el cosmólogo Max Tegmark.La alarma sobre la inteligencia artificial nos distrae de un problema más acuciante, opina el filósofo Daniel Dennet: «Hemos adquirido una comprensión de la naturaleza que nos permite por primera vez en la historia controlar muchas facetas de nuestro destino. Y ahora estamos a punto de renunciar a este control y dejarlo en manos de entes artificiales, poniendo a nuestra civilización en modo piloto automático. Internet no es un ser inteligente, pero nos hemos vuelto tan dependientes de la Red que si colapsara, se desataría el pánico. El peligro real no son máquinas más inteligentes que nosotros, sino que cedamos nuestra autoridad a máquinas estúpidas».

¿Futuro imperfecto?

Científicos, inventores y emprendedores reconocen que la inteligencia artificial es un hecho. Pero no todos lo ven de la misma manera…

A favor

La inteligencia artificial beneficiará a la humanidad

Ray Kurzweil. Impulsor de la Universidad de la Singularidad. «La inteligencia artificial nos traerá la singularidad a mediados de siglo y con ella la alianza hombre-máquina, es decir, la fusión de nuestras mentes con las capacidades de los superordenadores. Será beneficiosa».

Sam Altman. CEO de ‘Y Combinator’. «Trabajo en una inteligencia artificial de código abierto. Los desarrolladores implementarán programas de vigilancia. La máquina siempre funcionará según criterios y límites impuestos por humanos».

Michio Kaku. Físico teórico. «Nuestros robots siguen sin tener conciencia. No hay que alarmarse. Si alguna vez piensan de manera independiente y quieren escapar de nuestro control, sería muy a largo plazo. Y bastaría con instalarles un mecanismo que los desconecte».

David Gelernter. Profesor de Yale. «Una máquina nunca podrá enamorarse o sentir miedo a la muerte. Los científicos presuponen que el pensamiento lógico y racional es superior, pero una máquina nunca podrá emular la inteligencia humana hasta que no tenga alucinaciones».

En contra

La inteligencia artificial acabará con nosotros

Bill Gates. Cofundador de Microsoft. «Estoy en el bando de los que sienten preocupación ante una superinteligencia. Primero, las máquinas harán un montón de trabajos por nosotros y no serán tan inteligentes. Pero pocas décadas más tarde serán una amenaza».

Stephen Hawking. Físico teórico. «Llegará un momento en que la inteligencia artificial se desarrolle por su cuenta y se optimice cada vez más rápido. Los humanos estamos limitados por nuestra lenta evolución biológica. No podemos competir. Podría suponer el final de la raza humana».

Nick Bostrom. Director del Instituto para el Futuro de la Humanidad. «Podemos estar ante un cambio fundamental en la jerarquía del poder. Una vez que haya superinteligencia, el destino de la humanidad dependerá de lo que haga esa superinteligencia».

Elon Musk. CEO de Tesla Motors. «Espero que los humanos no seamos el motor de arranque biológico para una superinteligencia digital. Por desgracia, cada vez es más probable. Todo va demasiado rápido. Hay que investigar en seguridad mientras estemos a tiempo».

¿La mente se puede descargar como una app?

Más de 60 científicos han firmado una carta abierta por el derecho a la criogenización, es decir, a la congelación del cerebro para preservar su información neuronal después de la muerte. Asumen que los datos almacenados (memoria, identidad…) podrán llegar a recuperarse con la ayuda de sistemas de conexión hombre-máquina. Muchos expertos consideran que el cerebro, con su red de neuronas y axones como interruptores químicos que se encienden y apagan, es equiparable al sistema binario de unos y ceros de un software. Y algún día se podrá descargar como cualquier aplicación en otros dispositivos. Sin embargo, el pionero de la ingeligencia artificial David Gelernter que perdió una mano al abrir una carta explosiva enviada a su despacho por el terrorista Unabomber en 1993 discrepa. «Nunca he visto tanta idiotez y presunción entre mis colegas. La mente humana no puede separarse del cuerpo. Nuestra inteligencia no es la misma de niños que de adultos. Y nuestras experiencias y emociones la moldean».