Searle y La habitación China, Alejandro Llano

por | 2 de noviembre de 2015

¿Piensan las máquinas?

En busca de la trascendencia. Ariel. 2006. p. 116-121.

El problema metodológico que se plantea en el supuesto de primates en cautividad, adiestrados por personas, es similar al que aparece respecto al problema de si los ordenadores digitales piensan o pueden llegar a pensar: es la cuestión de la Inteligencia Artificial.

En torno a este tema -el de la Inteligencia Artificial- el filósofo analítico John Searle ha utilizado el símil de la habitación china, Searle ha demostrado que es posible -y ya se logra- construir ordenadores cuyos programas les permiten comportarse como si pensaran; pero eso en modo alguno quiere decir que realmente piensen. Por una razón fundamental: porque los programas de los ordenadores -basados en la combinación de numerosísimas alternativas 1/0- tienen exclusivamente un carácter sintáctico, pero de ninguna manera poseen una índole semántica; es decir que las secuencias que permite un programa computacional –por avanzado que sea- no comportan contenidos significativos (semántica), sino sólo secuencias de signos carentes de significado (sintaxis). Esto equivale a decir que, aunque el ordenador sea capaz de utilizar el idioma inglés, no entiende el inglés, o sea, no sabe nada de lo que se dice en inglés. Y es aquí donde Searle pone el símil de la habitación china. Yo puedo estar encerrado en un cuarto con los miles de signos que componen el idioma chino clasificados en cajas, y estar tan bien «programado» que sepa combinar los signos correspondientes de tal manera que resulten frases en chino, e incluso responder con combinaciones de este tipo a conjuntos de signos -preguntas- que alguien introduzca desde fuera de la habitación. Pero, a pesar de todo esto, no entiendo el chino, no sé lo que se quiere decir, He aprendido a usar unos signos, y nada más. No tengo ni remota idea de hablar chino.

Como dije antes, existe cierta semejanza de este planteamiento con la cuestión del alcance que pueda tener la comunicación animal de secuencias del tipo «si… entonces…», Acabamos de ver que, por perfecto que sea el ordenador, no supera el plano de la sintaxis, de la secuencia de «bits», sin alcanzar el nivel de la semántica. Desde el punto de vista del conocimiento, un animal es superior a cualquier ordenador. Un animal realmente conoce, cosa que nunca logrará una máquina, por mucho que se empeñen en Silycon Valley. Es más, el «lenguaje» de los simios revela que alcanzan el plano semántico, que de algún modo conocen aquello a lo que un signo se refiere. Pero la semántica del lenguaje animal es solamente extensional y nunca llega a ser preposicional o intensional: significa el conjunto de casos particulares (extensión), pero no la cualidad o razón común (intensión). Dicho de otro modo, es un lenguaje que denota, no connota, Con el lenguaje intensional -del que son capaces los hombres pero, que se sepa, no lo son los animales- no nos referimos directamente a una cosa particular, sino a una proposición, a un logas, a una raizo, a una razón. Alcanzamos un nivel de contenidos abstractos, que está ausente en el plano semántico puramente extensional, y que se requiere para conocer un porqué, una razón por la que un acontecimiento da origen a otro.

Esto que acabo de decir resulta demasiado abstruso. Es preferible señalar que Nietzsche relató la situación lingüística de los animales con forma de apólogo en sus Consideraciones intempestivas: «Una vez el hombre preguntó al animal: ¿por qué [¡razón!] tú no me hablas de tu felicidad, sino que estás ahí mirándome fijamente? El animal deseó hablar y contestarle: la razón es que cada vez que quiero hablar me olvido inmediatamente de lo quería decir. Pero inmediatamente se olvidó de su respuesta y permaneció silencioso… Y así el hombre continuó extrañándose de que el animal no hablara.»