Inicio > Actualidad > Entrevistas > Juan Antonio Valor: “La inteligencia artificial nos va a exigir cambiar el concepto de humanidad”

Juan Antonio Valor: “La inteligencia artificial nos va a exigir cambiar el concepto de humanidad”

Juan Antonio Valor: “La inteligencia artificial nos va a exigir cambiar el concepto de humanidad”

El futuro fue anteayer. La humanidad se acerca a pasos agigantados al cambio más importante de toda su historia; la revolución del Neolítico y la Industrial no le llegan a la de la inteligencia artificial ni a la altura de los tobillos. El debate ya surgió en el siglo XX, y fue un genio, Alan Turing, el que teorizó el cambio que estamos viviendo ahora. En plena transformación digital, en 2002, Larry Page, cofundador de Google, ya lo tenía claro cuando le preguntaron para qué servía el buscador que había creado junto a Sergey Brin: “Bueno, en realidad estamos desarrollando una inteligencia artificial”. Juan Antonio Valor Yébenes nos propone en su libro Qué será de nosotros: Cómo la IA transforma la humanidad (Plaza y Valdés) una reflexión sobre este momento de zozobra que estamos viviendo, y lo hace de una forma clara, concisa, divulgativa y sin alarmismos. Black Mirror ya no es una serie distópica, los distópicos somos nosotros. Por eso, Juan Antonio Valor nos anima a aceptar que ya no somos los únicos humanos: las máquinas son también parte del club.

Hablamos con Juan Antonio Valor de reducir nuestros sentimientos a algoritmos recursivos, acerca de la deshumanización de la guerra al utilizar la inteligencia artificial y sobre los nuevos congéneres de los humanos.

*****

—¿Se puede mirar a la inteligencia artificial sin miedo?

—Es habitual en los ámbitos académicos mirar la inteligencia artificial con mucho miedo y mucha sospecha. Incluso se valoran muy mal los comentarios y las actitudes positivas sobre la inteligencia artificial. La IA siempre está bajo sospecha, sobre todo en los ámbitos culturales. En el libro he tratado de hacer lo contrario: sacar a la luz todas sus posibilidades, que son muchas. La inteligencia artificial nos va a exigir cambiar el concepto de humanidad; necesitamos uno más amplio. Podemos integrar de una forma muy natural todos los logros que nos aporta. El propósito era hacerle un guiño a Ortega y Gasset; él también lo veía así: la tecnología nos tiene que llevar a ampliar el concepto de humanidad.

—En el prólogo del libro, Markus Gabriel hace referencia al momento en el que al dotar a las máquinas de inteligencia, los seres humanos nos convertiremos en máquinas. ¿Cuánto queda para que ese proceso de retroalimentación se complete, si no lo ha hecho ya?

"La inteligencia no depende de facultades misteriosas como la mente o el alma, sino de algoritmos recursivos sencillos"

—Markus Gabriel hace referencia a una de las claves del libro: hemos considerado que la inteligencia es patrimonio exclusivo de los humanos, y eso forma parte de nuestra cultura europea, de la modernidad y la Ilustración. Además, hemos hecho depender la inteligencia de la mente, del alma, del “yo” de Descartes, de la identidad personal y esas cosas. La inteligencia artificial nos muestra que quizá la inteligencia no sea patrimonio exclusivo de los humanos, que sólo seamos un recipiente más que la incorpora, pero que ésta puede estar también en otros seres, naturales y artificiales. Esto significa que la inteligencia no depende de facultades misteriosas como la mente o el alma, sino de algoritmos recursivos sencillos, que se dan en la naturaleza, y que al alcanzar un nivel de complejidad generan inteligencia en los humanos. Ahora tendemos a reconocer que esa inteligencia también puede surgir en los animales e incluso en las plantas. Ahora el plan es implementar estos algoritmos en máquinas. Y esta es una idea poderosa porque, en el fondo, significa que los humanos no contenemos una esencia mágica, privilegiada, que nos hace distintos del resto de los seres.

—A nosotros nos ha tocado la versión premium.

—Sí. Pero en el fondo quizás todos seamos iguales. Nosotros somos más complejos, pero todos los seres somos iguales.

—Lo más inquietante es que esta mecanización de la humanidad se está llevando a cabo sin medir las consecuencias y sin un consenso de la población mundial, de los países o de los organismos supranacionales, como la ONU.

—Desde el punto de vista social y político no hay una plena conciencia de lo que está ocurriendo, del cambio de era que supone la inteligencia artificial. Esto lo he hablado con políticos de aquí y de fuera de España. La sensación es que no son capaces de ver la transformación que se está produciendo en nuestra sociedad y en el mundo. No existe consenso porque no hay conciencia del cambio de era. A la izquierda esto le está quedando grande, no sabe, no tiene categorías conceptuales para entender lo que está ocurriendo. Cada vez tengo más claro que esta es la primera gran revolución de derechas que ha ocurrido en la historia de la humanidad. Los Estados Unidos entienden su poder transformativo y tratan de explotar las consecuencias al máximo dentro de un ámbito muy ligado al capitalismo. Entre las consecuencias que está generando este proceso están la inmigración y, por supuesto, la gran desigualdad que se está generando. La derecha está asumiendo todo esto, lo está disfrutando y se está aprovechando. La izquierda se está quedando fuera de juego.

—¿Cómo está actuando la Unión Europea con la Inteligencia artificial? 

"Estamos ante un viejo mundo que se está hundiendo y uno nuevo que está naciendo"

—La normativa de la Unión Europea es de 2023 y hoy se ha quedado obsoleta. Esto es algo que se ha discutido en foros especializados: hay un consenso de que ya no vale para nada. Estoy en un grupo de investigación sobre inteligencia artificial con el ejército, y a ellos les ha pasado lo mismo: su normativa es de 2022 y también se ha quedado obsoleta. El problema es que no entienden bien qué es la inteligencia artificial, qué cambios está generando y cómo es la nueva era que viene. No es fácil. Estamos ante un viejo mundo que se está hundiendo y uno nuevo que está naciendo. No es sencillo tener una visión para mirar a lo lejos y entender qué es lo que está surgiendo.

—Ha mencionado al ejército. En la biografía del príncipe Harry hay un capítulo en el que cuenta su experiencia en la guerra de Afganistán: es casi como una partida a un videojuego. Esa deshumanización va a ir a más con el empleo de la inteligencia artificial en los conflictos bélicos.

—Está ocurriendo ya. De hecho, cuando tenemos reuniones con altos cargos del ejército, nos cuentan justamente eso: cómo desde un despacho en Madrid hay militares viendo guerras en vivo. Las guerras han pasado a la pantalla, como si fueran parte de un videojuego. Esto está pasando y no hay marcha atrás. El tema es dotar a esa inteligencia artificial de unos criterios morales. Pero esto es muy complicado porque estamos ante sistemas de inteligencia artificial que son capaces de darse a sí mismos sus propios algoritmos. Podemos establecer que se tengan en cuenta unas variables morales en el diseño de un sistema de inteligencia artificial, pero una millonésima de segundo después ese sistema ha cambiado su programación, de tal manera que es imposible la trazabilidad. No podemos seguir los pasos que ha dado un programa para cambiar de un estado a otro. Esto se ve especialmente con los sistemas avanzados que utilizan los ejércitos. ¿Cómo hay que actuar? Pues la Unión Europea quiere operar a priori, es decir, poner reglas antes para determinar los sistemas. Creo que es un error. Hay que operar a posteriori: evaluar las consecuencias y, en función de ese estudio, retirar los sistemas o eliminarlos.

—Asistí a una videoconferencia de Harari. Recalcó en varias ocasiones la importancia de que los filósofos sean actores en este proceso. Y habló de un concepto palmario: la inteligencia artificial no es una herramienta, es un agente exógeno.

—Exacto. Esto es lo que hay que entender. No es una herramienta en manos de un agente, es un agente más, un agente más que actúa en la guerra. Y, por supuesto, actúa en la red como un agente más, que lleva a cabo su propia programación, que evalúa lo que está ocurriendo en el entorno y que responde en consecuencia. La clave está en la ética, pero no en una ética a priori, tenemos que tratar a ese sistema de inteligencia artificial como un agente más, como si fuera un agente humano, en los mismos términos: evaluarlo, retirarlo, encarcelarlo, anularlo… Lo comento en el libro: hay que ampliar el concepto de humanidad, porque en el espacio humano ya están actuando esos agentes y en un futuro próximo lo harán muchos más. Habrá humanos mitad máquinas y otros que serán enteramente inteligencia artificial. Tendremos que entenderlos como congéneres.

—Por cierto, Alan Turing es uno de los protagonistas del libro, una sombra en cada capítulo.

"El siguiente paso es inminente: si todo se puede reducir a algoritmos recursivos, el cerebro también"

—Con este libro mi aspiración era conocer el origen de la inteligencia artificial para estudiarlo desde un punto de vista técnico, matemático, filosófico y lógico. Y Alan Turing es la figura principal en todo ese debate porque él es el primero que se da cuenta de que todo lo que ocurre en la naturaleza —pensemos en una hoja, en un árbol, en un corazón, en un pulmón, en las líneas de costa, en cómo se forman las líneas de costa, cómo se mueven los planetas, cómo caen las piedras— se puede reducir a algoritmos recursivos muy simples. Estamos hablando de ecuaciones muy sencillas, de dos variables. ¡Sólo de dos variables! A partir de ellas se generan algoritmos recursivos muy simples. El siguiente paso es inminente: si todo se puede reducir a algoritmos recursivos, el cerebro también. También el sistema nervioso central. Y el siguiente paso es todavía más brutal: nuestros sentimientos también se pueden reducir a algoritmos recursivos. El proyecto de inteligencia artificial consiste justamente en intentar reducir todo —incluso la conciencia, la autoconciencia y la identidad personal— a algoritmos recursivos. Turing no dice que se puede hacer, sino que no estamos capacitados para decir que no se puede. A partir de ahí surge un proyecto de investigación enorme que va a durar generaciones, durante el cual vamos a reducir todo a algoritmos recursivos. Este era el proyecto de Turing, por eso sigue en el centro. Él escribió en 1950 que en sesenta o setenta años íbamos a estar donde estamos ahora, y que lo que íbamos a necesitar para lograrlo eran máquinas con más capacidad de almacenamiento y más velocidad de procesamiento. Eso lo aprendió en la guerra.

—He realizado un prompt a Gemini para que se encargue de la última pregunta de esta entrevista. Este es el resultado: “Si la IA llegara a replicar perfectamente la capacidad de juicio y la creatividad humana, ¿qué nos quedaría a nosotros como “exclusivo”? ¿Existe un residuo humano que sea, por definición, no computable?”.

—Muy buena pregunta. Y la respuesta es no, por definición no existe ese residuo humano no computable. No podemos decir que algo no es computable, porque siempre podemos hacer máquinas más potentes. Quizás ahora no sea computable, pero lo va a ser el año que viene. La respuesta que da Turing a esto es brutal: algo no es computable cuando no haya materia en el universo que aguante esa recursión y la máquina se caliente, se rompa, se funda, se destruya. Solo en ese momento podremos decir que hemos encontrado un residuo que no es recursivo, que no puede ejecutarse sobre una base material.

0/5 (0 Puntuaciones. Valora este artículo, por favor)
Notificar por email
Notificar de
guest

0 Comentarios
Feedbacks en línea
Ver todos los comentarios