ÁGORA

Juan Antonio Valor, Liset Menéndez de la Prida, Rafael Caballero, Ana Rioja, Julia Téllez, Antonio Diéguez y Pilar Salvá Soria

Inteligencia artificial, más preguntas que certezas

Texto: Jaime Fernández, Fotografía: Jesús de Miguel - 13 may 2022 11:12 CET

¿Se puede definir claramente la inteligencia? ¿Puede haber otra manera de producir inteligencia que no sea una copia de la nuestra? ¿Las máquinas podrán tener conciencia? ¿Existe realmente la inteligencia artificial? Estas y muchas más preguntas se plantearon en la mesa redonda “Inteligencia natural versus inteligencia artificial”, celebrada en la Facultad de Filosofía dentro de la segunda edición del máster propio en Ciencia y Filosofía: Construyendo el Futuro. La codirectora del máster, Ana Rioja Nieto, explica que esta iniciativa nació como una necesidad de nuestro tiempo que es “poder abordar el extraordinario desarrollo que han tenido las ciencias y las tecnologías, así como las consecuencias filosóficas, jurídicas, económicas, éticas, sociales de todos estos logros”.

 

Rafael Caballero, profesor de la Facultad de Informática de la UCM, reconoce que este es un campo en el que estamos muy lejos de llegar a certezas, sobre todo porque hay problemas de definición de los conceptos. “Hay muchas definiciones de lo que es inteligencia, pero mientras no tengamos claro eso no podremos decir si existe inteligencia artificial o no”, aclara el profesor.

 

Es consciente Caballero de que la inteligencia tiene gradación, “y también está claro que hay distintos tipos de inteligencia, pero no se sabe si estamos dispuestos a extender esos conceptos a otros sistemas no humanos, por ejemplo, a animales”. Antonio Diéguez, catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga, coincide en que “no hay una definición unánime de inteligencia. Hay hasta setenta de diccionarios de psicólogos e informáticos, aunque si uno no se pone muy estricto sí hay una idea básica de inteligencia que se asume, como es la resolución de problemas; la consecución de objetivos de forma innovadora, creativa y en contextos diferentes; la capacidad para adquirir conocimientos y aplicarlos en nuevos contextos, que es algo que no hacen las máquinas todavía, porque aprenden algo, pero no lo pueden aplicar en contextos distintos. Si entendemos por inteligencia consecución de objetivos de forma innovadora, algunas máquinas sí podrían estar ahí”.

 

Pero también estarían muchos animales, porque cuando uno habla de inteligencia animal se dicen boutades como que ningún gran simio ha compuesto una sinfonía, pero “la mayoría de los seres humanos tampoco lo ha hecho”. Ese no puede ser un criterio de inteligencia, porque si es ese “incluso nuestra especie habría existido prácticamente siempre, hasta sus primeras representaciones artísticas, sin inteligencia”. Para Diéguez lo que hay que hacer es no cerrar mucho el concepto de inteligencia, porque con ello nos quitamos de en medio a muchos animales, pero no aprendemos nada de ello, y “lo interesante es ver qué compartimos con los animales, porque lo que compartamos con un gran simio podemos suponer que estaba en nuestro ancestro común hace seis millones de años”.

 

Y con la inteligencia artificial se podría hacer lo mismo, “se puede aprender mucho sobre nuestra inteligencia, viendo cómo se crea inteligencia artificial, aunque sea estrecha”. Algo con lo que coincide plenamente Rafael Caballero quien cree que el desarrollo de la inteligencia artificial está permitiendo reflexionar sobre el propio concepto de inteligencia que hemos tenido hasta ahora, “es una manera de entendernos mejor a nosotros mismos, a partir de ese reflejo que surge en el otro lado”.

 

Un concepto que viene desde el siglo XVII

El decano de la Facultad de Filosofía de la UCM, Juan Antonio Valor, renuncia directamente a buscar una única definición de inteligencia y además asegura que el problema es que ahora sólo entendemos la inteligencia desde la inteligencia artificial. Con ello, vamos a conseguir reducir la inteligencia natural a artificial porque hoy no podemos pensarla de otra manera, “tan potente ha sido el desarrollo científico-tecnológico, que ya desde hoy se nos hace imposible pensar la inteligencia sin recurrir a la artificial”.

 

Vincula esa idea el decano a la teoría del doble. Según ella, todos tenemos dobles, avatares, que ahora generamos continuamente en las redes, que actúan con arreglo a estructuras lógicas y un determinado software, y nosotros queremos ser nuestro doble. De hecho, “nuestra sociedad quiere ser como ese que aparece en Tinder, ese doble que en la mitología nórdica es finalmente el que nos avisa de nuestra muerte, y esa es la cuestión de nuestros días, que queremos actuar como nuestro doble informático y eso hace que muera el concepto de inteligencia natural, que ya no interesa”.

 

Según el decano, vivimos en ese proyecto en el que se embarcó Europa en el siglo XVII con independencia de la definición que demos a inteligencia, y es que desde aquella época “se ha intentado una desesperada y apasionante reducción del mundo físico, de la naturaleza, a la geometría”. Uno de los primeros pasos lo dio Descartes, que quiso reducir el mundo no ya a estructuras geométricas, sino aritméticas, yendo incluso más allá, porque “entiende la aritmética como relación entre proporciones y a partir de ahí su proyecto consiste en construir el mundo”.

 

Más adelante, Leibniz, en 1714, comenzó a discutir con Newton y lanzó “un proyecto apasionante que pasa por reducir el mundo a estructuras lógicas”. Asevera Valor que hay una ontología de calado muy potente que pasa por entender que las cosas son cúmulos de relaciones, y por entender que primero son las relaciones y luego las cosas. Eso dio lugar a una acalorada polémica con Newton, ya que cuestionaba cómo se puede reducir la solidez a relaciones lógicas, y ahí habló de átomos, unidades de materia sólida e impenetrable que no se puede dividir más, frente a lo cual Leibniz postuló la teoría de las mónadas, que serían esas unidades que sí se podrían reducir, pero además “la monadología va más allá, porque no es sólo reducir el mundo, sino también el alma y la inteligencia a esas estructuras lógicas que componen todo”.

 

Todo ese proyecto de Leibniz no se continuó en el XVIII y parte del XIX, porque la modernidad pasaba por Newton, dejando atrás a Aristóteles, pero se comienza a recuperar a finales del XIX y principios del XX con el surgimiento del positivismo lógico. A partir de ahí, de acuerdo con el decano, se explica el origen de la computación y todo ese proyecto que pasa por reducir la inteligencia a inteligencia artificial, entendiéndola desde relaciones lógicas. Esa lógica nos permitiría generar determinado software, que nos permitiría simular la actividad o el funcionamiento de la inteligencia natural.

 

El decano, que se declara abiertamente a favor de una inteligencia artificial en un sentido fuerte, se siente heredero de esa tradición, está “incardinado o preso o abducido por ella”. Se trataría de llevar ese proyecto intelectual hasta sus últimas consecuencias, de tal manera que ese software nos permitiese generar no una imagen de un amigo, sino que permitiese replicar su olor, su forma de hablar, su color y su solidez. Si se consiguiese esa réplica total habría dos entidades iguales que se juntarían dando lugar a una única entidad.

 

La evolución del cerebro

Liset Menéndez de la Prida, directora del Laboratorio de Circuitos Neuronales del Instituto Cajal, del CSIC, puso al cerebro en el centro del debate, el órgano que aporta la inteligencia y que además nos permite plantearnos si son posibles otras formas de dicha inteligencia.

 

Explicó la investigadora que se han descubierto formas de cognición en organismos unicelulares, como un moho capaz de encontrar soluciones a problemas espaciales relativamente complejos dependiendo de los contextos, y eso sin tener la capacidad de razonar. De acuerdo con ella, también existe otra inteligencia de conjunto, que no está determinada por un solo individuo, como la que puede haber en un hormiguero.

 

Informa Menéndez de la Prida que de las propiedades que emergen de esa interacción han surgido algoritmos de inteligencia artificial, así que “estamos empezando a hacer un traslado de esa conceptualización y eso nos lleva de vuelta al cerebro, a la inteligencia natural, porque lo que somos, lo que somos capaces de hacer, cómo cambiamos el mundo o cómo lo entendemos, cómo hemos venido desde las cuevas hasta aquí es el resultado de la evolución de nuestro cerebro, que nos ha permitido crear y modificar el entorno”.

 

Para Antonio Diéguez, la inteligencia natural es producto de una historia evolutiva, en la que el aumento de la inteligencia ha venido acompañado de un aumento de la autoconsciencia, tanto en los humanos como en otros animales. Se pregunta él mismo si eso significa que la autoconsciencia es una propiedad emergente y que cuando tengamos sistemas artificiales lo suficientemente inteligentes serán también autoconscientes. No hay respuestas, aunque sí opiniones para todos los gustos, aunque “parece que podrá haber máquinas inteligentes, sin ninguna capacidad de autoconsciencia”.

 

Hasta ahora, y de momento, en el mundo natural la evolución de la inteligencia ha sido asombrosa, tanto en aves y mamíferos como en pulpos. “¿En la inteligencia artificial se puede decir que estamos haciendo progresos para llegar a algo así? Hay opiniones de todo tipo, inclusive las que dicen que todavía no hemos dado ni un primer paso hacia esa inteligencia artificial. ¿Podremos tener inteligencia artificial general? También depende, algunos dicen que no, otros que en cien años y otros que en 2049”.

 

Añade Menéndez de la Prida que las redes artificiales inspiradas en el cerebro han evolucionado muchísimo, de tal manera que una red profunda tiene una primera capa que recibe del exterior los inputs del entorno, está conectada con capas que están juntas, de las que se pueden poner más o menos, dependiendo de la profundidad que se quiera, y finalmente hay una capa de salida. Con estos modelos se pueden resolver problemas sorprendentes, como por ejemplo, reconocer patrones sobre bases aprendidas. Hoy pueden aprender, inferir y generalizar muchas cosas, aunque hay problemas como los sesgos de los datos que les metemos.

 

Informa además de que más allá de la mera introducción de datos, Google Minds, a través de su programa AlphaGo, ya ha conseguido vencer al humano en el juego del go, incluyendo para ello el autojuego. La red en un principio aprendió de las combinatorias de los expertos, seguidas de fases en las que se entrenaba a sí misma con combinaciones propias, y ese es precisamente el mecanismo que utiliza el cerebro para generar memoria en las neuronas del hipocampo, que no hay que olvidar que “es la parte del cerebro que se dedica a crear memorias, con las que generamos una narrativa y una representación, que dan como resultado una complejidad”.

 

Inteligencia artificial sorda

El decano Juan Antonio Valor señala que hay otras maneras de entender la inteligencia, tal como lo hacía Aristóteles, Heidegger y un autor contemporáneo como es Byung-Chul Han. Para ellos la inteligencia es afección del mundo, no creación del mundo, por tanto, no pasa por la actividad sino por la receptividad, es un medio afectivo y, “como dice Heidegger, es antes que nada, disposición anímica, estímulo. La inteligencia es, en definitiva, tener la sensibilidad como para notar las diferencias. Dice Chul Han que por eso la inteligencia oye la voz del mundo, mientras que la inteligencia artificial está sorda, porque no se deja afectar por ese mundo”.

 

También dice Chul Han que la inteligencia artificial maneja los datos de manera adictiva, poniéndolos uno al lado de otro, mientras que la inteligencia se caracteriza por generar unidades totalizadoras, de tal manera que el todo es mucho más que la suma de los datos. Estos filósofos también destacan que la inteligencia artificial carece de negatividad, de ruptura, es incapaz de generar lo absolutamente nuevo a partir de los mismos datos.

 

Incide en esta idea Rafael Caballero, quien cree que la inteligencia artificial sí puede existir, pero “ahora mismo no existe, y los sistemas que estamos usando, que son superpotentes, están basados en técnicas de aprendizaje automático, que coge datos de entrada y los relaciona con datos de salida”. Por tanto, los sistemas actuales no pueden aprender para un problema siguiente sin esa entrada de datos, y “eso nos aleja mucho de un sistema capaz de resolver problemas nuevos, que es lo que podría ser una de las definiciones de inteligencia”.

 

Antonio Diéguez tampoco sabe si tendremos alguna vez esa inteligencia artificial plena, pero “si se ponen en serio a conseguirla, que esté todo muy controlado, porque como ya han señalado algunos especialistas cuando tengamos una inteligencia así será incontrolable, ya que será capaz de construir otras inteligencias artificiales mejor que ella y así continuamente, en lo que supondrá un crecimiento exponencial de superinteligencia artificial”. Reconoce, de todos modos que “es un escenario sumamente improbable, sobre todo porque no es rentable para ninguna empresa”.

 

Concluye Liset Menéndez de la Prida que hay una responsabilidad de nuestra especie de hacia donde queremos avanzar, no sólo por la amenaza que pueda suponer una inteligencia artificial general, sino también por todo lo relacionado con lo nuevo, en cómo nos afecta y nos amenaza, en el plano laboral, judicial, de responsabilidades… Cualquier avance supone abrir nuevas preguntas, aunque ella no percibe que esta sea una amenaza muy diferente a la que puede haber cuando se descongele el Ártico y empiecen a salir microorganismos y se consume el cambio climático. Piensa que, al final, todo depende de nuestra responsabilidad si queremos tener un futuro sin aniquilarnos por no habernos puesto de acuerdo.