
Durante su participación en la Universidad de Verano de Fuerteventura, en la que colaboramos, uno de los pioneros del estudio de la inteligencia artificial en España, el profesor Ramón López de Mántaras, desmontó mitos, puso en contexto el alcance real de los sistemas actuales como ChatGPT, y alertó sobre los riesgos éticos y sociales de su uso sin control. Frente al entusiasmo tecnológico, su mensaje es claro: la IA no razona ni comprende como un ser humano, y su desarrollo debe estar guiado por el pensamiento crítico y humanista.
Profesor, el título de su charla ya plantea una paradoja: ¿es realmente inteligente la inteligencia artificial? ¿Cuál es su respuesta breve a esa gran pregunta?
No, por lo menos no en el sentido de lo que los humanos entendemos por inteligencia. La IA ni razona ni comprende realmente el lenguaje. Cuando decimos que la IA en inteligente lo decimos en sentido más bien metafórico. En realidad, la IA es lo que Daniel Dennett llamó “habilidades sin comprensión”.
¿Qué aspectos de la inteligencia humana cree que la IA aún está muy lejos de replicar?
Los conocimientos de sentido común y razonar en base a ellos. Es decir, aquellos conocimientos que nos permite comprender el mundo que nos rodea y que nosotros adquirimos sin darnos cuenta por el simple hecho de estar vivos e interaccionar con nuestro entorno. Tanto la interacción con los objetos físicos de nuestro entorno como la socialización con nuestros semejantes.
Usted ha sido pionero de la IA en España y Europa. ¿Cómo ha evolucionado el campo desde que comenzó hasta hoy?
Hemos pasado por épocas de grandes expectativas, seguidas de travesías del desierto como resultado del incumplimiento de dichas expectativas. Primero con los primeros intentos de diseñar inteligencias artificiales generales basadas en la lógica matemática cuyos fracasos para ser aplicadas a problemas reales complejos motivó cambiar completamente el rumbo y plantearse diseñar inteligencias artificiales especializadas en lugar de generales. Esto condujo a otros fracasos debido a que estas inteligencias especializadas, conocidas como “Sistemas Expertos” (por ejemplo, sistemas de diagnóstico en medicina ebtre muchísimas otras aplicaciones), no eran capaces de aprender y quedaban obsoletos rápidamente. Ello provocó el desarrollo y auge de los sistemas capaces de aprender basados en lo que se conoce como IA simbólica con fuertes raíces en la lógica matemática y sus extensiones.
Finalmente, a lo largo de los últimos doce años se ha desarrollado extraordinariamente el aprendizaje automático basado en redes neuronales artificiales que, con muchas limitaciones, pretenden aproximar muy burdamente las neuronas biológicas. Esta aproximación a la inteligencia ha dado lugar a un tipo de red neuronal artificial llamada “transformer”, que es la base de los actuales grandes modelos de lenguaje y de la IA generativa como el muy conocido ChatGPT. Estamos de nuevo en una fase de generación de grandes expectativas que, en mi opinión, no se cumplirán.
¿Qué momento de su carrera considera más transformador en cuanto al rumbo de la inteligencia artificial?
En mi maso particular mis trabajos de hace diez años sobre aprendizaje de relaciones causa-efecto mediante robots antropomórficos ya que nos permitió demostrar que con la IA corpórea era posible aprender esas relaciones que son posiblemente la clave para dotar de algunos conocimientos de sentido común a las máquinas. Como mínimo aquellos conocimientos que permiten comprender como los objetos físicos se comportan como resultado de nuestras acciones sobre ellos.
¿Cuál es el mayor riesgo que ve hoy en el desarrollo acelerado de la IA?
Sin duda la imprudencia a la hora de poner a disposición de cientos o miles de millones de personas sistemas como ChatGPT, DALL-E, Veo,…que permiten generar con mucha facilidad textos, imágenes y videos falsos.
¿Qué cree que debería enseñarse en las universidades sobre IA para formar una generación crítica y preparada?
Historia (en particular historia de la ciencia), Filosofía, Economía y, en particular, Ética. Solo así los futuros ingenieros tendrán el necesario pensamiento crítico y pensamiento humanista que, como mínimo, haga que surja la pregunta de que aunque algo sea técnicamente factible quizá no sea ético desarrollarlo. Por ejemplo todas aquellas aplicaciones de la IA que atenten a la dignidad humana como las armas letales autónomas o dejar en manos de la IA decisiones como conceder o no libertad bajo fianza a un reo o sistemas que sea evidente que discriminan colectivos humanos debido a sesgos.
Se habla mucho de los beneficios de la IA, pero ¿qué riesgos sociales o éticos le preocupan especialmente?
El riesgo de deshumanizarnos creyendo que la IA es como nosotros. Es muy preocupante ver la cantidad de gente que al interaccionar con ChatGPT crea que está dialogando con un algo inteligente, e incluso consciente, que nos entiende y se preocupa por nosotros. El colmo de la estupidez humana es usar ChatGPT como psicoterapeuta. Aunque parezca mentira hay mucha gente que lo hace. También la manipulación y las falsedades que se pueden generar fácilmente con la IA generativa que están poniendo en peligro la democracia. De hecho, la IA generativa ya está contaminando la democracia.
Según el Panel Internacional sobre el Entorno Informativo (https://www.ipie.info), organización independiente con sede en Suiza, en 2024 se documentaron 215 casos de uso de IA en procesos electorales en más de 80 % de los comicios celebrados (https://www.ipie.info/research/sfp2025-1). Aunque en algunos casos los candidatos usaron la IA de forma legítima, por ejemplo, para para traducir mensajes o segmentar audiencias, en el 69 % de los casos su impacto fue perjudicial: generación de deepfakes mediante imágenes y videos hiperrealistas, clonaciones de voz, contenidos diseñados para sembrar desconfianza o exacerbar divisiones sociales.
¿Qué consejo le daría a un joven interesado en dedicarse a la investigación en IA?
Que no se limiten a la formación puramente técnica y se interesen por temas humanísticos como la filosofía y la ética. Que lean mucho de estos temas humanísticos y también neurociencia, economía e historia. Con ello desarrollarán más pensamiento crítico sobre lo que es la IA en realidad y en particular de las enormes diferencias con la inteligencia humana.
¿Cómo imagina el futuro de la IA dentro de 10 o 20 años?
Posiblemente se habrá deshinchado la burbuja de la IA generativa y veremos sistemas híbridos que integrarán ideas de las IA generativa con la antigua IA simbólica basada en la lógica matemática. Esta integración ya tiene un nombre y son los “sistemas neuro-simbólicos”.
También veremos mucha más inteligencia artificial corpórea que nos acercará a la IA general pero no creo que la IA general sea una realidad antes de 20 años a pesar de que las grandes tecnológicas nos intentarán vender que la IA general será una realidad mucho antes. ¡No se lo crean! Seguirán exagerando y engañándonos como lo hacen ahora con el fin de seguir atrayendo grandes inversiones.
Finalmente, ¿qué espera que se lleven los asistentes de su ponencia aquí en Fuerteventura?
Espero que hayan visto que la IA está muy sobrevendida y que la realidad es muy distinta de lo que leemos en titulares de periódicos y de lo que nos dicen los responsables de las grandes tecnológicas.
Durante su participación en la Universidad de Verano de Fuerteventura, en la que colaboramos, uno de los pioneros del estudio de la inteligencia artificial en España, el profesor Ramón López de Mántaras, desmontó mitos, puso en contexto el alcance real de los sistemas actuales como ChatGPT, y alertó sobre los riesgos éticos y sociales de su uso sin control. Frente al entusiasmo tecnológico, su mensaje es claro: la IA no razona ni comprende como un ser humano, y su desarrollo debe estar guiado por el pensamiento crítico y humanista.
Profesor, el título de su charla ya plantea una paradoja: ¿es realmente inteligente la inteligencia artificial? ¿Cuál es su respuesta breve a esa gran pregunta?
No, por lo menos no en el sentido de lo que los humanos entendemos por inteligencia. La IA ni razona ni comprende realmente el lenguaje. Cuando decimos que la IA en inteligente lo decimos en sentido más bien metafórico. En realidad, la IA es lo que Daniel Dennett llamó “habilidades sin comprensión”.
¿Qué aspectos de la inteligencia humana cree que la IA aún está muy lejos de replicar?
Los conocimientos de sentido común y razonar en base a ellos. Es decir, aquellos conocimientos que nos permite comprender el mundo que nos rodea y que nosotros adquirimos sin darnos cuenta por el simple hecho de estar vivos e interaccionar con nuestro entorno. Tanto la interacción con los objetos físicos de nuestro entorno como la socialización con nuestros semejantes.
Usted ha sido pionero de la IA en España y Europa. ¿Cómo ha evolucionado el campo desde que comenzó hasta hoy?
Hemos pasado por épocas de grandes expectativas, seguidas de travesías del desierto como resultado del incumplimiento de dichas expectativas. Primero con los primeros intentos de diseñar inteligencias artificiales generales basadas en la lógica matemática cuyos fracasos para ser aplicadas a problemas reales complejos motivó cambiar completamente el rumbo y plantearse diseñar inteligencias artificiales especializadas en lugar de generales. Esto condujo a otros fracasos debido a que estas inteligencias especializadas, conocidas como “Sistemas Expertos” (por ejemplo, sistemas de diagnóstico en medicina ebtre muchísimas otras aplicaciones), no eran capaces de aprender y quedaban obsoletos rápidamente. Ello provocó el desarrollo y auge de los sistemas capaces de aprender basados en lo que se conoce como IA simbólica con fuertes raíces en la lógica matemática y sus extensiones. Finalmente, a lo largo de los últimos doce años se ha desarrollado extraordinariamente el aprendizaje automático basado en redes neuronales artificiales que, con muchas limitaciones, pretenden aproximar muy burdamente las neuronas biológicas. Esta aproximación a la inteligencia ha dado lugar a un tipo de red neuronal artificial llamada “transformer”, que es la base de los actuales grandes modelos de lenguaje y de la IA generativa como el muy conocido ChatGPT. Estamos de nuevo en una fase de generación de grandes expectativas que, en mi opinión, no se cumplirán.
¿Qué momento de su carrera considera más transformador en cuanto al rumbo de la inteligencia artificial?
En mi maso particular mis trabajos de hace diez años sobre aprendizaje de relaciones causa-efecto mediante robots antropomórficos ya que nos permitió demostrar que con la IA corpórea era posible aprender esas relaciones que son posiblemente la clave para dotar de algunos conocimientos de sentido común a las máquinas. Como mínimo aquellos conocimientos que permiten comprender como los objetos físicos se comportan como resultado de nuestras acciones sobre ellos.
¿Cuál es el mayor riesgo que ve hoy en el desarrollo acelerado de la IA?
Sin duda la imprudencia a la hora de poner a disposición de cientos o miles de millones de personas sistemas como ChatGPT, DALL-E, Veo,…que permiten generar con mucha facilidad textos, imágenes y videos falsos.
¿Qué cree que debería enseñarse en las universidades sobre IA para formar una generación crítica y preparada?
Historia (en particular historia de la ciencia), Filosofía, Economía y, en particular, Ética. Solo así los futuros ingenieros tendrán el necesario pensamiento crítico y pensamiento humanista que, como mínimo, haga que surja la pregunta de que aunque algo sea técnicamente factible quizá no sea ético desarrollarlo. Por ejemplo todas aquellas aplicaciones de la IA que atenten a la dignidad humana como las armas letales autónomas o dejar en manos de la IA decisiones como conceder o no libertad bajo fianza a un reo o sistemas que sea evidente que discriminan colectivos humanos debido a sesgos.
Se habla mucho de los beneficios de la IA, pero ¿qué riesgos sociales o éticos le preocupan especialmente?
El riesgo de deshumanizarnos creyendo que la IA es como nosotros. Es muy preocupante ver la cantidad de gente que al interaccionar con ChatGPT crea que está dialogando con un algo inteligente, e incluso consciente, que nos entiende y se preocupa por nosotros. El colmo de la estupidez humana es usar ChatGPT como psicoterapeuta. Aunque parezca mentira hay mucha gente que lo hace. También la manipulación y las falsedades que se pueden generar fácilmente con la IA generativa que están poniendo en peligro la democracia. De hecho, la IA generativa ya está contaminando la democracia. Según el Panel Internacional sobre el Entorno Informativo (https://www.ipie.info), organización independiente con sede en Suiza, en 2024 se documentaron 215 casos de uso de IA en procesos electorales en más de 80 % de los comicios celebrados (https://www.ipie.info/research/sfp2025-1). Aunque en algunos casos los candidatos usaron la IA de forma legítima, por ejemplo, para para traducir mensajes o segmentar audiencias, en el 69 % de los casos su impacto fue perjudicial: generación de deepfakes mediante imágenes y videos hiperrealistas, clonaciones de voz, contenidos diseñados para sembrar desconfianza o exacerbar divisiones sociales.
¿Qué consejo le daría a un joven interesado en dedicarse a la investigación en IA?
Que no se limiten a la formación puramente técnica y se interesen por temas humanísticos como la filosofía y la ética. Que lean mucho de estos temas humanísticos y también neurociencia, economía e historia. Con ello desarrollarán más pensamiento crítico sobre lo que es la IA en realidad y en particular de las enormes diferencias con la inteligencia humana.
¿Cómo imagina el futuro de la IA dentro de 10 o 20 años?
Posiblemente se habrá deshinchado la burbuja de la IA generativa y veremos sistemas híbridos que integrarán ideas de las IA generativa con la antigua IA simbólica basada en la lógica matemática. Esta integración ya tiene un nombre y son los “sistemas neuro-simbólicos”. También veremos mucha más inteligencia artificial corpórea que nos acercará a la IA general pero no creo que la IA general sea una realidad antes de 20 años a pesar de que las grandes tecnológicas nos intentarán vender que la IA general será una realidad mucho antes. ¡No se lo crean! Seguirán exagerando y engañándonos como lo hacen ahora con el fin de seguir atrayendo grandes inversiones.
Finalmente, ¿qué espera que se lleven los asistentes de su ponencia aquí en Fuerteventura?
Espero que hayan visto que la IA está muy sobrevendida y que la realidad es muy distinta de lo que leemos en titulares de periódicos y de lo que nos dicen los responsables de las grandes tecnológicas.