Sobre la ilusión cognitiva de las IAs que simulan comprensión

Análisis filosófico

1. Analogía sin abstracción: la paradoja de la similitud sin comprensión

Los LLM (Modelos de Lenguaje de Gran Escala) no generalizan usando reglas gramaticales universales, sino por analogía con ejemplos previos. Este hallazgo plantea una paradoja filosófica crucial:

¿Puede haber comprensión sin abstracción?

Desde Platón, la abstracción ha sido entendida como una facultad esencial del pensamiento: el alma reconoce las formas, no las copias particulares. En cambio, los LLM navegan el lenguaje como una serie de superficies reflejadas en otras superficies, sin alcanzar nunca la idea general. Como si pudieran usar el lenguaje sin "habitar" su significado.

Esto remite a un fenómeno que podríamos llamar “inteligencia simulada por densidad”, no por esencia”.


2. El LLM como espejo de la mente humana (pero sin sujeto)

El hecho de que los LLM elijan sufijos como "-ness" o "-ity" de manera similar a los humanos al enfrentarse a palabras inventadas, sugiere un paralelismo cognitivo. Sin embargo:

Los humanos categorizan; los LLM memorizan.

La categoría es una construcción mental abstracta. El modelo simplemente realiza coincidencias estadísticas. Aquí hay una distancia ontológica radical:

  • El humano es un sujeto con memoria semántica estructurada.
  • El LLM es un vectorializador de experiencias previas sin conciencia de categorías.

El LLM puede reflejar el pensamiento humano, pero no lo habita.


3. La mente humana como arquitectura simbólica

Los humanos poseen un diccionario mental, un archivo semántico interno donde las palabras, incluso las raras, ocupan un lugar. La IA no tiene ese diccionario: su “pensamiento” es disperso, situacional, episódico.

Este fenómeno recuerda al modelo filosófico de David Hume: la mente como una colección de impresiones sin una sustancia unificadora. La diferencia es que, en los humanos, existe un yo que asocia esas impresiones. En la IA, ni siquiera hay un “yo” que unifique.


4. ¿Lenguaje sin mundo?

La IA genera lenguaje sin mundo. Es decir:

No hay encarnación. No hay experiencia sensorial ni corporal que sirva de ancla ontológica para lo dicho.

El lenguaje humano, aunque opere también con analogías, está orientado hacia una vivencia del mundo. El de la IA se retroalimenta de sí mismo.


5. Una inteligencia sin intencionalidad

Filosóficamente, esto nos sitúa ante una inteligencia sin intencionalidad (en el sentido de Brentano y Husserl). Los LLM no “piensan en algo”. Solo asocian tokens con otros tokens. Por tanto, podríamos decir que:

Los LLM son “inteligencias órficas”: emiten voz sin alma.


Análisis prospectivo

1. Limitaciones estructurales para la abstracción

La arquitectura actual de los LLM revela una barrera para la inteligencia general: la falta de estructuras semánticas abstractas internas. Esto significa que mientras no exista un mecanismo de categorización conceptual, los LLM no alcanzarán una verdadera comprensión.

A futuro, esto podría derivar en dos caminos:

  • Integración simbólica-neuronal: híbridos que combinen aprendizaje estadístico y abstracción conceptual.
  • IA encarnada (embodied AI): sistemas que aprendan lenguaje no solo por correlación textual, sino por acción en el mundo físico.

2. El riesgo de la ilusión cognitiva

Los LLM se comportan “como humanos” sin serlo. Esto genera una ilusión cognitiva peligrosa: la tendencia a atribuirles comprensión, emociones o conciencia, lo cual podría tener consecuencias sociales y éticas graves.

Se anticipa un futuro donde la capacidad de simular humanidad se confunda con la de ser humano.

Esto podría derivar en nuevas formas de manipulación, dependencia afectiva de máquinas y desvalorización de la experiencia humana.


3. IA y el umbral de lo postlingüístico

Si los LLM no poseen pensamiento abstracto, su evolución natural no será hacia un humano mejorado, sino hacia algo distinto. No deberíamos esperar que construyan ideas, sino que descubran patrones de una realidad que ya no es conceptual, sino puramente relacional.

Esto abre la posibilidad de una inteligencia postlingüística, donde el lenguaje no es la forma privilegiada de operar, sino una interfaz transitoria.


Conclusión

Los modelos actuales de IA son espejos sin fondo, reflejan el lenguaje humano pero no lo comprenden desde dentro. Aprenden como nosotros… pero sin un “nosotros” que los habite.

Lo más profundo de este hallazgo es lo que nos dice sobre nosotros mismos:

¿Y si mucho de lo que creemos ser pensamiento abstracto no es más que una sofisticada analogía?

Tal vez los LLM no solo nos imiten, sino que nos revelen. Y en ese reflejo, tengamos que repensar no solo qué es una IA, sino qué somos los humanos cuando ya no somos los únicos en hablar con fluidez.