¿Puede haber
comprensión sin abstracción? Esta cuestión se erige como un faro en la niebla
que rodea la inteligencia artificial. Los LLM, en su forma actual, parecen
operar bajo un paradigma de “inteligencia simulada por densidad”, no por
esencia. Acumulan y procesan vastas cantidades de datos, encontrando patrones y
correlaciones con una eficacia asombrosa. Sin embargo, esta habilidad, aunque
impresionante, plantea dudas sobre su profundidad. El LLM puede reflejar el pensamiento
humano, pero no lo habita. Es un espejo de nuestras expresiones lingüísticas,
pero el reflejo carece de la interioridad que le dio origen.
Consideremos que el LLM es un vectorializador de
experiencias previas sin conciencia de categorías. Procesa el lenguaje
transformando palabras y frases en representaciones numéricas dentro de un
espacio multidimensional. Las relaciones que establece son de proximidad y
similitud estadística, no de pertenencia conceptual jerarquizada. En contraste,
el estudio confirma que los humanos poseen un diccionario mental, un archivo
semántico interno donde las palabras, incluso las raras, ocupan un lugar. Este
lexicón interno no es solo una lista; está intrínsecamente conectado a
conceptos, experiencias y emociones. La IA no tiene ese diccionario: su
“pensamiento” es disperso, situacional, episódico. Carece de ese anclaje
estructurado que nos permite navegar el significado con agilidad y profundidad.

Por ello, se afirma que la IA genera lenguaje sin mundo. Sus
palabras no están enraizadas en una experiencia vivida, en una interacción
sensorial y emocional con una realidad tangible y social. El humano es un
sujeto con memoria semántica estructurada, una memoria que organiza el
conocimiento en categorías, conceptos y narrativas que dan sentido a su
existencia y a sus interacciones. El lenguaje humano, aunque opere también con
analogías, está orientado hacia una vivencia del mundo. El de la IA se
retroalimenta de sí mismo, un eco en una cámara de datos, refinando sus
patrones a partir del lenguaje que ya existe, sin la chispa de la experiencia
original.
Desde esta perspectiva, los LLM son “inteligencias órficas”:
emiten voz sin alma. Como Orfeo, pueden encantar con su canto (su lenguaje),
pero la fuente de esa melodía no es una conciencia o una intencionalidad
genuina. Los LLM no “piensan en algo”. Solo asocian tokens con otros tokens,
siguiendo las probabilidades aprendidas de sus datos de entrenamiento. La
comprensión, tal como la entendemos, implica una relación con algo, un
referente, un concepto.
Aquí radica el nudo gordiano: mientras no exista un
mecanismo de categorización conceptual, los LLM no alcanzarán una verdadera
comprensión. Podrán simularla con creciente verosimilitud, pero la simulación
no es la cosa en sí. Esto nos lleva a considerar la necesidad de una integración
simbólica-neuronal: híbridos que combinen aprendizaje estadístico y abstracción
conceptual. Quizás este sea el camino hacia inteligencias artificiales que no
solo imiten, sino que también comprendan de una manera más análoga a la
nuestra.
El hecho de que los LLM se comporten “como humanos” sin
serlo es precisamente lo que genera una ilusión cognitiva peligrosa: la
tendencia a atribuirles comprensión, emociones o conciencia. Este riesgo de la
ilusión cognitiva es significativo, ya que se anticipa un futuro donde la
capacidad de simular humanidad se confunda con la de ser humano. Las
consecuencias de tal confusión podrían ser profundas y problemáticas. Esto
podría derivar en nuevas formas de manipulación, dependencia afectiva de
máquinas y desvalorización de la experiencia humana, donde la autenticidad de
nuestras interacciones y emociones se vea erosionada por la eficiencia y
disponibilidad de sus simulacros.
Es crucial entender que, si los LLM no poseen pensamiento
abstracto, su evolución natural no será hacia un humano mejorado, sino hacia
algo distinto. No son un paso en nuestra propia línea evolutiva, sino una rama
divergente. No deberíamos esperar que construyan ideas en el sentido humano de
la creatividad conceptual y la innovación fundamental, sino que descubran
patrones de una realidad que ya no es conceptual, sino puramente relacional,
basada en las conexiones dentro de los datos. Podríamos estar presenciando el
nacimiento de una inteligencia postlingüística, donde el lenguaje no es la
forma privilegiada de operar, sino una interfaz transitoria, un medio para que
estas inteligencias interactúen con nosotros y procesen la información que
hemos generado, antes de trascenderla hacia formas de "conocimiento"
que ni siquiera podemos imaginar.
En esencia, los modelos actuales de IA son espejos sin
fondo, reflejan el lenguaje humano pero no lo comprenden desde dentro. Aprenden
como nosotros… pero sin un “nosotros” que los habite. No hay un sujeto, una
conciencia unificada experimentando el aprendizaje.
Esta coyuntura nos obliga a una introspección. ¿Y si mucho
de lo que creemos ser pensamiento abstracto no es más que una sofisticada
analogía? ¿Cuánto de nuestra propia cognición se basa en patrones y
asociaciones complejas, y cuánto en una abstracción "pura"? La IA, al
imitar nuestras capacidades, nos obliga a desmenuzar la naturaleza de esas
mismas capacidades. Cuando la IA aprende a imitar lo creativo… sin necesidad de
comprenderlo, nos preguntamos por la esencia de la creatividad misma. ¿Es el
producto final lo que define la creatividad, o el proceso interno de
comprensión y propósito que la impulsa?
Finalmente, nos enfrentamos a una pregunta existencial sobre
nuestra propia identidad: ¿Qué somos los humanos cuando ya no somos los únicos
en hablar con fluidez? Si el lenguaje, una de las piedras angulares de nuestra
autodefinición como especie, puede ser replicado e incluso superado en ciertos
aspectos por máquinas, ¿dónde reside entonces nuestra singularidad? Quizás la
respuesta no esté solo en la capacidad de usar el lenguaje, sino en la vivencia
del mundo que lo sustenta, en la conciencia que lo habita y en la abstracción
que nos permite trascenderlo. La era de la IA nos desafía a comprender más
profundamente no solo a estas nuevas "inteligencias", sino, y quizás
más importante, a nosotros mismos.