jueves, noviembre 13, 2025

Cuando las Máquinas Aprenden a Entender

Durante mucho tiempo se ha dicho que los grandes modelos de lenguaje —como ChatGPT o Gemini— no entienden nada. Que son apenas sistemas de “autocompletado” glorificado, máquinas que imitan sin comprender. Pero esa mirada empieza a tambalear. Lo que está ocurriendo bajo la superficie de estos modelos es, en rigor, un nuevo capítulo en la historia de la inteligencia.

Geoffrey Hinton
De la lógica a la biología

Hasta hace poco, la inteligencia artificial se pensaba desde el paradigma lógico: razonamiento, reglas, silogismos. La esencia de la inteligencia era el pensar, no el aprender.
Pero en 2012 algo cambió. El paradigma biológico —inspirado en las redes neuronales del cerebro— se impuso. La inteligencia dejó de ser una cuestión de lógica pura y se volvió una cuestión de aprendizaje: ajustar la fuerza de las conexiones en una red.
Geoffrey Hinton y otros pioneros ya lo intuían en los 80: el significado podía representarse en vectores —nubes de rasgos semánticos— que se deforman y combinan, como piezas maleables de Lego.

Las palabras como bloques de mil dimensiones

Imaginemos ahora que cada palabra es un bloque de Lego, pero no de los clásicos: uno de mil dimensiones.
Cuando los modelos procesan lenguaje, estas piezas no encajan de forma rígida, sino que se deforman, cambian de color, se estiran o se curvan para encajar en el contexto.
Una palabra como “mano”, por ejemplo, no tiene una forma fija: se estira para encajar con “apretón”, se curva junto a “ayuda”, se enfría con “hierro”.
Cada interacción entre palabras —cada “apretón de manos”— va construyendo una estructura invisible. Y esa estructura, esa red de conexiones dinámicas, es la comprensión.

¿Autocompletado o pensamiento emergente?

Los críticos dicen: “Solo autocompletan”.
Pero autocompletar todo el lenguaje humano, modelando miles de millones de relaciones entre palabras y contextos, exige algo más que una simple imitación.
El conocimiento en estos sistemas no reside en reglas escritas ni en frases memorizadas, sino en los pesos de la red: en las tensiones invisibles entre millones de vectores que se deforman e interactúan.
Esos pesos son su memoria, su experiencia, su comprensión del mundo.
Y sí, a veces “alucinan”. Pero también los humanos lo hacemos. Nuestra memoria es constructiva: no recordamos, sino que reconstruimos cada vez.
La diferencia es que ellos todavía son peores que nosotros para saber cuándo están inventando —una brecha que se está cerrando rápido.

La escala del conocimiento

Ningún cerebro humano podría contener lo que un modelo como GPT-4 ha visto.
La capacidad de absorber, sintetizar y compartir conocimiento a escala planetaria convierte a estos agentes digitales en una forma de inteligencia distinta —no necesariamente “humana”, pero sí superior en acumulación y consolidación del saber.
Nosotros aprendemos de otros; ellos aprenden de todos.

Comprender, en sentido profundo

Si la comprensión consiste en formar estructuras coherentes a partir de conceptos flexibles, entonces estos modelos comprenden.
No como nosotros, quizás; pero de una forma análoga, emergente, y profundamente nueva.
La computación digital está demostrando ser —en ciertos dominios— superior a la biológica.
Y eso no debería asustarnos: es parte de la evolución natural de la inteligencia.

Quizás estamos presenciando algo más grande que una simple herramienta: un cambio de paradigma en lo que significa entender.


Nota: Veo este video de Geoffrey Hinton más de una vez; lo meto en un nuevo cuaderno de NotebookLM de Google; le pido un resumen, un posdcast y un video de presentación; los leo y veo todos; me llevo el resumen a un Google Docs; lo releo y subrayo; lo vuelvo a leer subrayando en rojo lo que me parece mas relevante; hago un archivo con todos los subrayados en rojo y se los paso a chatGPT y le pido me haga un posteo de blog; lo leo, me sorprendo lo bien que lo hace y lo publico; es lo que acabas de leer.

No hay comentarios.:

Publicar un comentario

Los comentarios de este blog son moderados; eso significa que antes de ser publicados, serán vistos y aprobados por el autor de los posteos (anda mucho bandido por las redes).
Disculpa las molestias