Wednesday, December 31, 2025

Las IA todavía tienen mucho que aprender

"Las IA todavía tienen mucho que aprender", nos asegura Sylvain Matton en "¿Es la alquimia un viaje interior?", Revista de viajes interiores, 27 (2025). Y realmente es así, los LLM, por emplear un término algo más preciso, son constructos retroalimentados que "aprenden" cosechando y procesando grandes cantidades de información. De acuerdo con Gemini 3: 

Un LLM es un tipo de inteligencia artificial entrenada para comprender, generar y manipular lenguaje humano. Se basa en arquitecturas de redes neuronales profundas, específicamente una llamada Transformer, que le permite procesar grandes volúmenes de datos de texto.

Aquí están sus componentes clave:

Entrenamiento Masivo: Se les expone a cantidades ingentes de texto (libros, artículos, código de programación, conversaciones). Durante este proceso, el modelo aprende los patrones, la gramática, los hechos y hasta ciertos matices del razonamiento humano.

Predicción de Tokens: En esencia, un LLM funciona prediciendo la siguiente unidad de texto (llamada token) en una secuencia. Si escribes "El cielo es...", el modelo calcula estadísticamente que la palabra más probable a continuación es "azul".

Parámetros: Son las variables internas que el modelo ajusta durante su aprendizaje. Los modelos "grandes" tienen miles de millones de estos parámetros, lo que les permite captar relaciones extremadamente complejas entre las palabras y el contexto.

Contexto y Atención: Gracias al mecanismo de "atención", el modelo puede entender la relación entre palabras que están lejos una de otra en un mismo párrafo, permitiéndole mantener la coherencia en textos largos.

¿Para qué sirven? Se utilizan para resumir textos, traducir idiomas, escribir código, crear contenido creativo o, como en este caso, mantener una conversación fluida respondiendo preguntas de forma lógica.

De esta manera, si se le pregunta a un Gemini, un ChatGPT o un Perplexity, responderá rápidamente de acuerdo con modelos de lenguaje generales, extraídos de nuestra misma imaginería colectiva. De ahí sus errores e imprecisiones: son exactamente los mismos que hallaríamos en una Wikipedia. 
 
Si, por el contrario, nos dedicáramos a enseñar proactivamente a nuestro artificial confidente, facilitándole un entrenamiento específico basado en literatura científica especializada y deep searches, así como un contexto específico para sus respuestas, observaríamos cómo sus errores académicos irían disipándose paulatinamente, de acuerdo con su proceso de aprendizaje y su adaptación progresiva al trasfondo científico planteado, tomando su memoria como núcleo central del conjunto. 

En realidad, Matton nos está tirando de las orejas a nosotros, pobres mortales, no tanto a los LLMs. Reformulemos, si se nos permite, sus palabras: "Los seres humanos no especializados tienen todavía mucho que aprender", de acuerdo con un proceso de aprendizaje similar al descrito. 

¿Se dedicarán los académicos de las próximas décadas a entrenar modelos de IA con el objeto de engrosar sus curricula con publicaciones fake y permitirles efectuar doomscrolling a gusto en el interior de sus polvorientos despachos?

Calle, no me responda. Sólo de pensar lo que ya está sucediendo me entran escalofríos. 

¡Feliz Año Nuevo!





"AI still has much to learn," Sylvain Matton assures us in "Is Alchemy an Inner Journey?", Revista de viajes interiores, 27 (2025). And indeed it is so: LLMs—to use a more precise term—are feedback-driven constructs that "learn" by harvesting and processing vast amounts of information. According to Gemini 3:

An LLM is a type of artificial intelligence trained to understand, generate, and manipulate human language. It is based on deep neural network architectures, specifically one called the Transformer, which allows it to process large volumes of text data.

Here are its key components:

Massive Training: They are exposed to staggering amounts of text (books, articles, programming code, conversations). During this process, the model learns patterns, grammar, facts, and even certain nuances of human reasoning.

Token Prediction: In essence, an LLM works by predicting the next unit of text (called a token) in a sequence. If you write "The sky is...", the model statistically calculates that the most likely next word is "blue."

Parameters: These are the internal variables that the model adjusts during its learning. "Large" models have billions of these parameters, allowing them to capture extremely complex relationships between words and context.

Context and Attention: Thanks to the "attention" mechanism, the model can understand the relationship between words that are far apart in the same paragraph, enabling it to maintain coherence in long texts.

What are they for? They are used to summarize texts, translate languages, write code, create creative content, or, as in this case, maintain a fluid conversation by answering questions logically.

In this way, if you ask a Gemini, a ChatGPT, or a Perplexity, it will respond quickly according to general language models drawn from our very own collective imagery. Hence its errors and inaccuracies: they are exactly the same ones we would find in a Wikipedia entry.

If, on the contrary, we were to proactively teach our artificial confidant—providing it with specific training based on specialized scientific literature and deep searches, as well as a specific context for its responses—we would observe how its academic errors would gradually dissipate, in accordance with its learning process and its progressive adaptation to the proposed scientific background, taking its memory as the central core of the whole.

In reality, Matton is pulling our ears—us poor mortals—not so much the LLMs'. Let us reformulate his words, if we may: "Non-specialized human beings still have much to learn," following a learning process similar to the one described.

Will the academics of the coming decades dedicate themselves to training AI models for the purpose of padding their curricula with fake publications, allowing them to perform doomscrolling at their leisure inside their dusty offices?

Hush, do not answer me. Just thinking about what is already happening gives me the shivers.

Happy New Year!

No comments:

Post a Comment

Las IA todavía tienen mucho que aprender

"Las IA todavía tienen mucho que aprender", nos asegura Sylvain Matton en "¿Es la alquimia un viaje interior?",  Revista...