Anatomía de una conversación con IA: más allá de simples preguntas y respuestas
Descubre cómo los modelos de lenguaje grandes (LLMs) realmente "piensan" y "recuerdan" durante nuestras conversaciones con ellos.
¿Alguna vez te has preguntado qué pasa realmente cuando chateas con ChatGPT, Claude, o cualquier otro asistente de IA? Pues prepárate, porque hoy vamos a levantar el capó y ver qué pasa “under the hood” de la IA durante nuestras conversaciones.
Imagínate que entras a una fiesta y conoces a alguien. Por supuesto, empiezas a contarle tu vida: desde tu comida favorita, tu afición por la guitarra hasta tu obsesión por la inteligencia artificial. Cada vez que hablas, esa persona tiene que recordar toda la conversación desde el principio, incluyendo quién eres, de qué han estado hablando, y hasta el tono de la charla.
Los humanos estamos acostumbrados a conversar, así que esta persona recordará fácilmente que te encanta la lasagna, que tienes más de una guitarra en casa, y pruebas cada herramienta de IA que pase por tus manos y podrá continuar la conversación. sin problemas.
Pero, para una IA, esa misma conversación puede ser agotadora, así que vamos a ver qué es lo que hace un LLM cada vez que interactúas con él.
Nota: Un LLM (Large Language Model) es un modelo de inteligencia artificial entrenado en grandes cantidades de texto para entender y generar lenguaje humano.
Los tres mosqueteros de la conversación con IA: sistema, asistente y usuario
Antes de ver cómo funciona todo esto, hablemos de los tres tipos de mensajes que son parte de las conversaciones con IA: los prompts de sistema, usuario y asistente. Estos tipos de prompts son la columna vertebral de cualquier conversación que tengas con una inteligencia artificial.
1. Prompt de sistema: el director invisible
El prompt de sistema es como el director detrás de cámaras en una película. Nunca lo ves, pero guía la narrativa. Este mensaje le dice al LLM cómo debe comportarse, qué personalidad debe adoptar, y qué reglas debe seguir. Cada asistente de IA tiene su propio prompt de sistema, y normalmente no es público.
Ejemplo (imaginario, ya que son privados): "Eres Claude, un asistente de IA amigable y útil creado por Anthropic. Responde de manera concisa y usa analogías para explicar conceptos complejos."
2. Prompt de usuario: el público interactivo
Este es tu mensaje. Cada vez que escribes algo, estás creando un prompt de usuario. Puede ser una pregunta, una instrucción o simplemente una expresión. Es como si estuvieras dando una línea de diálogo en una obra de teatro improvisada.
Ejemplo: "¿Puedes explicar qué es la inteligencia artificial de manera simple?"
3. Prompt de asistente: el actor principal
El prompt de asistente es la respuesta del LLM a tu pregunta o instrucción. Es como la línea del actor en esa obra improvisada. Cada vez que el asistente responde, está creando un nuevo prompt de asistente basado en tu pregunta y en el contexto de la conversación.
Ejemplo: "Claro, puedo ayudarte con eso. La inteligencia artificial es una rama de la informática que desarrolla sistemas capaces de realizar tareas que normalmente requieren inteligencia humana…"
Cada uno de estos mensajes es necesario para tener una conversación, pero no es todo lo que tenemos que tener en cuenta. Ahora nos toca ver cómo estos mensajes sueltos se juntan para formar algo más complejo.
El “stack” o pila de mensajes: un juego de Jenga lingüístico

Ahora, aquí viene lo interesante. Cada vez que interactúas con un LLM, no solo está procesando tu último mensaje. No, no, no!
El LLM está tomando tooooooooooooda la conversación —el prompt de sistema, todas las respuestas previas (prompts de asistente), y todos tus mensajes (prompts de usuario)— y los está apilando en orden como un gigantesco juego de Jenga (también conocido como pila o stack).
Aquí un ejemplo de cómo se construye este stack de prompts:
Prompt de sistema: "Eres un asistente amigable y experto en tecnología. Explica conceptos complejos de forma simple y usa analogías cuando sea posible."
Prompt de usuario: "¿Qué es la inteligencia artificial?"
Prompt de asistente: "La inteligencia artificial es como tener un cerebro digital muy poderoso..."
Prompt de usuario: "Interesante. ¿Y cómo aprende la IA?"
Prompt de asistente: "La IA aprende de manera similar a cómo aprendemos nosotros, pero mucho más rápido y con muchísimos más datos..."
Prompt de usuario: "¿Puedes darme un ejemplo concreto de cómo se usa la IA en la vida diaria?"
Cuando el LLM recibe este último mensaje del usuario, lo que realmente recibe no es sólo ese mensaje, es toda esta pila de mensajes juntos, desde el prompt de sistema hasta la última pregunta, y esto sucede cada vez que escribes un mensaje. Así es como un LLM puede mantener el contexto de la conversación y responder con coherencia.
Los LLM no tiene una "memoria" en el sentido tradicional. En cambio, revisa toda la conversación cada vez que responde. Es como si cada vez que hablaras con un amigo, tuviera que repasar mentalmente todo lo que han dicho antes de contestarte.
Como te darás cuenta, mientras más larga sea conversación, más grande se vuelve ese stack. ¿Genial, no? ¡Pues no tanto!
La ventana de contexto: el límite de la memoria de la IA
Espera, hay un pequeño problema que olvidé mencionar. Los LLMs no tienen una capacidad infinita para procesar información 😬. Tienen lo que llamamos una "ventana de contexto". Imagina la ventana de contexto como una pizarra gigante donde el LLM escribe toda la conversación. Una vez que la pizarra se llena, tiene que borrar algo para seguir escribiendo.

Esta ventana de contexto es la razón por la que a veces los LLMs parecen "olvidar" cosas que mencionaste al principio de una conversación larga. No es que realmente olviden; es que esa información ya no entra en su pizarra mental.
¿Cómo la IA hace espacio para nuevos pensamientos?
Cuando la conversación se acerca al límite de la ventana de contexto, el LLM hace algo muy inteligente: resume partes de la conversación para hacer espacio para nueva información.
Es como si, en medio de una larga conversa con un amigo, de repente dijera: "Bueno, hasta ahora hemos hablado sobre tu gusto por la comida italiana, tus planes de comprar un ukulele, y esa nueva herramienta de AI que quieres probar. Sigamos desde ahí". El LLM está constantemente haciendo estos resúmenes internos para mantener la esencia de la conversación sin exceder su capacidad.
Ojo que todo esto sucede sin que tú lo notes. El LLM hace malabares con toda esta información tras bambalinas, tratando de mantener la coherencia y relevancia de la conversación.
¿Por qué es importante esto?
Entender cómo funcionan estas conversaciones internamente no es solo un tema académico. Tiene muchas implicaciones prácticas en nuestra interacción con la IA.
Por ejemplo, cuando entendí este proceso, me di cuenta de por qué mis conversaciones con AI a veces se sentían un poco... extrañas. Solía juntar muchos temas en una sola conversación, y aunque el LLM respondía, había algo que no me cuadraba al 100%. Puedo imaginarme la cara de confusión del pobre LLM (si tuviera cara, claro) tratando de hacer malabares con todo esos temas al mismo en su limitada ventana de contexto.
Esto me lleva a un consejo práctico: es mejor enfocar cada conversación en uno o pocos temas relacionados. ¿Por qué? Porque ayudas al LLM a mantener un contexto claro y relevante.
¿Cómo afecta esto a la conversación que tengo con una IA?
Ahora, te estarás preguntando: "¿Y qué onda con todo esto? ¿Cómo afecta esto a las respuestas que me da una IA?" Excelente pregunta, mi querido Watson.
Las respuestas están más relacionadas al contexto inmediato: El modelo siempre está considerando todo el contexto disponible, pero el una parte de ese contexto puede estar ya resumido, por eso sus respuestas pueden tender a estar más relacionadas al último tema tocado.
Posible pérdida de detalles específicos: Mientas se alarga la conversación y se empieza a auto-resumir, algunos detalles específicos mencionados al principio podrían perderse, afectando la precisión de las respuestas sobre esos temas puntuales.
Manejo de tareas complejas: La capacidad de mantener y procesar un contexto grande le permite al LLM manejar tareas que requieren recordar y relacionar muchas piezas de información.
Nota: Los LLMs siguen evolucionando y cada vez tienen ventanas de contexto más grandes. De todas maneras es importante saber como funcionan y como esto afecta nuestras conversaciones.
Consejos para sacarle provecho a tus conversaciones con IA
Sé claro y específico: Cuanto más claro seas en tus prompts, más fácil será para el LLM entender y mantener el contexto. No tengas miedo de ser detallado.
Mantén el enfoque: Trata de mantener la conversación en un tema o en temas relacionados. Si necesitas cambiar de tema empieza una nueva conversación.
Utiliza el contexto a tu favor: Si quieres que el LLM recuerde algo importante, no dudes en repetirlo o referirte a ello. Ayúdalo a mantener esa información en su "pizarra mental".
Sé consciente del tamaño de la conversación: En conversaciones muy largas, ten en cuenta que el LLM podría haber "olvidado" (es decir, resumido) información del principio. Si es crucial, no dudes en recordárselo.
Para terminar…
La próxima vez que chatees con una IA, piensa en todo lo que está ocurriendo under the hood. Estás piloteando una potente máquina de procesamiento de lenguaje, pero recuerda que no es perfecta y cada mensaje cuenta.
Nos vemos pronto!
G.