RAG bien hecho: fuentes, chunking, evaluación y control de alucinaciones (con ejemplos simples)

March 13, 2026

Muchos equipos están incorporando Retrieval-Augmented Generation (RAG) para construir asistentes internos, buscadores inteligentes o herramientas que responden preguntas sobre documentación.

La idea es simple: en lugar de confiar solo en el conocimiento general de un modelo de lenguaje, el sistema busca información relevante en una base de conocimiento y la usa como contexto para generar la respuesta.

En teoría suena sencillo. En la práctica, construir un sistema RAG que funcione bien requiere tomar buenas decisiones en varias áreas: las fuentes de información, cómo se fragmenta el contenido, cómo se evalúa la calidad de las respuestas y cómo se controlan las alucinaciones.

En este artículo repasamos algunos principios clave para implementar RAG de forma robusta, con ejemplos simples.

1. Las fuentes de información importan más de lo que parece

Un sistema RAG es tan bueno como las fuentes que utiliza.

Uno de los errores más comunes es empezar a indexar todo tipo de documentos sin curar el contenido. Esto suele generar respuestas inconsistentes o contradictorias.

Antes de pensar en embeddings o modelos, conviene definir:

  • qué documentos son fuentes confiables
  • cuáles están actualizados
  • qué contenido es relevante para el caso de uso

Por ejemplo, imaginemos un asistente para responder preguntas sobre políticas internas de una empresa.

Mal enfoque:

  • indexar emails antiguos
  • documentos duplicados
  • versiones distintas de la misma política

Buen enfoque:

  • indexar únicamente la versión oficial y vigente de cada documento
  • organizar las fuentes por categoría
  • mantener un proceso claro de actualización

Un RAG bien diseñado empieza por una base de conocimiento curada.

2. El chunking define si el sistema encuentra la información correcta

Una vez definidas las fuentes, el siguiente paso es fragmentar el contenido en partes más pequeñas para poder indexarlo en un sistema de búsqueda semántica.

A este proceso se lo conoce como chunking.

El objetivo es que cada fragmento contenga suficiente contexto para ser útil, pero no tanto como para mezclar temas distintos.

Ejemplo simple.

Documento original:

"Para solicitar vacaciones, el empleado debe enviar una solicitud en el sistema interno con al menos 10 días de anticipación. El supervisor debe aprobarla antes de que se confirme."

Si el chunk es demasiado grande, puede mezclar múltiples procesos.

Si es demasiado pequeño, puede perder contexto.

Un buen chunk podría ser algo como:

Chunk indexado

"Para solicitar vacaciones, el empleado debe enviar una solicitud en el sistema interno con al menos 10 días de anticipación."

Esto permite que el sistema encuentre rápidamente la información relevante cuando el usuario pregunta:

"¿Cuántos días antes tengo que pedir vacaciones?"

Un chunking bien diseñado mejora mucho la calidad del retrieval.

3. Evaluar el sistema es tan importante como construirlo

Uno de los mayores problemas en proyectos con IA es que muchas veces se evalúan de forma informal.

Se prueba el sistema con algunas preguntas, parece funcionar bien y se da por terminado.

Pero los sistemas RAG necesitan evaluación sistemática.

Algunas prácticas útiles incluyen:

  • definir un conjunto de preguntas de prueba
  • validar si el sistema recupera los documentos correctos
  • evaluar la calidad de las respuestas generadas

Por ejemplo:

Pregunta de prueba:

"¿Cuántos días antes debo solicitar vacaciones?"

Evaluación posible:

  • ¿recuperó el chunk correcto?
  • ¿la respuesta es fiel al documento?
  • ¿inventó información?

Construir pequeños datasets de evaluación ayuda a mejorar el sistema de forma continua.

4. Controlar las alucinaciones

Uno de los riesgos de cualquier sistema basado en LLM es que el modelo genere información que no está en las fuentes.

En sistemas RAG esto se puede mitigar con algunas estrategias.

Una de las más simples es forzar al modelo a responder únicamente con información recuperada.

Por ejemplo, un prompt del sistema podría indicar:

"Responde únicamente usando la información proporcionada en el contexto. Si no hay suficiente información, indica que no puedes responder."

Otra práctica útil es mostrar las fuentes utilizadas en la respuesta.

Ejemplo:

Pregunta

"¿Cuántos días antes debo pedir vacaciones?"

Respuesta

"Debes solicitar vacaciones con al menos 10 días de anticipación."

Fuente

Política interna de vacaciones – sección 2.

Esto mejora la transparencia y la confianza en el sistema.

5. RAG es ingeniería, no solo prompts

Un sistema RAG robusto combina varias piezas:

  • fuentes de conocimiento bien curadas
  • buen diseño de chunking
  • mecanismos de búsqueda semántica
  • evaluación sistemática
  • control de alucinaciones

Por eso, construir buenos sistemas RAG no es solo una cuestión de prompts o modelos. Es un problema de ingeniería de sistemas de información.

Cuando estas piezas están bien diseñadas, los asistentes basados en IA pueden convertirse en herramientas muy útiles para explorar documentación, automatizar soporte interno o facilitar el acceso al conocimiento dentro de una organización.

Cookie Notice

This website uses cookies to enhance your experience and analyze site traffic. By continuing to browse, you consent to the use of cookies as described in our Privacy Policy.

Conoce más
Accept