La generación mejorada por recuperación (RAG) es el
proceso de optimización de la salida de un modelo lingüístico de gran
tamaño, de modo que haga referencia a una base de conocimientos
autorizada fuera de los orígenes de datos de entrenamiento antes de
generar una respuesta. Los modelos de lenguaje de gran tamaño (LLM) se
entrenan con grandes volúmenes de datos y usan miles de millones de
parámetros para generar resultados originales en tareas como responder
preguntas, traducir idiomas y completar frases. RAG extiende las ya
poderosas capacidades de los LLM a dominios específicos o a la base de
conocimientos interna de una organización, todo ello sin la necesidad de
volver a entrenar el modelo. Se trata de un método rentable para
mejorar los resultados de los LLM de modo que sigan siendo relevantes,
precisos y útiles en diversos contextos.