logo-artificial-intelligence-consultant
Open menu

Methode & Techniek

Retrieval-Augmented Generation (RAG) (RAG)

Retrieval-Augmented Generation combineert een groot taalmodel met een externe kennisbron, zoals een vector database. Bij elke vraag worden eerst relevante documenten opgehaald, waarna het LLM een antwoord genereert op basis van deze context. Dit verkleint hallucinatie en houdt antwoorden actueel.

Wat is RAG

Retrieval-Augmented Generation is een architectuurpatroon waarin een taalmodel wordt aangevuld met een externe kennisbron. In plaats van uitsluitend te vertrouwen op de parametrische kennis in het model, worden relevante documenten of fragmenten dynamisch opgehaald en als context aan de prompt toegevoegd. Hierdoor kan het model met actuele, organisatie-specifieke informatie antwoorden.

Hoe werkt RAG

Een RAG-pipeline bestaat doorgaans uit drie stappen. Eerst worden documenten omgezet in embeddings en opgeslagen in een vector database zoals Pinecone of Weaviate. Bij een vraag wordt diezelfde embedding-techniek gebruikt om semantisch vergelijkbare passages te vinden. De gevonden context wordt vervolgens samen met de vraag aan een LLM zoals GPT-4o, Claude 3.5 of Llama 3 voorgelegd.

Waarom belangrijk voor enterprises

RAG vermindert hallucinatie aanzienlijk omdat het model expliciete bronnen krijgt om uit te citeren. Daarnaast zijn antwoorden actueel zonder dat het model opnieuw getraind hoeft te worden. Voor enterprises is dit cruciaal voor naleving van GDPR, EU AI Act en interne governance, omdat herkomst van informatie traceerbaar blijft.

Tools en frameworks

Populaire frameworks voor RAG zijn LangChain en LlamaIndex, die orchestratie tussen embedding-modellen, vector databases en LLMs vereenvoudigen. Voor productieomgevingen worden vaak Azure OpenAI of AWS Bedrock gebruikt voor het LLM-gedeelte, gecombineerd met managed vector stores.

Voorbeelden

Artificial Intelligence Consultant implementeert RAG-systemen voor klantenservice, juridische analyse en interne kennisontsluiting. Een verzekeraar gebruikt RAG met Weaviate en Claude 3.5 om polisvoorwaarden te ontsluiten, terwijl een bank LangChain en Pinecone inzet voor compliance-research.

Synoniemen

  • RAG
  • kennis-augmentatie
  • retrieval generatie

Voorbeelden

  • Interne kennisbank met Pinecone en GPT-4o
  • Juridische RAG met Weaviate en Claude 3.5
  • LangChain-pipeline voor productdocumentatie

Laatst bijgewerkt: 15 april 2026

Vraag of voorstel?

Mist u een term of wilt u feedback geven? Onze redactie reageert binnen één werkdag.

Neem contact op →