logo-artificial-intelligence-consultant
Open menu

Methode & Techniek

Few-shot Learning

Few-shot learning is een prompttechniek waarbij een taalmodel een paar voorbeelden van invoer en gewenste uitvoer krijgt voordat het een nieuwe taak uitvoert. Hierdoor leert het model de gewenste structuur, stijl of logica zonder dat hertraining nodig is, ideaal voor snelle enterprise-prototypes.

Wat is Few-shot Learning

Few-shot learning is het inzetten van een handvol voorbeelden binnen een prompt om een taalmodel te begeleiden bij het uitvoeren van een specifieke taak. In plaats van het model opnieuw te trainen, krijgt het in de context al een paar voor-beelden te zien van inputs en gewenste outputs. Het model leidt vervolgens uit deze voorbeelden af hoe het op nieuwe input moet reageren.

Verschil met zero-shot en fine-tuning

Bij zero-shot prompting krijgt het model alleen een instructie zonder voorbeelden. Few-shot voegt twee tot vijf voorbeelden toe, wat de prestatie vaak aanzienlijk verbetert. Fine-tuning gaat een stap verder: dan worden de modelgewichten daadwerkelijk aangepast op een trainingsset. Few-shot is goedkoper, sneller en flexibeler dan fine-tuning.

Wanneer gebruik je het

Few-shot is ideaal wanneer een organisatie consistente output-structuur wil afdwingen, zoals JSON, XML of een specifiek classificatieformaat. Modellen als GPT-4o, Claude 3.5 en Mistral Large reageren sterk op goed gekozen voorbeelden. Voor productieomgevingen op Azure OpenAI of AWS Bedrock is dit een efficiënte aanpak.

Best practices

Effectieve voorbeelden zijn divers, representatief en bevatten edge cases. Het is verstandig om voorbeelden te beheren in een prompt-bibliotheek met versiebeheer, vergelijkbaar met code. Frameworks zoals LangChain en LlamaIndex ondersteunen dynamische voorbeeldselectie op basis van similariteit.

Voorbeelden in de praktijk

Artificial Intelligence Consultant helpt klanten bij het opzetten van few-shot bibliotheken voor klantenservice, juridische extractie en compliance-classificatie. Door evaluatie en monitoring blijven prestaties stabiel, ook bij wijzigingen in modellen of context.

Synoniemen

  • voorbeeldgedreven prompting
  • in-context learning
  • weinig-voorbeelden leren

Voorbeelden

  • Drie classificatievoorbeelden bij GPT-4o
  • JSON-extractie met Claude 3.5
  • Few-shot voor toonzetting in marketing

Laatst bijgewerkt: 15 april 2026

Vraag of voorstel?

Mist u een term of wilt u feedback geven? Onze redactie reageert binnen één werkdag.

Neem contact op →