AI begrippen

Wat is een LLM?

Large language models in gewone taal.

Een LLM, oftewel large language model, is het AI systeem achter ChatGPT, Claude en Gemini. Hier lees je hoe een LLM werkt, waar hij goed en slecht in is en waarom het zo'n grote deal is.

Krijg bericht als er een cursus live gaat

De essentie

Een LLM is een AI model getraind op enorme hoeveelheden tekst. Het leert patronen in taal en voorspelt het meest waarschijnlijke volgende woord. Token voor token bouwt het antwoorden op. ChatGPT, Claude, Gemini en Llama zijn allemaal LLMs.

Voor wie is dit relevant? Voor iedereen die AI chatbots gebruikt of bouwt. Begrijpen hoe een LLM werkt maakt duidelijk waarom hij soms fout zit, wat hij goed kan en waar je niet op moet rekenen.

Waarom LLMs de game hebben veranderd: tot 2017 was natuurlijke taal een van de moeilijkste AI problemen. Na de Transformer doorbraak en de schaalsprong van 2020 tot 2022 werden LLMs opeens breed inzetbaar. Dit is de motor achter de AI boom.

01 / Voorbeelden

Wat een LLM onder de motorkap doet

Acht begrippen die helpen begrijpen hoe large language models werken.

01

Training op tekst

Een LLM wordt gevoed met miljarden woorden tekst van internet, boeken, code en fora. Het leert statistische patronen: welke woorden volgen welke woorden in welke context.

02

Tokens, niet woorden

LLMs werken niet met woorden maar met tokens: kleine stukjes tekst van een paar tekens. Context windows worden gemeten in tokens, niet in woorden.

03

Transformer architectuur

De Transformer is het neurale netwerk ontwerp uit 2017 dat LLMs mogelijk maakt. Attention mechanismen zorgen dat het model context kan vasthouden over lange teksten.

04

Parameters

De 'knoppen' die het model tijdens training afstelt. GPT-3 had 175 miljard, moderne modellen vaak honderden miljarden. Meer parameters is niet altijd beter.

05

Pre training versus fine tuning

Eerst leert het model basis taal (pre training). Daarna wordt het bijgestuurd met voorbeelden en menselijke feedback (fine tuning). Beide stappen kosten maanden.

06

Inference

Wat er gebeurt als jij een prompt typt: het model voorspelt token voor token het antwoord. Elke token kost rekenkracht. Lange antwoorden zijn daarom trager.

07

Context window

Hoeveel tekst het model in een gesprek kan onthouden. GPT-5: 128k tot 400k tokens. Claude: 200k. Gemini: tot 2 miljoen. Groter is beter voor lange documenten.

08

Hallucinatie

Een LLM weet geen feiten, hij voorspelt waarschijnlijke tekst. Soms klopt die tekst niet met de werkelijkheid. Dat is geen bug maar een fundamentele eigenschap.

02 / Gerelateerd

De bekendste LLMs in 2026

Dit zijn de tools en begrippen die hierbij horen.

01 OpenAI

GPT-5

Lees meer
Waarvoor

Het model achter ChatGPT en veel andere tools. Breed inzetbaar, sterk multimodaal en met goede tool use. Meest gebruikte LLM ter wereld.

Kosten

Via ChatGPT of API

Tip

Goed voor generieke taken. Voor specifieke use cases soms minder scherp dan Claude.

02 Anthropic

Claude Sonnet 4.5

Lees meer
Waarvoor

Sterkste model op code, schrijven en analyse. Groter context window en minder hallucinaties dan concurrenten.

Kosten

Via Claude of API

Tip

Eerste keuze voor professionele schrijvers en ontwikkelaars in 2026.

03 Google

Gemini 2.5 Pro

Lees meer
Waarvoor

Diep geintegreerd met Google producten. Sterk multimodaal, miljoenen context tokens. Voor Workspace gebruikers de natuurlijke keuze.

Kosten

Via Gemini of Google AI Studio

Tip

De 2 miljoen token context is uniek. Handig voor hele codebases of boeken.

04 Meta

Llama 4

Waarvoor

Open source model dat je zelf kunt draaien. Populair bij bedrijven die controle willen en geen data extern sturen.

Kosten

Gratis (weights), infra kosten

Tip

Voor wie on premise of privacy kritisch werk doet. Vergt wel technische teams.

05 DeepSeek

DeepSeek V4

Waarvoor

Chinese open source uitdager. Goede prestaties tegen veel lagere kosten dan Amerikaanse modellen. Geopolitiek complex.

Kosten

Via API of self hosted

Tip

Voor developers die kosten willen drukken. Check datalocatie en compliance voor klantwerk.

Wil je dit structureel leren?

Volg een cursus die je van beginner naar vertrouwd brengt, in je eigen tempo.

Zet me op de wachtlijst
03 / Stappen

Hoe een LLM zijn antwoord opbouwt

Zes stappen van jouw prompt naar het finale antwoord.

  1. Stap 1 Tokenization

    Jouw prompt wordt opgeknipt in tokens. 'Hallo wereld' wordt ongeveer drie tokens. De prompt wordt omgezet naar getallen die het model begrijpt.

  2. Stap 2 Context laden

    Alle tokens uit het gesprek tot nu toe worden ingeladen. Dit is je context window. Hoe langer het gesprek, hoe meer tokens actief worden gehouden.

  3. Stap 3 Eerste token voorspellen

    Op basis van alle input tokens berekent het model de waarschijnlijkheid voor het eerste antwoord token. Hij pakt het meest waarschijnlijke, soms met wat variatie (temperature).

  4. Stap 4 Volgende tokens voorspellen

    Het model voegt het gekozen token toe aan de context en voorspelt het volgende. Token voor token groeit het antwoord, zonder vooruit te plannen.

  5. Stap 5 Stop conditie

    Het model stopt als het een stop token genereert of als de maximale lengte bereikt is. Hoe lang je antwoord is wordt mede bepaald door je prompt.

  6. Stap 6 Detokenization

    De output tokens worden omgezet naar leesbare tekst. Dit gaat razendsnel, meestal tientallen tokens per seconde. Grotere modellen zijn trager.

04 / Eerlijk

Waar je op moet letten

Een LLM is geen zoekmachine en geen kennisbank. Dit zijn de fundamentele beperkingen.

Hallucinaties zijn inherent

Een LLM voorspelt waarschijnlijke tekst, niet waarheid. Hij kan geen onderscheid maken tussen weten en gokken. Kritisch checken blijft nodig.

Trainingsdatum is harde grens

Modellen kennen geen gebeurtenissen na hun trainingsdatum tenzij ze web access hebben. Voor actueel nieuws gebruik je zoek tools of Perplexity.

Bias in training data

LLMs leren uit tekst die mensen schreven. Vooroordelen in die tekst zitten in het model. Let op bij werving, rechtspraak en kwetsbare doelgroepen.

Wiskunde is zwak

LLMs rekenen niet, ze voorspellen. Voor serieus rekenwerk gebruik je Code Interpreter, calculator tools of Excel. Niet de chat alleen.

Contextvenster is beperkt

Ook al is 200k of 2M tokens groot, het is eindig. In lange gesprekken vergeet het model soms eerdere delen. Projects en system prompts helpen.

Energiekosten

Elk woord dat een LLM genereert kost rekenkracht en water voor koeling. Datacenter CO2 uitstoot groeit snel. Niet elk probleem is een LLM probleem.

05 / Leerpad

Hoe je LLMs echt begrijpt

Vijf stappen van oppervlakkig gebruik naar gefundeerd inzicht.

Week 1

Dagelijks gebruik

Werk een week intensief met ChatGPT of Claude. Merk waar het sterk en zwak is. Schrijf observaties op.

Week 2

Tokens en context

Leer wat tokens zijn en hoe je context window opraakt. Experimenteer met lange documenten en zie wanneer het model stukken vergeet.

Week 3

Verschillende modellen vergelijken

Stel dezelfde prompt aan ChatGPT, Claude en Gemini. Noteer verschillen in stijl, accuraatheid en toon. Kies per taaktype je favoriet.

Week 4

Prompt technieken en limieten

Leer chain of thought, few shot en system prompts. Zie ook waar goede prompts niet helpen: wiskunde, actueel nieuws en echte creativiteit.

Maand 2

API en bouwen

Voor developers: gebruik de API direct. Merk hoe latency, kosten en parameters werken. Bouw een klein product om echt te snappen hoe LLMs zich gedragen.

Veelgestelde vragen

Veelgestelde vragen over LLMs

Wat betekent LLM?

Large Language Model. Een AI model getraind op heel veel tekst dat natuurlijke taal kan verwerken en genereren. ChatGPT, Claude en Gemini zijn LLMs.

Wat is het verschil tussen een LLM en een chatbot?

Een LLM is het onderliggende taalmodel. Een chatbot is de gebruikersinterface eromheen. ChatGPT is de chatbot, GPT-5 is de LLM. Handig onderscheid bij gesprekken.

Hoe wordt een LLM getraind?

Eerst pre training op miljarden woorden tekst om patronen te leren. Daarna fine tuning met voorbeelden en menselijke feedback om het model bruikbaar en veilig te maken. Dit kost maanden en tientallen tot honderden miljoenen dollars.

Waarom hallucineert een LLM?

Omdat het model voorspelt wat waarschijnlijk volgt, niet wat waar is. Als de training data geen sterke signalen had, verzint het model een plausibel klinkend antwoord. Dit is geen bug maar een fundamenteel gedrag.

Wat is een context window?

De hoeveelheid tekst die een LLM in een gesprek actief kan gebruiken, gemeten in tokens. Moderne modellen hebben 128k tot 2 miljoen tokens, genoeg voor hele rapporten of boeken.

Welke LLM is de beste?

Afhankelijk van de taak. Claude is sterk op lange teksten en analyse. GPT-5 is breed en multimodaal. Gemini integreert met Google. Voor eigen hosting: Llama. Test meerdere modellen voor jouw use case.

Kan ik zelf een LLM trainen?

Een nieuwe vanaf nul: praktisch niet, kost miljoenen. Een bestaande fine tunen op jouw data: ja, dat kan met open source modellen als Llama of via OpenAI's fine tune API.

Zijn LLMs bewust of slim?

Nee. LLMs voorspellen waarschijnlijke tekst op basis van patronen. Hoe verbluffend de output ook is, er is geen bewustzijn, begrip of intentie. Dat is zowel een beperking als een geruststelling.

Begin vandaag

Leer AI op jouw tempo, zonder ruis

Korte lessen, concrete voorbeelden, geen fluff. Gratis starten. Geen creditcard nodig.

Wachtlijst

Er komt een cursus voor Wat is een LLM?. Wil je als eerste bericht?

Laat je gegevens achter en je hoort het zodra er een cursus rond dit onderwerp live gaat. Geen spam, geen nieuwsbrief.

Je kunt je op elk moment weer afmelden via de mail die je krijgt.

Verken Les in AI

Wat is...?

Vergelijken

Voor jouw vak

Voor jou

Voor je werk

Voor je studie

Per sector

Tools

Categorieën

Trainingen