Training op tekst
Een LLM wordt gevoed met miljarden woorden tekst van internet, boeken, code en fora. Het leert statistische patronen: welke woorden volgen welke woorden in welke context.
Large language models in gewone taal.
Een LLM, oftewel large language model, is het AI systeem achter ChatGPT, Claude en Gemini. Hier lees je hoe een LLM werkt, waar hij goed en slecht in is en waarom het zo'n grote deal is.
Krijg bericht als er een cursus live gaat
Een LLM is een AI model getraind op enorme hoeveelheden tekst. Het leert patronen in taal en voorspelt het meest waarschijnlijke volgende woord. Token voor token bouwt het antwoorden op. ChatGPT, Claude, Gemini en Llama zijn allemaal LLMs.
Voor wie is dit relevant? Voor iedereen die AI chatbots gebruikt of bouwt. Begrijpen hoe een LLM werkt maakt duidelijk waarom hij soms fout zit, wat hij goed kan en waar je niet op moet rekenen.
Waarom LLMs de game hebben veranderd: tot 2017 was natuurlijke taal een van de moeilijkste AI problemen. Na de Transformer doorbraak en de schaalsprong van 2020 tot 2022 werden LLMs opeens breed inzetbaar. Dit is de motor achter de AI boom.
Acht begrippen die helpen begrijpen hoe large language models werken.
Een LLM wordt gevoed met miljarden woorden tekst van internet, boeken, code en fora. Het leert statistische patronen: welke woorden volgen welke woorden in welke context.
LLMs werken niet met woorden maar met tokens: kleine stukjes tekst van een paar tekens. Context windows worden gemeten in tokens, niet in woorden.
De Transformer is het neurale netwerk ontwerp uit 2017 dat LLMs mogelijk maakt. Attention mechanismen zorgen dat het model context kan vasthouden over lange teksten.
De 'knoppen' die het model tijdens training afstelt. GPT-3 had 175 miljard, moderne modellen vaak honderden miljarden. Meer parameters is niet altijd beter.
Eerst leert het model basis taal (pre training). Daarna wordt het bijgestuurd met voorbeelden en menselijke feedback (fine tuning). Beide stappen kosten maanden.
Wat er gebeurt als jij een prompt typt: het model voorspelt token voor token het antwoord. Elke token kost rekenkracht. Lange antwoorden zijn daarom trager.
Hoeveel tekst het model in een gesprek kan onthouden. GPT-5: 128k tot 400k tokens. Claude: 200k. Gemini: tot 2 miljoen. Groter is beter voor lange documenten.
Een LLM weet geen feiten, hij voorspelt waarschijnlijke tekst. Soms klopt die tekst niet met de werkelijkheid. Dat is geen bug maar een fundamentele eigenschap.
Dit zijn de tools en begrippen die hierbij horen.
Het model achter ChatGPT en veel andere tools. Breed inzetbaar, sterk multimodaal en met goede tool use. Meest gebruikte LLM ter wereld.
Via ChatGPT of API
Goed voor generieke taken. Voor specifieke use cases soms minder scherp dan Claude.
Sterkste model op code, schrijven en analyse. Groter context window en minder hallucinaties dan concurrenten.
Via Claude of API
Eerste keuze voor professionele schrijvers en ontwikkelaars in 2026.
Diep geintegreerd met Google producten. Sterk multimodaal, miljoenen context tokens. Voor Workspace gebruikers de natuurlijke keuze.
Via Gemini of Google AI Studio
De 2 miljoen token context is uniek. Handig voor hele codebases of boeken.
Open source model dat je zelf kunt draaien. Populair bij bedrijven die controle willen en geen data extern sturen.
Gratis (weights), infra kosten
Voor wie on premise of privacy kritisch werk doet. Vergt wel technische teams.
Chinese open source uitdager. Goede prestaties tegen veel lagere kosten dan Amerikaanse modellen. Geopolitiek complex.
Via API of self hosted
Voor developers die kosten willen drukken. Check datalocatie en compliance voor klantwerk.
Volg een cursus die je van beginner naar vertrouwd brengt, in je eigen tempo.
Zes stappen van jouw prompt naar het finale antwoord.
Jouw prompt wordt opgeknipt in tokens. 'Hallo wereld' wordt ongeveer drie tokens. De prompt wordt omgezet naar getallen die het model begrijpt.
Alle tokens uit het gesprek tot nu toe worden ingeladen. Dit is je context window. Hoe langer het gesprek, hoe meer tokens actief worden gehouden.
Op basis van alle input tokens berekent het model de waarschijnlijkheid voor het eerste antwoord token. Hij pakt het meest waarschijnlijke, soms met wat variatie (temperature).
Het model voegt het gekozen token toe aan de context en voorspelt het volgende. Token voor token groeit het antwoord, zonder vooruit te plannen.
Het model stopt als het een stop token genereert of als de maximale lengte bereikt is. Hoe lang je antwoord is wordt mede bepaald door je prompt.
De output tokens worden omgezet naar leesbare tekst. Dit gaat razendsnel, meestal tientallen tokens per seconde. Grotere modellen zijn trager.
Een LLM is geen zoekmachine en geen kennisbank. Dit zijn de fundamentele beperkingen.
Een LLM voorspelt waarschijnlijke tekst, niet waarheid. Hij kan geen onderscheid maken tussen weten en gokken. Kritisch checken blijft nodig.
Modellen kennen geen gebeurtenissen na hun trainingsdatum tenzij ze web access hebben. Voor actueel nieuws gebruik je zoek tools of Perplexity.
LLMs leren uit tekst die mensen schreven. Vooroordelen in die tekst zitten in het model. Let op bij werving, rechtspraak en kwetsbare doelgroepen.
LLMs rekenen niet, ze voorspellen. Voor serieus rekenwerk gebruik je Code Interpreter, calculator tools of Excel. Niet de chat alleen.
Ook al is 200k of 2M tokens groot, het is eindig. In lange gesprekken vergeet het model soms eerdere delen. Projects en system prompts helpen.
Elk woord dat een LLM genereert kost rekenkracht en water voor koeling. Datacenter CO2 uitstoot groeit snel. Niet elk probleem is een LLM probleem.
Vijf stappen van oppervlakkig gebruik naar gefundeerd inzicht.
Werk een week intensief met ChatGPT of Claude. Merk waar het sterk en zwak is. Schrijf observaties op.
Leer wat tokens zijn en hoe je context window opraakt. Experimenteer met lange documenten en zie wanneer het model stukken vergeet.
Stel dezelfde prompt aan ChatGPT, Claude en Gemini. Noteer verschillen in stijl, accuraatheid en toon. Kies per taaktype je favoriet.
Leer chain of thought, few shot en system prompts. Zie ook waar goede prompts niet helpen: wiskunde, actueel nieuws en echte creativiteit.
Voor developers: gebruik de API direct. Merk hoe latency, kosten en parameters werken. Bouw een klein product om echt te snappen hoe LLMs zich gedragen.
Large Language Model. Een AI model getraind op heel veel tekst dat natuurlijke taal kan verwerken en genereren. ChatGPT, Claude en Gemini zijn LLMs.
Een LLM is het onderliggende taalmodel. Een chatbot is de gebruikersinterface eromheen. ChatGPT is de chatbot, GPT-5 is de LLM. Handig onderscheid bij gesprekken.
Eerst pre training op miljarden woorden tekst om patronen te leren. Daarna fine tuning met voorbeelden en menselijke feedback om het model bruikbaar en veilig te maken. Dit kost maanden en tientallen tot honderden miljoenen dollars.
Omdat het model voorspelt wat waarschijnlijk volgt, niet wat waar is. Als de training data geen sterke signalen had, verzint het model een plausibel klinkend antwoord. Dit is geen bug maar een fundamenteel gedrag.
De hoeveelheid tekst die een LLM in een gesprek actief kan gebruiken, gemeten in tokens. Moderne modellen hebben 128k tot 2 miljoen tokens, genoeg voor hele rapporten of boeken.
Afhankelijk van de taak. Claude is sterk op lange teksten en analyse. GPT-5 is breed en multimodaal. Gemini integreert met Google. Voor eigen hosting: Llama. Test meerdere modellen voor jouw use case.
Een nieuwe vanaf nul: praktisch niet, kost miljoenen. Een bestaande fine tunen op jouw data: ja, dat kan met open source modellen als Llama of via OpenAI's fine tune API.
Nee. LLMs voorspellen waarschijnlijke tekst op basis van patronen. Hoe verbluffend de output ook is, er is geen bewustzijn, begrip of intentie. Dat is zowel een beperking als een geruststelling.
Korte lessen, concrete voorbeelden, geen fluff. Gratis starten. Geen creditcard nodig.
Laat je gegevens achter en je hoort het zodra er een cursus rond dit onderwerp live gaat. Geen spam, geen nieuwsbrief.