fix: update slide 9 lesson 1

This commit is contained in:
Tim Rijkse
2026-01-30 15:05:30 +01:00
parent 69f7ee76e2
commit 03a5d437df
2 changed files with 42 additions and 18 deletions

View File

@@ -141,26 +141,40 @@
---
### Slide 9: Next-Token Prediction
*(3 minuten)*
### Slide 9: Tokens & Next-Token Prediction
*(4 minuten)*
**Titel:** Hoe "denkt" een LLM?
**Inhoud:**
**Voorbeeld:** "De kat zat op de ___"
**Stap 1: Tekst → Tokens (nummers)**
```
"Ik drink koffie" → [1847, 5621, 8934]
```
Elk woord (of woorddeel) krijgt een nummer.
**Stap 2: Betekenis in getallen**
Woorden met vergelijkbare betekenis liggen dicht bij elkaar:
- "koffie" en "thee" → dichtbij
- "staal" en "metaal" → dichtbij
- "koffie" en "fiets" → ver uit elkaar
**Stap 3: Voorspel het volgende token**
```
"Ik drink koffie met ___"
```
Het model berekent kansen:
- "mat" → 65%
- "stoel" → 15%
- "bank" → 10%
- "melk" → 45%
- "suiker" → 30%
- "een" → 15%
→ Kiest waarschijnlijk "mat" (maar niet altijd!)
→ Kiest waarschijnlijk "melk" (maar niet altijd!)
**Dit verklaart:**
- Waarom het soms briljant is
- Waarom het soms onzin produceert
- Waarom dezelfde vraag verschillende antwoorden geeft
- Waarom het soms briljant is (patronen herkend)
- Waarom het soms onzin produceert (verkeerde voorspelling)
- Waarom dezelfde vraag verschillende antwoorden geeft (kans, niet zekerheid)
---