fix: update slide 9 lesson 1
This commit is contained in:
@@ -141,26 +141,40 @@
|
||||
|
||||
---
|
||||
|
||||
### Slide 9: Next-Token Prediction
|
||||
*(3 minuten)*
|
||||
### Slide 9: Tokens & Next-Token Prediction
|
||||
*(4 minuten)*
|
||||
|
||||
**Titel:** Hoe "denkt" een LLM?
|
||||
|
||||
**Inhoud:**
|
||||
|
||||
**Voorbeeld:** "De kat zat op de ___"
|
||||
**Stap 1: Tekst → Tokens (nummers)**
|
||||
```
|
||||
"Ik drink koffie" → [1847, 5621, 8934]
|
||||
```
|
||||
Elk woord (of woorddeel) krijgt een nummer.
|
||||
|
||||
**Stap 2: Betekenis in getallen**
|
||||
Woorden met vergelijkbare betekenis liggen dicht bij elkaar:
|
||||
- "koffie" en "thee" → dichtbij
|
||||
- "staal" en "metaal" → dichtbij
|
||||
- "koffie" en "fiets" → ver uit elkaar
|
||||
|
||||
**Stap 3: Voorspel het volgende token**
|
||||
```
|
||||
"Ik drink koffie met ___"
|
||||
```
|
||||
Het model berekent kansen:
|
||||
- "mat" → 65%
|
||||
- "stoel" → 15%
|
||||
- "bank" → 10%
|
||||
- "melk" → 45%
|
||||
- "suiker" → 30%
|
||||
- "een" → 15%
|
||||
|
||||
→ Kiest waarschijnlijk "mat" (maar niet altijd!)
|
||||
→ Kiest waarschijnlijk "melk" (maar niet altijd!)
|
||||
|
||||
**Dit verklaart:**
|
||||
- Waarom het soms briljant is
|
||||
- Waarom het soms onzin produceert
|
||||
- Waarom dezelfde vraag verschillende antwoorden geeft
|
||||
- Waarom het soms briljant is (patronen herkend)
|
||||
- Waarom het soms onzin produceert (verkeerde voorspelling)
|
||||
- Waarom dezelfde vraag verschillende antwoorden geeft (kans, niet zekerheid)
|
||||
|
||||
---
|
||||
|
||||
|
||||
Reference in New Issue
Block a user