Ranke-4B, ik noem het de tijdsamber LLM, getraind op gegevens die zijn vergrendeld in een tijdperk. Een model dat alleen is getraind met gegevens van vóór 1913. Het model heeft de taalstructuur geleerd, maar weet niets van de wereldoorlogen, weet niets van de Spaanse griep. Zou het interessanter zijn om met zo'n groot model over moderniteit te praten?