*Wichtiger* Open-Source-AI-Drop heute. Kann Amerika das Open-AI-Rennen gewinnen? Mein Gespräch mit @natolambert und @soldni von @allen_ai über den Start von Olmo 3 00:00 – Kalte Eröffnung 00:39 – Willkommen & die große Ankündigung von heute 01:18 – Vorstellung der Olmo 3 Modellfamilie 02:07 – Was „Basis-Modelle“ wirklich sind (und warum sie wichtig sind) 05:51 – Dolma 3: die Daten hinter Olmo 3 08:06 – Leistung im Vergleich zu Qwen, Gemma, DeepSeek 10:28 – Was wahrer Open Source bedeutet (und warum es selten ist) 12:51 – Zwischenprüfungen, Transparenz und warum AI2 alles veröffentlicht 16:37 – Warum Qwen überall ist (einschließlich US-Startups) 18:31 – Warum chinesische Labore Open Source gehen (und warum US-Labore das nicht tun) 20:28 – Inside ATOM: die US-Reaktion auf Chinas Modellanstieg 22:13 – Der Aufstieg der „denkenden Modelle“ und Skalierung der Inferenzzeit 35:58 – Die gesamte Olmo-Pipeline, einfach erklärt 46:52 – Vortraining: Daten, Maßstab und Vermeidung katastrophaler Spitzen 50:27 – Mid-Training (Tail-Patching) und Vermeidung von Testlecks 52:06 – Warum langes Kontexttraining wichtig ist 55:28 – SFT: das Fundament für das Denken aufbauen 1:04:53 – Präferenz-Tuning & warum DPO weiterhin funktioniert 1:10:51 – Der schwierige Teil: RLVR, lange Denkketten und Infrastrukturprobleme 1:13:59 – Warum RL so technisch brutal ist 1:18:17 – Komplexitätssteuer vs AGI-Hype 1:21:58 – Wie jeder zur Zukunft der KI beitragen kann 1:27:26 – Abschließende Gedanken
... offene **source** KI-Rennen, d'oh 🤦‍♂️
33,57K