Jeg starter en ny serie intervjuer på @interconnectsai med alle de ledende åpne modelllaboratoriene rundt om i verden for å vise hvorfor folk gjør dette, hvordan folk trener gode modeller og hvor økosystemet er på vei. Den første er Ant Groups Ling (@AntLingAGI) / InclusionAI (@TheInclusionAI)-team som ga ut flotte modeller i sommer etter å ha startet prosjektet som reaksjon på DeepSeek. Bare 6-8 måneder! Disse modellene, Ling (instruksjons-/basismodell), Ring (reasoner) og Ming (flerspråklig) er en ganske standard blanding av eksperter (MoE) modeller fra 300B til 1T parametere. De hadde også mange flotte ting nylig om skalering av RL-infrastrukturen deres her (se innlegget for en gjennomgang av alle deres siste publikasjoner og modeller). Ant Ling/InclusionAI føles som et av laboratoriene som kan ta steget til Kimi/Qwen-nivået i 2026 hvis terningene lander riktig. Flere kommer snart, da det føles som det perfekte tidspunktet å gjøre dette, når åpne modeller for tiden er både mange og ekstremt høy ytelse.