Ein chinesisches KI-Labor hat gerade stillschweigend ein Modell veröffentlicht, das sich selbst um 30 % verbessert hat 🤯 Das Team von @MiniMax_AI gab M2.7 Zugang zu seiner eigenen Trainingsinfrastruktur. Seiner eigenen Verstärkungslern-Pipeline. Seinem eigenen Gedächtnis. Dann sagten sie ihm, es solle sich selbst verbessern. Und das tat es... M2.7 entwickelte Dutzende komplexer Fähigkeiten innerhalb seines eigenen RL-Harnesses. Es aktualisierte seine eigenen Gedächtnissysteme. Es optimierte seinen eigenen Verstärkungslernprozess basierend auf Ergebnissen, die es in Echtzeit bewertete. Es führte diesen Loop autonom über 100 Runden aus, analysierte Fehlertendenzen, modifizierte seinen eigenen Scaffold-Code, führte Bewertungen durch, verglich Ergebnisse und entschied, was beibehalten oder zurückgesetzt werden sollte. Kein Mensch im Loop. Nur das Modell, das das Modell verbessert. Das Ergebnis: - 30 % Leistungsverbesserung bei internen Bewertungen - 66,6 % Medaillenquote bei ML-Wettbewerben (Das bringt es auf eine Stufe mit Gemini 3.1. SWE-Pro-Punkte, während es fast mit Claude Opus übereinstimmt) MiniMax führt bereits 30 % seiner gesamten Unternehmensoperationen autonom mit seinen eigenen Modellen durch. 80 % des neu eingereichten Codes im Unternehmen sind KI-generiert. Sie liefern buchstäblich Selbstverbesserung als organisatorische Infrastruktur und die Hongkonger Börse LIEBT es. Dies sind die frühen Phasen der rekursiven Selbstverbesserung. Und es kommt aus Shanghai.