Wenn Sie an einen Feed-Algorithmus denken, gibt es viele intelligente Schleifen, die dort arbeiten. Es gibt die eigentliche Modellinferenzschicht, die sich die letzten Dinge ansieht, auf die Sie geklickt haben, und die frischesten Artikel im Inventar, um Mikrosekundenentscheidungen darüber zu treffen, was Ihnen angezeigt werden soll.
Dann gibt es die automatische Trainingsebene - Unternehmen instrumentieren riesige Datenfluss-Pipelines von Eingabefunktionen und Benutzerengagements und trainieren Modelle *täglich* neu. Die Frische der Modelle stellt sicher, dass du so nah wie möglich an der Verteilung bist. Cursor sagt, dass sie neue Modelle *stündlich* launchen.
Es gibt die ML-Outer-Loop-Schicht, in der Wissenschaftler tatsächlich arbeiten, um neue Algorithmen auszuprobieren und zu sehen, wie sie in Live-A/B-Tests und Offline-Metriken abschneiden. Wenn sie dies tun, ändern sie einen Datenfluss und einen kontinuierlichen Trainingsprozess, anstatt nur ein neues Modell zu trainieren.
Es ist alles ein Kontinuum und ein OODA-Zyklus, der über viele Schichten der Abstraktion optimiert ist, die den jüngsten Aufrufen nach "kontinuierlichem Lernen" ähneln. Diese "klassischen" ML-Systeme, die Billionen an Einnahmen generieren, sind es wert, tiefer über die Natur nützlicher Intelligenz nachzudenken.
12,04K