Kiedy myślisz o algorytmie feedu, działa tam wiele inteligentnych pętli. Jest warstwa wnioskowania modelu, która analizuje ostatnie rzeczy, na które kliknąłeś, oraz najnowsze pozycje w inwentarzu, aby podejmować decyzje w mikrosekundach, co ci pokazać.
następnie jest automatyczna warstwa szkoleniowa - firmy instrumentują ogromne potoki danych wejściowych i zaangażowania użytkowników oraz ponownie szkolą modele *codziennie*. świeżość modeli zapewnia, że jesteś jak najbardziej na dystrybucji. kursor mówi, że uruchamiają nowe modele *co godzinę*
istnieje zewnętrzna pętla ML, w której naukowcy faktycznie pracują, aby wypróbować nowe algorytmy i zobaczyć, jak radzą sobie w testach A/B na żywo oraz w metrykach offline. Kiedy to robią, zmieniają przepływ danych i proces ciągłego uczenia, a nie tylko trenują 1 nowy model.
to wszystko jest kontinuum i pętla OODA zoptymalizowana na wielu poziomach abstrakcji, które przybliżają ostatnie wezwania do „ciągłego uczenia się”. te „klasyczne” systemy ML, które generują biliony przychodów, warto przemyśleć głębiej w kontekście natury użytecznej inteligencji.
12,05K