Lorsque vous pensez à un algorithme de fil d'actualité, il y a de nombreuses boucles intelligentes qui fonctionnent là-dedans. Il y a la couche d'inférence du modèle, qui examine les éléments récents sur lesquels vous avez cliqué et les articles les plus récents dans l'inventaire pour prendre des décisions en microsecondes sur ce qu'il faut vous montrer.
ensuite, il y a la couche d'entraînement automatique - les entreprises instrumentent d'énormes pipelines de flux de données d'entrées et d'engagements utilisateurs et réentraînent les modèles *quotidiennement*. la fraîcheur des modèles garantit que vous êtes aussi proche de la distribution que possible. le curseur indique qu'ils lancent de nouveaux modèles *horairement*
il y a la couche externe de la boucle ML, où les scientifiques travaillent réellement pour essayer de nouveaux algorithmes et voir comment ils se comportent dans des tests A/B en direct et des métriques hors ligne. lorsqu'ils le font, ils modifient un flux de données et un processus d'entraînement continu plutôt que de simplement entraîner un nouveau modèle.
c'est tout un continuum et une boucle OODA optimisée sur de nombreux niveaux d'abstraction qui approchent les récents appels à "l'apprentissage continu". ces systèmes d'IA "classiques" qui génèrent des trillions de revenus méritent d'être réfléchis plus profondément concernant la nature de l'intelligence utile.
12,05K