X öppnar rekommendationeralgoritmen öppen källkod, och den mest hänsynslösa poängen är: noll manuella funktioner. Det traditionella rekommendationssystemet behöver samla ihop en massa personer för att skriva funktionsprojekt, vad "användaraktivitetsbucket", "författarfankvantil", "postpopularitetskoefficient", ändra ett funktionstest i tre månader, och det kan upphävas när det går online. X lät direkt Grok Transformer lära sig från början till slut och dödade detta set. Varför är detta viktigt? Feature engineering är den största tekniska skulden i rekommendationssystemet. Karaktärsdragen hos människor skrivna av människor måste bevaras, folk kommer att lämna och kunskap kommer att gå förlorad. Jag har sett för många företag där bara en person förstår kärnfunktionalitetslogiken, och den personen lämnar, och hela systemet blir en svart låda. Modeller kan upptäcka mönster som människor inte skulle ha tänkt på. Du tycker att "postningstid" är viktigt, och modellen kan upptäcka att "det tredje ordet är en emoji" är viktigare. Den mänskliga hjärnans induktiva förmåga är ett skämt inför hundratals miljoner data. Beteendet förändras, och modellen anpassar sig automatiskt. Ingen anledning att vänta på att PM ska öka efterfrågan, ingen schemaläggning, ingen A/B-testning på ett år. Användarna förändras, och det gör även modellen. Det finns en annan detalj som många inte uppmärksammar: de förutspår 15 beteenden samtidigt. Likes, retweets och svar är positiva signaler, och vikten är positiv. Blockering, muting och rapportering är negativa signaler, och vikten är negativ. Slutpoäng = positiv sannolikhet × positiv vikt + negativ sannolikhet × negativ vikt Det handlar inte om att maximera klickfrekvensen, utan om att maximera "användarna hatar det inte". Detta är äkta optimering av användarupplevelsen, inte att lura dig att klicka in och ångra dig. En annan ingenjörshöjdpunkt: Kandidatisolering. När man resonerar kan de valda inläggen inte se varandra, bara användarens kontext. Fördelen är att poängen är stabil, kan cachelagras och inte ändras på grund av andra inlägg i samma batch. Denna arkitektur använder tvillingtorn för återkallelse, Transformer för finjustering, regler för filtrering och tydliga ansvarsområden. Rust skriver prestandakänsliga delar, Python skriver modeller, och det tekniska urvalet är också mycket pragmatiskt....