Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
X heeft een aanbevelingsalgoritme open-source gemaakt, en het meest opvallende is: geen handmatige kenmerken.
Traditionele aanbevelingssystemen vereisen een heleboel mensen om kenmerken te schrijven, zoals "gebruikersactiviteit bucketiseren", "auteur volgerspercentages", "post populariteit afnamecoëfficiënt". Het aanpassen van één kenmerk kan drie maanden duren, en als het live gaat, kan het ook misgaan.
X laat Grok Transformer direct end-to-end leren, waardoor dit alles wordt geëlimineerd.
Waarom is dit belangrijk?
Kenmerkenengineering is de grootste technische schuld van aanbevelingssystemen. Kenmerken geschreven door mensen moeten onderhouden worden, mensen kunnen vertrekken, en kennis kan verloren gaan. Ik heb te veel bedrijven gezien waar de kernlogica van kenmerken maar door één persoon begrepen wordt; als die persoon vertrekt, wordt het hele systeem een black box.
Modellen kunnen patronen ontdekken die mensen niet kunnen bedenken. Jij denkt dat "de tijd van het plaatsen" belangrijk is, maar het model kan ontdekken dat "de derde letter een emoji is" belangrijker is. De inductieve capaciteit van de menselijke geest is een grap in het licht van miljarden gegevens.
Als het gedrag verandert, past het model zich automatisch aan. Je hoeft niet te wachten tot de PM een verzoek indient, je hoeft geen planning te maken, en je hoeft geen A/B-test een jaar lang te doen. Als de gebruiker verandert, verandert het model mee.
Er is ook een detail dat veel mensen niet opmerken: ze voorspellen tegelijkertijd 15 soorten gedrag.
Likes, shares en reacties zijn positieve signalen, met een positieve weging. Blokkeren, dempen en rapporteren zijn negatieve signalen, met een negatieve weging.
Eindscore = positieve waarschijnlijkheid × positieve weging + negatieve waarschijnlijkheid × negatieve weging
Het gaat niet om het maximaliseren van de klikfrequentie, maar om het maximaliseren van "gebruikers die het niet vervelend vinden".
Dit is echte optimalisatie van de gebruikerservaring, en niet om je te misleiden om erop te klikken en er spijt van te krijgen.
Een ander hoogtepunt van het project: Candidate Isolation.
Tijdens de inferentie kunnen geselecteerde berichten elkaar niet zien, ze kunnen alleen de gebruikerscontext zien. Het voordeel is dat de scores stabiel zijn, je kunt ze cachen, en ze veranderen niet omdat er andere berichten in dezelfde batch zijn.
Deze architectuur gebruikt een dual tower voor recall, Transformer voor fine-tuning, en regels voor filtering, met duidelijke verantwoordelijkheden.
Rust wordt gebruikt voor de prestatiegevoelige delen, Python voor het model, en de technische keuzes zijn ook heel pragmatisch....

Boven
Positie
Favorieten
