Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Det finns kanske ~20-25 artiklar som spelar roll.
Implementera dessa och du har fångat ~90 % av alfan bakom moderna LLM:er.
Allt annat är garnering.
Vill du ha den där listan? Titta inte mer...
De 26 viktigaste artiklarna (+5 bonusresurser)
för att bemästra LLM:er och transformatorer
Denna lista binder ihop Transformer-grunderna
med resonemanget, MoE och agentisk förändring
Rekommenderad läsordning
1. Uppmärksamhet är allt du behöver (Vaswani et al., 2017)
> Den ursprungliga Transformer-artikeln. Täcker självuppmärksamhet,
> multi-head attention och encoder-decoder-strukturen
> (även om de flesta moderna LLM:er endast är dekodare.)
2. Den illustrerade transformatorn (Jay Alammar, 2018)
> Utmärkt intuitionsbyggare för förståelse
> uppmärksamhet och tensorflöde innan du går in på implementationer
3. BERT: Förutbildning av djupa tvåvägstransformatorer (Devlin et al., 2018)
> Encoder-sidans grunder, modellering av maskerat språk,
> och representationslärande som fortfarande formar moderna arkitekturer
4. Språkmodeller är få-skott-lärande (GPT-3) (Brown et al., 2020)
> Etablerat in-context learning som en verklig...
Topp
Rankning
Favoriter
