Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Clădirea @EurekaLabsAI. Anterior Director AI @ Tesla, echipa fondatoare @ OpenAI, CS231n/PhD @ Stanford. Îmi place să antrenez rețele neuronale mari și profunde.
Niciodată nu m-am simțit atât de în urmă ca programator. Profesia este refactorizată dramatic, deoarece fragmentele aduse de programator sunt din ce în ce mai rare. Am impresia că aș putea fi de 10 ori mai puternic dacă aș lega corect ce a devenit disponibil în ultimul ~an, iar faptul că nu revendic boost-ul pare clar o problemă de abilitate. Există un nou strat programabil de abstractizare de stăpânit (pe lângă straturile obișnuite de mai jos) care implică agenți, subagenți, prompturile lor, contextele, memoria, modurile, permisiunile, uneltele, pluginurile, abilitățile, hook-urile, MCP, LSP, comenzi slash, fluxuri de lucru, integrări IDE și nevoia de a construi un model mental cuprinzător pentru punctele forte și capcanele unor entități fundamental stocastice, failibile, neinteligibile și în schimbare, amestecate brusc cu ceea ce odinioară era o inginerie clasică. E clar că a fost pus la dispoziție o unealtă extraterestră puternică, doar că nu vine cu manual și toată lumea trebuie să învețe cum să o țină și să o folosească, în timp ce cutremurul de magnitudine 9 zguduie profesia. Suflecați mânecile ca să nu rămâneți în urmă.
49
Îmi place expresia "hrană pentru gândire" ca o capacitate cognitivă concretă și misterioasă pe care o experimentează oamenii, dar pentru care LLM-urile nu au echivalent.
Definiție: "ceva ce merită gândit sau luat în considerare, cum ar fi o masă mentală care îți hrănește mintea cu idei, perspective sau probleme ce necesită reflecție mai profundă. Este folosită pentru subiecte care îți provoacă perspectiva, oferă o înțelegere nouă sau te fac să reflectezi la întrebări importante, acționând ca stimulare intelectuală."
Astfel, în limbajul LLM, este o succesiune de token-uri astfel încât, atunci când sunt folosite ca prompt pentru lanțul de gândire, mostrele sunt recompensatoare de urmărit, prin intermediul unei funcții intrinsecă de recompensă încă nedescoperite. Sunt obsedat de forma pe care o ia. De gândit.
188
Postare nouă rapidă: Auto-evaluarea discuțiilor Hacker News vechi de un deceniu cu retrospectivă
Am luat toate articolele de pe prima pagină Hacker News din 930 + discuție din decembrie 2015 și am cerut API-ului GPT 5.1 Thinking să facă o analiză retrospectivă pentru a identifica cele mai prevăzătoare comentarii. Asta a durat ~3 ore să funcționeze și ~1 oră și 60$ să ruleze. Ideea a apărut de articolul din HN de ieri, unde Gemini 3 a fost rugat să halucineze prima pagină a HN cu un deceniu înainte.
Mai general:
1. Analiza retrospectivă m-a fascinat mereu ca o modalitate de a-ți antrena modelul de predicție anticipată, așa că citirea rezultatelor este cu adevărat interesantă și
2. merită să ne gândim cum arată când MEGAMIND-urile LLM ale viitorului pot face acest tip de muncă mult mai ieftin, mai rapid și mai bine. Fiecare informație pe care o aduci pe internet poate (și probabil va fi) analizată în detaliu dacă este "gratuită". De aici și tweet-ul meu anterior de acum ceva timp - "fii cuminte, viitorii LLM-uri te urmăresc".
Felicitări celor mai buni 10 conturi pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth și johncolanduoni - GPT 5.1. Thinking a găsit comentariile tale cele mai perspicace și prevăzătoare dintre toate comentariile HN din decembrie 2015.
Legături:
- Mult mai multe detalii în postarea mea de pe blog
- Repopo-ul GitHub al proiectului dacă vrei să joci
- Paginile de rezultate propriu-zise pentru plăcerea ta de lectură

729
Limită superioară
Clasament
Favorite
