"Vi kommer ikke til AGI med LLM-er." Yann LeCun har sagt dette i årevis. Nå forlater han Meta for å bevise det. LeCun oppfant konvolusjonelle nevrale nettverk—teknologien bak alle smarttelefonkameraer og selvkjørende biler i dag. Han vant Turing-prisen i 2018, AIs Nobelpris. Som 65-åring går lederen for Metas FAIR-forskningslaboratorium bort fra 600 milliarder dollar i AI-infrastruktur, og satser mot hele bransjen: Meta, OpenAI, Anthropic, xAI, Google. Hvem er @ylecun? Hvorfor drar han, og hvorfor er hans neste trekk viktig? Her er historien:
Hvem er Yann LeCun? - Opprettet konvolusjonsnevrale nettverk (CNN) på 1980-tallet — nå grunnleggende for datamaskinsyn - Bygde LeNet ved Bell Labs → første storskala applikasjon av dyp læring (banksjekklesing) - Vant Turing-prisen (2018) med Hinton & Bengio - Ble med i Meta 2013, grunnla FAIR (Fundamental AI Research) - Bygget en kultur for åpen forskning: publisering fritt, utgivelse av åpne modeller Han er en av «gudfedrene av dyp læring».
LeCuns kjernetekniske posisjon LeCun har vært konsekvent siden 2022: Store språkmodeller har grunnleggende begrensninger. De forutsier tekstmønstre, men mangler: - Forståelse av dynamikk i den fysiske verden - Persistent minne - Kausal resonnering - Målrettet planlegging Hans berømte analogi: «Vi kan ikke engang gjenskape katteintelligens eller rotteintelligens, langt mindre hundeintelligens.» Han går inn for «verdensmodeller» — AI-systemer som lærer ved å observere den fysiske verden, ikke bare ved å lese tekst. Dette representerer ikke en avvisning av LLM-er som ubrukelige, men en tro på at de er utilstrekkelige som vei til generell intelligens.
Skaleringstesen: Hvorfor Meta er uenig Bransjens enorme investeringer i databehandling hviler på én observasjon: større modeller presterer konsekvent bedre. GPT-3 til GPT-4 viste at kapasiteter dukket opp i stor skala som mindre modeller manglet fullstendig. Veddemålet: hvis kun skalering kan nå AGI, vinner den som bygger størst infrastruktur. LeCuns motargument: skala forbedrer tekstprediksjon, ikke sann resonnering eller forståelse av den fysiske verden.
Det organisatoriske skiftet hos Meta 2013–2024: FAIR opererte med betydelig autonomi - Publisert åpent, mottatt betydelig datakraft, opprettholdt akademisk kultur April 2025: Llama 4 lanseres med blandede anmeldelser - Benchmarkene stemte ikke overens med GPT-4.5, Gemini 2, DeepSeek-R1 - Rapporter om internt trykk for å akselerere Metas ledelse konkluderte med at de måtte omstrukturere AI-innsatsen.
Sommeren 2025: Meta lanserer aggressiv talentrekruttering - Administrerende direktør Zuckerberg møter personlig forskere ved hjem i Palo Alto og Lake Tahoe - Signeringsbonuser rapportert opp til 200 millioner dollar (Ruoming Pang fra Apple) - Rekruttert fra OpenAI, DeepMind, Apple, Anthropic - Fokusskifte: Fra langsiktig forskning til raskere kommersiell utrulling
Juni 2025: Alexandr Wang-flyttingen Meta investerer 14,3 milliarder dollar for 49 % av Scale AI, et datainfrastrukturselskap. Henter inn grunnlegger Alexandr Wang (28) som Chief AI Officer, og leder nye "Meta Superintelligence Labs." Viktig kontekst: - Wang bygde Scale AI fra oppstart av dataannotasjon til en verdivurdering på 29 milliarder dollar - Omfattende samarbeid med store AI-laboratorier (OpenAI, Google, DoD) - Kjent for operasjonell utførelse, ikke akademisk forskning Dette endret rapporteringsstrukturene på tvers av Metas AI-organisasjon.
Organisatorisk omstrukturering (juni–august 2025) Meta oppretter "Meta Superintelligence Labs" (MSL) med fire avdelinger: 1. Neste generasjons modeller (TBD Lab) 2. FAIR (grunnforskning) 3. Produkter og anvendt forskning 4. Infrastruktur FAIR integrerte seg i en bredere struktur, og mistet noe av den tidligere autonomien. Noen forskere som verdsatte FAIRs akademiske kultur, sluttet: - Joelle Pineau → Cohere - ~600 plasser eliminert i oktober 2025
Infrastrukturinvesteringer i enestående skala Kapitalutgifter 2025: 66–72 milliarder dollar Store prosjekter: - Prometheus (Ohio): 1 gigawatt klynge, 2026 - Hyperion (Louisiana): Multi-gigawatt-anlegg Langsiktig: Meta projiserer 600 milliarder dollar i AI-infrastruktur frem til 2028. Dette representerer bransjens største satsing på å skalere dagens arkitekturer — tilnærmingen LeCun offentlig har stilt spørsmål ved.
November 2025: LeCuns planlagte avgang Ifølge kilder: - Planlegger å slutte i løpet av de kommende månedene - Tidlige innsamlingsdiskusjoner for world model startup - Forventet forskningstidslinje på 10–20 år - Fokus på alternative arkitekturer kontra å skalere eksisterende Dette ville bety å gå bort fra tilgangen til: - 600 milliarder dollar i planlagt infrastruktur - 1,3M GPU-distribusjon - En av verdens største AI-beregningsressurser
Hva skjer videre På 1980- og 90-tallet fortsatte LeCun med nevrale nettverk når feltet hadde forlatt dem. Hans kontrære veddemål ble grunnlaget for dagens AI-revolusjon. Nå gjør han et annet kontrær veddemål: at skalering treffer grunnleggende grenser, og ekte intelligens krever forståelse av den fysiske verden, ikke bare å forutsi tekst. Meta, OpenAI og Google vedder 600 milliarder dollar på at han tar feil—at dagens arkitekturer kan nå AGI kun gjennom skalering. Vil LeCuns tekniske dømmekraft vise seg å være forutseende igjen, eller vil de som skalerer vinne? Svaret vil definere det neste tiåret med KI.
421,65K