Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx 🇸🇬
Oppnå ambisjoner med intensjonalitet, intensitet og integritet - @smol_ai - @dxtipshq - @sveltesociety - @aidotengineer - @coding_career - @latentspacepod
Dette kan være min største riktige samtale jeg noen gang har tatt i min levetid lol


The Pragmatic Engineer3. sep., 01:01
Tilstanden til arbeidsmarkedet for programvareutvikling i 2025: Big Tech har begynt å ansette flere programvareingeniører.
Dessuten: ansienniteten hos Big Tech har økt dramatisk siden permitteringene i 2023 (overraskende!)
Mange flere detaljer i dagens dypdykk:

36,67K
## Effektivitet på menneskelig nivå er nødvendig for AGI
avsluttet en flott 🇸🇬 tur hvor jeg fikk henge med @agihippo+ fikk se @jeffdean @quocleix @denny_zhou et al gi "State of GDM" 2025-oppdateringer*
Det desidert #1 tilbakevendende temaet i våre samtaler er læringseffektivitet. Inference Time Compute er i raseri nå, men #efficiencyiscoming neste, og jeg er vanligvis 3-6 måneder foran flertallet når denne typen konsensus om grenselaboratoriet når gjennom den tykke hodeskallen min.
folk blir ofte overrasket og er generelt enige når jeg trekker en gjennomgående linje fra gjennombruddet av selvovervåket læring og RLAIF og RLVR at de alle bare er trinnvise endringer i ytelse oppnådd per datapunkt, og det neste eksponenthoppet av denne effektiviteten var åpenbart det Quoc bekreftet at Ilya også jobber med i foredraget sitt referert til nedenfor + Ilyas "fjell" som han identifiserte på NeurIPS.
Jeg vil vedde litt penger på at løsningen på dette er en ny ikke-transformatorblokk/abstraksjon som ikke er "bare multiagenter" og er mer beslektet med sanntidstesting og oppløsning av potensielle verdensmodellhypoteser, omtrent som hvordan du løser et sudoku-puslespill eller spiller Cluedo. dette er den eneste systematiske måten jeg vet hvordan jeg kan koke ned den menneskelige læringsprosessen der vi kan lære konsepter med 10-20x datapunkter per konsept mindre enn dagens SOTA.
Hvis jeg var forsker, ville jeg begynt her nå... Og det ville vært veldig ironisk/kult om dette var @ylecun ultimate seier å ha.
*+ gjorde noen møter med lokal suveren rikdom + startups!

7,44K
## Effektivitet på menneskelig nivå er nødvendig for AGI
avsluttet en flott 🇸🇬 tur hvor jeg fikk henge med @agihippo+ fikk se @jeffdean @quocleix @denny_zhou et al gi "State of GDM" 2025-oppdateringer*
Det desidert #1 tilbakevendende temaet i våre samtaler er læringseffektivitet. Beregning av slutningstid er i raseri nå, men #efficiencyiscoming neste, og jeg er vanligvis 3-6 måneder foran majoriteten når jeg får følelser som dette.
folk blir ofte overrasket og er generelt enige når jeg trekker en gjennomgående linje fra gjennombruddet av selvovervåket læring og RLAIF og RLVR at de alle bare er trinnvise endringer i ytelse oppnådd per datapunkt, og det neste eksponenthoppet av denne effektiviteten var åpenbart det Quoc bekreftet at Ilya også jobber med i foredraget sitt referert til nedenfor + Ilyas "fjell" som han identifiserte på NeurIPS.
Jeg vil vedde litt penger på at løsningen på dette er en ny ikke-transformatorblokk/abstraksjon som ikke er "bare multiagenter" og er mer beslektet med sanntidstesting og oppløsning av potensielle verdensmodellhypoteser, omtrent som hvordan du løser et sudoku-puslespill eller spiller Cluedo. dette er den eneste systematiske måten jeg vet hvordan jeg kan koke ned den menneskelige læringsprosessen der vi kan lære konsepter med 10-20x datapunkter per konsept mindre enn dagens SOTA.
Hvis jeg var forsker, ville jeg begynt her nå... Og det ville vært veldig ironisk/kult om dette var @ylecun ultimate seier å ha.
*+ gjorde noen møter med lokal suveren rikdom + startups!

4,14K
Topp
Rangering
Favoritter