Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
Ricercatore di intelligenza artificiale @openai
Jason Wei ha ripubblicato
📣 Siamo entusiasti di condividere il nostro studio nel mondo reale su un copilota clinico LLM, una collaborazione tra @OpenAI e @PendaHealth.
In 39.849 visite di pazienti dal vivo, i clinici con AI hanno avuto una riduzione relativa del 16% negli errori diagnostici e una riduzione del 13% negli errori di trattamento rispetto a quelli senza. 🧵
296,97K
Jason Wei ha ripubblicato
Questa è la mia lezione di 2 mesi fa presso @Cornell
"Come posso aumentare la mia produttività?" Una risposta naturale è "Lavorerò solo qualche ora in più." Lavorare di più può aiutare, ma alla fine si raggiunge un limite fisico.
Una domanda migliore è: "Come posso aumentare la mia produttività senza aumentare l'input tanto?" Questo è il leverage.
Sentiamo "leverage" così spesso che il suo significato è facile da trascurare. La mia categorizzazione preferita del leverage è quella di Naval Ravikant: lavoro umano, capitale e codice / media. Ognuno di essi ha alimentato grandi ondate di creazione di ricchezza nella storia.
Tuttavia, una volta che una fonte di leverage diventa popolare (pensa ai canali YouTube oggi rispetto a dieci anni fa), la concorrenza comprime il margine. Quindi, quando appare un nuovo leverage, è un'opportunità rara per guadagni straordinari.
In questo intervento, descrivo l'IA come quel leverage emergente. Un agente IA combina il leverage del lavoro (fa lavoro per te ed è senza permesso) con il leverage del codice (puoi copiarlo e incollarlo).
È un cliché dire che l'IA creerà una ricchezza enorme. Ma usare questa lente del leverage ci consente di interpretare il ciclo di notizie sull'IA in modo coerente e di individuare le vere opportunità.
Grazie @unsojo per avermi ospitato!
402,42K
Nuovo post sul blog riguardo l'asimmetria della verifica e la "legge del verificatore":
L'asimmetria della verifica – l'idea che alcuni compiti siano molto più facili da verificare che da risolvere – sta diventando un concetto importante ora che abbiamo l'RL che finalmente funziona in generale.
Esempi eccellenti di asimmetria della verifica sono cose come i puzzle sudoku, scrivere il codice per un sito web come Instagram e i problemi di BrowseComp (ci vogliono ~100 siti web per trovare la risposta, ma è facile verificare una volta che hai la risposta).
Altri compiti hanno una quasi simmetria della verifica, come sommare due numeri di 900 cifre o alcuni script di elaborazione dati. Altri compiti sono molto più facili da proporre soluzioni fattibili che da verificarle (ad esempio, controllare i fatti di un lungo saggio o dichiarare una nuova dieta come "mangiare solo bisonte").
Una cosa importante da capire riguardo l'asimmetria della verifica è che puoi migliorare l'asimmetria facendo un po' di lavoro in anticipo. Ad esempio, se hai la chiave delle risposte a un problema di matematica o se hai casi di test per un problema di Leetcode. Questo aumenta notevolmente l'insieme di problemi con un'asimmetria di verifica desiderabile.
La "legge del verificatore" afferma che la facilità di addestrare l'IA a risolvere un compito è proporzionale a quanto il compito sia verificabile. Tutti i compiti che sono possibili da risolvere e facili da verificare saranno risolti dall'IA. La capacità di addestrare l'IA a risolvere un compito è proporzionale al fatto che il compito abbia le seguenti proprietà:
1. Verità oggettiva: tutti concordano su quali siano buone soluzioni
2. Veloce da verificare: qualsiasi soluzione data può essere verificata in pochi secondi
3. Scalabile da verificare: molte soluzioni possono essere verificate simultaneamente
4. Basso rumore: la verifica è il più possibile correlata alla qualità della soluzione
5. Ricompensa continua: è facile classificare la bontà di molte soluzioni per un singolo problema
Una manifestazione ovvia della legge del verificatore è il fatto che la maggior parte dei benchmark proposti nell'IA sono facili da verificare e finora sono stati risolti. Nota che praticamente tutti i benchmark popolari negli ultimi dieci anni soddisfano i criteri #1-4; i benchmark che non soddisfano i criteri #1-4 avrebbero difficoltà a diventare popolari.
Perché la verificabilità è così importante? La quantità di apprendimento nell'IA che si verifica è massimizzata quando i criteri sopra sono soddisfatti; puoi fare molti passi di gradiente dove ogni passo ha molto segnale. La velocità di iterazione è critica: è il motivo per cui i progressi nel mondo digitale sono stati molto più rapidi rispetto ai progressi nel mondo fisico.
AlphaEvolve di Google è uno dei più grandi esempi di sfruttamento dell'asimmetria della verifica. Si concentra su configurazioni che soddisfano tutti i criteri sopra e ha portato a una serie di progressi in matematica e in altri campi. Diverso da ciò che abbiamo fatto nell'IA negli ultimi due decenni, è un nuovo paradigma in cui tutti i problemi sono ottimizzati in un contesto in cui il set di addestramento è equivalente al set di test.
L'asimmetria della verifica è ovunque ed è emozionante considerare un mondo di intelligenza frastagliata in cui tutto ciò che possiamo misurare sarà risolto.

298,8K
una vera bomba, l'ho letto subito

Kevin Lu10 lug, 00:01
Perché dovresti smettere di lavorare sulla ricerca in RL e invece lavorare sul prodotto //
La tecnologia che ha sbloccato il grande cambiamento di scala nell'IA è internet, non i trasformatori.
Penso sia ben noto che i dati sono la cosa più importante nell'IA, e anche che i ricercatori scelgono comunque di non lavorarci. ... Cosa significa lavorare sui dati (in modo scalabile)?
Internet ha fornito una ricca fonte di dati abbondanti, che erano diversificati, fornivano un curriculum naturale, rappresentavano le competenze di cui le persone si preoccupano realmente, ed era una tecnologia economicamente sostenibile da implementare su larga scala -- è diventato il complemento perfetto per la previsione del prossimo token ed è stata la zuppa primordiale per il decollo dell'IA.
Senza i trasformatori, qualsiasi numero di approcci avrebbe potuto decollare, probabilmente avremmo potuto avere CNN o modelli di spazio degli stati al livello di GPT-4.5. Ma non c'è stata un miglioramento drammatico nei modelli di base da GPT-4. I modelli di ragionamento sono ottimi in domini ristretti, ma non sono stati un salto così grande come GPT-4 lo è stato a marzo 2023 (più di 2 anni fa...)
Abbiamo qualcosa di grande con l'apprendimento per rinforzo, ma la mia profonda paura è che ripeteremo gli errori del passato (era RL 2015-2020) e faremo ricerca in RL che non conta.
Nel modo in cui internet era il duale del pre-addestramento supervisionato, quale sarà il duale dell'RL che porterà a un avanzamento massiccio come GPT-1 -> GPT-4? Penso che assomigli a una co-progettazione ricerca-prodotto.

18,65K
Consigli per appuntamenti per persone normali: Non sposarti presto se stai crescendo e cambiando molto ogni anno
Amico AI (@YiTayML): Sei come una rete neurale nel bel mezzo dell'addestramento e la perdita sta ancora migliorando. È meglio addestrare fino alla convergenza piuttosto che prendere un'istantanea di checkpoint precoce.
185,83K
Non abbiamo ancora un'IA che si auto-migliora, e quando lo avremo sarà un cambiamento radicale. Con più saggezza ora rispetto ai tempi di GPT-4, è ovvio che non sarà un "decollo veloce", ma piuttosto estremamente graduale nel corso di molti anni, probabilmente un decennio.
La prima cosa da sapere è che l'auto-miglioramento, cioè i modelli che si addestrano da soli, non è binario. Considera lo scenario in cui GPT-5 allena GPT-6, il che sarebbe incredibile. GPT-5 passerebbe improvvisamente dall'essere incapace di addestrare GPT-6 a farlo in modo estremamente competente? Assolutamente no. I primi tentativi di addestramento di GPT-6 sarebbero probabilmente estremamente inefficienti in termini di tempo e risorse computazionali rispetto ai ricercatori umani. E solo dopo molti tentativi, GPT-5 sarebbe effettivamente in grado di addestrare GPT-6 meglio degli esseri umani.
In secondo luogo, anche se un modello potesse addestrarsi da solo, non migliorerebbe improvvisamente in tutti i domini. Esiste un gradiente di difficoltà nel quanto sia difficile migliorarsi in vari domini. Ad esempio, forse l'auto-miglioramento funziona solo inizialmente in domini che già sappiamo come risolvere facilmente dopo l'addestramento, come le allucinazioni di base o lo stile. Successivamente ci sarebbero la matematica e la programmazione, che richiedono più lavoro ma hanno metodi consolidati per migliorare i modelli. E poi, all'estremo, puoi immaginare che ci siano alcuni compiti che sono molto difficili per l'auto-miglioramento. Ad esempio, la capacità di parlare Tlingit, una lingua nativa americana parlata da circa 500 persone. Sarà molto difficile per il modello auto-migliorarsi nel parlare Tlingit poiché non abbiamo ancora modi per risolvere lingue a bassa risorsa come questa, se non raccogliendo più dati, il che richiederebbe tempo. Quindi, a causa del gradiente di difficoltà dell'auto-miglioramento, non tutto accadrà in una volta.
Infine, forse questo è controverso, ma alla fine i progressi nella scienza sono bloccati da esperimenti nel mondo reale. Alcuni potrebbero credere che leggere tutti i documenti di biologia ci direbbe la cura per il cancro, o che leggere tutti i documenti di ML e padroneggiare tutta la matematica ti permetterebbe di addestrare perfettamente GPT-10. Se fosse così, allora le persone che leggono il maggior numero di documenti e studiano la maggior parte della teoria sarebbero i migliori ricercatori di IA. Ma ciò che è realmente accaduto è che l'IA (e molti altri campi) è diventata dominata da ricercatori empirici spietati, il che riflette quanto progresso si basi su esperimenti nel mondo reale piuttosto che su intelligenza grezza. Quindi il mio punto è che, sebbene un agente super intelligente potrebbe progettare esperimenti 2x o addirittura 5x migliori dei nostri migliori ricercatori umani, alla fine devono comunque aspettare che gli esperimenti vengano eseguiti, il che sarebbe un'accelerazione ma non un decollo veloce.
In sintesi, ci sono molti colli di bottiglia per il progresso, non solo intelligenza grezza o un sistema di auto-miglioramento. L'IA risolverà molti domini, ma ogni dominio ha il proprio tasso di progresso. E anche la più alta intelligenza richiederà comunque esperimenti nel mondo reale. Quindi sarà un'accelerazione e non un decollo veloce, grazie per aver letto il mio sfogo.
339,89K
La cosa più gratificante di lavorare in ufficio di notte e nei fine settimana non è il lavoro che riesci a portare a termine, ma le conversazioni spontanee con altre persone che stanno sempre lavorando. Sono le persone che tendono a fare grandi cose e diventeranno i tuoi amici più di successo.
74,53K
Direi che siamo senza dubbio all'AGI quando l'IA può creare un vero unicorno vivente. E no, non intendo una compagnia da 1 miliardo di dollari, nerd, intendo un vero cavallo rosa con un corno a spirale. Un paradigma del progresso scientifico nell'ingegneria genetica e nella programmazione cellulare. La stoffa dei sogni d'infanzia. Oserò dire che accadrà nella nostra vita.
84,31K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari