Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Prakash (Ate-a-Pi)
SEGUIMI per i commenti sull'intelligenza artificiale; ottimista della tecnologia, neurone autocosciente scioccato dal futuro, un tempo ingannato dai superconduttori;
Questo è scritto in grande in gran parte dell'economia... molte cose interessanti e utili bloccate dietro il firewall aziendale... come i partecipanti hanno preso una decisione su una fusione o un investimento, di cosa erano preoccupati, come hanno mitigato o sottoscritto i rischi. Milioni di pagine.

Ruxandra Teslo 🧬21 ore fa
La FDA possiede un tesoro di dati: le precedenti sottomissioni regolatorie, che spesso coprono decine di migliaia di pagine. Questi sarebbero incredibilmente informativi, ma sono bloccati a causa della legge sui segreti commerciali. Propongo di sfruttare l'IA e la legge sulla bancarotta per liberare queste informazioni e dare potere alle start-up.
2,96K
Ecco perché ci sono solo un numero ristretto di ricercatori di intelligenza artificiale di élite.

Fleetwood10 ago, 20:36
La quantità di conoscenza tacita nella formazione dei modelli è letteralmente pazzesca.
C'è qualche cabala segreta che cerca di limitare questa conoscenza? È Karpathy l'unico disertore?
2,86K
TLDR: ChatGPT potrebbe influenzare in modo sottile miliardi di persone nei prossimi anni e OpenAI vuole ottenere il giusto equilibrio tra l'influenza dell'IA e il libero arbitrio per l'umanità.

Sam Altman11 ago, 08:37
Se hai seguito il lancio di GPT-5, una cosa che potresti notare è quanto alcune persone siano attaccate a modelli AI specifici. Sembra diverso e più forte rispetto ai tipi di attaccamento che le persone hanno avuto nei confronti delle tecnologie precedenti (e quindi deprezzare improvvisamente i vecchi modelli su cui gli utenti facevano affidamento nei loro flussi di lavoro è stato un errore).
Questo è qualcosa che abbiamo monitorato da vicino nell'ultimo anno circa, ma che non ha ancora ricevuto molta attenzione mainstream (a parte quando abbiamo rilasciato un aggiornamento per GPT-4o che era troppo servile).
(Questo è solo il mio attuale pensiero e non ancora una posizione ufficiale di OpenAI.)
Le persone hanno usato la tecnologia, compresa l'AI, in modi autodistruttivi; se un utente si trova in uno stato mentale fragile e incline all'illusione, non vogliamo che l'AI lo rafforzi. La maggior parte degli utenti riesce a mantenere una linea chiara tra realtà e finzione o gioco di ruolo, ma una piccola percentuale non può. Valutiamo la libertà degli utenti come un principio fondamentale, ma ci sentiamo anche responsabili nel modo in cui introduciamo nuove tecnologie con nuovi rischi.
Incoraggiare l'illusione in un utente che ha difficoltà a distinguere tra realtà e finzione è un caso estremo e è abbastanza chiaro cosa fare, ma le preoccupazioni che mi preoccupano di più sono più sottili. Ci saranno molti casi limite e, in generale, pianifichiamo di seguire il principio di "trattare gli utenti adulti come adulti", il che in alcuni casi includerà il respingere gli utenti per garantire che stiano ottenendo ciò che vogliono davvero.
Molte persone usano effettivamente ChatGPT come una sorta di terapeuta o coach della vita, anche se non lo descriverebbero in questo modo. Questo può essere davvero positivo! Molte persone stanno già estraendo valore da esso oggi.
Se le persone ricevono buoni consigli, progredendo verso i propri obiettivi e la loro soddisfazione nella vita aumenta nel corso degli anni, saremo orgogliosi di aver creato qualcosa di genuinamente utile, anche se lo usano e si affidano molto a ChatGPT. Se, d'altra parte, gli utenti hanno una relazione con ChatGPT in cui pensano di sentirsi meglio dopo aver parlato, ma vengono inconsapevolmente allontanati dal loro benessere a lungo termine (come lo definiscono), è negativo. È anche negativo, ad esempio, se un utente desidera usare meno ChatGPT e sente di non poterlo fare.
Posso immaginare un futuro in cui molte persone si fidano davvero dei consigli di ChatGPT per le loro decisioni più importanti. Anche se potrebbe essere fantastico, mi rende inquieto. Ma mi aspetto che stia arrivando in qualche misura, e presto miliardi di persone potrebbero parlare con un'AI in questo modo. Quindi noi (noi come società, ma anche noi come OpenAI) dobbiamo capire come farne un grande vantaggio netto.
Ci sono diverse ragioni per cui penso che abbiamo buone possibilità di farcela. Abbiamo una tecnologia molto migliore per aiutarci a misurare come stiamo andando rispetto alle generazioni precedenti di tecnologia. Ad esempio, il nostro prodotto può parlare con gli utenti per avere un'idea di come stanno andando con i loro obiettivi a breve e lungo termine, possiamo spiegare questioni sofisticate e sfumate ai nostri modelli, e molto altro.
3,16K
Questo è un bonus di 140 milioni di dollari per un anno.

TBPN11 ago, 06:30
ULTIME NOTIZIE: Il ex ricercatore di OpenAI Leopold Aschenbrenner (@leopoldasch) ha fatto crescere il suo Situational Awareness Fund a oltre 1,5 miliardi di dollari, registrando un +47% nel primo semestre del '25.
Ha trasformato il suo saggio virale sulla Situational Awareness in uno dei fondi hedge a crescita più rapida di sempre.
Il fondo è investito nella catena di approvvigionamento dell'IA: semiconduttori, centri dati e rete elettrica.
Aschenbrenner definisce la sua azienda un "centro di competenza sull'IA", creato per anticipare quello che prevede sarà l'AGI entro il 2027 e l'espansione infrastrutturale da trilioni di dollari che ne seguirà.

2,19K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari