Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Tipo / Curva / HVM / INets / λCalcolo
No, avete tutti torto, GPT-5 è un salto in avanti
Sto raddoppiando al 100% qui
Non volevo postare troppo in fretta e pentirmene di nuovo, ma ha appena risolto una serie di prompt di debug molto, molto difficili che erano precedentemente irrisolti (dall'AI), e poi ha progettato un bellissimo gioco per Gameboy pixelato con un livello di dettaglio e qualità che è chiaramente al di là di qualsiasi altra cosa io abbia mai visto.
Non c'è modo che questo modello sia scarso.
Penso che siate tutti traumatizzati dai benchmaxxers e stiate sovra-compensando contro un modello che è effettivamente buono. Penso anche che stiate sottovalutando i punti di forza di gpt-oss (ma sì, il mio ultimo post era affrettato)
Non so ancora se sia utilizzabile per la programmazione seria però (o3 non lo era), ma sembra di sì? Un modello di codifica affidabile come Opus, ma più intelligente di o3, cambierebbe completamente il mio flusso di lavoro. Opus non ha bisogno di pensare per essere grande, quindi, questo potrebbe pesare a suo favore.
Per quello che vale, ho usato davvero solo 3 modelli:
- Opus 4.1 per la codifica
- Gemini 2.5 molto raramente per la codifica quando Opus fallisce
- o3 per tutto tranne la codifica
6,51K
No, avete tutti torto, GPT-5 è un salto in avanti
Sto raddoppiando al 100% qui
Non volevo postare troppo in fretta e pentirmene di nuovo, ma ha appena risolto un sacco di prompt di debugging molto, molto difficili che erano precedentemente irrisolti (dall'AI), e poi ha progettato un bellissimo gioco per Gameboy pixelato con un livello di dettaglio e qualità che è chiaramente al di là di qualsiasi altra cosa io abbia mai visto.
Non c'è modo che questo modello sia scarso.
Penso che siate tutti traumatizzati dai benchmaxxers e stiate sovra-compensando contro un modello che è davvero buono. Penso anche che stiate sottovalutando i punti di forza di gpt-oss (ma sì, il mio ultimo post era affrettato)
Non so ancora se sia utilizzabile per la programmazione seria però (4o, o3 sicuramente non lo erano), ma sembra di sì? Un modello di codifica affidabile come Opus, ma più intelligente di o3, cambierebbe completamente il mio flusso di lavoro. Opus non ha bisogno di pensare per essere grande, quindi, questo potrebbe pesare a suo favore.
Per quello che vale, ho usato davvero solo 3 modelli:
- Opus 4.1 per la codifica
- Gemini 2.5 molto raramente per la codifica quando Opus fallisce
- o3 per tutto tranne la codifica
408
"prevenire la morte è altamente non etico"

João Pedro de Magalhães6 ago, 06:41
"È altamente non etico fermare l'invecchiamento" - commento di un revisore su una delle mie domande di finanziamento.
Il finanziamento si concentrava sul ringiovanimento cellulare, senza alcun riferimento alla cura dell'invecchiamento, ma dimostra che abbiamo ancora molta strada da fare per convincere anche i colleghi scienziati che curare l'invecchiamento sia auspicabile.
16,04K
prevenire la morte è altamente non etico

João Pedro de Magalhães6 ago, 06:41
"È altamente non etico fermare l'invecchiamento" - commento di un revisore su una delle mie domande di finanziamento.
Il finanziamento si concentrava sul ringiovanimento cellulare, senza alcun riferimento alla cura dell'invecchiamento, ma dimostra che abbiamo ancora molta strada da fare per convincere anche i colleghi scienziati che curare l'invecchiamento sia auspicabile.
214
Quindi gpt-oss 120B non riesce a produrre un tedesco corretto, eppure risolve bug complessi in Haskell che anche Opus non è riuscito a identificare?
Come è possibile?
Sono davvero così confuso da tutto questo.

Björn Plüster6 ago, 04:45
gpt-oss 120B è chiaramente incapace di produrre testi in tedesco linguisticamente corretti. 🧵
218
La mia impressione iniziale sul modello OSS di OpenAI è in linea con ciò che hanno pubblicizzato. Sembra davvero più vicino a o3 rispetto ad altri modelli open, tranne che è molto più veloce e più economico. Alcuni fornitori lo offrono a 3000 token/s, il che è pazzesco. È decisamente più intelligente di Kimi K2, R1 e Qwen 3. Ho testato tutti i modelli per un po' e ho ottenuto risultati molto decisivi a favore di OpenAI-OSS-120b.
Sfortunatamente, c'è una cosa che questi modelli non possono ancora fare - il mio dannato lavoro. Quindi, spero che vi divertiate. Tornerò a fare debug della valutazione del λ-calcolo sovrapposto 😭 ci vediamo.
373,7K
solo un rapido aggiornamento: siamo riusciti a replicare queste affermazioni
Il sistema di Guan raggiunge il 25% su ARC-AGI 1 con 50 ore GPU
Tuttavia, non sono ancora riuscito a controllare il codice personalmente, ma, a meno che non ci sia stata qualche frode, questo approccio sembra generalizzare le istanze di ARC-AGI con relativamente poco calcolo.
129,02K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari