Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Condurre la ricerca presso @PrimeIntellect
samsja ha ripubblicato
introducendo Ariana - l'IDE collaborativo e agentico basato su Claude Code
- gestisci i compiti con il tuo team
- assegnali a più agenti di codifica con la propria macchina e ramo
- rivedi con il tuo team
- gli agenti si uniscono per te
commenta "Meglio tardi che mai" per ricevere presto una build
11,52K
l'obiettivo di @PrimeIntellect è lo stesso, semplicemente non saranno centralizzati né collocati insieme.

Elon Musk23 lug, 01:04
L'obiettivo di @xAI è di 50 milioni in unità di calcolo equivalente AI H100 (ma con un'efficienza energetica molto migliore) online entro 5 anni.
3,33K
Democratizzare l'accesso al calcolo è una delle missioni principali di @PrimeIntellect

Alex23 lug, 17:32
Il fatto che si sia sviluppato un sottomercato pieno di squali del pegno di GPU che rivendono il finale di questi contratti a lungo termine riassume tutto. Sono progettati per avvantaggiare di più il fornitore rispetto al consumatore.
5,32K
Mi sono reso conto durante il nostro evento a Berlino che ci sono molti giovani talentuosi e ambiziosi in Europa. Solo (quasi) nessuna azienda ispiratrice per costruire il futuro né VC che abbiano il coraggio di dare loro una possibilità.
Non c'è da meravigliarsi se tutti vogliono venire a sf|
44,87K
Open ai sarà ricordata come una delle aziende più ispiratrici di tutti i tempi

Noam Brown19 lug, 15:52
Oggi, noi di @OpenAI abbiamo raggiunto un traguardo che molti consideravano lontano anni: prestazioni da medaglia d'oro al 2025 IMO con un LLM di ragionamento generale—sotto gli stessi limiti di tempo degli esseri umani, senza strumenti. Per quanto straordinario possa sembrare, è ancora più significativo di quanto riportato nel titolo 🧵
8,45K
Non vedo il senso di definire la dimensione del batch a livello di singola GPU nel codice. Questo significa che è necessario cambiare manualmente il parametro della dimensione del batch quando si scala l'esperimento verso l'alto o verso il basso.
Immagino che storicamente sia stato fatto in codici che non hanno l'accumulo dei gradienti?
1,66K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari