Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lo storage decentralizzato ha appena cambiato l'economia della distribuzione dei modelli di AI.
I costi di hosting dei modelli centralizzati aumentano linearmente con l'uso. Ogni richiesta di inferenza colpisce gli stessi server, i costi di banda si accumulano e i fornitori trasferiscono questi costi agli utenti attraverso la tariffazione API. Ecco perché le chiamate all'API di GPT-4 costano quello che costano: qualcuno sta pagando per il calcolo E la banda su larga scala.
Con lo storage decentralizzato come il layer DA di 0G, i pesi dei modelli vengono distribuiti tra i nodi. Gli utenti prelevano dal nodo più vicino invece di colpire i server centrali. I costi di banda si distribuiscono attraverso la rete. Improvvisamente, ospitare un modello con 70 miliardi di parametri non richiede un'infrastruttura che costa sei cifre al mese.
Questo non rende solo l'AI più economica. Rende possibili modelli di distribuzione completamente nuovi: modelli che si aggiornano frequentemente, modelli con varianti regionali, modelli che gli utenti possono eseguire localmente dopo il download iniziale. Il vincolo non era mai la qualità del modello, ma l'economia della distribuzione.
Principali
Ranking
Preferiti
