Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gradient
Parliamo di Infra AI decentralizzato, i progetti in questo settore sono tutti mostri di finanziamento, perché hanno una grande capacità di raccontare storie, ma attualmente è difficile capire dove possano concretizzarsi e quale esperienza diversa possano offrire, dal punto di vista di @Gradient_HQ:
Scomponendo l'AI nella sua struttura più semplice, possiamo fondamentalmente dividerla in 4 livelli: applicazione, orchestrazione, addestramento del modello e dati, il che è facilmente comprensibile.
La maggior parte dei progetti DeAI si concentra principalmente sul livello di orchestrazione, aggiungendo caratteristiche legate a Crypto, come regolamenti e incentivi, ZK verificabilità, ecc. Tuttavia, il livello di addestramento e esecuzione del modello è attualmente il più concentrato e costoso, ed è molto difficile decentralizzarlo.
Per i neofiti, è utile fare un po' di educazione di base; chi ha già conoscenze specialistiche può saltare questa parte. L'esecuzione e l'orchestrazione possono essere comprese come la distribuzione delle richieste alla potenza di calcolo e ai modelli, come il mercato della potenza di calcolo, la pianificazione dei compiti, ecc. Prima di tutto, è importante comprendere il concetto di "potenza di calcolo"; in termini semplici, per far funzionare un modello sono necessarie molte operazioni matematiche, e la capacità di eseguire queste operazioni è la potenza di calcolo. Nel campo dell'AI tradizionale, ad esempio, quando parli con ChatGPT, c'è bisogno di potenza di calcolo per l'inferenza, che proviene principalmente dai data center cloud (GPU/acceleratori AI sui server), il tuo input → viene inviato tramite rete al backend → un gruppo di GPU/acceleratori nel data center backend esegue il modello per completare l'inferenza → il risultato viene restituito al browser.
L'Infra principale di Gradient: Parallax, a differenza dei sistemi di calcolo centrati su H100 e H20 che vediamo comunemente, fa in modo di scomporre l'inferenza su dispositivi con modelli, memoria e condizioni di rete diverse. Scompone automaticamente il modello in dimensioni appropriate affinché ogni macchina possa eseguirlo, la sfida principale è l'efficienza della comunicazione tra le macchine e l'ottimizzazione delle prestazioni in ambienti hardware eterogenei. La maggior parte dei progetti cerca ancora di "portare on-chain" il calcolo di H100, mentre Gradient ha fatto un tentativo più audace, permettendo a due schede 4090 da 4000 dollari di combinarsi per ottenere prestazioni simili a quelle di un singolo A100 da 20000 dollari.
Qui sono abilitati due casi d'uso:
1/ Chiunque può utilizzare a casa alcune computer per inferire grandi modelli, garantendo completamente la privacy personale. 2/ Chiunque può unirsi a un cluster di rete di inferenza, inferendo modelli insieme agli amici, e persino costruire una rete di inferenza più grande. Qui Gradient ha anche progettato un algoritmo piuttosto complesso, che include l'ottimizzazione del numero di segmenti e il routing dinamico della domanda; non approfondirò qui, ma chi è interessato può leggere il paper.
Naturalmente, Gradient non si limita a fare solo questo, non entrerò nei dettagli qui, è un'infrastruttura AI open source. Include anche una serie di argomenti all'avanguardia nel campo dell'AI, come l'apprendimento rinforzato, dimostrando di essere un team ambizioso e molto attento all'innovazione nell'AI. Recentemente, il team è stato riconosciuto e supportato da Moonlight, Alibaba Qianwen e altri AI Lab, il che è piuttosto raro nel settore; questo approccio per migliorare l'AI, prima di tutto, assorbe risorse eterogenee, costruendo un sistema open source e aperto, che consente a più persone di eseguire facilmente grandi modelli e generare applicazioni più interessanti. Rispetto all'affitto di potenza di calcolo, riduce i costi, diminuisce il rischio di punti singoli e aumenta la resistenza alla censura, un concetto familiare nel crypto, e in termini di privacy, consente di mantenere i dati sensibili in loco/nel trattamento a breve distanza.
Molti giganti del settore hanno un'opinione positiva su DeAI; uno dei maggiori sostenitori della narrativa DeAI, David O. Sacks, ha sottolineato più volte: l'AI rimodellerà il mondo, ma il suo percorso di sviluppo centralizzato è pieno di rischi. L'infrastruttura AI decentralizzata è l'unico modo per garantire un'innovazione continua e una concorrenza libera.
Gradient ha attualmente ricevuto 10 milioni di dollari di investimento, guidato da investitori di spicco come Multicoin Capital, Pantera, HSG (ex Sequoia China).
"Se l'AI diventa monopolizzata, è finita.
Il futuro dipende da se l'intelligenza può essere aperta — decentralizzata, distribuita e accessibile a tutti."
— David O. Sacks

Principali
Ranking
Preferiti

