Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Giocatore veterano di Gamefi
Investimenti e investimenti in progetti primari e secondari
🏅Co-fondatore @Opensky_888
🏅 Membri principali @InFuture_Web3
Da quando @0G_labs e Web3Labs hanno lanciato il 0G Global Accelerator, molte startup in tutto il mondo hanno presentato i propri progetti. Anche se i progetti selezionati non sono stati ancora annunciati, tutti aspettano con ansia il Demo Day che si terrà il 29 agosto a Hong Kong. Il punto in comune di questi progetti candidati è che si concentrano su un'integrazione profonda attorno allo stack tecnologico di 0G.
Alcuni settori chiave sono diventati le direzioni di interesse di 0G 🎯
1️⃣ Mercati predittivi guidati dall'AI
I mercati predittivi tradizionali come Polymarket continuano a dipendere da meccanismi di risoluzione controversi e creati manualmente, mentre questi nuovi progetti stanno esplorando reti oracolari auto-migliorative e meccanismi di risoluzione multi-modello. Un progetto sta persino sviluppando un nuovo modello che collega credenze e prezzi, insieme alla creazione di mercati e alla verifica dei risultati guidati dall'AI.
2️⃣ Piattaforme di trading native AI
Non si tratta di aggiungere funzionalità AI a piattaforme DeFi esistenti, ma di costruire da zero un ambiente di esecuzione nativo per agenti AI. Alcuni progetti stanno utilizzando l'integrazione dinamica dei flussi di dati intermercato con MCP, permettendo al sistema di adattarsi continuamente alle condizioni di mercato in evoluzione.
3️⃣ Agenti AI tokenizzati / NFT intelligenti
Lo standard iNFT ERC-7857 di 0G rende possibile la creazione, la proprietà, l'addestramento e la monetizzazione di agenti AI on-chain. Attualmente, ci sono diversi progetti che esplorano dai mercati di agenti consumer a servizi completamente guidati da iNFT commerciabili.
4️⃣ Scienza decentralizzata
I progetti DeSci si concentrano principalmente sulla combinazione di AI e proprietà e archiviazione dei dati, il che si allinea perfettamente con il modulo di applicazione di archiviazione di 0G e i valori dell'AI come bene pubblico.
@0G_labs, come primo L1 nativo dell'AI, offre l'infrastruttura mancante per portare completamente l'AI on-chain attraverso un'architettura modulare, ragionamento verificabile e un layer di esecuzione dedicato all'AI.
Da questi segnali, è chiaro che i costruttori stanno cercando una base tecnologica che consenta a agenti, modelli e dati di operare senza fiducia, con la combinabilità come caratteristica predefinita. Questo è in perfetta sintonia con il design di 0G.

23,66K
Sempre più persone iniziano a rendersi conto che l'AI sta vivendo un "hard fork". Da un "grande modello" che voleva fare tutto, si sta lentamente spostando verso "modelli specializzati" più focalizzati. I cinque motivi menzionati nel tweet di @OpenledgerHQ rappresentano una scelta che l'intero settore sta affrontando.
Dal punto di vista delle applicazioni pratiche, l'AI generale è come uno strumento universale, capace di fare tutto, ma non eccelle in nulla. L'AI specializzata, invece, è una soluzione su misura per scenari specifici.
🎯 Risoluzione mirata dei problemi
I modelli di AI specializzati sono ottimizzati in profondità per settori specifici. L'AI non deve gestire dati e scenari non pertinenti; tutta la potenza di calcolo e i parametri sono concentrati sulla risoluzione di un problema in un settore verticale. Questo focus porta a un miglioramento esponenziale.
🔍 L'interpretabilità diventa una necessità
In scenari ad alto rischio come la finanza, non si può fare affidamento solo su un black box per ottenere risposte. Le richieste normative, le esigenze di conformità e l'attribuzione della responsabilità richiedono che ogni passo del processo di ragionamento dell'AI possa essere tracciato e verificato. I modelli specializzati possono progettare percorsi decisionali corrispondenti a scenari specifici.
⛓️ Verifica on-chain e meccanismi di fiducia
La tecnologia blockchain consente di registrare e verificare permanentemente il processo di ragionamento dell'AI. L'AI specializzata, combinata con la registrazione on-chain, può costruire una catena di fiducia completa. Ogni ragionamento e ogni nodo decisionale sono tracciabili, il che è una necessità per le aziende che richiedono audit e conformità.
📊 Risoluzione del problema delle illusioni
Le illusioni dell'AI generale derivano in gran parte dalla complessità e dalla diversità dei dati di addestramento. L'AI specializzata può ridurre significativamente il tasso di illusioni limitando l'ambito e la qualità dei dati di addestramento. In settori verticali, la qualità dei dati è controllabile, i confini della conoscenza sono chiari e il modello è più propenso a fornire risposte accurate e affidabili.
💰 Ricalcolo del rapporto costo-efficacia
Sebbene l'AI generale sembri un modello in grado di risolvere tutti i problemi, i costi di implementazione sono estremamente elevati. L'AI specializzata può raggiungere risultati migliori con modelli di dimensioni più ridotte, con costi di ragionamento più bassi e implementazioni più flessibili.
@OpenledgerHQ ha sollevato questi cinque punti, che in realtà rispondono a esigenze reali del settore. Non si tratta solo di una battaglia di strategie, ma di una scelta tra efficienza e praticabilità. I grandi modelli rappresentano l'esplorazione, i modelli specializzati rappresentano l'industrializzazione.
E team come Openledger, che si stanno posizionando sulle infrastrutture on-chain, potrebbero essere i costruttori di base di questa ondata di cambiamento.

35,68K
Ieri ho ascoltato l'AMA di @anoma e ho la sensazione che anoma stia davvero accelerando.
Dall'inizio della costruzione di anoma fino a quando ogni giorno andavo a testare la rete, sembra che il tempo sia volato. Dalla precedente eccitazione per l'attesa del TGE, ora mi sento tranquillo. Anche per la rete di test che sta per concludersi, ho un po' di nostalgia.
Ieri sera è stato lanciato anche un nuovo gioco "slot machine". Pensavo che, come i giochi precedenti, avremmo usato Fitcoin come gettoni di gioco. Invece, alla fine, hanno scelto Points.
Come ben sappiamo, la quantità totale di Points determina il ranking, e l'importanza del ranking è evidente sotto la spinta dei premi della rete di test. In realtà, sono una persona piuttosto sfortunata; ieri, appena online, ho scommesso e ho perso 100.000 Points, e naturalmente non ho recuperato. Si dice che il grande premio possa arrivare a 1 milione di Points.
Dopo aver scommesso con successo oggi, il punteggio totale è di 5.560.000, con un ranking intorno al 500° posto. Mi preparo a scommettere 100 palline, vediamo come va!
Alla fine della scommessa, il totale dei Points è di 5.790.000, con un ranking di 427. Rispetto a prima di scommettere 100 palline, ho guadagnato un totale di 230.000 Points. In media, ogni pallina ha portato 2.300 Points.
Attualmente, la rete di test ha emesso circa 25.000 Code, e l'ufficiale prevede di emettere 30.000. Ci sono ancora 5.000 che non sono stati inviati. Entrare nei primi 500 è circa il 2% della rete di test. Ma a dire il vero, quando ho puntato su 100 palline, volevo davvero "guidare l'intenzione". Ho detto a me stesso che volevo puntare su 100 palline, e mi ha fatto venire i brividi!🤣
Oltre a seguire l'interazione della rete di test di @anoma ogni giorno, ricorda che se hai contributi puoi inviare la prova di contributo su DC ogni mercoledì. Il ruolo di Dc dovrebbe anche essere incluso nello snapshot in seguito, quindi assicurati di prenderlo se hai l'opportunità. Un altro punto da notare è l'NFT, assicurati di trovare un modo per ottenerlo. Spero che tutti possano ottenere grandi risultati alla fine!



40,02K
Molte persone quando parlano di AI pensano ai modelli LLM, alle domande intelligenti, alla roadmap dell'AGI, ma in realtà poche persone si rendono conto di una cosa: il campo di battaglia del valore centrale dell'AI in futuro potrebbe non trovarsi nel modello stesso, ma nei contenuti che assorbe, ovvero l'IP.
Attualmente, la valutazione dell'economia globale dell'IP è di 61,9 trilioni di dollari. Ma il problema è che una risorsa di contenuti così enorme è praticamente bloccata in una serie di contratti, piattaforme centralizzate, quadri legali e sistemi chiusi. L'AI deve superare molte sfide e potrebbe anche incorrere in rischi.
Quindi, la maggior parte dei modelli AI attuali può solo raccogliere dati di nascosto. Articoli, immagini, suoni e video su Internet vengono silenziosamente utilizzati per addestrare i modelli. Ma questo approccio, con l'esplosione dei problemi di copyright, il blocco delle piattaforme e l'aumento delle cause legali, è praticamente giunto al termine.
L'idea di @campnetworkxyz è molto chiara: non bloccare, non rubare, ma far sì che l'IP stesso venga messo sulla blockchain, diventando un asset programmabile che può essere combinato legalmente e autorizzato in modo trasparente.
Questo è anche il punto più solido di Camp. Non si tratta di creare una piattaforma di contenuti AI, ma di costruire direttamente un protocollo di base e un'infrastruttura che consenta a tutti i creatori e ai detentori di IP di registrare i propri contenuti sulla blockchain, specificando chiaramente le condizioni di autorizzazione e definendo i metodi di distribuzione dei profitti. Se i modelli AI vogliono utilizzare i contenuti, devono semplicemente pagare secondo le condizioni.
La cosa più importante è che l'intero processo è combinabile. In futuro, i modelli AI non assorbiranno dati in un enorme scatolone nero, ma potranno, come costruire con i mattoncini, combinare liberamente moduli di contenuto autorizzati in base a diverse fonti, usi e stili. E tutto questo inizia con ogni IP messo sulla blockchain e dotato di termini di autorizzazione + logica di profitto.
Il significato di questa questione è molto importante, perché trasforma la relazione tra AI e IP da estrazione passiva e sfruttamento a una cooperazione paritaria. I creatori non sono più vittime di plagio, ma diventano fornitori per l'addestramento dell'AI e partecipanti ai profitti commerciali.
Concordo pienamente con l'idea di @campnetworkxyz che "il mercato più grande che l'AI toccherà è l'IP". Anche se il modello è potente, deve essere alimentato dai dati. Anche se ci sono molti contenuti, se non vengono utilizzati in modo conforme, prima o poi si troveranno a dover affrontare dei rischi.
41,13K
Molte persone parlano degli strumenti di trading, dicendo semplicemente che devono essere più veloci, più economici e più fluidi. Ma se si fa trading su più catene, specialmente su Solana, ETH, Base e BSC, si capisce che queste affermazioni sono facili da dire, ma praticamente nessuno riesce a realizzarle.
@LABtrade_ vuole essenzialmente creare un'infrastruttura per il trading multi-chain. Si può continuare a usare il software di trading abituale, ma con velocità maggiore, commissioni più basse e funzionalità più potenti. Questa idea è piuttosto intelligente, in quanto non costringe gli utenti a cambiare le proprie abitudini, ma ottimizza il sistema sottostante. I dati mostrano che in 20 giorni hanno raggiunto un volume di scambi di 150 milioni di dollari e un fatturato di 700.000 dollari, il che è piuttosto forte.
LAB offre quattro prodotti: bot di trading, applicazioni, barra laterale e plugin per browser. Questi strumenti possono funzionare senza soluzione di continuità su qualsiasi terminal di trading. Non è necessario cambiare piattaforma o riadattarsi all'interfaccia, si può semplicemente godere di una maggiore velocità e di commissioni più basse nell'ambiente familiare.
Dal punto di vista della logica commerciale, LAB ha colto un problema molto pratico. Quando si fa trading on-chain, il problema più fastidioso è rappresentato dalle commissioni elevate, dalla lentezza e dalla complessità delle operazioni. Le commissioni delle DEX tradizionali partono dall'1% e bisogna anche aspettare la conferma, l'esperienza non è affatto soddisfacente. LAB ha ridotto le commissioni allo 0,5% e non ha soglie di volume di trading, il che è molto attraente per i piccoli investitori.
Dal punto di vista della composizione degli investitori, Lemniscap è il lead investor, e Animoca, OKX Ventures e Mirana sono tutte istituzioni conosciute nel settore. Questo portafoglio di investimenti è piuttosto affidabile, almeno dimostra che il progetto ha superato la due diligence da parte delle istituzioni.
Dal punto di vista tecnico, LAB supporta già le principali catene come Solana, Ethereum, Base e BSC. Il supporto multi-chain è davvero una necessità in questo ambiente frammentato, poiché gli utenti non devono passare da un portafoglio all'altro e cambiare strumenti tra diverse catene.
In generale, il progetto LAB ha un'ottima idea, ha colto le reali esigenze degli utenti e i dati sono promettenti. Tuttavia, se riuscirà a mantenere la propria posizione in un mercato così competitivo, richiederà tempo per essere verificato. Per coloro che vogliono partecipare, si consiglia di iniziare con piccole somme, provare il prodotto e poi decidere se partecipare più attivamente.
Portale:

34,7K
Oggi @OpenledgerHQ ha lanciato il suo mini-gioco Octoman. Inizialmente pensavo di giocarci giusto per passare il tempo, ma una volta iniziato non riesco più a fermarmi. Il gioco si basa sul controllare un uomo polpo che dondola in aria, cercando di volare il più lontano possibile, ma questa meccanica semplice risulta essere davvero avvincente.
Il cuore del gioco è il Timing Timing Timing!!!
La logica di gioco non è complessa, sul cellulare ci sono solo due tasti direzionali e un pulsante per lanciare la ragnatela, mentre al computer si possono usare i tasti WAD. Ma per giocare davvero bene, la chiave è padroneggiare il ritmo del motore fisico. Quando rilasciare la ragnatela e quando riattaccarsi, se riesci a gestire bene questo timing, potrai volare in alto e con stabilità.
È interessante notare che ogni volta che migliori il tuo punteggio personale, il sistema genera automaticamente una scheda dei risultati personalizzata. Questa scheda non è casuale, ma sblocca diverse rarità di personaggi in base al tuo punteggio. Più alto è il punteggio, più raro è il personaggio; questo design stimola davvero a continuare a migliorare il proprio record.
Ora hanno organizzato un evento di due giorni, con regole molto semplici. Devi pubblicare la tua scheda dei risultati su Twitter, @OpenledgerHQ, e aggiungere l'hashtag #iloveplayingoctoman. Si capisce che vogliono che i giocatori partecipino attivamente.
Dal punto di vista del design del prodotto, Octoman è davvero ben fatto. Il gioco è abbastanza semplice, chiunque può iniziare a giocare, ma per farlo bene è necessaria pratica e abilità. Il sistema delle schede dei risultati offre ai giocatori un motivo per vantarsi, e la diffusione sui social media può portare nuovi utenti.
Io ho giocato un po' e ho ottenuto 551 punti. Mi hanno dato direttamente un piccolo polpo ninja! L'immagine è perfetta, si abbina perfettamente al mio avatar. Non ho intenzione di migliorare ulteriormente, va bene così. Lo adoro!!!

22,67K
Reddit ha ufficialmente bloccato Internet Archive dall'acquisire contenuti per l'addestramento dell'AI; a prima vista, sembra un'operazione di routine per proteggere i propri dati, ma dietro questo si riflette un problema fondamentale dell'intero modello economico dell'AI.
La situazione attuale è che le aziende di AI hanno bisogno di enormi quantità di dati di alta qualità per addestrare i modelli, ma le piattaforme di contenuti e i creatori non ricevono alcuna ricompensa da questo processo. I contenuti creati con tanto impegno vengono presi gratuitamente dalle aziende di AI per l'addestramento, e poi le grandi aziende guadagnano con i modelli addestrati, mentre i creatori non ricevono nemmeno un centesimo.
Sempre più piattaforme iniziano a erigere barriere; il blocco di Reddit su Internet Archive è solo l'inizio. Il problema è che un semplice blocco non risolve il problema fondamentale; limita solo l'accesso, senza stabilire un meccanismo di autorizzazione e ripartizione dei profitti ragionevole.
Ciò di cui abbiamo realmente bisogno è un'infrastruttura che possa far rispettare, a livello di design, termini d'uso, diritti di proprietà e diritti d'autore.
Camp ha proposto una nuova strada: invece di bloccare, sarebbe meglio ripensare le regole per l'uso dei dati di addestramento dell'AI. La logica centrale è piuttosto semplice:
1️⃣ I contenuti sono registrati sulla blockchain, con prova di origine
2️⃣ I creatori definiscono le condizioni di autorizzazione
3️⃣ Se l'AI vuole utilizzare, deve pagare
4️⃣ Le royalty tornano automaticamente ai creatori
Logica di base: invece di impedire all'AI di utilizzare i contenuti, è meglio allineare gli interessi di tutte le parti. Le aziende di AI hanno bisogno di dati, i creatori hanno bisogno di guadagni, le piattaforme hanno bisogno di valore ecologico, tutti ottengono ciò di cui hanno bisogno.
Attualmente, su @campnetworkxyz sono già stati registrati oltre 1,5 milioni di opere, non solo immagini e musica, ma anche video, contenuti narrativi e altro, diventando un database IP originale decentralizzato. Per i modelli di AI, offre una fonte di dati legittima, sostenibile e scalabile. Per i creatori, finalmente non è più un modo per essere sfruttati.

35,97K
La collaborazione tra IQ AI e NEAR si basa sulla logica fondamentale di consentire agli agenti AI di operare autonomamente attraverso le catene, senza necessità di intervento umano.
Dal punto di vista tecnico, la velocità di 600 ms per il blocco e 1,2 secondi per la conferma di @NEARProtocol è davvero veloce. Per gli agenti AI, minore è il tempo di attesa, meglio è; del resto, la velocità decisionale dell'AI è già superiore a quella umana, e se deve anche aspettare un certo tempo per eseguire, l'efficienza complessiva ne risente. Ora questa velocità consente di avere risposte quasi in tempo reale.
In passato, le operazioni cross-chain erano già abbastanza complesse per gli utenti comuni, figurarsi far gestire agli agenti AI le varie logiche di bridging. Ora, integrandole direttamente nel kit di sviluppo, gli agenti AI possono completare autonomamente le operazioni cross-chain, abbassando di fatto la soglia di accesso.
Dal punto di vista strategico, si tratta di conquistare una posizione infrastrutturale nell'economia AI. Attualmente, l'interesse per gli agenti AI è in forte crescita, ma le infrastrutture che consentono agli agenti AI di accedere direttamente al livello di transazione e partecipare alle attività economiche on-chain sono ancora poche. NEAR, attraverso questa collaborazione, ha consolidato la sua posizione come infrastruttura L1 per l'intelligenza artificiale e gli agenti.
In realtà, le esigenze degli agenti AI sono diverse da quelle degli utenti stessi. Gli esseri umani possono tollerare processi operativi complessi, possono aspettare i tempi di conferma e possono gestire manualmente varie situazioni anomale. Ma gli agenti AI necessitano di un ambiente di esecuzione standardizzato, automatizzato e altamente efficiente.
Dal punto di vista degli scenari applicativi, l'esecuzione di transazioni cross-chain è davvero utile. Se un agente AI può monitorare simultaneamente opportunità di arbitraggio su più catene e, una volta individuate, eseguire automaticamente l'arbitraggio cross-chain, l'intero processo non richiede il coinvolgimento dell'utente; in effetti, le opportunità di arbitraggio superano di gran lunga le operazioni degli utenti stessi. Se si riesce anche a coordinare più agenti, si potrebbero generare valori ancora maggiori.
Per NEAR, questa è una buona posizione di differenziazione. Mentre molte L1 si concentrano su TPS e sull'ecosistema, collaborando con @IQAICOM e focalizzandosi su questo settore verticale degli agenti AI, accumulare una buona base nelle fasi iniziali è molto significativo per il futuro.


NEAR Protocol13 ago, 21:06
Gli agenti AI tokenizzati non sono più fantascienza. L'integrazione di @IQAICOM con NEAR sblocca azioni autonome cross-chain che sono veloci, definitive e sicure.
Questo è come appare l'astrazione della catena in azione.
7,29K
Ho appena visto che @boundless_xyz ha pubblicato ieri una dettagliata introduzione a ZK Coin. Come persona che ha sempre seguito questo progetto, lo trovo piuttosto interessante. Dopotutto, ciò che vogliono realizzare è un'infrastruttura generale per le prove ZK.
Innanzitutto, il progetto Boundless in sé. Fondamentalmente, sta creando un protocollo di prova ZK universale, permettendo a tutte le blockchain di utilizzare le capacità ZK. Se ogni catena dovesse costruire un proprio sistema di prove ZK, non solo i costi sarebbero elevati, ma anche l'efficienza ne risentirebbe. Boundless fornisce servizi di prova ZK a ciascuna catena attraverso una rete indipendente di nodi di prova. Può essere semplicemente inteso come esternalizzazione del calcolo.
Il metodo di espansione è molto più semplice e diretto rispetto alle soluzioni di sharding o layer2 esistenti, aumentando direttamente il throughput dell'intera rete aggiungendo nodi.
ZK Coin, come token nativo di questo sistema, non è un puro token di governance. Ogni richiesta di prova richiede di mettere in staking ZKC come garanzia, e deve essere almeno 10 volte superiore alla massima commissione. Ciò significa che con l'aumento dell'uso della rete, anche ZKC bloccato crescerà esponenzialmente, riducendo direttamente l'offerta circolante.
C'è anche un meccanismo di prova di lavoro verificabile PoVW, che fondamentalmente consente ai nodi di prova di minare ZKC generando prove ZK. Ma per partecipare al mining, è necessario prima mettere in staking una certa quantità di ZKC. Questo crea un ciclo virtuoso: maggiore richiesta di prove → maggiore quantità di ZKC in staking → migliori incentivi alle prestazioni → maggiore partecipazione dei nodi.
Per quanto riguarda la distribuzione dei token, il 49% è destinato allo sviluppo dell'ecosistema. Ma guardando attentamente la logica di distribuzione, il 31% del fondo ecologico è principalmente destinato a tre direzioni: finanziamento di applicazioni verificabili, integrazione del protocollo e strumenti di sviluppo, manutenzione del protocollo e sviluppo dell'infrastruttura. Il 18% del fondo per la crescita strategica è specificamente destinato all'integrazione aziendale e ai nodi di prova a livello istituzionale. Questo tipo di distribuzione dimostra che si sta realmente costruendo un ecosistema.
Il team e i primi contributori ricevono il 23,5%, di cui il 3,5% è specificamente destinato a RISC Zero per future assunzioni e ricerche. Questo dettaglio indica che Boundless ha una relazione profonda con RISC Zero, e RISC Zero ha effettivamente accumulato molto nel campo dello zkVM.
La vendita di token alla comunità e gli airdrop rappresentano solo il 6%, una percentuale non molto alta. Tuttavia, considerando che si tratta di un progetto infrastrutturale, questa percentuale è ragionevole. Non so quanto potrà ottenere Yapper in futuro.
La distribuzione per gli investitori è del 21,5%, con un meccanismo di lock-up simile a quello del team, un anno di cliff e poi un rilascio lineare di due anni. Questo design garantisce che gli interessi degli investitori iniziali e del team siano allineati, evitando situazioni in cui il prezzo crolla subito dopo il lancio.
Il meccanismo di inflazione è del 7% nel primo anno, per poi scendere gradualmente al 3% a partire dall'ottavo anno. Ma la chiave è che ogni richiesta di prova richiede di mettere in staking ZKC, quindi l'offerta circolante effettiva si ridurrà con l'aumento dell'uso della rete. Inoltre, il 50% di ZKC messo in staking che viene tagliato sarà direttamente distrutto, creando così un meccanismo di equilibrio tra inflazione e deflazione.
Personalmente, vedo i punti salienti di @boundless_xyz in due aspetti:
1️⃣ Non è un ZK specifico per una certa catena, ma vuole davvero costruire un'infrastruttura ZK universale per tutte le catene. La direzione scelta è davvero necessaria; l'applicazione della tecnologia ZK nel campo della blockchain diventerà sempre più ampia e diventerà una base indispensabile.
2️⃣ La progettazione del token è direttamente legata alla domanda di business. Più prove ci sono, più ZKC è bloccato, e la domanda di token è linearmente correlata all'uso della rete.
@TinaLiu333 @RiscZeroCN



46,11K
Ieri ho visto un confronto tra due set di dati e l'ho trovato piuttosto interessante. Volevo condividerlo con tutti. Si tratta dei dati di Story e Camp; anche se so che questo confronto potrebbe non essere particolarmente accurato, dato che uno è una mainnet e l'altro è una testnet, i dati di Camp sono davvero notevoli.
1️⃣ Dati di Story Protocol
7,6 milioni di blocchi
43,7 milioni di transazioni
4 milioni di indirizzi
192.000 transazioni al giorno
Tempo di blocco di 2,4 secondi
2️⃣ Dati della testnet di Camp
16,2 milioni di blocchi
84,9 milioni di transazioni
6,6 milioni di indirizzi
842.000 transazioni al giorno
Tempo di blocco di 0,9 secondi
Dai dati, @campnetworkxyz ha già superato le prestazioni della mainnet di Story in più dimensioni durante la fase di testnet. Il numero di blocchi è più del doppio rispetto a Story, il volume delle transazioni è vicino al doppio, il numero di indirizzi ha un vantaggio evidente e il volume delle transazioni giornaliere ha addirittura raggiunto più di quattro volte quello di Story.
Story è appena stata lanciata sulla mainnet, mentre Camp è ancora in fase di testnet; l'atteggiamento e il comportamento degli utenti sicuramente differiscono. Gli utenti della testnet potrebbero essere più propensi a interagire frequentemente, poiché non ci sono pressioni legate al Gas. Ma questi numeri riflettono comunque un'attività degli utenti e una capacità di elaborazione della rete piuttosto convincenti.
Il design architettonico di @campnetworkxyz è effettivamente piuttosto unico in confronto. Il protocollo Proof of Provenance non si limita a garantire i diritti di proprietà intellettuale, ma sembra costruire un sistema di scambio di valore tra AI e creatori. Gli utenti possono registrare i propri contenuti come IP, e quando l'AI utilizza questi dati per addestrare o generare contenuti, i creatori possono ricevere una distribuzione dei guadagni corrispondente.
Questo modello ha un valore unico nel contesto attuale in cui l'AI consuma enormi quantità di dati per l'addestramento. Soprattutto con la crescente scarsità di dati di addestramento di alta qualità, meccanismi come quello di Camp, che incoraggiano gli utenti a contribuire attivamente con dati e a ricevere ricompense, potrebbero diventare sempre più importanti.
Dal punto di vista tecnico, il tempo di blocco di 0,9 secondi di Camp è decisamente più veloce rispetto ai 2,4 secondi di Story. Questo vantaggio prestazionale sarà molto utile nella gestione di un gran numero di registrazioni di IP e transazioni di autorizzazione. Inoltre, supportano la registrazione di IP senza gas, il che abbassa la soglia per gli utenti comuni.
Camp è ancora in fase di testnet, ma da queste prestazioni dei dati, sicuramente sarà un progetto da tenere d'occhio una volta lanciato sulla mainnet. Soprattutto nella direzione dell'integrazione tra AI e IP, ci aspettiamo grandi progressi da Camp.


35,88K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari