Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Ricercatore Indipendente | Consulente @ambergroup_io | Ricercatore Speciale @IOSGVC| Scienze Hardcore | Precedente:@peckshield | DM per Collab| La community è aperta solo agli abbonati Twitter
Non ho parole, il mio secondo account Claude è stato bloccato senza motivo per la seconda volta in una settimana.
Ma a dire il vero, questa volta non provo alcuna emozione, anzi, mi viene quasi da ridere. Perché?
Perché ho già compreso la logica di base dietro a questi blocchi inspiegabili, e soprattutto perché ho in mano una strategia di risposta molto più astuta. Specialmente dopo aver lavorato nel campo del Vibe Coding per un mese, ho già costruito un sistema di pensiero maturo per gestire l'AI, sufficiente per affrontare con calma questo tipo di "imprevisti".
Iniziamo con le cause, quelle evidenti: non è altro che il frequente cambio di nodi VPN che attiva il controllo del rischio in altre località, oppure il fatto che il luogo di pagamento con carta Visa non corrisponde all'IP del terminale, causando un avviso di sicurezza, o ancora il consumo di Token ad alta frequenza che il sistema giudica in modo semplice e brutale come un bot malevolo.
Ma la causa profonda è una sola: @claudeai è un servizio SaaS di livello aziendale. Ciò che interessa sono i grandi clienti come le Fortune 500, mentre noi, utenti Pro o Max che dipendono fortemente dalla versione web, non interessiamo affatto ad Anthropic, che ci considera addirittura un fattore di rischio incontrollabile.
Quindi, non c'è affatto bisogno di continuare a preoccuparsi per il problema del blocco dell'account. La lezione più importante che l'AI mi ha insegnato è: non legare mai la tua produttività principale a un account web estremamente instabile.
In realtà, la vera soluzione è costruire un sistema di servizi AI localizzati che non dipenda dal modello:
1) Utilizzare OpenRouter/Antigravity e simili per implementare il routing di accesso al modello, riducendo Claude a un motore di inferenza di base che può essere cambiato in qualsiasi momento, evitando di essere bloccati;
2) Utilizzare API di terze parti per equipaggiare Claude Code + Skills + Cowork e ricostruire una logica interattiva, abbandonando il front-end web, il modo di interazione più incontrollabile, senza preoccuparsi della perdita di dati come Prompt/Istruzioni a causa di un blocco, permettendo all'AI di risiedere nel tuo sistema di file per fornire servizi;
3) Leggere direttamente il codice locale tramite il protocollo MCP, abbinato a Local RAG (recupero migliorato locale) per richiamare in tempo reale il tuo database privato di conoscenze, e persino eseguire automaticamente test, commit Git e cicli di correzione bug nel terminale.
In sintesi, in una parola, abbandonare il modello di utilizzo dell'AI "in affitto nel cloud" e afferrare attivamente la "sovranità locale" è la forma ultima del Vibe Coding.
650
Durante il CES, la nuova architettura Rubin di NVIDIA è diventata il fulcro delle recenti discussioni di mercato, un'altra grande innovazione oltre all'architettura MOE, progettata su misura per l'era dell'AI agentica, ecc. Ho approfondito e ho davvero percepito il sapore della "auto-rivoluzione" di Jensen Huang:
1) In passato, NVIDIA si basava sul vantaggio dell'hardware GPU, approfittando del periodo in cui i grandi nomi dell'AI stavano acquistando freneticamente potenza di calcolo per addestrare modelli di grandi dimensioni. All'epoca, la logica era semplice: chi aveva più schede grafiche poteva addestrare il miglior modello.
Ma ora la guerra dell'AI si è spostata dal campo della "potenza di calcolo" a quello dell'"inference", soprattutto con l'arrivo dell'era agentica, in cui l'AI deve gestire inferenze ad alta frequenza, multi-passaggio e contesti ultra-lunghi.
In questo momento, i parametri del modello possono facilmente arrivare a trilioni, con un'enorme capacità di throughput dei dati; anche se le GPU calcolano velocemente, se la memoria non trasferisce i dati abbastanza rapidamente, la GPU rimarrà inattiva, questo è il "muro della memoria". In altre parole, avere più schede grafiche non risolve più il problema, è necessaria anche un'alta memoria e larghezza di banda per supportare il tutto. Rubin deve risolvere questo problema.
2) Quindi, il HBM4 lanciato da Rubin supporta la quarta generazione di memoria ad alta larghezza di banda, permettendo di raggiungere una larghezza di banda di 22TB/s. Ma ciò che è più cruciale è che si combina con la tecnologia NVLink 6 (larghezza di banda di 260TB/s all'interno del rack), trasformando logicamente 72 schede in "un'unica grande chip".
Cosa significa questo? Prima, quando compravi una scheda grafica, acquistavi componenti indipendenti, e i dati dovevano passare tra le schede come se fossero pacchi che dovevano passare attraverso diversi centri di smistamento. Ora, Rubin, attraverso un'interconnessione ad altissima densità, consente ai dati di fluire tra diverse GPU quasi senza percepire la distanza fisica; 72 lavoratori non lavorano più ciascuno per conto proprio, ma condividono un grande cervello.
Penso che questo sia il vero asso nella manica di Rubin: non si tratta semplicemente di accumulare parametri hardware, ma di ricostruire il flusso di dati dell'intero sistema.
3) Se il MOE (architettura del modello esperto misto) è stata una riduzione dimensionale per NVIDIA, colpita dal modello commerciale "accumulo violento di schede" di DeepSeek e altri, allora Rubin è chiaramente una controffensiva strategica di Jensen Huang, non si tratta più di chi riesce a risparmiare più schede, ma di ricostruire direttamente il costo d'uso dell'AI. Naturalmente, questa mossa significa anche che NVIDIA deve dire addio al vecchio modello di accumulo violento di schede.
Jensen Huang sta considerando un altro calcolo: per far sì che l'era agentica si concretizzi in mille settori, è necessario superare l'ostacolo del costo dei token, una tendenza che NVIDIA non può ignorare.
Secondo Huang, piuttosto che aspettare di essere mangiato da Google, Meta e altri grandi produttori di chip, o essere sovvertito da DeepSeek e altri, è meglio essere colui che rompe gli schemi.
4) La domanda è: come si posizionerà NVIDIA dopo la sua auto-rivoluzione? Il percorso è chiaro: da "vendere schede grafiche" a "vendere sistemi", da servire pochi grandi produttori a rendere l'AI realmente accessibile.
In passato, quando compravi una H100, NVIDIA guadagnava solo dalla vendita di quella scheda grafica; in futuro, Rubin ti dirà: devi acquistare l'intero rack NVL72 - 72 GPU, NVLink Switch, sistema di raffreddamento a liquido, armadio, e persino il software associato, tutto in un pacchetto.
Il calcolo di Huang è chiaro: sembra che il costo dell'hardware imballato sia aumentato, ma con un'efficienza di inferenza estrema, il costo unitario per l'uso dell'AI da parte degli acquirenti scenderà, e naturalmente non perderà quote di mercato.
Ma, ma, ma, questo approccio alza anche la soglia per i piccoli e medi attori. Solo i grandi produttori e i fornitori di servizi cloud possono permetterselo, il che intensificherà ulteriormente il monopolio della potenza di calcolo. In questa attuale situazione competitiva, è una scommessa audace, perché se ci sono problemi nella produzione di massa dell'HBM4, AMD, Google TPU e altri potrebbero cogliere l'opportunità per lanciare soluzioni alternative, e il sogno di NVIDIA di vendere sistemi potrebbe non essere così facile da realizzare.
893
Finalmente, @KaitoAI è stato colpito da Elon, Kaito non avrebbe mai pensato che un giorno a ucciderlo sarebbe stata la sua orgogliosa "corona AI". Da dove viene questa affermazione?
Ieri, il responsabile del prodotto X @nikitabier ha ufficialmente annunciato che verrà completamente vietato l'accesso all'API del protocollo InfoFi a coloro che producono spazzatura (Spam) per guadagnare punti.
E questo colpo duro non colpisce forse proprio il $KAITO, che ha fatto arrabbiare molte persone ma che non ha potuto esprimere il proprio disappunto?
1) Successo e fallimento legati al "parassitismo"
La narrativa centrale di Kaito era molto accattivante, utilizzando l'AI per organizzare i dati su X e tokenizzarli (Yaps), aggiungendo un meccanismo di incentivazione. In questo modo, la piattaforma X è diventata un campo di estrazione per molti "giocatori". Ma questa logica di Kaito ha un bug mortale: i suoi asset di "dati" di base non gli appartengono.
In parole povere, l'attuale sistema di punti Yaps di Kaito è essenzialmente un protocollo "parassita" costruito su una fonte di dati centralizzata come X.
Nella fase iniziale dell'AI, anche Grok di X aveva bisogno di dati e di commercializzazione, e @elonmusk ha chiuso un occhio sul comportamento di Kaito di sfruttare i propri dati per emettere monete, ma quando Gemini è stato completamente integrato in Gmail Drive, Elon non ha potuto più tollerarlo, non si può permettere che altri dormano accanto a lui.
2) La fonte di Grok "contaminata"
Dobbiamo riconoscere un fatto: X non è più un semplice social media, ma è il "miniera di dati privati" più centrale per addestrare il grande modello Grok di xAI. Nella corsa agli armamenti con giganti dell'AI come Google e OpenAI, l'unico vantaggio competitivo di X è "il pensiero umano reale più attuale e vivace del mondo".
Tuttavia, protocolli come Kaito, che hanno meccanismi di incentivazione (Yaps), sono diventati oggettivamente una "fonte di inquinamento" per l'ecosistema di X, poiché per ottenere punti, molti bot e studi utilizzano l'AI per generare commenti spazzatura e interazioni false.
Come può Elon permettere che Grok, nel proprio cortile, riceva solo questi "dati sintetici" generati dall'AI e rumore spazzatura, tanto più che questa falsità ha già fatto sì che molte "persone reali" non vogliano più interagire. Senza dubbio, per preservare l'ambiente di produzione di dati preziosi di X, Elon deve eliminare questi "protocolli parassiti" che creano una falsa prosperità.
3) Il valore dei Yaps aumenterà?
A breve termine, Kaito ha perso la "visione divina" per raccogliere automaticamente i dati da tutto il web, e sicuramente entrerà in una spirale di morte, ma a lungo termine, potrebbe essere un aggiornamento forzato per "disintossicarsi"?
Questo costringe Kaito a stabilire un meccanismo di selezione del valore resistente alle streghe.
Alla fine, Kaito non può fare a meno di scegliere di orientare gli incentivi Yaps verso utenti reali, verso contenuti di alta qualità, che sono direzioni che già riflettono i suoi valori. Non è chiaro quale sarà la soluzione di sostituzione umana, forse gli utenti dovranno attivamente inviare contenuti di backup, verificati tramite DAO della comunità? E così via.
Sembra che aumenti le soglie e i costi di revisione e ricompensa, ma come progetto leader di infoFi con un valore di mercato di 500-600 milioni di dollari, è tempo di riformare radicalmente per allineare il proprio comportamento con i propri valori.
In conclusione.
A mio avviso, Elon non sta mirando intenzionalmente a Crypto, X non può permettere che Grok venga colpito senza difese nella grande narrativa che sfida la supremazia dell'AI di Google, e tutti i protocolli di terze parti che interferiscono con la purezza dei dati e creano una falsa prosperità saranno destinati a diventare vittime.
E per l'intero settore InfoFi, la sorte di Kaito è solo l'inizio; qualsiasi protocollo basato sul "sfruttamento" dei dati Web2 deve riflettere su dove si trova il proprio Piano B.

Nikita Bier15 gen, 23:39
Stiamo rivedendo le nostre politiche API per sviluppatori:
Non permetteremo più app che ricompensano gli utenti per la pubblicazione su X (alias “infofi”). Questo ha portato a una quantità enorme di contenuti di bassa qualità e spam di risposte sulla piattaforma.
Abbiamo revocato l'accesso API da queste app, quindi la tua esperienza su X dovrebbe iniziare a migliorare presto (una volta che i bot si rendono conto che non vengono più pagati).
Se il tuo account sviluppatore è stato terminato, ti preghiamo di contattarci e ti assisteremo nel passaggio della tua attività a Threads e Bluesky.
1,08K
Principali
Ranking
Preferiti
