Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Creatore di AuditAgent | Prodotto AI x Crypto x | Costruire l'economia agentica
Perché OpenAI ha rilasciato modelli con pesi aperti? Per uccidere il proprio business... (o no?)
Sì, @OpenAI ha appena rilasciato due modelli con pesi aperti, il che significa che gli sviluppatori possono usarli senza pagare nulla a OpenAI. In particolare, è stato rilasciato sotto la licenza commerciale più liberale, la Apache 2.0. Quindi perché OpenAI ha fatto questo? Ci sono diversi aspetti.
Ma voglio chiarire che quando un'azienda rilascia un modello con pesi aperti, non significa che il modello sia open-source come il codice open-source che puoi eseguire tu stesso, come il sistema operativo @Linux. No, con i modelli AI è un po' diverso. In particolare, un modello è una scatola nera, un insieme di pesi. E mentre puoi testarlo su diversi compiti e vedere come funziona, se non puoi riprodurre il processo di addestramento, non potrai mai sapere se ci sono porte di accesso o vulnerabilità di sicurezza che sono finite intenzionalmente o accidentalmente all'interno di questo modello. Quindi separiamo subito questo dall'open source. Sfortunatamente, i modelli con pesi open source non possono essere completamente fidati (possono essere economici però).
L'altro aspetto che ho notato, mostrato nell'immagine, è che la qualità dei modelli open-source non è molto diversa dai modelli di punta di OpenAI che sono disponibili solo tramite API. Questo è fantastico! Questo è inaspettato! Potresti pensare a quanto denaro OpenAI potrebbe perdere permettendo agli sviluppatori di usare i loro modelli? Tuttavia, questo non è tutto. I modelli non sono tutto ciò che ottieni quando usi OpenAI tramite API. Ad esempio, quando usi ChatGPT tramite UI e scegli il modello o3, in realtà c'è un agente complesso che lavora dietro le quinte che, mentre utilizza questi modelli, ha molta logica scritta sopra per funzionare davvero bene con i tuoi documenti e strumenti. Non hai accesso a loro tramite questi modelli pubblicati da OpenAI.
Quindi perché OpenAI ha rilasciato modelli con pesi aperti? Prima di tutto, i loro principali concorrenti, in particolare @Meta, @MistralAI e @deepseek_ai (oh, e @Google), hanno già rilasciato modelli competitivi con pesi aperti che le persone usano. E la popolarità di OpenAI tra le persone che usano modelli aperti non sta crescendo. Tuttavia, per gli sviluppatori che hanno bisogno sia di modelli con pesi aperti (per calcoli locali/privati) sia di modelli accessibili tramite API (per cose più difficili), se hanno bisogno di entrambi, semplicemente non possono usare OpenAI. È più facile per loro usare i loro concorrenti come Google o DeepSeek.
In secondo luogo, c'è una pressione significativa sia da parte degli utenti che dei regolatori che vogliono maggiore apertura. Le persone sono preoccupate che l'AI possa sfuggire al controllo o cadere sotto il controllo di un gruppo ristretto di aziende nella Silicon Valley, e vogliono maggiore trasparenza. Anche se oserei dire che, preoccupandosi della concorrenza e delle vendite in calo, una mossa verso l'apertura probabilmente renderà il business di OpenAI ancora più grande.
E terzo, ovviamente, c'è la battuta sul nome dell'azienda OpenAI. Giudicando da come si è sviluppato tutto, l'azienda chiamata OpenAI era la più chiusa tra le aziende leader. Questo è divertente di per sé, ma ora questo è cambiato. Cosa ne pensi?

271
La maggior parte delle persone non capisce affatto come funziona la sostituzione delle persone da parte dell'IA (o come NON funziona). Anche un'accelerazione dieci volte superiore di tutto ciò che un esperto fa non cancella automaticamente il lavoro stesso: riscrive semplicemente l'economia che lo circonda. Quando il prezzo effettivo di un prodotto consegnabile crolla, la domanda latente che prima rimaneva in attesa diventa improvvisamente realizzabile. Non ho mai incontrato un proprietario di prodotto che pensi che i propri ingegneri stiano consegnando più funzionalità di quante ne richieda la roadmap; la lista dei desideri è sempre più lunga di quanto il numero di personale consenta. Rendi ogni funzionalità dieci volte più economica da costruire e non riduci i team di un fattore dieci: accendi ogni "nice-to-have" che una volta sembrava inaccessibile, oltre a interi prodotti green-field che nessuno si è preso la briga di definire.
Uno studio recente di @Microsoft Research sull'uso reale di Copilot sottolinea lo stesso punto. Gli utenti chiedono aiuto per redigere codice o raccogliere fatti, ma il modello finisce per fare coaching, consigliare e insegnare, integrando nuovi tipi di lavoro in una singola sessione. Le professioni non sono monoliti; sono insiemi di subprocessi, ciascuno solo parzialmente (e imperfettamente) coperto dai modelli odierni. Man mano che gli strumenti di IA evolvono, l'ambito del ruolo evolve con essi, spesso espandendosi piuttosto che riducendosi.
Anche in un auditor di smart contract IA che abbiamo costruito presso @NethermindEth, nonostante il suo nome, ci concentriamo su una parte molto specifica e ristretta del processo: trovare potenziali vulnerabilità. Nel frattempo, gli specialisti della sicurezza usano questo come strumento e svolgono un lavoro molto più complesso e sfaccettato: formulare strategie, convalidare risultati, correggere l'IA, aggiungere contesto implicito, comunicare con gli sviluppatori, scoprire intenzioni nascoste e gestire le aspettative.
Quindi, invece di contare quali lavori “scompariranno”, è più utile chiedere quali problemi diventano degni di essere risolti una volta che il costo marginale per risolverli crolla. La storia suggerisce che la risposta è “molto più di quanto possiamo assumere”, e questo sostiene un futuro in cui il talento viene ridistribuito e moltiplicato, non reso obsoleto.


304
Andrej Karpathy supporta l'introduzione di un nuovo termine relativo all'"ingegneria del contesto" nello sviluppo di software AI utilizzando LLM.
E questo termine è sembrato a lungo molto necessario. Ogni volta che spiego alle persone come sviluppiamo il nostro Nethermind AuditAgent, uno degli aspetti chiave, oltre all'uso di competenze di dominio (sicurezza web3) e all'utilizzo dei migliori modelli AI disponibili (da OpenAI, Anthropic e Google), e strumenti per LLM, è proprio l'"ingegneria del contesto".
A volte c'è un'espressione "il contesto è re", e questo è davvero vero. Gli LLM, siano essi enormi avanzati o piccoli LLM ottimizzati, sono uno strumento potente, ma come qualsiasi strumento, se è nelle mani sbagliate, otterrai risultati molto meno promettenti di quanto potresti se lavorassi con loro correttamente. E la gestione (o ingegneria) del contesto è davvero un'area complessa e non molto ben descritta che è in continua evoluzione, e che è emersa davvero come un'estensione del concetto di ingegneria dei prompt, che già ha alcune connotazioni negative.
In generale, Andrej ha elencato i principali aspetti legati all'ingegneria del contesto (nella seconda schermata), ma in ogni compito specifico, le persone ottengono risultati eccellenti in gran parte attraverso tentativi ed errori, cercando ogni volta monotonicamente di selezionare gli elementi di contesto giusti che sono davvero necessari in questa fase della risoluzione dei problemi, raccogliendo benchmark per ogni fase, guardando le metriche, dividendo i dataset in test, validazione, e così via.
Cosa ne pensi dell'"ingegneria del contesto"?

Andrej Karpathy25 giu 2025
+1 per "ingegneria del contesto" rispetto a "ingegneria dei prompt".
Le persone associano i prompt a brevi descrizioni di compiti che daresti a un LLM nel tuo utilizzo quotidiano. Quando in ogni applicazione LLM di livello industriale, l'ingegneria del contesto è l'arte e la scienza delicate di riempire la finestra di contesto con le informazioni giuste per il passo successivo. Scienza perché farlo bene implica descrizioni di compiti e spiegazioni, esempi a pochi colpi, RAG, dati correlati (possibilmente multimodali), strumenti, stato e storia, compattazione... Troppo poco o nella forma sbagliata e l'LLM non ha il contesto giusto per una performance ottimale. Troppo o troppo irrilevante e i costi dell'LLM potrebbero aumentare e le performance potrebbero diminuire. Farlo bene è altamente non banale. E arte a causa dell'intuizione guida attorno alla psicologia degli LLM e degli spiriti delle persone.
Oltre all'ingegneria del contesto stessa, un'app LLM deve:
- suddividere i problemi nel modo giusto in flussi di controllo
- riempire le finestre di contesto nel modo giusto
- inviare chiamate agli LLM del tipo e della capacità giusti
- gestire i flussi UIUX di generazione-verifica
- molto altro - guardrail, sicurezza, valutazioni, parallelismo, prefetching, ...
Quindi l'ingegneria del contesto è solo un piccolo pezzo di uno strato emergente spesso di software non banale che coordina le singole chiamate LLM (e molto altro) in app LLM complete. Il termine "wrapper di ChatGPT" è stanco e davvero, davvero sbagliato.
361
Ieri abbiamo lanciato un nuovo prodotto in produzione—I.R.I.S. (Integrity & Risk Intelligence Scanner), il primo agente AI su X (ex Twitter) che:
• Accetta un repository di smart contract o l'indirizzo di un contratto distribuito
• Esegue il codice attraverso la nostra piattaforma SaaS AuditAgent—già una soluzione leader di mercato utilizzata da auditor esterni e team di sviluppo
• Pubblica un rapporto completo sulle vulnerabilità senza lasciare il feed sociale
Perché?
• Un canale senza attriti. Gli sviluppatori ottengono un audit dove stanno già parlando di codice—niente moduli, niente thread email.
• AuditAgent sotto il cofano. Non solo un "motore di scansione", ma il nostro servizio di punta che alimenta audit nel mondo reale.
• Insight in ~30 minuti. Perfetta triage prima di una revisione manuale approfondita.
• Spinta al go-to-market. L'agente di Twitter mostra la forza di AuditAgent e canalizza gli utenti verso la piattaforma completa.
Prime 16 ore sulla timeline
✨ 2,7 M impressioni
🔥 49 K interazioni
📊 85 % di sentiment positivo (214 tweet)
🛠️ ≈150 tweet che condividono casi d'uso pratici
🔍 33 audit espressi
📋 38 454 righe di codice scansionate
⚠️ 377 vulnerabilità rilevate
Una nota personale
Esattamente un anno fa sono entrato in Nethermind con quella che sembrava un'ipotesi rischiosa: "L'AI diventerà una parte essenziale della sicurezza degli smart contract, ma solo strumenti specializzati e nativi del flusso di lavoro aiuteranno veramente i professionisti."
Dodici mesi dopo abbiamo due prodotti in produzione—AuditAgent (e ora I.R.I.S.(@UndercoverIRIS))—e un impatto chiaro sulla sicurezza del Web3.
Un enorme grazie a tutto il team AI di @NethermindEth e a @virtuals_io. Persistenza + un'ipotesi solida + competenze combinate = risultati che l'industria può vedere.
Continueremo a costruire strumenti che portano sicurezza agli sviluppatori prima—così il Web3 diventa più sicuro con ogni commit.

729
Appena tornato dal AI Summit di Londra—e il panorama dell'Enterprise-AI appare molto diverso da vicino
3 cose che mi hanno colpito:
1️⃣ Scaffali di prodotti sovraffollati.
Ogni stand prometteva una "piattaforma AI" plug-and-play che si adatta magicamente a qualsiasi stack. Ma camminando per il pavimento abbastanza a lungo, continui a sentire lo stesso ostacolo: sistemi legacy senza API, dati sparsi, logica aziendale poco chiara. La realtà sarà brutale per il SaaS universale.
2️⃣ I negozi di costruzione personalizzata brillano silenziosamente.
Le agenzie che combinano una consulenza approfondita con uno sviluppo personalizzato rapido hanno un chiaro vantaggio. Possono entrare nel mezzo caotico, mettere insieme le cose e consegnare qualcosa che funziona realmente all'interno dell'infrastruttura fragile di un cliente.
3️⃣ Il lavoro personalizzato sta diventando più economico, non più costoso.
Con i modelli di generazione di codice che scrivono adattatori, test e impalcature, gli sviluppatori senior ora orchestrano piuttosto che digitare a mano. La nostra esperienza di utilizzo continuo degli strumenti AI all'interno dell'organizzazione conferma solo questo.
Il takeaway
I vincitori nell'Enterprise AI non saranno gli agenti più appariscenti "pronti all'uso"—saranno i team agili che possono co-creare soluzioni in tempo reale, guidati dai vincoli caotici della tecnologia legacy.

258
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari