“Il futuro è l'AI integrata nelle tue app e nella tua vita. Ma se ha bisogno di dati intimi per servirti bene, hai bisogno di tecnologie di sicurezza come lo zero-knowledge e altre avvolte attorno ad essa.” - @DacEconomy, Co-fondatore di @ProjectZKM I modelli di linguaggio di grandi dimensioni di oggi sono già presenti nelle nostre schede del browser, ma questo non è il fine ultimo. Come dice Ming Guo di ZKM, l'obiettivo è un'AI che funzioni all'interno delle tue applicazioni e dei tuoi flussi di lavoro quotidiani, non una casella di chat separata in cui copiare i dati. Per essere veramente utile a quel livello, i sistemi di AI avranno inevitabilmente bisogno di accesso a contesti privati: il tuo comportamento, la tua storia, le tue preferenze, persino dati finanziari o sanitari sensibili. Questo crea un compromesso diretto: • Maggiore contesto → migliore assistenza AI • Maggiore esposizione dei dati → maggiore rischio per la privacy e la sicurezza È qui che entrano in gioco le prove a zero conoscenza e gli zkVM. Invece di inviare dati grezzi a un modello o a una terza parte, ZK ti consente di: • Dimostrare che un calcolo sui tuoi dati è stato eseguito correttamente, senza rivelare i dati stessi. • Far rispettare che un agente AI ha seguito determinate regole o politiche, senza esporre gli interni del modello o i log completi. • Allegare prove verificabili ad azioni guidate dall'AI in un'app, in modo che altre parti possano fidarsi del risultato senza mai vedere i tuoi input sottostanti. In altre parole, se l'AI deve essere profondamente integrata nei prodotti e nelle nostre vite, abbiamo bisogno di strati di sicurezza basati su ZK sotto di essa - zkVM generali come Ziren di ZKM, e sistemi di prova a livello di applicazione che mantengano i benefici dell'AI mentre limitano ciò che può vedere e come può essere utilizzata. Guarda il pannello completo su AI & Lavoro - Dimostrare il Contributo Umano: