🦔 Il Pentagono sta pianificando di consentire alle aziende di AI di addestrare modelli su dati riservati, secondo MIT Technology Review. Attualmente, modelli come Claude vengono utilizzati in contesti riservati per rispondere a domande, inclusa l'analisi di obiettivi in Iran, ma non apprendono dai dati. L'addestramento cambierebbe questa situazione. Un ex responsabile delle politiche di AI presso Google e OpenAI ha detto a MIT che il rischio maggiore è che le informazioni riservate possano riemergere a utenti che non dovrebbero avere accesso, poiché diversi dipartimenti militari con diversi livelli di autorizzazione condivideranno la stessa AI. Il mio parere Penso che il problema della compartimentazione sia quello da tenere d'occhio qui. Le informazioni riservate sono isolate per un motivo, con programmi diversi, autorizzazioni diverse e requisiti di necessità di conoscenza diversi. Se addestri un modello su dati provenienti da più compartimenti, il modello non comprende quei confini e ha semplicemente le informazioni. Sono meno preoccupato per la fuga di dati riservati su Internet pubblico, poiché esiste un'infrastruttura per prevenire ciò. Ciò che mi preoccupa è un modello addestrato su intelligence dei segnali, intelligence umana e pianificazione operativa tutto in una volta che inizia a collegare i punti tra i compartimenti in modi che violano l'intero scopo della compartimentazione. Questo sta accadendo anche mentre il Pentagono corre per diventare una "forza di combattimento prima di AI" durante un conflitto in Iran in escalation, il che crea pressione per muoversi rapidamente. Muoversi rapidamente su sistemi di AI che gestiscono dati riservati è come ottenere fallimenti che non si manifestano fino a quando non sono catastrofici. L'ufficiale della difesa ha detto che valuteranno l'accuratezza prima su dati non riservati, il che è l'istinto giusto, ma vorrei sapere quanto dura quel periodo di valutazione prima che la pressione per il dispiegamento prevalga.