🦔 Pentagon aikoo antaa tekoälyyrityksille mahdollisuuden kouluttaa malleja salaisilla tiedoilla, MIT Technology Review'n mukaan. Tällä hetkellä malleja kuten Claude käytetään salaisissa ympäristöissä vastaamaan kysymyksiin, mukaan lukien Iranin kohteiden analysointi, mutta ne eivät opi datasta. Koulutus muuttaisi sen. Entinen Googlen ja OpenAI:n tekoälypolitiikan johtaja kertoi MIT:lle, että suurin riski on, että luokiteltua tietoa palautetaan käyttäjille, joilla ei pitäisi olla pääsyä, koska eri sotilasosastot eri turvallisuustasoilla jakaisivat saman tekoälyn. Oma näkemykseni Luulen, että osastojen jakaminen on se, mitä kannattaa seurata. Luokiteltu tieto on eristetty syystä, eri ohjelmilla, eri turvallisuusselvityksillä ja erilaisilla tarpeen tietää -vaatimuksilla. Jos koulutat mallin useiden osastojen datalla, malli ei ymmärrä näitä rajoja ja omistaa vain tiedon. Olen vähemmän huolissani luokiteltujen tietojen vuotamisesta julkiseen internetiin, koska infrastruktuuri on olemassa estämässä sitä. Minua huolestuttaa signaalitiedusteluun, ihmistiedusteluun ja operatiiviseen suunnitteluun koulutettu malli, joka alkaa yhdistää pisteitä eri osastojen välillä tavoilla, jotka rikkovat koko osien jakamisen ydintä. Tämä tapahtuu myös samaan aikaan, kun Pentagon pyrkii tulemaan "tekoälyykköseksi sotavoimaksi" Iranin kiihtyvän konfliktin aikana, mikä luo painetta toimia nopeasti. Nopea liikkuminen tekoälyjärjestelmissä, jotka käsittelevät luokiteltua dataa, on tapa saada epäonnistumisia, jotka eivät ilmene ennen kuin ne ovat katastrofaaliset. Puolustusviranomainen sanoi, että he arvioivat ensin ei-luokiteltujen tietojen tarkkuuden, mikä on oikea vaisto, mutta haluaisin tietää, kuinka kauan tuo arviointijakso kestää ennen kuin paine sijoittaa joukkojen käyttö voittaa. Hedgie🤗