🦔 Pentagon planlegger å la AI-selskaper trene modeller på klassifiserte data, ifølge MIT Technology Review. For øyeblikket brukes modeller som Claude i klassifiserte sammenhenger for å svare på spørsmål, inkludert å analysere mål i Iran, men de lærer ikke av dataene. Trening ville endre det. En tidligere leder for AI-politikk hos Google og OpenAI fortalte MIT at den største risikoen er at klassifisert informasjon blir gjenopplivet for brukere som ikke burde ha tilgang, siden ulike militæravdelinger med ulike sikkerhetsklareringsnivåer ville dele samme AI. Min mening Jeg tror problemet med oppdelingen er det man bør følge med på her. Klassifisert informasjon er isolert av en grunn, med ulike programmer, ulike klareringer og ulike behov for å vite det. Hvis du trener en modell på data fra flere rom, forstår ikke modellen disse grensene og har bare informasjonen. Jeg er mindre bekymret for at klassifiserte data lekker til det offentlige internett, siden infrastrukturen finnes for å forhindre det. Det som bekymrer meg, er en modell trent på signaletterretning, menneskelig etterretning og operasjonell planlegging på én gang, som begynner å koble sammen punkter på tvers av rommene på måter som bryter hele poenget med oppdeling. Dette skjer også mens Pentagon kjemper om å bli en «AI-først krigsstyrke» under en eskalerende Iran-konflikt, noe som skaper press for å handle raskt. Å bevege seg raskt med AI-systemer som håndterer klassifiserte data er grunnen til feil som ikke viser seg før de er katastrofale. Forsvarstjenestemannen sa at de først ville vurdere nøyaktigheten på ikke-klassifiserte data, noe som er riktig instinkt, men jeg vil vite hvor lenge denne evalueringsperioden varer før presset for å sette inn vinner over. Hedgie🤗