🦔 O Pentágono está a planear permitir que empresas de IA treinem modelos com dados classificados, de acordo com a MIT Technology Review. Atualmente, modelos como o Claude são usados em ambientes classificados para responder a perguntas, incluindo a análise de alvos no Irão, mas não aprendem com os dados. O treino mudaria isso. Um ex-líder de política de IA na Google e na OpenAI disse à MIT que o maior risco é a informação classificada ser reexibida a utilizadores que não deveriam ter acesso, uma vez que diferentes departamentos militares com diferentes níveis de autorização partilhariam a mesma IA. A Minha Opinião Acho que o problema da compartimentação é o que devemos observar aqui. A informação classificada é isolada por uma razão, com diferentes programas, diferentes autorizações e diferentes requisitos de necessidade de saber. Se treinar um modelo com dados de múltiplos compartimentos, o modelo não entende esses limites e apenas possui a informação. Estou menos preocupado com dados classificados a vazar para a internet pública, uma vez que a infraestrutura existe para prevenir isso. O que me preocupa é um modelo treinado em inteligência de sinais, inteligência humana e planeamento operacional ao mesmo tempo, começando a conectar pontos entre compartimentos de maneiras que violam todo o propósito da compartimentação. Isto também está a acontecer enquanto o Pentágono corre para se tornar uma "força de combate prioritária em IA" durante um conflito em escalada com o Irão, o que cria pressão para agir rapidamente. Agir rapidamente em sistemas de IA que lidam com dados classificados é como se obter falhas que não aparecem até serem catastróficas. O oficial de defesa disse que avaliariam a precisão em dados não classificados primeiro, o que é o instinto certo, mas eu gostaria de saber quanto tempo dura esse período de avaliação antes que a pressão para implementar prevaleça.