Una delle esclusioni all'uso dell'AI è leggermente diversa tra le comunicazioni di OpenAI e quelle di Anthropic. Sam: "responsabilità umana per l'uso della forza, inclusi i sistemi d'arma autonomi." Il PR di Anthropic dice semplicemente "armi completamente autonome."
Sam Altman
Sam Altman28 feb 2026
Questa sera, abbiamo raggiunto un accordo con il Dipartimento della Difesa per schierare i nostri modelli nella loro rete classificata. In tutte le nostre interazioni, il DoW ha mostrato un profondo rispetto per la sicurezza e un desiderio di collaborare per ottenere il miglior risultato possibile. La sicurezza dell'AI e la distribuzione ampia dei benefici sono al centro della nostra missione. Due dei nostri principi di sicurezza più importanti sono i divieti sulla sorveglianza di massa domestica e la responsabilità umana per l'uso della forza, inclusi i sistemi d'arma autonomi. Il DoW concorda con questi principi, li riflette nella legge e nella politica, e li abbiamo inseriti nel nostro accordo. Costruiremo anche salvaguardie tecniche per garantire che i nostri modelli si comportino come dovrebbero, cosa che il DoW desiderava anch'esso. Schiereremo FDE per aiutare con i nostri modelli e per garantire la loro sicurezza, ci schiereremo solo su reti cloud. Stiamo chiedendo al DoW di offrire questi stessi termini a tutte le aziende di AI, che a nostro avviso tutti dovrebbero essere disposti ad accettare. Abbiamo espresso il nostro forte desiderio di vedere le cose de-escalare lontano da azioni legali e governative e verso accordi ragionevoli. Rimaniamo impegnati a servire tutta l'umanità nel miglior modo possibile. Il mondo è un posto complicato, disordinato e a volte pericoloso.
Prendendo alla lettera il messaggio di Sam, potrebbe significare che il DoW può utilizzare i modelli di OpenAI in armi completamente autonome, purché ci sia una sufficiente considerazione sulla "responsabilità umana".
432