أحد الاستثناءات لاستخدام الذكاء الاصطناعي يختلف بشكل طفيف بين أوبن آي آي واتصالات أنثروبيك. سام: "المسؤولية البشرية عن استخدام القوة، بما في ذلك أنظمة الأسلحة الذاتية." العلاقات العامة لأنثروبيك تقول فقط "أسلحة ذاتية الحكم بالكامل."
Sam Altman
Sam Altman‏28 فبراير 2026
الليلة، توصلنا إلى اتفاق مع وزارة الحرب لنشر نماذجنا في شبكتهم السرية. في جميع تفاعلاتنا، أظهرت وزارة الأرث احتراما عميقا للسلامة ورغبة في الشراكة لتحقيق أفضل نتيجة ممكنة. سلامة الذكاء الاصطناعي وتوزيع الفوائد على نطاق واسع هما جوهر مهمتنا. اثنان من أهم مبادئنا في السلامة هما حظر المراقبة الجماعية المحلية والمسؤولية الإنسانية في استخدام القوة، بما في ذلك أنظمة الأسلحة الذاتية. توافق وزارة العمل على هذه المبادئ، وتعكسها في القانون والسياسات، ونضعها في اتفاقيتنا. سنبني أيضا ضمانات تقنية لضمان تصرف نماذجنا كما ينبغي، وهو ما كانت وزارة الحرب تريده أيضا. سننشر معادلات FDE للمساعدة في نماذجنا ولضمان سلامتها، سننشرها فقط على الشبكات السحابية. نطلب من وزارة السحراء تقديم هذه الشروط نفسها لجميع شركات الذكاء الاصطناعي، والتي نعتقد أن الجميع يجب أن يكونوا مستعدين لقبولها. لقد أعربنا عن رغبتنا القوية في رؤية تهدئة الأمور بعيدا عن الإجراءات القانونية والحكومية نحو اتفاقيات معقولة. نظل ملتزمين بخدمة البشرية جمعاء بأفضل ما نستطيع. العالم مكان معقد وفوضوي وأحيانا خطير.
بأخذ رسالة سام حرفيا، قد يعني ذلك أن وزارة الحرب يمكنها استخدام نماذج OpenAI في أنظمة ويبسون مستقلة بالكامل، طالما تم الاعتبار بما فيه الكفاية ل "المسؤولية الإنسانية".
‏‎438‏