🦔 يخطط البنتاغون للسماح لشركات الذكاء الاصطناعي بتدريب النماذج على البيانات المصنفة، وفقا لمراجعة تقنية MIT. حاليا، تستخدم نماذج مثل كلود في بيئات سرية للإجابة على الأسئلة، بما في ذلك تحليل الأهداف في إيران، لكنها لا تتعلم من البيانات. التدريب سيغير ذلك. قال قائد سابق في سياسات الذكاء الاصطناعي في جوجل وأوبن آي ل ل MIT إن أكبر خطر هو إعادة عرض المعلومات السرية للمستخدمين الذين لا ينبغي أن يكون لديهم وصول، لأن الأقسام العسكرية المختلفة ذات مستويات التصاريح المختلفة ستشارك نفس الذكاء الاصطناعي. وجهة نظري أعتقد أن مشكلة التقسيم هي التي يجب مراقبتها هنا. المعلومات المصنفة معزولة لسبب، مع برامج مختلفة، وتصاريح مختلفة، ومتطلبات مختلفة لمعرفتها. إذا دربت نموذجا على بيانات من عدة مقصورات، فإن النموذج لا يفهم تلك الحدود ويكون لديه المعلومات فقط. أنا أقل قلقا من تسرب البيانات السرية إلى الإنترنت العام لأن البنية التحتية موجودة لمنع ذلك. ما يقلقني هو نموذج مدرب على استخبارات الإشارات، والاستخبارات البشرية، والتخطيط التشغيلي في وقت واحد يبدأ في ربط النقاط عبر الأقسام بطرق تنتهك هدف التقسيم بأكمله. يحدث هذا أيضا بينما يتسابق البنتاغون ليصبح "قوة قتالية تعتمد على الذكاء الاصطناعي أولا" خلال تصاعد الصراع الإيراني، مما يخلق ضغطا للتحرك بسرعة. التحرك بسرعة في أنظمة الذكاء الاصطناعي التي تتعامل مع البيانات السرية هو الطريقة التي تحصل بها على أعطال لا تظهر إلا عندما تكون كارثية. قال مسؤول الدفاع إنهم سيقيمون الدقة بناء على البيانات غير المصنفة أولا، وهذا هو الرأي الصحيح، لكنني أود أن أعرف كم ستستمر فترة التقييم قبل أن ينتصر الضغط على النشر. هيدجي🤗