المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
أريد أن أواصل قليلا في هذا الموضوع، والذي (حتى الآن) لا أرى أي اهتمام كبير بشأنه. هناك مخزونات ضخمة من البيانات الخاصة التي جمعناها في أماكن مختلفة، بما في ذلك تطبيقات المراسلة. تطبيق قاتل حقيقي للذكاء الاصطناعي المولد هو استيعابها وتحويل تلك البيانات إلى إيرادات.
على سبيل المثال، إذا استخدمت بعض تطبيقات المراسلة الآمنة، ستلاحظ أنها مفيدة جدا في نسخ سجل المحادثات احتياطيا حتى لا تفقد البيانات. أعلم أن بعض الناس يعتمدون كثيرا على هذا، لكن هذا يعني أيضا (بالمصادفة) أنك تحمل كمية ضخمة من البيانات.
هذه البيانات حاليا غامضة تماما بالنسبة لشركات الإعلانات. هل هو ذو قيمة؟ لا أعرف. ربما كل ما يمكن استخراجه منه بشكل مربح موجود بالفعل في منتدى عام! لكن بالتأكيد هناك من يريد أن يعرف.
وبالمثل، هناك الكثير من الأشياء على جهاز الكمبيوتر أو الهاتف التي "معروفة" لشركة تقنية أو أخرى، لكن ربما ليس لكل شركة تقنية. على سبيل المثال، جوجل لديها سنوات من بريدي والكثير من مستندات السحابة، لكن ميتا وكلود وOpenAI لا يملكونها. بعد.
الآن لا أعرف المستقبل. ربما بعد عشر سنوات نعيش في يوتوبيا ذكاء اصطناعي أو ديستوبيا وتصبح المخاوف بشأن الإعلانات المستهدفة بسيطة. ولكن إذا كنت تفكر في نماذج الأعمال اليوم، فإن استغلال كل تلك البيانات هو الحدود التالية.
كل هذا يتطلب إقناع الناس بتثبيت أدوات ذكاء اصطناعي مفيدة محليا ومنح تلك الأدوات الوصول إلى مخازن البيانات ذات الصلة. هذه الأدوات متوفرة بالفعل من معظم شركات الذكاء الاصطناعي، وجميع شركات التقنية لديها "استراتيجيات ذكاء اصطناعي" لتطبيقاتها الحالية.
الآن سيخبرك الناس أن ذلك يمكن القيام به باستخدام النماذج المحلية وTEEs. نعم، يمكن ذلك. لكن للقيام بأي شيء مفيد (بخلاف مساعدتك في تأليف النصوص وتلخيص الأمور) يجب أن تقوم تلك الأدوات بأشياء في العالم. وهذا يخلق، أولا، خطرا غير مقصود من التعرض للبيانات.
أنا لا أتحدث (بعد) عن الشركات التي تحاول عمدا تحقيق الدخل من البيانات. حاليا أتحدث فقط عن خطر الخروج العرضي (أو الخبيث). هجمات حقن الأوامر التي تسبب إرسال النموذج للبيانات الخاصة إلى الخارج.
لم نر بعد أول "دودة" حقنة حقيقية في العالم الحقيقي. لكنني أراهن أننا سنفعل! سيكون الأمر مثيرا. أحدث ما في الدفاع ضد هذا الخطر هو... الوضع الآن خفيف نوعا ما.
على سبيل المثال، أفضل أفكارنا الآن هي "لا تدع أي شيء يتجاوز الحدود الخاصة والعامة" وهذا ليس مفيدا حقا لكثير من المهام. أو "استخدام النماذج للتحقق من انتهاكات الخصوصية" التي تذكرني بقصة الدكتور سوس عن الملك الذي يستخدم القطط لمطاردة الفئران التي تسرق جبنته.
لكن هذا القلق ثانوي. الخطر الحقيقي هو أن الشركات التي تبني هذه الأشياء *عن قصد* ستدمجها لاستخراج الرؤى. فكر في وكيل يقوم بالبحث نيابة عنك باستخدام محرك بحث مفتوح. إرسال رؤى خاصة يجعل البحث أكثر فائدة!
لذا بياناتك الخاصة تخبر نموذج المحلي/TEE بما تحب. تطلب من الوكيل البحث عن المنتجات. كم من المعلومات الخاصة عن تفضيلاتك تذهب مع هذا البحث عن قصد؟
الإجابة، حسب ما أرى، هي: الكثير! كلما كان لدى محرك البحث سياق أكثر حول رغباتك، كانت النتائج أفضل. وبالمصادفة، كلما كان استهداف الإعلانات وتتبعها أفضل.
أحد الردود على هذا هو: من يهتم! ربما هذا هو أسلوب سير العالم الآن. يمكننا حتى بناء نماذج تتتبع وتعلن لك "بشكل خاص"، أي أنهم يقرؤون كل بياناتك السرية ويستخدمونها فقط لبيع المسلسل المناسب لك. هل هذا سيء جدا؟
بالطبع، في الوقت نفسه، ستكون هناك حكومات ترغب في الوصول إلى تلك الرؤى. لو كان بإمكانك استخدام هذه البيانات لتتبع وتحديد المجرمين (أو المجرمين المحتملين) دون قراءة بياناتهم حرفيا، ألن يكون ذلك أداة تحقيق رائعة؟
هذه ليست مخاوف مستقبلية مثل AGi. الذكاء الاصطناعي الجيل يمكنه فعل كل هذا الآن. لذا تعمل الشركات اليوم على تنفيذ هذه الأفكار. الحكومات (مثل الاتحاد الأوروبي) تطلب بالفعل الوصول إلى نماذج تقرأ البيانات الخاصة.
مهما اخترنا فعله، أريد من الناس أن يتخذوا تلك القرارات بأعينهم مفتوحة. لا أريد لأحد أن يقول "حسنا، هذه الميزة تدعي أنها خاصة فلماذا لا نضغط على حسنا هذه المرة" وأن تتدفق بيانات سرية لمدة خمس سنوات إلى خط أنابيب الاستيعاب.
محاولة جعل الناس يهتمون بهذا الأمر تشبه محاولة جعل مراهق يرتدي واقي شمس. كل المخاطر تبدو نظرية جدا، والفوائد كلها في الحاضر. لا أريد أن نستيقظ جميعا يوما ما ونتمنى لو فعلنا الأمور بشكل مختلف.
183
الأفضل
المُتصدِّرة
التطبيقات المفضلة
