المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
هناك توتر أساسي في تصميم وكلاء الذكاء الاصطناعي اليوم!
ويصبح واضحا فقط عندما تبدأ في البناء للإنتاج:
كلما فرضت التعليمات بشكل أكثر صرامة، كلما ضحيت بتفاصيل السياق.
فكر في الأمر بهذه الطريقة.
عندما تبني وكيلا مواجها للعملاء، بعض التعليمات بالفعل غير قابلة للتفاوض.
لذا، تريد من وكيلك أن يطبقها بصرامة، حتى لو بدا الأمر آليا عند القيام بذلك.
على سبيل المثال، تعليمات مثل الإفصاحات عن الامتثال في المالية أو تحذيرات السلامة في الرعاية الصحية لا يمكنها تحمل أي أخطاء.
لكن هناك تعليمات أخرى هي اقتراحات لطيفة، مثل مطابقة نبرة العميل أو إبقاء الردود موجزة. يجب أن تؤثر هذه الأمور على الحوار، لا أن تهيمن عليها.
المشكلة أن معظم معماريات الوكلاء لا تسمح لك بالتعبير عن هذا التمييز بسهولة.
عادة ما تحصل كل تعليمات على نفس مستوى التنفيذ، لذا إما أن تكون صارما في كل شيء وتبدو كأنك آلي، أو تكون مرنا في كل شيء وتخاطر بفقدان قواعد حاسمة.
ولا، لا يمكنك فقط التركيز على تعليمات معينة في الموضوع نفسه لأن مجرد وجود تعليمات في الملف يفرض تحييزا بالفعل على سلوك النموذج. التركيز يضيف فقط تحيزة إضافية فوق التحيز الموجود.
لكنني أجد التحكم الأخير في Parlant على "مستويات الحرجية" مثيرا للاهتمام (مفتوح المصدر بنجمة 18 ألف نجمة).
يتيح لك أن تخبر وكيلك كم الانتباه الذي يجب أن توليه لكل تعليم.
```
agent.create_guideline(
حالة="الزبون يسأل عن الأدوية",
action="مباشرة إلى مقدم الرعاية الصحية",...

الأفضل
المُتصدِّرة
التطبيقات المفضلة
