المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨الخلاصة: شخص ما فتح المصدر لفسر بايثون مكتوب بصيغة Rust وهو أمر غريب.
اسمها مونتي. وليس مجرد صندوق رمل.
إنه وقت تشغيل بايثون بسيط وآمن مصمم خصيصا لوكلاء الذكاء الاصطناعي - ويبدأ في أقل من ميكروثانية واحدة.
إليك ما يفعله هذا الجهاز:
→ يشغل كود بايثون المكتوب بواسطة نماذج اللغة الكبيرة بدون أي عبء في صندوق الرمل
→ يمنع تماما نظام الملفات، وملفات البيئة والشبكة إلا إذا سمحت أنت بذلك
يبدأ → في 0.06 مللي ثانية مقابل 195 مللي ثانية لدوكر و2800 مللي ثانية لدوكر
→ حالة تنفيذ Snapshots أثناء الطيران -- إيقاف مؤقت، تسلسل، استئناف لاحقا
→ يشغل التحقق من الأنواع باستخدام 'ty' المدمج في ملف ثنائي واحد
→ استدعاءات من بايثون أو راست أو جافاسكريبت - لا تعتمد على CPython
إليكم الجزء الأكثر جنونا:
Docker يستغرق 195 مللي ثانية للبدء. خدمة الصندوق الرملي تستغرق 1,033 مللي ثانية.
مونتي يأخذ 0.06 مللي ثانية.
هذا ليس خطأ في التقريب. هذه فئة مختلفة تماما من الأدوات.
كل وكيل ذكاء اصطناعي يعمل اليوم يعاني من نفس المشكلة: إما أن تشغل كود LLM مباشرة على المضيف (YOLO Python -- لا يوجد أمان) أو تقوم بتشغيل حاوية وتنتظر 200 مللي ثانية لكل مكالمة.
مونتي يغلق تلك الفجوة. استيراد واحد. لا شيطان. لا يوجد سحب صورة. لا يوجد خطر هروب من الحاوية.
قام فريق pydantic ببناء هذا الوضع لتشغيل وضع الكود في PydanticAI — حيث تكتب نماذج اللغة الكبيرة بلغة بايثون بدلا من إجراء استدعاءات للأدوات، ويقوم مونتي بتنفيذها بأمان.
كلاودفلير وأنثروبيك تنشران بالفعل حول هذا النموذج بالذات....

الأفضل
المُتصدِّرة
التطبيقات المفضلة
