Live Chat

Crypto News

Cryptocurrency News 10 months ago
ENTRESRUARPTDEFRZHHIIT

Meta تكشف النقاب عن "Purple Llama": مجموعة أدوات أمان الذكاء الاصطناعي شاملة للمطورين

Algoine News
Summary:
تكشف Meta النقاب عن "Purple Llama" ، وهي مجموعة أدوات تحتوي على تدابير السلامة لنماذج الذكاء الاصطناعي التوليدية. هذه المجموعة من الأدوات مخصصة لمساعدة المطورين على إنشاء تطبيقات آمنة ومأمونة باستخدام نماذج الذكاء الاصطناعي التوليدية. مصطلح "اللاما الأرجواني" مشتق من الاستراتيجيات المشتركة ل "الفريق الأحمر" (الهجمات الاستباقية لتحديد الأخطاء) و "الفريق الأزرق" (الاستراتيجيات التفاعلية للتخفيف من التهديدات). تتضمن مجموعة الأدوات مقاييس لقياس التهديدات ، وتقييم تكرار اقتراحات التعليمات البرمجية غير الآمنة ، والتقييمات المستمرة لمكافحة الهجمات الإلكترونية. والقصد الأساسي هو الحد من الرموز غير الآمنة والمخرجات غير المرغوب فيها في خط أنابيب النموذج ، مما يخفف من فرص الاستغلال لمجرمي الإنترنت.
شهد 7 ديسمبر الكشف عن مجموعة من الأدوات المصممة لأمن وقياس نماذج الذكاء الاصطناعي التوليدية ، بإذن من Meta. تم إعداد مجموعة الأدوات ، المشار إليها باسم "Purple Llama" ، لمساعدة المطورين في البناء بشكل آمن ومأمون باستخدام أدوات الذكاء الاصطناعي التوليدية ، بما في ذلك Llama-2 ، وهو نموذج مفتوح المصدر من Meta. الهدف من Purple Llama هو تسوية ساحة اللعب لبناء تجارب الذكاء الاصطناعي توليدية آمنة ومسؤولة. ويشمل أدوات قابلة للترخيص وتقييمات ونماذج للاستخدام التجاري والبحث. يرتبط مصطلح "Purple" في "Purple Llama" بمزيج من "الفريق الأزرق" و "الفريق الأحمر" ، وفقا لعكس Meta. يتبنى فريق Red استراتيجية حيث يشن المطورون أو المختبرون الداخليون هجمات ضد نموذج الذكاء الاصطناعي بشكل هادف لتحديد الأخطاء المحتملة أو الأخطاء أو المخرجات والتفاعلات غير المرغوب فيها. تمكن هذه الممارسة المطورين من وضع استراتيجية ضد الهجمات الضارة المحتملة والدفاع ضد أخطاء الأمن أو السلامة. يعمل الفريق الأزرق كعكس مقارن ، حيث يتصدى المطورون أو المختبرون لهجمات الفريق الأحمر لتحديد الاستراتيجيات اللازمة للتخفيف من تهديدات العالم الحقيقي ضد نماذج العميل أو المستهلك في الإنتاج. يشير Meta إلى أن دمج كل من المراكز الدفاعية (الفريق الأزرق) والهجومية (الفريق الأحمر) هو المفتاح لمواجهة التحديات التي يقدمها الذكاء الاصطناعي التوليدي. وبالتالي ، فإن الفريق الأرجواني يجمع بين مسؤوليات كلا الفريقين ويقدم جهدا مشتركا لتقييم المخاطر المحتملة وتقليلها. تدعي Meta أنه تم الكشف عن المجموعة الأولى من تقييمات سلامة الأمن السيبراني لنماذج اللغات الكبيرة (LLMs) من خلال هذا الإصدار. يتضمن مقاييس لتحديد مخاطر الأمن السيبراني LLM ، وأدوات لتقييم تواتر اقتراحات التعليمات البرمجية غير الآمنة ، وأدوات لتقييم LLMs لزيادة صعوبة إنشاء رمز ضار أو المساعدة في الهجمات الإلكترونية. الهدف الرئيسي هو دمج النظام في خطوط أنابيب نموذجية لتقليل الرموز غير الآمنة والمخرجات غير المرغوب فيها مع الحد في الوقت نفسه من فوائد استغلال النموذج لمجرمي الإنترنت. يهدف الإصدار الأولي ، كما يقول فريق Meta الذكاء الاصطناعي ، إلى توفير أدوات لمعالجة المخاطر التي أبرزتها التزامات البيت الأبيض.

Published At

12/7/2023 9:30:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch