OpenAI أطلقت نموذج الاستدلال الآمن مفتوح المصدر gpt-oss-safeguard، يدعم التصنيف المدفوع بالسياسات

GateNews

أخبار PANews 29 أكتوبر، أصدرت OpenAI اليوم نموذج استدلال آمن مفتوح المصدر gpt-oss-safeguard (120b، 20b)، مما يسمح للمطورين بتقديم سياسات مخصصة لتصنيف المحتوى أثناء الاستدلال، حيث تكون نتائج النموذج والاستدلال مرتبطة. يعتمد هذا النموذج على الأوزان المفتوحة gpt-oss بعد التعديل، ويستخدم ترخيص Apache 2.0، ويمكن تنزيله من Hugging Face. تُظهر التقييمات الداخلية أنه يتفوق في دقة السياسات المتعددة مقارنةً بـ gpt-5-thinking و gpt-oss، ويظهر أداءً قريبًا من Safety Reasoner في مجموعات البيانات الخارجية. تشمل القيود: لا يزال المصنف التقليدي أفضل في عدد كبير من المشاهد ذات العلامات عالية الجودة، كما أن وقت الاستدلال وقوة الحوسبة مرتفعان. ستقوم ROOST بإنشاء مجتمع للنموذج ونشر تقرير تقني.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات