
في خطوة لافتة، أعلنت شركة OpenAI عن إطلاق نموذجين جديدين من نماذج الذكاء الاصطناعي ذات الأوزان المفتوحة (open-weight)، واللذين يتمتعان بقدرات شبيهة بسلسلة نماذجها المغلقة من فئة o-series، وأكدت الشركة أن كلا النموذجين أصبحا متاحين مجانًا للتنزيل عبر منصة المطورين “Hugging Face”، ووصفت هذه النماذج بأنها “الأفضل في فئتها” بناءً على عدة معايير لقياس أداء النماذج مفتوحة المصدر.
النموذجان الجديدان هما:
• gpt-oss-120b: نموذج كبير وأكثر قدرة، يمكن تشغيله على وحدة معالجة رسوميات واحدة من نوع Nvidia.
• gpt-oss-20b: نموذج أخف يمكن تشغيله على جهاز لابتوب عادي بذاكرة عشوائية لا تقل عن 16 جيجابايت.
ويمثل هذا الإطلاق أول محاولة من OpenAI لطرح نموذج لغوي مفتوح منذ إصدار GPT-2 في عام 2019، ووفقًا لما أعلنته الشركة، فإن النماذج المفتوحة الجديدة قادرة على إرسال استفسارات معقدة إلى نماذج سحابية مغلقة، مما يسمح بدمج النماذج المفتوحة مع النماذج الأقوى المغلقة لمعالجة مهام معقدة مثل تحليل الصور.
رغم أن OpenAI كانت قد اتبعت نهج المصدر المفتوح في بداياتها، إلا أنها تبنّت لاحقًا سياسة تطوير مغلقة لبناء نماذج متقدمة تحقق أرباحًا من خلال تقديمها عبر واجهات برمجة التطبيقات (API) للشركات والمطورين.
لكن الرئيس التنفيذي سام ألتمان صرح في يناير الماضي أن الشركة كانت “على الجانب الخاطئ من التاريخ” فيما يتعلق بمسألة المصدر المفتوح، مشيرًا إلى أن الوقت قد حان للعودة إلى قيم الانفتاح.
تواجه OpenAI ضغوطًا متزايدة من مختبرات الذكاء الاصطناعي الصينية مثل DeepSeek وQwen من “علي بابا” وMoonshot AI، والتي باتت تطوّر نماذج مفتوحة تُعد من بين الأقوى عالميًا، في وقت بدأت فيه نماذج “Llama” من شركة Meta تفقد ريادتها.
وكانت إدارة الرئيس الأمريكي دونالد ترامب قد حثّت مطوري الذكاء الاصطناعي في الولايات المتحدة على فتح المزيد من تقنياتهم للعالم بهدف تعزيز الذكاء الاصطناعي المنسجم مع القيم الأمريكية.
وقال ألتمان في بيان رسمي:“منذ تأسيسنا في 2015، كانت مهمتنا ضمان تطوير ذكاء عام اصطناعي يخدم البشرية جمعاء، نحن متحمسون لأن يكون هناك أساس مفتوح للذكاء الاصطناعي، أمريكي المنشأ، يستند إلى القيم الديمقراطية، ومتاح للجميع.”
الأداء الفني للنماذج الجديدة:
في اختبار Codeforces للبرمجة التنافسية (مع أدوات)، سجّل النموذجان:
• gpt-oss-120b: درجة 2622
• gpt-oss-20b: درجة 2516
وهذا أفضل من نموذج DeepSeek R1، ولكنه أقل من نماذج OpenAI المغلقة o3 وo4-mini.
وفي اختبار Humanity’s Last Exam (HLE)، وهو اختبار صعب بأسئلة منوعة:
• gpt-oss-120b حصل على 19%
• gpt-oss-20b حصل على 17.3%
وهذا الأداء يتفوق على النماذج المفتوحة من DeepSeek وQwen، لكنه يظل دون مستوى النماذج المغلقة الأحدث من OpenAI.
الهلوسة والتحديات:
رغم التقدم، تُظهر النماذج المفتوحة الجديدة معدلات “هلوسة” عالية مقارنة بنماذج OpenAI المغلقة، أي أنها تميل إلى تقديم معلومات غير دقيقة.
ففي اختبار PersonQA، أظهرت النماذج:
• gpt-oss-120b: معدل هلوسة 49%
• gpt-oss-20b: معدل 53%
مقارنة بـ 16% فقط في نموذج o1 و36% في o4-mini.
وتعزو الشركة هذا إلى كون النماذج الأصغر تحتوي على معرفة عالمية أقل من النماذج الأكبر.
آلية التدريب والتقنيات:
• استخدمت OpenAI تقنيات تدريب مماثلة لتلك المستخدمة في نماذجها المغلقة، منها نظام Mixture-of-Experts (MoE)، حيث يتم تفعيل عدد أقل من المعاملات لكل كلمة، مما يُحسن الكفاءة.
• نموذج gpt-oss-120b يضم 117 مليار معامل، لكنه لا يستخدم سوى 5.1 مليار فقط في كل عملية.
• كما تم استخدام تعلم التعزيز عالي القدرة (High-compute RL) لتعليم النموذج التفريق بين الصواب والخطأ.
النماذج تدعم فقط النصوص، ولا يمكنها معالجة الصور أو الأصوات.
الترخيص والقيود:
• النماذج الجديدة متوفرة بموجب رخصة Apache 2.0، ما يسمح باستخدامها بحرية تجارية دون الحاجة لدفع أو الحصول على إذن مسبق.
• ومع ذلك، لن تُفرج OpenAI عن بيانات التدريب، في ظل القضايا القانونية القائمة التي تتهم شركات الذكاء الاصطناعي باستخدام محتوى محمي بحقوق النشر في تدريب نماذجها.
وأشارت الشركة إلى أنها أخّرت إطلاق هذه النماذج مرارًا في الأشهر الأخيرة لأسباب تتعلق بالأمان، وبعد اختبارات داخلية وخارجية، تبين أن النماذج قد ترفع قدرات المستخدمين بشكل طفيف في مجالات حساسة مثل الأسلحة البيولوجية، لكنها لا تصل إلى مستوى “الخطورة العالية”.
ومع تصاعد التنافس في هذا المجال، يترقّب المطورون حول العالم صدور نموذج DeepSeek R2 وكذلك نموذج مفتوح جديد من مختبر Meta للذكاء الفائق (Superintelligence Lab).