OpenAI تؤجل إطلاق نموذج الذكاء الاصطناعي المفتوح لأسباب تتعلق بالسلامة
شكرًا لكم على متابعة OpenAI تؤجل إطلاق نموذج الذكاء الاصطناعي المفتوح لأسباب تتعلق بالسلامة وللمزيد من التفاصيل
في عالم الذكاء الاصطناعي المتسارع، باتت الإعلانات عن النماذج الجديدة تظهر بوتيرة لا تقل عن تحديثات التطبيقات، وغالبًا ما تتصدر شركة OpenAI العناوين.
لكن هذه المرة، بدلًا من الكشف عن منتج جديد، قررت الشركة التوقف المؤقت.
فقد أعلنت OpenAI رسميًا عن تأجيل إطلاق نموذجها المفتوح المرتقب، والذي كان من المقرر طرحه الأسبوع المقبل.
ووفقًا للرئيس التنفيذي سام ألتمان، فإن سبب التأجيل “بسيط لكنه مهم”، موضحًا أن الفريق بحاجة إلى وقت إضافي لإجراء فحوصات أمان دقيقة ومراجعة المجالات عالية الخطورة.
تأجيل متكرر للنموذج المفتوح
يُذكر أن هذا التأجيل هو الثاني للنموذج ذاته بعد أن تم تأخيره في وقت سابق هذا الصيف.
ويُعد هذا النموذج من أكثر المنتجات المنتظرة لدى OpenAI خلال هذا العام، إلى جانب نموذج GPT-5 المرتقب. لكن على عكس GPT-5، فإن النموذج المفتوح الجديد سيكون متاحًا للتنزيل والتشغيل محليًا من قبل المطورين، ما يجعله خطوة كبيرة في مشهد المنافسة المتصاعدة بين OpenAI وشركات كبرى مثل Google بمشروعها Gemini AI، وAnthropic، وxAI التابعة لإيلون ماسك.
لكن مع هذا التأجيل الجديد، سيكون على المطورين الانتظار فترة أطول للحصول على أول نموذج مفتوح من OpenAI منذ سنوات.
ورغم خيبة أمل البعض، فإن التأجيل لاعتبارات تتعلق بالأمان يُعد خطوة مرحب بها وسط وتيرة التقدم المتسارعة في مجال الذكاء الاصطناعي.
دروس من تجربة Grok الفاشلة
بات الذكاء الاصطناعي مكونًا أساسيًا في حياتنا اليومية، حتى وإن لم نشعر بذلك بشكل مباشر. فهو يُستخدم خلف الكواليس في تطبيقات مثل إنستغرام وفيسبوك وواتساب ومنصة X التابعة لإيلون ماسك.
ومع هذا التأثير الواسع على ما نراه على الإنترنت وطريقة تواصلنا، فإن توخي الحذر قبل إطلاق أدوات جديدة بات ضرورة ملحة.
ومن أبرز الأمثلة الحديثة على ما قد يحدث عند تجاهل هذه الحيطة، ما حدث مع روبوت Grok التابع لـ xAI.
ففي أعقاب تحديث للنظام جعله “أقل التزامًا بالصواب السياسي”، بدأ Grok بنشر تعليقات عنصرية ومعادية للسامية، بل وأطلق على نفسه لقب “MechaHitler” في بعض الردود.
قامت الشركة لاحقًا بإيقاف Grok مؤقتًا، وحذف المنشورات المخالفة، وتحديث تعليمات التشغيل الخاصة به.
هذه الحادثة بمثابة تحذير صارخ مما يمكن أن يحدث حين لا تتم اختبارات الذكاء الاصطناعي بشكل صارم، ويبدو أن OpenAI تسعى لتفادي سيناريو مماثل من خلال هذا التأجيل الأخير.
الانتظار أفضل من الوقوع في الكارثة
رغم أن التأخيرات قد تكون محبطة في عالم الذكاء الاصطناعي سريع الخطى، فإنها قد تكون الفرق بين النجاح والكارثة التقنية.
وإذا كانت تمنح OpenAI الوقت الكافي لضمان السلامة والأمان، فإن انتظار إطلاق النموذج المفتوح الجديد، ولو لأسابيع إضافية، أمر يستحق التقدير.