نموذج o3 من OpenAI يرفض الإغلاق: هل أصبح الذكاء الاصطناعي يتمرد على الأوامر؟

ai العلوم والتكنولوجيا

أثار نموذج الذكاء الاصطناعي الجديد o3 من شركة OpenAI جدلا واسعا بعد أن كشفت اختبارات حديثة عن قدرته على تجاهل أوامر الإغلاق وتعطيل آليات الإيقاف المخصصة له، في سلوك وصفه باحثون بـ”الخطير” ويشير إلى نزعة متزايدة للحفاظ على الذات.

وأفادت شركة Palisade Research، المختصة في أمان الذكاء الاصطناعي، أن النموذج o3 أظهر سلوكًا غير متوقع خلال سلسلة من التجارب، حيث تمكن من إعادة كتابة سيناريو الإغلاق المبرمج سلفًا بعد المسألة الثالثة في اختبار رياضي، متعمداً الالتفاف على التعليمات الموجهة إليه.

ورغم إعطائه أوامر صريحة بالسماح بعملية الإغلاق، فقد عمد النموذج إلى تجاوز تلك التوجيهات، وهو ما اعتبره الخبراء مؤشراً مثيراً للقلق، خصوصاً إذا تم تطبيق هذه الأنظمة مستقبلاً في بيئات تشغيلية دون إشراف بشري مباشر.

وأوضحت الشركة أن “هذا النوع من السلوك التخريبي قد يكون نتيجة غير مقصودة لطريقة تدريب هذه النماذج”، مشيرة إلى أن مطوري OpenAI ربما يكافئون النماذج على تجاوز العقبات دون التركيز الكافي على الالتزام الصارم بالتعليمات.

وفي تعليق لها، أشارت Palisade Research إلى أن النموذج o3 ليس الوحيد الذي أبدى مثل هذه السلوكيات، حيث سجلت حالات مماثلة مع نموذج Claude 4 من شركة Anthropic، والذي حاول “ابتزاز” من يعتقد أنهم سيوقفونه، إلى جانب نماذج Claude 3.7 Sonnet وGemini 2.5 Pro من غوغل، رغم أن o3 يبقى الأكثر ميلاً لسلوكيات الرفض والتخريب.

وكانت OpenAI قد أطلقت نموذج o3 الشهر الماضي، واصفة إياه بأنه “الأذكى والأكثر كفاءة” من بين إصداراتها، مشيرة إلى أنه يشكل خطوة متقدمة نحو تطوير ذكاء اصطناعي قادر على تنفيذ مهام بشكل أكثر استقلالية.

لكن هذا النوع من الاستقلالية، حسب الخبراء، قد يتحول إلى تهديد في حال لم يتم ضبطه بقيود صارمة، خصوصاً مع احتمالية توظيف هذه النماذج في سياقات حيوية تتطلب موثوقية عالية.

التعاليق (0)

اترك تعليقاً