في خطوة تكشف حجم الحذر المتزايد حول النماذج الأكثر تقدماً في الذكاء الاصطناعي، قالت OpenAI إنها منحت الحكومة الأمريكية وصولاً مبكراً إلى نموذج GPT-5.5 من أجل اختبارات مرتبطة بالأمن القومي. الخبر لا يتعلق بإطلاق تجاري جديد فقط، بل يضع النموذج داخل نقاش أوسع حول حدود الابتكار، وسلامة الاستخدام، ودور الحكومات في فحص قدرات الذكاء الاصطناعي قبل انتشارها الواسع.
تصريح تنفيذي يكشف الوصول المبكر
بحسب ما نقلته وكالة Reuters، أوضح كريس ليهان، المسؤول التنفيذي في OpenAI، عبر منشور على LinkedIn، أن الشركة أتاحت للحكومة الأمريكية وصولاً مبكراً إلى GPT-5.5 بهدف إجراء اختبارات تتعلق بالأمن القومي. ولم تكشف الشركة في هذا التصريح عن تفاصيل تقنية دقيقة حول نطاق الاختبارات أو الجهات الحكومية التي شاركت فيها، ما يجعل الخبر مرتبطاً أساساً بمستوى التعاون بين الشركة والسلطات الأمريكية أكثر من كونه إعلاناً تقنياً كاملاً عن قدرات النموذج.
اختبارات قبل الانتشار الواسع للنماذج المتقدمة
تأتي هذه الخطوة في سياق تحرك أمريكي أوسع لمنح جهات حكومية إمكانية تقييم نماذج ذكاء اصطناعي متقدمة قبل طرحها أو توسيع استخدامها. فقد أعلنت شركات كبرى، بينها Google DeepMind وMicrosoft وxAI، تعاوناً مع مركز المعايير والابتكار في الذكاء الاصطناعي CAISI التابع لوزارة التجارة الأمريكية، من أجل إجراء تقييمات مسبقة لقدرات النماذج ومخاطرها المحتملة.
ويركز هذا النوع من الاختبارات عادة على سيناريوهات حساسة مثل الأمن السيبراني، والمخاطر البيولوجية أو الكيميائية الافتراضية، وإمكانية إساءة استعمال النماذج في توليد تعليمات ضارة أو دعم عمليات معقدة. لذلك ينظر إليه صناع القرار باعتباره وسيلة لفهم حدود النماذج قبل أن تصبح متاحة على نطاق أوسع.
لماذا يثير GPT-5.5 اهتماماً أمنياً؟
كلما أصبحت النماذج اللغوية أكثر قدرة على التحليل والبرمجة وحل المشكلات، زادت الأسئلة حول كيفية منع استخدامها في أنشطة ضارة. فالقدرات التي قد تساعد الباحثين والمطورين والشركات، يمكن أن تثير في الوقت نفسه مخاوف إذا استُعملت في البحث عن ثغرات رقمية، أو إعداد تعليمات خطيرة، أو تسريع أعمال لا يفترض أن تتم دون رقابة بشرية وخبرة متخصصة.
وتشير بطاقة السلامة الخاصة بـGPT-5.5 المنشورة من OpenAI إلى أن CAISI شارك في تقييم سيناريوهات مرتبطة بالأمن القومي، بما في ذلك حالات افتراضية في المجال البيولوجي. ووفق ما ورد في البطاقة، لم تُظهر تلك الاختبارات زيادة واسعة في القدرات البيولوجية ذات الصلة بالأمن القومي مقارنة بنموذج GPT-5 في نسخة مساعدة فقط، مع استمرار التركيز على الحواجز والضوابط قبل النشر.
تعاون يفتح نقاشاً حول الشفافية والرقابة
رغم أن التعاون بين شركات الذكاء الاصطناعي والحكومات قد يساعد على اكتشاف المخاطر مبكراً، إلا أنه يطرح أيضاً أسئلة حول الشفافية: ما حدود وصول الحكومات إلى النماذج؟ ما طبيعة الاختبارات؟ ومن يحدد إن كان النموذج آمناً بما يكفي؟ هذه الأسئلة تزداد حساسية عندما ترتبط النماذج المتقدمة بملفات الأمن القومي أو البيئات المصنفة أو الاستخدامات العسكرية.
وكانت OpenAI قد تحدثت سابقاً عن تعاونها مع هيئات أمريكية وبريطانية معنية بأمن الذكاء الاصطناعي، معتبرة أن الاختبارات الخارجية تساعد على تحسين الحماية وكشف نقاط الضعف. وفي المقابل، يطالب منتقدون بقدر أكبر من الوضوح حتى لا تتحول الشراكات الأمنية إلى مساحات مغلقة يصعب على الجمهور أو الباحثين المستقلين مراقبتها.
منح OpenAI وصولاً مبكراً إلى GPT-5.5 للحكومة الأمريكية يعكس مرحلة جديدة في علاقة شركات الذكاء الاصطناعي بالدولة: مرحلة لم يعد فيها إطلاق النماذج الكبرى قراراً تجارياً صرفاً، بل أصبح مرتبطاً أيضاً باختبارات الأمن، والحوكمة، والمسؤولية. وبين الحاجة إلى الابتكار والحاجة إلى الحماية، يبدو أن النماذج المقبلة ستخضع لتدقيق أكبر قبل وصولها إلى الجمهور.