لم يعد الجدل حول الذكاء الاصطناعي محصوراً في قدرته على كتابة النصوص أو إنتاج الصور أو تسريع البحث العلمي؛ فقد انتقل اليوم إلى قلب سؤال أكثر حساسية: من يقرر كيف تُستعمل هذه النماذج عندما تدخل المجال العسكري؟ هذا السؤال انفجر داخل Google DeepMind، بعدما صوّت موظفون في المملكة المتحدة لصالح خطوة نقابية غير مسبوقة، احتجاجاً على مخاوف من ربط تقنيات الشركة بعقود عسكرية وأمنية.
تصويت نقابي داخل مختبر من أهم مختبرات الذكاء الاصطناعي
بحسب تقارير إعلامية متطابقة، صوّت موظفون في Google DeepMind بالمملكة المتحدة لصالح الانضمام إلى تمثيل نقابي مشترك عبر Communication Workers Union وUnite the Union. وطلب العاملون من إدارة Google الاعتراف بالنقابتين كممثلين رسميين لموظفي المختبر في بريطانيا، في خطوة قد تشمل ما لا يقل عن ألف موظف مرتبطين بمقر DeepMind في لندن إذا حصل الاعتراف الرسمي.
لماذا تحرك الموظفون الآن؟
التحرك لا يبدو مرتبطاً فقط بالأجور أو شروط العمل التقليدية، بل يرتبط أساساً بمخاوف أخلاقية من استعمال نماذج الذكاء الاصطناعي في سياقات عسكرية. فقد جاء التصويت بعد تصاعد الجدل حول اتفاق يسمح لوزارة الدفاع الأمريكية باستخدام تقنيات Google للذكاء الاصطناعي داخل شبكات مصنفة وسرية، إلى جانب قلق قديم داخل الشركة من علاقتها بمشاريع مرتبطة بالحكومة والجيش الإسرائيليين.
اتفاقات عسكرية تزيد الضغط الداخلي
أكدت وزارة الدفاع الأمريكية أنها أبرمت اتفاقات مع شركات كبرى في مجال الذكاء الاصطناعي والحوسبة السحابية، من بينها Google وOpenAI وMicrosoft وAmazon Web Services وNvidia وSpaceX وشركات أخرى، بهدف نشر قدرات الذكاء الاصطناعي المتقدمة داخل شبكات مصنفة للاستخدام العملياتي القانوني. ورغم تأكيد Google أنها لا تؤيد استخدام الذكاء الاصطناعي في المراقبة الجماعية الداخلية أو الأسلحة الذاتية دون إشراف بشري مناسب، فإن هذا لم ينه مخاوف الموظفين من ضعف الضمانات الفعلية في بيئات عسكرية سرية.
مطالب تتجاوز الشكل النقابي
مطالب الموظفين، كما نقلتها عدة مصادر، تشمل وقف استخدام تقنيات Google AI في تطبيقات عسكرية ضارة، وإعادة الالتزام السابق بعدم تطوير ذكاء اصطناعي موجه للأسلحة أو المراقبة المخالفة للمعايير الدولية، وإنشاء هيئة رقابة أخلاقية مستقلة، ومنح العاملين حق رفض المشاركة في مشاريع تتعارض مع قناعاتهم الأخلاقية.
خلفية أعمق: تغيير مبادئ Google للذكاء الاصطناعي
تأتي هذه الخطوة بعد تعديل Alphabet، الشركة الأم لـGoogle، لمبادئها الخاصة بالذكاء الاصطناعي في فبراير 2025، حيث اختفت صياغات سابقة كانت تتحدث عن عدم تطوير تقنيات قد تُستخدم في الأسلحة أو المراقبة التي تنتهك المعايير الدولية. وتقدم Google اليوم مبادئها على أنها تجمع بين الابتكار الجريء والتطوير المسؤول، مع الإشارة إلى الإشراف البشري والالتزام بحقوق الإنسان والقانون الدولي، لكن الموظفين المنتقدين يرون أن العقود العسكرية تحتاج إلى ضمانات أوضح وأكثر إلزاماً.
امتداد لصراع قديم داخل Google
ليست هذه أول مواجهة بين موظفي Google والإدارة حول الذكاء الاصطناعي العسكري. ففي 2018، واجهت الشركة احتجاجات داخلية واسعة بسبب مشروع Maven المرتبط بتحليل صور الطائرات المسيرة، قبل أن تقرر عدم تجديد العقد لاحقاً. كما عاد الجدل بقوة مع Project Nimbus، وهو عقد للحوسبة السحابية بقيمة 1.2 مليار دولار مع الحكومة الإسرائيلية، أثار اعتراضات من موظفين ونشطاء ومساهمين بسبب مخاوف مرتبطة بحقوق الإنسان.
المستثمرون يدخلون على الخط
القضية لم تعد محصورة في الموظفين فقط. فقد ذكرت Reuters أن مجموعة من مساهمي Alphabet، يملكون مجتمعين نحو 2.2 مليار دولار من أسهم الشركة، ضغطوا على الإدارة لتوضيح كيفية مراقبة استخدام تقنيات Google Cloud والذكاء الاصطناعي من طرف الحكومات، خصوصاً في السياقات عالية المخاطر مثل المراقبة والعمليات العسكرية.
ما الذي قد يحدث بعد ذلك؟
إذا رفضت Google الاعتراف الطوعي بالتمثيل النقابي، قد يلجأ العاملون إلى مسار قانوني لفرض الاعتراف، كما أشارت تقارير إعلامية. كما جرى الحديث عن احتمالات تصعيد رمزية أو مهنية، بينها احتجاجات و”إضرابات بحثية” قد تستهدف تعطيل العمل على تحسين منتجات رئيسية مثل Gemini، دون أن يكون واضحاً بعد إلى أي مدى ستتطور هذه الخطوات.
تصويت عمال Google DeepMind لا يمثل مجرد خلاف داخلي داخل شركة تقنية كبرى، بل يعكس تحوّلاً أوسع في صناعة الذكاء الاصطناعي: العاملون الذين يطورون النماذج الأكثر تقدماً يريدون دوراً مباشراً في تحديد حدود استخدامها. وبين متطلبات الأمن القومي، وضغط السوق، ومخاوف حقوق الإنسان، تبدو Google أمام اختبار جديد لقدرتها على إقناع موظفيها والجمهور بأن تطوير الذكاء الاصطناعي يمكن أن يكون قوياً ومسؤولاً في الوقت نفسه.