الوزير السابق مختار يدالي يكتب : من يسيطر على الذكاء الاصطناعي؟

سبت, 04/04/2026 - 14:53

 

صراع بين الجيش الأمريكي وشركة للذكاء الاصطناعي… ولماذا يهم ذلك دول الجنوب العالمي
حدث أمر مهم في عالم الذكاء الاصطناعي خلال الأسبوع الماضي. لم يحظ هذا الحدث باهتمام كبير في وسائل الإعلام في إفريقيا أو العالم العربي أو أمريكا اللاتينية، لكنه في الحقيقة يستحق اهتمامًا واسعًا. فالقضية تتعلق بالسلطة والتكنولوجيا، وبالسؤال الجوهري حول من يضع القواعد، وما الذي يحدث عندما ترفض شركة تكنولوجية الامتثال لطلبات حكومة قوية.
يهدف هذا المقال إلى شرح ما حدث، ولماذا ينبغي لكل دولة من دول الجنوب العالمي — أي تلك الدول التي ما زالت تبني مستقبلها الرقمي — أن تتابع هذه القضية باهتمام بالغ.
بداية الصراع
يُعد أحد أقوى أنظمة الذكاء الاصطناعي في العالم اليوم نظامًا يُعرف باسم Claude، وقد طورته شركة أمريكية تُدعى Anthropic. يتمتع هذا النظام بقدرات متقدمة للغاية، إلى درجة أن الجيش الأمريكي اختار استخدامه في بعض عملياته الأكثر حساسية، بما في ذلك التخطيط العسكري وتحليل المعلومات الاستخباراتية داخل وزارة الدفاع الأمريكية (البنتاغون).
في فبراير 2026 اندلع خلاف حاد بين الشركة والبنتاغون. فقد أرادت وزارة الدفاع استخدام النظام دون أي قيود، بما في ذلك في برامج المراقبة الجماعية، وكذلك في تطوير أسلحة قادرة على إطلاق النار دون تدخل بشري مباشر.
لكن شركة Anthropic رفضت هذا الطلب. فقد وضعت خطين أحمرين واضحين لا تريد تجاوزهُما:
عدم استخدام الذكاء الاصطناعي في مراقبة ملايين الأشخاص دون موافقتهم.
عدم السماح للذكاء الاصطناعي باتخاذ قرارات تتعلق بالحياة أو الموت بشكل مستقل.
وأكدت الشركة في بيان لها:
«لا يمكننا، بضمير حي، الاستجابة لهذا الطلب».
ردّت الحكومة الأمريكية بقوة، وأصدرت قرارًا يقضي بأن تتوقف جميع الوكالات الحكومية عن استخدام تقنية الشركة. بل ذهبت إلى حد تصنيفها على أنها «خطر على أمن سلسلة التوريد الوطنية»، وهو تصنيف يُستخدم عادة ضد شركات من دول تعتبرها الولايات المتحدة خصومًا استراتيجيين، مثل شركة هواوي الصينية.
المفارقة أن الحكومة الأمريكية اعترفت من جهة بأن نظام Claude مهم للغاية للأمن القومي، ومن جهة أخرى اعتبرته خطرًا يجب التوقف عن استخدامه فورًا. وهذان الموقفان لا يمكن أن يكونا صحيحين في الوقت نفسه. ما يكشفه هذا التناقض هو أن القضية لم تكن في جوهرها مسألة أمن، بل مسألة سيطرة وتحكم.
لماذا يجب أن يهتم الجنوب العالمي؟
السبب بسيط: القواعد التي توضع اليوم لتنظيم الذكاء الاصطناعي ستؤثر على العالم كله لعقود قادمة.
الجنوب العالمي خارج طاولة القرار
حاليًا تُطوَّر أقوى أنظمة الذكاء الاصطناعي في العالم من قبل عدد محدود من الشركات الأمريكية والصينية. أما القواعد التي تنظم استخدامها فتُكتب أساسًا في واشنطن ووادي السيليكون وبكين، دون مشاركة حقيقية من إفريقيا أو أمريكا اللاتينية أو جنوب آسيا أو العالم العربي.
وبغض النظر عما إذا كانت دول الجنوب العالمي شاركت في هذه القرارات أم لا، فإن ما يُقرر في تلك العواصم سيُصدَّر لاحقًا إلى بقية العالم عبر الشراكات والاتفاقيات ونقل التكنولوجيا.
الأسلحة الذاتية قد تُستخدم ضدنا
ليست الولايات المتحدة وحدها التي تسعى إلى تطوير أسلحة تعمل بالذكاء الاصطناعي. فإذا أصبح من المقبول أن يتخذ الذكاء الاصطناعي قرار إطلاق النار دون تدخل بشري، فمن المرجح أن تحذو دول أخرى حذوها.
ومن المؤسف أن كثيرًا من ساحات القتال المحتملة لهذه الأسلحة توجد في مناطق من الجنوب العالمي، خاصة في إفريقيا والشرق الأوسط. وفي هذه الحالة لن تكون دولنا هي التي وضعت القواعد، لكنها قد تكون من يدفع ثمنها.
انتشار المراقبة الجماعية
التكنولوجيا المستخدمة لمراقبة المواطنين في بعض الدول المتقدمة يمكن بسهولة استخدامها لمراقبة المواطنين في مدن مثل نيروبي أو المنامة أو مانيلا أو بوغوتا.
والواقع أن العديد من الحكومات في هذه المناطق تبحث بالفعل عن مثل هذه الأدوات. وإذا أُجبرت شركات الذكاء الاصطناعي على إزالة الضوابط الأخلاقية من تقنياتها، فإن هذه الأنظمة ستصبح متاحة دون قيود للحكومات السلطوية حول العالم.
هذه ليست مجرد فرضية نظرية؛ فقد حدث الأمر ذاته سابقًا مع تقنيات المراقبة التقليدية.
أخلاقيات الذكاء الاصطناعي ليست امتيازًا للأغنياء
عندما تحاول حكومة قوية إزالة القيود الأخلاقية عن التكنولوجيا، فإنها في الواقع تشكك في فكرة أن للتكنولوجيا حدودًا أخلاقية أصلًا.
لكن دول الجنوب العالمي تحتاج إلى معايير دولية تحمي الأفراد، وليس فقط مصالح الدول القوية. وإذا جرى تقويض هذه المعايير في القمة، فلن تصل أبدًا إلى القاعدة.
التطورات القانونية
في 9 مارس 2026 رفعت شركة Anthropic دعويين قضائيتين أمام محاكم اتحادية في كاليفورنيا وواشنطن العاصمة ضد الحكومة الأمريكية، مطالبة بإلغاء قرار إدراجها في القائمة السوداء.
وصفت الشركة إجراءات الحكومة بأنها «حملة انتقام غير قانونية»، مؤكدة أنها تنتهك الحماية الدستورية لحرية التعبير. وتشمل القضية أكثر من اثنتي عشرة وكالة حكومية أمريكية، من بينها وزارات الدفاع والخزانة والخارجية والتجارة.
وتؤكد الشركة أن هذه الإجراءات تهدد مئات الملايين من الدولارات من عائداتها وتضر بعقودها الدولية.
في المقابل، سارعت شركة أخرى معروفة في مجال الذكاء الاصطناعي إلى توقيع اتفاق مع البنتاغون بعد ساعات من صدور قرار الحظر، وهو ما أثار جدلًا واسعًا حول مدى التزام الشركات الأخرى بالمعايير الأخلاقية.
رد فعل الجمهور
كان رد فعل الجمهور لافتًا للنظر. ففي ذروة الجدل أصبح تطبيق Claude أكثر التطبيقات المجانية تحميلًا في الولايات المتحدة، مع تسجيل أكثر من مليون مستخدم جديد يوميًا خلال الأسبوع الذي تلا الأزمة.
وكأن المستخدمين أرادوا أن يرسلوا رسالة واضحة:
الأخلاقيات في الذكاء الاصطناعي تهم المواطنين العاديين، وليس فقط الحكومات والشركات.
السؤال الجوهري
السؤال الأساسي الذي يطرحه هذا الحدث هو:
هل يحق لشركة خاصة أن تقول: لن نسمح باستخدام تقنيتنا في هذه الأغراض؟
من جهة، الشركات ليست حكومات منتخبة، ولا ينبغي لها أن تحدد بمفردها سياسات الأمن القومي.
لكن من جهة أخرى، هناك أفعال غير مقبولة مهما كان من يأمر بها. فالمراقبة الجماعية للمدنيين مرفوضة، والأسلحة التي تقتل دون حكم بشري تشكل خطرًا كبيرًا.
موقف شركة Anthropic يقوم على مبدأ واضح: رفض استخدام الذكاء الاصطناعي في المراقبة الجماعية أو في الأسلحة المستقلة بالكامل، لأن هذه المخاطر حقيقية ولأن التكنولوجيا الحالية ليست موثوقة بما يكفي لاتخاذ مثل هذه القرارات المصيرية.
ماذا يجب أن تفعل دول الجنوب العالمي؟
في ظل تصاعد الضغوط الأحادية من القوى الكبرى، يصبح من الضروري أن تتحرك دول الجنوب العالمي بشكل جماعي. ومن بين الخطوات الضرورية:
المطالبة بدور حقيقي في حوكمة الذكاء الاصطناعي عالميًا داخل الأمم المتحدة والهيئات الدولية المختصة.
العمل على وضع معايير دولية ملزمة لتنظيم الأسلحة الذاتية.
التأكيد على ضرورة بقاء القرار النهائي بيد الإنسان في كل الأنظمة الحساسة.
دعم التطوير الأخلاقي والمسؤول للذكاء الاصطناعي.
الاستثمار بشكل عاجل في التعليم والبحث العلمي في مجال الذكاء الاصطناعي.
تعزيز التنسيق بين إفريقيا والعالم العربي وأمريكا اللاتينية وجنوب آسيا لتشكيل موقف موحد في المفاوضات الدولية.
خاتمة
ما حدث بين شركة Anthropic والحكومة الأمريكية ليس مجرد نزاع تجاري. إنه لمحة مبكرة عن الصراعات التي ستحدد مستقبل عصر الذكاء الاصطناعي: من يملك السيطرة على أقوى التقنيات في التاريخ، وهل ستُدار وفق مبادئ أخلاقية أم وفق ميزان القوة فقط؟
لقد قالت شركة واحدة: هناك أشياء لن نفعلها، حتى تحت الضغط. وقد كلفها ذلك عقوبات ومواجهة قضائية مع إحدى أقوى الحكومات في العالم.
أما بقية العالم — وخاصة دول الجنوب — فيواجه الآن خيارًا واضحًا:
إما أن يظل متفرجًا بينما تُكتب القواعد دون مشاركته،
أو أن يرفع صوته ويطالب بأن تعكس حوكمة الذكاء الاصطناعي قيم ومصالح البشرية جمعاء، لا مصالح الأقوياء فقط.
إن التكنولوجيا التي ستشكل مستقبلنا تُبنى اليوم.
وصمتنا أيضًا