تتصاعد حدة المواجهة بين شركات التكنولوجيا العملاقة والحكومة الأمريكية في واحدة من أكثر القضايا حساسية بعصر التكنولوجيا المتقدمة؛ حيث فجّرت دعوى أنثروبيك ضد البنتاجون جدلًا واسعًا حول حدود استخدام الذكاء الاصطناعي في المجالات العسكرية والأمنية.
وبحسب ما أوردته وكالة “رويترز” تقدمت شركة أنثروبيك بدعوى قضائية أمام محكمة فيدرالية في ولاية كاليفورنيا، مؤخرًا، مطالبة بوقف قرار وزارة الدفاع الأمريكية إدراجها ضمن قائمة سوداء للأمن القومي.
وتؤكد الشركة أن هذا القرار يقيّد استخدام تقنياتها بشكلٍ غير قانوني. كما يمثل عقوبة مباشرة بسبب القيود التي تفرضها على استخدام نماذج الذكاء الاصطناعي الخاصة بها.
كما ترى أن دعواها ضد البنتاجون تمثل دفاعًا قانونيًا عن مبادئ أساسية تتعلق بحرية التعبير والحقوق الدستورية للشركات التقنية. بينما شددت في وثائقها القانونية على أن الحكومة لا يمكنها استخدام سلطاتها الواسعة لمعاقبة شركة لمجرد تمسكها بسياسات أخلاقية تتعلق بكيفية استخدام تقنياتها.
خلفيات القرار الأمريكي ضد الشركة
تعود جذور الأزمة إلى قرار اتخذته وزارة الدفاع الأمريكية يوم الخميس الماضي يقضي بتصنيف شركة أنثروبيك باعتبارها خطرًا على سلسلة التوريد في قطاع التكنولوجيا المرتبط بالأمن القومي.
ويعني هذا التصنيف فرض قيود على استخدام تقنيات الشركة، خصوصًا في العقود المرتبطة بالبنتاجون وشركاته المتعاقدة.
وجاء القرار بعد خلافات طويلة بين الطرفين بشأن القيود التي تضعها “أنثروبيك” على استخدام نظام الذكاء الاصطناعي الخاص بها المعروف باسم Claude. إذ ترفض الشركة السماح باستخدام تقنياتها في تطوير الأسلحة ذاتية التشغيل أو في عمليات المراقبة الداخلية للمواطنين داخل الولايات المتحدة.
وبذلك أصبحت دعوى أنثروبيك ضد البنتاجون اختبارًا حقيقيًا لمعادلة معقدة تجمع بين الأمن القومي وحرية الابتكار. فبينما ترى الحكومة الأمريكية أن القيود المفروضة تعرقل العمليات العسكرية، تؤكد الشركة أن هذه القيود ضرورية لمنع إساءة استخدام التكنولوجيا في مجالات قد تشكل خطرًا على البشر.

توتر سياسي يتصاعد داخل واشنطن
لم يتوقف التصعيد عند حدود القرار الإداري، بل امتد إلى أعلى مستويات السياسة الأمريكية. إذ نشر الرئيس الأمريكي دونالد ترامب منشورًا عبر وسائل التواصل الاجتماعي دعا فيه الحكومة الأمريكية إلى التوقف عن استخدام نظام Claude بالكامل.
وفي السياق ذاته كشفت تقارير إعلامية عن أن البيت الأبيض يدرس إصدار أمر تنفيذي يقضي بإزالة تقنيات أنثروبيك من مختلف الوكالات الفيدرالية. وهو ما يزيد من تعقيد الأزمة ويعطي دعوى أنثروبيك ضد البنتاجون أبعادًا سياسية واقتصادية واسعة.
ويؤكد مراقبون أن هذه القضية قد تحدد مستقبل العلاقة بين الحكومة الأمريكية وشركات الذكاء الاصطناعي. خاصة مع تزايد اعتماد المؤسسات العسكرية والأمنية على هذه التقنيات في إدارة العمليات وتحليل البيانات الإستراتيجية.
تأثيرات اقتصادية ضخمة في الشركة
تحمل هذه الأزمة تداعيات اقتصادية كبيرة على شركة أنثروبيك؛ إذ قد يؤدي التصنيف الذي فرضته وزارة الدفاع إلى تقليص فرص الشركة في الحصول على عقود حكومية مستقبلية.
وتشير تقديرات رسمية داخل الشركة إلى أن الإجراءات الحكومية ربما تخفض إيراداتها المتوقعة لعام 2026 بمئات الملايين وربما بعدة مليارات من الدولارات.
ورغم ذلك أوضح داريو أمودي؛ الرئيس التنفيذي لشركة أنثروبيك، أن نطاق القرار الحالي «محدود». مشيرًا إلى أن الشركات الخاصة لا تزال قادرة على استخدام أدوات الذكاء الاصطناعي الخاصة بالشركة في المشاريع التي لا ترتبط بالبنتاجون.
وتؤكد الشركة أن دعوى أنثروبيك ضد البنتاجون لا تهدف إلى قطع العلاقات مع الحكومة الأمريكية. بل تسعى إلى التوصل إلى إطار قانوني واضح يحدد كيفية استخدام تقنيات الذكاء الاصطناعي بطريقة تحمي الأمن القومي دون التضحية بالمبادئ الأخلاقية.
انقسام داخل مجتمع الذكاء الاصطناعي
أثارت القضية أيضًا نقاشًا واسعًا داخل مجتمع الباحثين والمهندسين العاملين في مجال الذكاء الاصطناعي. فقدمت مجموعة تضم 37 باحثًا ومهندسًا من شركات كبرى مثل: OpenAI وGoogle مذكرة دعم قانونية لصالح أنثروبيك.
ويرى هؤلاء الخبراء أن التضييق على شركة واحدة بسبب مواقفها الأخلاقية ربما يؤدي إلى تقليل قدرة الصناعة على الابتكار. كما قد يدفع الباحثين إلى تجنب النقاش العلني حول المخاطر المرتبطة بالذكاء الاصطناعي.
ومن هذا المنطلق أصبحت دعوى أنثروبيك ضد البنتاجون رمزًا لمعركة أوسع تدور حول من يمتلك السلطة النهائية في وضع حدود استخدام الذكاء الاصطناعي: الحكومات أم الشركات المطورة للتكنولوجيا.
العلاقة بين الحكومة وشركات الذكاء الاصطناعي
تشير التطورات الأخيرة إلى أن القضية قد تفتح الباب أمام مرحلة جديدة من التنظيم الحكومي لقطاع الذكاء الاصطناعي في الولايات المتحدة.
والحكومة ترى أن حماية الأمن القومي تتطلب مرونة كاملة في استخدام التقنيات الحديثة. بينما تؤكد الشركات أن بعض التطبيقات قد تشكل مخاطر أخلاقية وقانونية جسيمة.
وفي هذا السياق أكدت وزارة الدفاع أن القانون الأمريكي هو الجهة الوحيدة المخولة بتحديد كيفية الدفاع عن البلاد. مشددة على ضرورة امتلاك القدرة على استخدام الذكاء الاصطناعي في «أي استخدام قانوني».
في المقابل تصر الشركات على أن أفضل نماذج الذكاء الاصطناعي الحالية لا تزال غير موثوقة بما يكفي لاستخدامها في الأسلحة ذاتية التشغيل بشكل كامل.


