واشنطن ، الولايات المتحدة – عاد ملف الذكاء الاصطناعي إلى واجهة النقاش داخل دوائر صنع القرار في الولايات المتحدة. وقد تزامن ذلك مع تقارير تتحدث عن تنامي دور شركة “أنثروبيك” ونموذجها اللغوي “كلود” في بيئات حكومية وأمنية. يأتي هذا وسط تساؤلات متزايدة حول حدود استخدام هذه التقنيات داخل البيت الأبيض والبنتاغون.
وبحسب ما يتم تداوله في أوساط تقنية وسياسية، فإن هناك نقاشات داخلية حول مدى إمكانية توظيف أنظمة الذكاء الاصطناعي في دعم التحليل الاستراتيجي واتخاذ القرار العسكري. ويزداد هذا النقاش خصوصًا في ظل تسارع الأحداث الدولية وتعقد ملفات الأمن القومي الأمريكي.
وفي هذا السياق، يبرز تساؤل مثير للجدل حول ما إذا كانت هذه النماذج، حال دمجها بشكل أوسع في المنظومة العسكرية، ستعمل كأداة استشارية محايدة. أم أنها قد تتعرض لضغوط توجيهية من المؤسسات العسكرية والسياسية، بما يفتح باب النقاش حول “حدود الاستقلالية” في الذكاء الاصطناعي المستخدم في القرارات الحساسة.
ويرى خبراء أن دخول شركات الذكاء الاصطناعي إلى قلب المنظومة الدفاعية يمثل تحولًا استراتيجيًا كبيرًا. لكنه في الوقت نفسه يثير مخاوف تتعلق بالشفافية، وأمن البيانات، وإمكانية الاعتماد المفرط على أنظمة قد لا تخلو من الأخطاء أو الانحيازات.
وبين الترحيب بالتطور التكنولوجي والتحذير من مخاطره، يبقى السؤال مطروحًا داخل واشنطن: هل يصبح الذكاء الاصطناعي شريكًا في القرار العسكري.. أم مجرد أداة تحت سيطرة الجنرالات؟
أنثروبيك داخل أروقة البيت الأبيض.. جدل حول توظيف “كلود” في دعم قرارات البنتاغون واحتمالات انصياعه للقيادة العسكرية
أمريكا وحدود استخدام الذكاء الاصطناعي في القرار


