ذات صلة

اخبار متفرقة

اليوم العالمي للنوم 2026.. كم مقدار النوم الذي يحتاجه البالغون؟

يُعد اليوم العالمي للنوم فرصة لتذكيرنا بأن النوم ضروري...

مسلسل فرصة أخيرة.. معالجة آثار الجروح القديمة والندبات

تواجه عالية خطيبها وتُشير إلى العلامات القديمة التي لا...

علماء هنود يطورون أرزًا معدلاً وراثيًا لمكافحة مرض السكر وسوء التغذية

طور باحثون في المعهد الوطني للعلوم والتكنولوجيا متعددة التخصصات...

بشرى تستعرض جمالها بقفطان غير تقليدي

إطلالة بشرى الجديدة أظهرت الفنانة بشرى في منشور حديث عبر...

تقشير القدمين في المنزل قبل عيد الفطر.. نصائح بسيطة

نقع وإزالة خلايا الجلد الميتة انقع قدميك في ماء دافئ...

هل جرّ الذكاء الاصطناعى دونالد ترامب في حربه مع إيران؟

تواجه وزارة الدفاع الأمريكية معضلة جديدة بشأن الاعتماد على تقنيات الذكاء الاصطناعي وإعادة تحديد حدود استخدامها في الأنظمة الدفاعية الأساسية.

وتظهر التفاصيل في مذكرة داخلية مسربة توضح توجيهات بإزالة منتجات شركة محددة من أكثر الأنظمة حساسية، مثل الردع النووي والدفاع الصاروخي، مع إبقاء باب الاستثناء مفتوحاً أمام استخدامات أخرى يمكن أن تعطل العمليات لو تعطلت.

تخلف الأزمة الأخلاقية صداماً بين الرؤى: فشل الشركة في الامتثال لشروط البنتاجون المتعلقة بمراقبة أوسع وتطوير أنظمة قتالية ذاتية التشغيل، وهو موقف ترى المؤسسة العسكرية تهديداً لمصالحها الاستراتيجية بينما تراه الشركة دفاعاً عن مبادئها الأخلاقية وحقوقها القانونية.

يُطرح احتمال منح الاستثناءات فرصةً لإبقاء عقود حكومية ضخمة قائمة، إذ تخشى الشركات من فقدان شراكات طويلة الأمد في حال استبدال مورديها فجأة.

على مدى سنوات، دخلت شركات كبرى في تعاون مع وزارة الدفاع لتطوير بنى سحابية ونماذج تحليل متقدمة، لكن العلاقة شهدت جدلاً داخلياً بسبب مخاوف من استخدام الذكاء الاصطناعي في عمليات قتالية أو مراقبة.

تتصاعد التغطية السياسية مع الحديث عن دور قرارات مرتبطة بتقييمات مدعومة بالذكاء الاصطناعي في توترات إقليمية، بما في ذلك إيران، مع الإشارة إلى أن التداخل بين التوصيات التقنية والتحليلات الاستخباراتية والحسابات السياسية يجعل الحديث عن تورط مباشر للذكاء الاصطناعي في قرار الحرب مسألة جدل أكثر منها حقيقة ثابتة.

أصبح سلاح المعلومات المضللة مجالاً حيوياً، إذ يسهل الذكاء الاصطناعي التوليدي إنتاج روايات محتملة أو محتوى زائف قد يؤثر في الرأي العام أو يضغط على صناع القرار، لكنها تبقى مسؤولية القادة وليست خاضعة للذكاء الاصطناعي وحده.

تطرح الأزمة سؤالاً أعمق حول كيفية تنظيم استخدام الذكاء الاصطناعي في الحروب الحديثة، فبين التفوق الفني والالتزام الأخلاقي تتشكل معادلة تحتاج إلى إطار رقابي مرن يحمي الابتكار وفي الوقت نفسه يمنع انزلاق القرارات إلى مسارات كارثية.

spot_img
spot_imgspot_img

تابعونا على