الاتجاه الرئيسي للقرن الحادي والعشرين
على الرغم من كل حالة عدم اليقين بشأن مصطلح "الذكاء الاصطناعي" (المشار إليه فيما يلي باسم AI) ، فقد تم منذ فترة طويلة إنشاء جميع المتطلبات الأساسية لظهور أنظمة قتالية عالية الأداء وذاتية التعلم في جيوش العالم.
إذا لم يكن الذكاء الاصطناعي موجودًا ، فلا يزال يتعين اختراعه. الآن ، في جميع مجالات حياة الإنسان تقريبًا ، يتم إنشاء كمية هائلة من المعلومات كل ثانية ، والتي ببساطة ليس لديها أي شيء للمعالجة.
والشؤون العسكرية بعيدة كل البعد عن الاستثناء هنا - يكفي أن نتذكر الصراع في ناغورنو كاراباخ من أجل فهم المدى الحقيقي للثراء المعلوماتي للعمليات العسكرية.
يصبح تدفق بيانات الصور والفيديو والرادار ، بالإضافة إلى الرسائل الصوتية والنصية ، هو الشيء الرئيسي في هذا المجال. الآن فقط يمكننا إعادة صياغة التعبير المعروف
"من يملك المعلومات ، يملك العالم"
في الحديث
"من يعرف كيف يحلل المعلومات بسرعة ، يمتلك العالم."
وللمعالجة التشغيلية "للبيانات الضخمة" (أو البيانات الضخمة) ، هناك حاجة إلى تقنيات بالغة الخطورة. مثل الشبكات العصبية الاصطناعية القادرة على التعلم الذاتي دون مشاركة المشغل. من المزايا المهمة للشبكات العصبية القدرة على تحديد الأنماط بناءً على البيانات غير الموجودة في كود التدريب الأصلي.
بالنسبة للجيش ، فإن القدرة المحتملة للذكاء الاصطناعي على العمل مع بيانات غير كاملة أو "صاخبة" أو مشوهة لها أهمية خاصة. هذا هو السبب في أن الشبكات العصبية للتعلم العميق تنتظر حاليًا في أنظمة ذكاء الأنواع للتحليل السريع لمواد الفيديو والتصوير الفوتوغرافي. كما لوحظ في الإدارات العسكرية ، المهام التي استغرقت شهورًا من العمل لعشرات أجهزة فك التشفير ، يحلها الذكاء الاصطناعي في ثوانٍ.
ومع ذلك ، فإن التحليل البسيط لمجموعات البيانات يبدو حتى الآن غير كافٍ للعمليات العسكرية - فهو مطلوب
"التنبؤ بالإجراءات الممكنة"
и
"توقع الردود"
الهدف المحتمل.
بناءً على هذه "الاستدلالات" ، سيتخذ المشغل قرارًا بفتح النار. سيؤدي هذا بشكل خطير إلى تسريع مسار العمليات الهجومية.
على سبيل المثال ، قبل بضع سنوات ، خلال عملية الحرية الدائمة ، دخلت طائرة بدون طيار MQ-1 Predator قافلة مركبات معادية. لكن بينما كان عامل التشغيل يقيم الانتماء ويقرر إطلاق صاروخ ، غادرت المعدات المنطقة المتضررة. وهذا بعيد كل البعد عن المثال الوحيد.
إن استخدام الذكاء الاصطناعي في هذه الحالة سيجعل من الممكن إجراء تنبؤ سريع بشأن احتمالات الضربة ووقتها. ولكن هناك مطبات هنا أيضًا.
تشعر لجنة الصليب الأحمر بقلق بالغ إزاء إدخال الذكاء الاصطناعي في المركبات غير المأهولة (والأهم من ذلك) مستوى الثقة به من جانب الشخص. على سبيل المثال ، هل يمكن تحديد شخص يحفر بالقرب من طريق بشكل موثوق به على أنه جهاز زرع أجهزة متفجرة مرتجلة يعتمد فقط على تحليل إشارة الفيديو بواسطة الشبكات العصبية؟
الآن مشغلي الطبل أزيز في كثير من الأحيان لا تدرك حقيقة ما يحدث في ساحة المعركة (عقلية Playstation). وماذا لو ساعدتهم الذكاء الاصطناعي في ذلك؟
ستصبح مهمة التدمير المبسطة بشكل ملحوظ بالفعل أسهل في الأداء.
أتمتة ذلك!
تجبر التحديات التكنولوجية والاستراتيجية القوى العالمية على نقل جيوشها تدريجياً إلى قضبان الروبوتات.
على سبيل المثال ، في الولايات المتحدة ، تعد "الإستراتيجية التعويضية الثالثة" بتحويل القوات المسلحة إلى جيش. الروبوتات بالفعل بعد ثلاثين عامًا. وفي غضون عشر سنوات ، ستكون كل طائرة ثالثة في البنتاغون بدون طيار.
كما تحاول روسيا مواكبة ذلك. وهم يخططون لقبول عدة عشرات من نماذج الأسلحة الجديدة للتحكم عن بعد في السنوات القادمة. ومع ذلك ، لا يوجد لدى الولايات المتحدة ولا روسيا أنظمة استطلاع وضرب كاملة يسيطر عليها الذكاء الاصطناعي. هذا يرجع إلى حد كبير إلى أزمة المسؤولية. إذا تمكنت بطريقة ما من تحمل أخطاء من النوع الأول ، أي الضربات الملغاة بشكل غير صحيح على العدو ، فعندئذٍ مع أخطاء من النوع الثاني ، يكون كل شيء أكثر تعقيدًا. في الحالة الأخيرة ، تقرر الآلة إما "نيران صديقة" (نيران صديقة) ، أو تدمير المدنيين ، أي ارتكاب جريمة حرب.
في هذه الحالة ، ليس من الواضح تمامًا من المسؤول عن مثل هذا الفعل - مطور البرامج أو القائد الذي أمر باستخدام النظام.
يوجد وضع مماثل في صناعة السيارات ، التي كانت تحلم بطائرات بدون طيار مستقلة تمامًا لعدة عقود. تم تطوير تصنيف لمستويات الأتمتة بحيث يمكن تطبيقه تمامًا على المجال العسكري.
عند مستوى الصفر ، تكون السيارة UAZ-496 مشروطة ، حيث يتم التحكم في كل شيء من قبل السائق ولا يوجد مساعدين ميكاترونيك - ESP ، ABS ، إلخ.
على أعلى مستوى ، لا تحتوي الطائرة بدون طيار على عجلة قيادة (أو يتم تثبيتها كخيار مدفوع). وفي جميع الحالات ، يتحكم الطيار الآلي في الحركة. حاليًا ، تمكنت شركة هوندا اليابانية فقط من التصديق على الطيار الآلي للإنتاج من المستوى XNUMX.
تقنية "الأتمتة المشروطة" هذه غير قادرة على السيطرة في المواقف الخطرة. وفي ظل الظروف العادية ، لا يعمل دائمًا. يقوم نظام Traffic Jam Pilot بقيادة السيارة تلقائيًا في الاختناقات المرورية ، ويبقيها داخل الممر على الطريق السريع ويتجاوز. يمكنك رفع يديك عن عجلة القيادة ، لكن لا يمكنك النظر بعيدًا عن الطريق - فالكاميرات تراقب ذلك. الطيار الآلي من المستوى الثالث مكلف للغاية ويزيد التكلفة النهائية للسيارة بمقدار مرة ونصف.
في الوقت نفسه ، يجدر بنا أن نتذكر أنه يمكن بالفعل إدخال الطيار الآلي بشكل كامل في الإنتاج الضخم. وسوف يقللون بشكل خطير من معدل الوفيات على الطرق. لكن المشاكل القانونية والأخلاقية الناجمة عن الأخطاء (بما في ذلك الأخطاء القاتلة) للذكاء الاصطناعي تضع شركات السيارات في طريق مسدود.
لا ينبغي تسليح الذكاء الاصطناعي
في المجال العسكري ، فإن الوضع مع تطوير أنظمة قتالية مستقلة تمامًا بعيدًا عن المثالية.
ولا يتعلق الأمر حتى بالجانب التقني للقضية.
من ناحية أخرى ، يشير الخبراء المتشككون إلى القدرة المحتملة لأنظمة التعلم الذاتي القائمة على الشبكات العصبية لتقديم ضربات استباقية. على سبيل المثال ، سيرى الذكاء الاصطناعي نقطة ضعف حقيقية أو خيالية في العدو - لماذا لا يكون هذا سببًا لتوجيه الضربة الأولى لنزع السلاح؟ بالإضافة إلى ذلك ، فإن جميع "العقول الاصطناعية" عرضة للمنافسة وغياب عناصر التفكير النقدي ، وهو ما لا يضيف أيضًا ثقة من جانب الشخص.
يحث المحللون من مؤسسة RAND بشكل عام على عدم الوثوق بالقرارات العسكرية الاستراتيجية للذكاء الاصطناعي في أي حال - لا في الحاضر ولا في المستقبل. إذا كان لا يزال من الممكن التوفيق بين العديد من غير المقاتلين الذين دمرهم خطأ الذكاء الاصطناعي ، فسيكون كل شيء أكثر مأساوية عند تطبيقه على قوى الردع النووي.
ليس كل شيء بهذه البساطة ومع العمليات التكتيكية سلاح تسيطر عليها منظمة العفو الدولية.
دعنا نعود إلى اللقطات من ناغورنو كاراباخ ، والتي أظهرت بوضوح التفوق التقني للطائرات بدون طيار الهجومية على الأسلحة التقليدية. هنا أدرك الجميع أنه لا يوجد في السماء سوى آلات يتم التحكم فيها عن بُعد ، وإن كانت متطورة جدًا.
ماذا سيكون رد فعل الجمهور إذا نفذت الإضرابات بواسطة بيرقدار المتمتعة بالحكم الذاتي بالكامل؟
متى ستعيش منظمة العفو الدولية على الهواء للعالم كله يقتل الناس ، وإن كان ذلك بالسلاح في أيديهم؟
لم يتم حل الجانب الأخلاقي للقضية بعد. ومن غير المحتمل أن يُسمح به في المستقبل القريب.

المصدر: mil.ru
بشكل عام ، الروبوتات في الجيش جيدة بالطبع.
إنها تسمح لك بسحب الجنود من نيران العدو المباشرة ، ونقل جميع الأعمال إلى الوحدات القتالية على جهاز التحكم عن بعد. يتم تقليل الخسائر والتكاليف. ويبدو أن الحرب أصبحت أكثر إنسانية.
الروبوتات المستقلة بالكامل في المجال العسكري أو نظام الأسلحة الفتاك المستقل لا يتعلق بالإنسانية وتقليل الخسائر على الإطلاق. تجعل الشبكات العصبية للتعلم العميق الحرب أسرع بكثير وبإصابات أكثر. في الواقع ، هذا هو بالضبط ما ضمنته الثورتان العسكريتان السابقتان في الشؤون العسكرية - البارود والنووي.
هذا مفهوم من قبل العديد من الشركات المدنية المشاركة مع الدولة في مشاريع الدفاع.
لذلك ، في عام 2018 ، انسحبت Google من مشروع Maven المربح للغاية والذي تبلغ قيمته أكثر من 7,5 مليار دولار. عمل متخصصون من Silicon Valley ، جنبًا إلى جنب مع DARPA ، على برنامج لمعالجة مصفوفات الفيديو والصور من المعلومات من العديد من المعلومات الاستخبارية طائرات بدون طيار. تمت معالجة البيانات بواسطة شبكة عصبية. وأعطى المشغل "مكتبة الأهداف" حسب الأولوية للتدمير. جوجل خارج قصص. والآن تحاول داربا التأقلم من تلقاء نفسها.
أحد الجوانب المهمة للذكاء الاصطناعي في الجيش هو استخدامه في حرب المعلومات.
يمكن القول بدرجة معينة من اليقين أنه في المستقبل القريب جدًا ، سوف تمطر الولايات المتحدة ببساطة المزيد من الكشف عن روسيا والصين (إلى حد أكبر) في تطوير الذكاء الاصطناعي القتالي. إذا لم يكن من الممكن إقناع الجمهور في الداخل بالحاجة إلى عقل عسكري مستقل ، فإننا سنخيفهم من الأعداء الخارجيين. اشتهر البنتاغون بهذا المنطق منذ العصور القديمة. لنفترض أنهم يعملون بالفعل على الذكاء الاصطناعي على أكمل وجه ، وهنا لا يمكننا التعامل مع أخلاقنا.
وأخيرًا ، تبدو الاستجابات غير المتكافئة لتهديدات الذكاء الاصطناعي القتالية واعدة جدًا. الآن تكتسب تقنيات إخفاء الأشياء من أعين الذكاء الاصطناعي التي ترى كل شيء وحتى التحريف المتعمد زخمًا.
بينما يعمل الذكاء الاصطناعي بشكل مقبول في ظروف سلمية ، عندما يتم تقديم المعلومات على طبق من الفضة.
من السيء جدًا العمل ببيانات غير كاملة وصاخبة. لذلك ، فإن محاولات تضليل ذكاء الآلة ببيانات مصححة عمدًا تبدو منطقية تمامًا. عندما يتم قياس وقت رد فعل الذكاء الاصطناعي المسلح بالثواني ولا يعتمد على رأي شخص ما ، يمكن أن تؤدي هذه المعلومات الخاطئة إلى عواقب يصعب التنبؤ بها.
من الأفضل إلغاء الثورة العسكرية الثالثة بطريقة جيدة.
أو تطوير تدابير تقييدية مشتركة لتطوير واستخدام الذكاء الاصطناعي في المجال العسكري. هل تمكنت من فعل شيء مشابه في حالة الأسلحة النووية؟