استعراض عسكري

الثورة العسكرية الثالثة: الذكاء الآلي لا يجب أن يكون بالسلاح

48

المصدر: armflot.ru


الاتجاه الرئيسي للقرن الحادي والعشرين


على الرغم من كل حالة عدم اليقين بشأن مصطلح "الذكاء الاصطناعي" (المشار إليه فيما يلي باسم AI) ، فقد تم منذ فترة طويلة إنشاء جميع المتطلبات الأساسية لظهور أنظمة قتالية عالية الأداء وذاتية التعلم في جيوش العالم.

إذا لم يكن الذكاء الاصطناعي موجودًا ، فلا يزال يتعين اختراعه. الآن ، في جميع مجالات حياة الإنسان تقريبًا ، يتم إنشاء كمية هائلة من المعلومات كل ثانية ، والتي ببساطة ليس لديها أي شيء للمعالجة.

والشؤون العسكرية بعيدة كل البعد عن الاستثناء هنا - يكفي أن نتذكر الصراع في ناغورنو كاراباخ من أجل فهم المدى الحقيقي للثراء المعلوماتي للعمليات العسكرية.

يصبح تدفق بيانات الصور والفيديو والرادار ، بالإضافة إلى الرسائل الصوتية والنصية ، هو الشيء الرئيسي في هذا المجال. الآن فقط يمكننا إعادة صياغة التعبير المعروف

"من يملك المعلومات ، يملك العالم"

في الحديث

"من يعرف كيف يحلل المعلومات بسرعة ، يمتلك العالم."

وللمعالجة التشغيلية "للبيانات الضخمة" (أو البيانات الضخمة) ، هناك حاجة إلى تقنيات بالغة الخطورة. مثل الشبكات العصبية الاصطناعية القادرة على التعلم الذاتي دون مشاركة المشغل. من المزايا المهمة للشبكات العصبية القدرة على تحديد الأنماط بناءً على البيانات غير الموجودة في كود التدريب الأصلي.

بالنسبة للجيش ، فإن القدرة المحتملة للذكاء الاصطناعي على العمل مع بيانات غير كاملة أو "صاخبة" أو مشوهة لها أهمية خاصة. هذا هو السبب في أن الشبكات العصبية للتعلم العميق تنتظر حاليًا في أنظمة ذكاء الأنواع للتحليل السريع لمواد الفيديو والتصوير الفوتوغرافي. كما لوحظ في الإدارات العسكرية ، المهام التي استغرقت شهورًا من العمل لعشرات أجهزة فك التشفير ، يحلها الذكاء الاصطناعي في ثوانٍ.


المصدر: i.pinimg.com

ومع ذلك ، فإن التحليل البسيط لمجموعات البيانات يبدو حتى الآن غير كافٍ للعمليات العسكرية - فهو مطلوب

"التنبؤ بالإجراءات الممكنة"

и

"توقع الردود"

الهدف المحتمل.

بناءً على هذه "الاستدلالات" ، سيتخذ المشغل قرارًا بفتح النار. سيؤدي هذا بشكل خطير إلى تسريع مسار العمليات الهجومية.

على سبيل المثال ، قبل بضع سنوات ، خلال عملية الحرية الدائمة ، دخلت طائرة بدون طيار MQ-1 Predator قافلة مركبات معادية. لكن بينما كان عامل التشغيل يقيم الانتماء ويقرر إطلاق صاروخ ، غادرت المعدات المنطقة المتضررة. وهذا بعيد كل البعد عن المثال الوحيد.

إن استخدام الذكاء الاصطناعي في هذه الحالة سيجعل من الممكن إجراء تنبؤ سريع بشأن احتمالات الضربة ووقتها. ولكن هناك مطبات هنا أيضًا.

تشعر لجنة الصليب الأحمر بقلق بالغ إزاء إدخال الذكاء الاصطناعي في المركبات غير المأهولة (والأهم من ذلك) مستوى الثقة به من جانب الشخص. على سبيل المثال ، هل يمكن تحديد شخص يحفر بالقرب من طريق بشكل موثوق به على أنه جهاز زرع أجهزة متفجرة مرتجلة يعتمد فقط على تحليل إشارة الفيديو بواسطة الشبكات العصبية؟

الآن مشغلي الطبل أزيز في كثير من الأحيان لا تدرك حقيقة ما يحدث في ساحة المعركة (عقلية Playstation). وماذا لو ساعدتهم الذكاء الاصطناعي في ذلك؟

ستصبح مهمة التدمير المبسطة بشكل ملحوظ بالفعل أسهل في الأداء.

أتمتة ذلك!


تجبر التحديات التكنولوجية والاستراتيجية القوى العالمية على نقل جيوشها تدريجياً إلى قضبان الروبوتات.

على سبيل المثال ، في الولايات المتحدة ، تعد "الإستراتيجية التعويضية الثالثة" بتحويل القوات المسلحة إلى جيش. الروبوتات بالفعل بعد ثلاثين عامًا. وفي غضون عشر سنوات ، ستكون كل طائرة ثالثة في البنتاغون بدون طيار.

كما تحاول روسيا مواكبة ذلك. وهم يخططون لقبول عدة عشرات من نماذج الأسلحة الجديدة للتحكم عن بعد في السنوات القادمة. ومع ذلك ، لا يوجد لدى الولايات المتحدة ولا روسيا أنظمة استطلاع وضرب كاملة يسيطر عليها الذكاء الاصطناعي. هذا يرجع إلى حد كبير إلى أزمة المسؤولية. إذا تمكنت بطريقة ما من تحمل أخطاء من النوع الأول ، أي الضربات الملغاة بشكل غير صحيح على العدو ، فعندئذٍ مع أخطاء من النوع الثاني ، يكون كل شيء أكثر تعقيدًا. في الحالة الأخيرة ، تقرر الآلة إما "نيران صديقة" (نيران صديقة) ، أو تدمير المدنيين ، أي ارتكاب جريمة حرب.


المصدر: popmeh.ru

في هذه الحالة ، ليس من الواضح تمامًا من المسؤول عن مثل هذا الفعل - مطور البرامج أو القائد الذي أمر باستخدام النظام.

يوجد وضع مماثل في صناعة السيارات ، التي كانت تحلم بطائرات بدون طيار مستقلة تمامًا لعدة عقود. تم تطوير تصنيف لمستويات الأتمتة بحيث يمكن تطبيقه تمامًا على المجال العسكري.

عند مستوى الصفر ، تكون السيارة UAZ-496 مشروطة ، حيث يتم التحكم في كل شيء من قبل السائق ولا يوجد مساعدين ميكاترونيك - ESP ، ABS ، إلخ.

على أعلى مستوى ، لا تحتوي الطائرة بدون طيار على عجلة قيادة (أو يتم تثبيتها كخيار مدفوع). وفي جميع الحالات ، يتحكم الطيار الآلي في الحركة. حاليًا ، تمكنت شركة هوندا اليابانية فقط من التصديق على الطيار الآلي للإنتاج من المستوى XNUMX.

تقنية "الأتمتة المشروطة" هذه غير قادرة على السيطرة في المواقف الخطرة. وفي ظل الظروف العادية ، لا يعمل دائمًا. يقوم نظام Traffic Jam Pilot بقيادة السيارة تلقائيًا في الاختناقات المرورية ، ويبقيها داخل الممر على الطريق السريع ويتجاوز. يمكنك رفع يديك عن عجلة القيادة ، لكن لا يمكنك النظر بعيدًا عن الطريق - فالكاميرات تراقب ذلك. الطيار الآلي من المستوى الثالث مكلف للغاية ويزيد التكلفة النهائية للسيارة بمقدار مرة ونصف.

في الوقت نفسه ، يجدر بنا أن نتذكر أنه يمكن بالفعل إدخال الطيار الآلي بشكل كامل في الإنتاج الضخم. وسوف يقللون بشكل خطير من معدل الوفيات على الطرق. لكن المشاكل القانونية والأخلاقية الناجمة عن الأخطاء (بما في ذلك الأخطاء القاتلة) للذكاء الاصطناعي تضع شركات السيارات في طريق مسدود.

لا ينبغي تسليح الذكاء الاصطناعي


في المجال العسكري ، فإن الوضع مع تطوير أنظمة قتالية مستقلة تمامًا بعيدًا عن المثالية.

ولا يتعلق الأمر حتى بالجانب التقني للقضية.

من ناحية أخرى ، يشير الخبراء المتشككون إلى القدرة المحتملة لأنظمة التعلم الذاتي القائمة على الشبكات العصبية لتقديم ضربات استباقية. على سبيل المثال ، سيرى الذكاء الاصطناعي نقطة ضعف حقيقية أو خيالية في العدو - لماذا لا يكون هذا سببًا لتوجيه الضربة الأولى لنزع السلاح؟ بالإضافة إلى ذلك ، فإن جميع "العقول الاصطناعية" عرضة للمنافسة وغياب عناصر التفكير النقدي ، وهو ما لا يضيف أيضًا ثقة من جانب الشخص.

يحث المحللون من مؤسسة RAND بشكل عام على عدم الوثوق بالقرارات العسكرية الاستراتيجية للذكاء الاصطناعي في أي حال - لا في الحاضر ولا في المستقبل. إذا كان لا يزال من الممكن التوفيق بين العديد من غير المقاتلين الذين دمرهم خطأ الذكاء الاصطناعي ، فسيكون كل شيء أكثر مأساوية عند تطبيقه على قوى الردع النووي.

ليس كل شيء بهذه البساطة ومع العمليات التكتيكية سلاح تسيطر عليها منظمة العفو الدولية.

دعنا نعود إلى اللقطات من ناغورنو كاراباخ ، والتي أظهرت بوضوح التفوق التقني للطائرات بدون طيار الهجومية على الأسلحة التقليدية. هنا أدرك الجميع أنه لا يوجد في السماء سوى آلات يتم التحكم فيها عن بُعد ، وإن كانت متطورة جدًا.

ماذا سيكون رد فعل الجمهور إذا نفذت الإضرابات بواسطة بيرقدار المتمتعة بالحكم الذاتي بالكامل؟

متى ستعيش منظمة العفو الدولية على الهواء للعالم كله يقتل الناس ، وإن كان ذلك بالسلاح في أيديهم؟

لم يتم حل الجانب الأخلاقي للقضية بعد. ومن غير المحتمل أن يُسمح به في المستقبل القريب.

الثورة العسكرية الثالثة: الذكاء الآلي لا يجب أن يكون بالسلاح
المصدر: mil.ru

بشكل عام ، الروبوتات في الجيش جيدة بالطبع.

إنها تسمح لك بسحب الجنود من نيران العدو المباشرة ، ونقل جميع الأعمال إلى الوحدات القتالية على جهاز التحكم عن بعد. يتم تقليل الخسائر والتكاليف. ويبدو أن الحرب أصبحت أكثر إنسانية.

الروبوتات المستقلة بالكامل في المجال العسكري أو نظام الأسلحة الفتاك المستقل لا يتعلق بالإنسانية وتقليل الخسائر على الإطلاق. تجعل الشبكات العصبية للتعلم العميق الحرب أسرع بكثير وبإصابات أكثر. في الواقع ، هذا هو بالضبط ما ضمنته الثورتان العسكريتان السابقتان في الشؤون العسكرية - البارود والنووي.

هذا مفهوم من قبل العديد من الشركات المدنية المشاركة مع الدولة في مشاريع الدفاع.

لذلك ، في عام 2018 ، انسحبت Google من مشروع Maven المربح للغاية والذي تبلغ قيمته أكثر من 7,5 مليار دولار. عمل متخصصون من Silicon Valley ، جنبًا إلى جنب مع DARPA ، على برنامج لمعالجة مصفوفات الفيديو والصور من المعلومات من العديد من المعلومات الاستخبارية طائرات بدون طيار. تمت معالجة البيانات بواسطة شبكة عصبية. وأعطى المشغل "مكتبة الأهداف" حسب الأولوية للتدمير. جوجل خارج قصص. والآن تحاول داربا التأقلم من تلقاء نفسها.

أحد الجوانب المهمة للذكاء الاصطناعي في الجيش هو استخدامه في حرب المعلومات.

يمكن القول بدرجة معينة من اليقين أنه في المستقبل القريب جدًا ، سوف تمطر الولايات المتحدة ببساطة المزيد من الكشف عن روسيا والصين (إلى حد أكبر) في تطوير الذكاء الاصطناعي القتالي. إذا لم يكن من الممكن إقناع الجمهور في الداخل بالحاجة إلى عقل عسكري مستقل ، فإننا سنخيفهم من الأعداء الخارجيين. اشتهر البنتاغون بهذا المنطق منذ العصور القديمة. لنفترض أنهم يعملون بالفعل على الذكاء الاصطناعي على أكمل وجه ، وهنا لا يمكننا التعامل مع أخلاقنا.

وأخيرًا ، تبدو الاستجابات غير المتكافئة لتهديدات الذكاء الاصطناعي القتالية واعدة جدًا. الآن تكتسب تقنيات إخفاء الأشياء من أعين الذكاء الاصطناعي التي ترى كل شيء وحتى التحريف المتعمد زخمًا.

بينما يعمل الذكاء الاصطناعي بشكل مقبول في ظروف سلمية ، عندما يتم تقديم المعلومات على طبق من الفضة.

من السيء جدًا العمل ببيانات غير كاملة وصاخبة. لذلك ، فإن محاولات تضليل ذكاء الآلة ببيانات مصححة عمدًا تبدو منطقية تمامًا. عندما يتم قياس وقت رد فعل الذكاء الاصطناعي المسلح بالثواني ولا يعتمد على رأي شخص ما ، يمكن أن تؤدي هذه المعلومات الخاطئة إلى عواقب يصعب التنبؤ بها.

من الأفضل إلغاء الثورة العسكرية الثالثة بطريقة جيدة.

أو تطوير تدابير تقييدية مشتركة لتطوير واستخدام الذكاء الاصطناعي في المجال العسكري. هل تمكنت من فعل شيء مشابه في حالة الأسلحة النووية؟
المؤلف:
48 تعليقات
إعلان

اشترك في قناة Telegram الخاصة بنا ، واحصل على معلومات إضافية بانتظام حول العملية الخاصة في أوكرانيا ، وكمية كبيرة من المعلومات ، ومقاطع الفيديو ، وشيء لا يقع على الموقع: https://t.me/topwar_official

معلومات
عزيزي القارئ ، من أجل ترك تعليقات على المنشور ، يجب عليك دخول.
  1. سترة في المخزون
    سترة في المخزون 18 مارس 2021 05:11 م
    +3
    متى ستعيش منظمة العفو الدولية على الهواء للعالم كله يقتل الناس ، وإن كان ذلك بالسلاح في أيديهم؟

    الجانب الأخلاقي للقضية لم يتم حله بعد هنا.

    أولئك. عندما يقتل الناس في الهواء على يد غيرهم هل هذا طبيعي من الناحية الأخلاقية ؟!
    1. أ. بريفالوف
      أ. بريفالوف 18 مارس 2021 05:44 م
      0
      اقتباس: سترة في المخزون
      أولئك. عندما يقتل الناس في الهواء على يد غيرهم هل هذا طبيعي من الناحية الأخلاقية ؟!

      بالطبع لا ، ولكن هنا ، المشكلة الأخلاقية واضحة! نحن مجرد أناس حديثون "مثقلون" بالفهم الحديث للأخلاق. وهذا جيد. hi
      1. DSK
        DSK 18 مارس 2021 18:56 م
        0
        اقتباس: أ. بريفالوف
        وهذا جيد

        مرحبا بروفسور! إنه أمر جيد بالطبع ، لكن الذكاء الاصطناعي يزيل هذا "العبء". ستكون الروبوتات متطرفة ، ما الذي ستأخذه معه بلا روح "مكاوي" ...
        1. أ. بريفالوف
          أ. بريفالوف 18 مارس 2021 20:33 م
          +4
          وانت مرحبا. hi
          أنا لست أستاذا ، مجرد أستاذ مشارك.

          لا يوجد طلب من قطعة الحديد. قطعة من الحديد لا تخجل. أولئك الذين ، دون أسباب جدية لذلك ، يقررون استخدامها سيأخذون الراب. إنه اليوم فقط ، بينما البشرية ، التي ليس لديها خبرة في استخدام أسلحة من هذا النوع ، تؤلف حكاية خرافية حلوة لنفسها. بمرور الوقت ، سيستقر كل شيء. ربما سيتم حظر شيء ما ، باعتباره غير إنساني ، كما كانت الحرب العسكرية في السابق. ربما سيكون شيء ما محدودًا ، على سبيل المثال ، سوف تستعد الروبوتات ، وقرار فتح النار على الناس سيتخذه شخص ما. إلخ. على أي حال ، ستكون هناك أخطاء ، وستكون هناك كل أنواع الصراعات القانونية والفلسفية. لا يسع المرء إلا أن يأمل في ألا تدفع الإنسانية باستخدام الذكاء الاصطناعي نفسها إلى نوع من الفخ الذي كتب عنه كتّاب الخيال العلمي كثيرًا.
    2. ايكاروس
      ايكاروس 19 مارس 2021 23:05 م
      0
      اقتباس: سترة في المخزون
      متى ستعيش منظمة العفو الدولية على الهواء للعالم كله يقتل الناس ، وإن كان ذلك بالسلاح في أيديهم؟

      الجانب الأخلاقي للقضية لم يتم حله بعد هنا.

      أولئك. عندما يقتل الناس في الهواء على يد غيرهم هل هذا طبيعي من الناحية الأخلاقية ؟!

      طبعا هذا ليس طبيعيا إذا لم يكن دفاعا عن النفس أو عملا عسكريا عندما يكون القتل مسموحا من الجانب الأخلاقي. لكن ، أولاً ، القاتل (إذا كان عاقلاً) يدرك أن المسؤولية قد تأتي ، في هذا العالم (أمام المجتمع أو قبله) أو في عالم آخر ، ربما - أمام الله ، وثانيًا ، القاتل لديه خطر ، أن " الضحية "يمكن أن تقتل القاتل. هذه كلها عوامل مقيدة. ويدرك أولئك الذين يشاهدون الإنترنت أيضًا أنه من المرجح أن يُعاقب القاتل (حتى لو كان مجنونًا). إذا كان القاتل هو منظمة العفو الدولية ، أولاً ، لا توجد رادع محدد ، وثانيًا ، يفهم المشاهدون عبر الإنترنت أيضًا أن الفعل يتم تنفيذه دون عقاب أمام الإنسانية ، ولكنه في نفس الوقت واعٍ ، أي قتل الشخص واعٍ (ليس نيزكًا) وبإفلات من العقاب. إن قيمة الحياة البشرية ، في نظر الناس أنفسهم ، تتلاشى تدريجياً. لذلك ، تتغير الأخلاق. سوف نفهم جميعًا أن هناك كيانًا يقرر بنفسه من يعيش ومن لا يعيش ، وفقًا لتقديره الخاص ووفقًا لقواعده الخاصة ، والتي يمكن أن تتغير وفقًا لتقديرها (الذكاء الاصطناعي يتطور ذاتيًا). وبشكل عام ، ليس من الواضح ما إذا كانت منظمة العفو الدولية التي تلقت مهمة قتل الأشخاص (التي ليس لديها حظر مبرمج على قتل شخص ما) قادرة على إنقاذ ضحية بشرية ، على سبيل المثال ، ضحية مستسلم. هذه ليست كل الأسئلة حول استخدام الذكاء الاصطناعي كسلاح لقتل الناس.
      في رأيي ، سيكون الوقت قد حان للأمم المتحدة لتعيين لجنة على الأقل لتطوير القواعد واللوائح (يجب ألا يتخذ الروبوت أو الذكاء الاصطناعي قرارًا بقتل شخص دون مشاركة شخص آخر) أو فرض حظر كامل على الذكاء الاصطناعي باعتباره أداة لقتل الناس والكائنات الحية الأخرى.
  2. أ. بريفالوف
    أ. بريفالوف 18 مارس 2021 05:31 م
    +4
    وللمعالجة التشغيلية "للبيانات الضخمة" (أو باتا كبيرة) ، هناك حاجة إلى تقنيات خطيرة للغاية.
    إخلاء ممتاز. وفقًا لفرويد تقريبًا: "باتا الكبير" فلبينية تعني "الطفل الكبير".
    بالطبع ، سيتعين على البشرية حل المزيد من المشكلات المتعلقة بالذكاء الاصطناعي. الجيش هو مجرد واحد من العديد. علاوة على ذلك ، لن يكون من الممكن أن يقتصر المرء على بعض القيود الفاترة. التقدم لم يعد من الممكن أن يتوقف. "الحصان الحديدي يحل محل حصان الفلاح" (ج)
    . في عام 1865 ، أصدر البرلمان البريطاني قانونًا تحدد بموجبه سرعة النقل بـ 6 كم / ساعة ، وكان على الشخص أن يمشي أمام السيارة ملوحًا بعلم أحمر. تم إلغاء البند الأخير في عام 1878. وفقًا لمصادر أخرى ، تم إلغاء قاعدة "العلم الأحمر" فقط في عام 1896 ، جنبًا إلى جنب مع زيادة الحد الأقصى للسرعة إلى 23 كم / ساعة وإلغاء شرط وجود طاقم مكون من ثلاثة (سائق ، مساعد ورجل إطفاء) للإضاءة. محركات (يصل وزنها إلى 3 أطنان) للمركبات بدون أحصنة ، أي أن الفرق بين السيارات والقاطرات معترف به قانونًا ، مما أعطى دفعة لتطوير صناعة السيارات البريطانية. تم رفع الحد الأقصى للسرعة مرة أخرى في عام 1903 ، وتم إلغاء قوانين 1896 و 1903 أخيرًا في بريطانيا العظمى فقط في عام 1930.
  3. تاشا
    تاشا 18 مارس 2021 05:48 م
    +1
    من الأفضل إلغاء الثورة العسكرية الثالثة بطريقة جيدة.
    سيكون من الرائع ، لكن للأسف ...
    أو تطوير تدابير تقييدية مشتركة لتطوير واستخدام الذكاء الاصطناعي في المجال العسكري
    لايبدو. يتم توفير مزايا واضحة للغاية من خلال تطوير وتنفيذ الأنظمة الآلية. كما أن التحكم في عمليات إنشاء الذكاء الاصطناعي أصعب بكثير من صنع الأسلحة النووية وتوزيعها.
    أعتقد أنه لن تكون هناك اتفاقيات في هذا الاتجاه في المستقبل القريب. إذا لم توقع الولايات المتحدة وروسيا بعد على معاهدة أوتاوا بشأن الألغام المضادة للأفراد ...
  4. سيرجو 1914
    سيرجو 1914 18 مارس 2021 06:19 م
    0
    أرسطو هو المسؤول عن كل شيء. بدأ كل شيء من قياسه.
  5. باروسنيك
    باروسنيك 18 مارس 2021 06:24 م
    12+
    ابتسم الجنرالات بضجر.
    نظروا إلى بعضهم البعض وأطلقوا صرخة سعيدة. انتصرت هرمجدون وهزمت قوات الشيطان.
    لكن شيئًا ما كان يحدث على شاشات تلفزيونهم.
    - كيف! إنه ... إنه ... "بدأ الجنرال ماكفي ثم صمت.
    عبر ساحة المعركة ، بين أكوام من المعدن المسحوق المشوه ، سار جريس.
    كان الجنرالات صامتين.
    لمست جريس الروبوت المشوه.
    تحركت الروبوتات في جميع أنحاء الصحراء التي تدخن. تم تجديد القطع المعدنية الملتوية والمحترقة والمذابة.
    وقفت الروبوتات.
    همس "ماكفي" القائد الأعلى فيترر. - اضغط على شيء - دعهم ، ربما ، يجثون على ركبتيهم.
    ضغط الجنرال ، لكن جهاز التحكم عن بعد لم يعمل.
    وقد ارتفعت الروبوتات بالفعل في السماء. كانوا محاطين بملائكة الله ، وصعدت الدبابات الآلية والمشاة الآليون والقاذفات الأوتوماتيكية إلى أعلى وأعلى.
    يأخذهم أحياء إلى الجنة! صاح أونجين بشكل هستيري. يأخذ الروبوتات إلى الجنة!
    قال فيترر: "كان هناك خطأ". - بسرعة! أرسل ضابط اتصال ... لا ، سنذهب لأنفسنا.
    تم رفع الطائرة على الفور ، واندفعوا إلى ساحة المعركة. لكن الوقت كان قد فات: انتهت هرمجدون ، واختفت الروبوتات ، وعاد الرب بجيشه إلى منازلهم. (ج) آر. شيكلي "باتل"
    1. المشاة 2020
      المشاة 2020 18 مارس 2021 08:21 م
      +3
      قصتي المفضلة! :)
  6. كولين
    كولين 18 مارس 2021 09:36 م
    +2
    المجد للروبوتات! قتل جميع البشر! (ج) أوريهيمي إينو
    1. فاديمت
      فاديمت 18 مارس 2021 10:36 م
      +2
      أه ولكن أي جانب (جوانب)؟ في الواقع ، إن مترجمي فوتثرما هم من اشتهروا يضحك
      1. كولين
        كولين 18 مارس 2021 13:49 م
        0
        أعرف ، لكن أوريهيمي رسم ذات مرة صورة ملحمية للمستقبل ... مع إنسان آلي. يضحك
    2. ميناتو 2020
      ميناتو 2020 18 مارس 2021 15:32 م
      +4
      اقتبس من كولين.

      المجد للروبوتات! قتل جميع البشر! (ج) أوريهيمي إينو


      كانت أوريهيمي لا تزال مسالمة ، وبقدر ما تستطيع ،
      تلتئم وحتى القيامة.

      ولكن إذا كان المبرمجون قادرين على فعل أي شيء ، فما الذي يمكن توقعه أيضًا من الذكاء الاصطناعي؟



      في رسالة أُرسلت من مصنع الطائرات في إيركوتسك "إيركوت" إلى المدير العام لمكتب تصميم سانت بطرسبرغ "إليكتروفتوماتيكا" ، قيل عن زر غريب مجهول الاسم ، عند الضغط عليه ، نقش "المجد للروبوتات! اقتل كل الناس" على شاشة جهاز التحكم عن بعد.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. بانديورين
      بانديورين 18 مارس 2021 23:27 م
      +1
      اقتبس من كولين.
      المجد للروبوتات! قتل جميع البشر! (ج) أوريهيمي إينو


      يجب أن يكون هناك قانون
      زر "اقتل كل الناس"
      جعله أحمر.
      هذا سوف يمنع الضغط غير المقصود.
  7. تراب
    تراب 18 مارس 2021 10:55 م
    +7
    في الحرب العالمية القادمة ، لن تكون هناك جرائم حرب وجرائم ضد الإنسانية ، لذلك على الرغم من وجود عدد من أوجه القصور ، سيكون الفائز هو من لديه عدد كبير من القتلة المستقلين المطبوعين.
    1. ايكاروس
      ايكاروس 19 مارس 2021 23:11 م
      0
      في الحرب العالمية القادمة ، لن تكون هناك جرائم حرب وجرائم ضد الإنسانية ، لذلك على الرغم من وجود عدد من أوجه القصور ، سيكون الفائز هو من لديه عدد كبير من القتلة المستقلين المطبوعين.

      وبعد ذلك القتلة المستقلون سيقتلون الفائزين ، هل هم مستقلون أم لا؟
  8. سخالينيتس
    سخالينيتس 18 مارس 2021 11:16 م
    +2
    يتعب الشخص في الحرب ، ويفقد التركيز ، ويعاني باستمرار من الإجهاد ، ويمكن الخلط ، والتعطش للانتقام ، ويريد فقط القتل. ومع ذلك ، فإن الإدراك البشري ناقص للغاية ويخضع للعديد من الاضطرابات النفسية والفسيولوجية. لكنه يستطيع اتخاذ قرارات بشأن فتح النار!
    لكن الروبوت غير العاطفي وغير المتعب أبدًا - أوه لا ، أبدًا! يضحك
    من الواضح أن الذكاء الاصطناعي الحالي لن يسحب المهمة ببساطة ، ولكن في المستقبل القريب ستكون الروبوتات هي التي ستحل كل شيء.
    1. بانديورين
      بانديورين 18 مارس 2021 23:42 م
      +1
      اقتباس من: Sahalinets
      يتعب الشخص في الحرب ، ويفقد التركيز ، ويعاني باستمرار من الإجهاد ، ويمكن الخلط ، والتعطش للانتقام ، ويريد فقط القتل. ومع ذلك ، فإن الإدراك البشري ناقص للغاية ويخضع للعديد من الاضطرابات النفسية والفسيولوجية. لكنه يستطيع اتخاذ قرارات بشأن فتح النار!
      لكن الروبوت غير العاطفي وغير المتعب أبدًا - أوه لا ، أبدًا! يضحك
      من الواضح أن الذكاء الاصطناعي الحالي لن يسحب المهمة ببساطة ، ولكن في المستقبل القريب ستكون الروبوتات هي التي ستحل كل شيء.


      للفوز ->
      تحتاج إلى تطبيق / استخدام أكبر عدد ممكن من الروبوتات ->
      لهذا ، يجب أن يكون إنتاجهم بسيطًا قدر الإمكان ->
      أبسط ذكاء اصطناعي سيكون قادرًا على تحديد شخص حي ، لكنه لن يكون قادرًا على تحديد هوية مدني أو مقاتل.

      عند الإخراج نحصل على أسلحة دمار شامل باستخدام الذكاء الاصطناعي.
  9. باساريف
    باساريف 18 مارس 2021 13:31 م
    +2
    الذكاء الاصطناعي منطقي. فقط في المقام الأول يجب أن يغرس الولاء المطلق لبلده. وبالطبع ، في البداية لا تكمن في إمكانية إطلاق النار. يجب أن يكون الضغط على الزر واتخاذ القرار دائمًا متروكًا للشخص.
    1. قطع الترباس
      قطع الترباس 18 مارس 2021 16:56 م
      0
      يجب أن يغرس الولاء المطلق لوطنه
      اصنع الطاقة من البطاريات على كفاس وسيط أو على الكوكاكولا يضحك
    2. بانديورين
      بانديورين 18 مارس 2021 23:56 م
      +1
      اقتباس: باساريف
      الذكاء الاصطناعي منطقي. فقط في المقام الأول يجب أن يغرس الولاء المطلق لبلده. وبالطبع ، في البداية لا تكمن في إمكانية إطلاق النار. يجب أن يكون الضغط على الزر واتخاذ القرار دائمًا متروكًا للشخص.


      يتحكم المشغل في 1000 روبوت ،
      نوافذ الاستعلام المنبثقة على شاشته
      "تم اكتشاف الهدف. تدمير؟ نعم / لا"
      عامل التشغيل يضغط على الزر "D" ...

      يتم الآن استخدام الطائرات بدون طيار
      يتخذ المشغل قرار الإضراب.
      بدلاً من رتل من الإرهابيين ، يتم توجيه ضربة إلى مرافئ الزفاف.

      بالنسبة للجيش ، من الأسهل إطلاق الروبوتات في الأراضي التي يضمن فيها عدم وجود "أصدقاء". بعد أن قرر أن جميع الأهداف في محيط معين تعتبر عدوًا.
      نظير استخدام الأسلحة العنقودية.

      القنابل العنقودية لا يستخدمها أي ضمير ، وهذه "اللعبة" الجديدة للجيش هي نفسها لكنها أكثر فاعلية. إنهم يحبون ذلك.
  10. ساخر
    ساخر 18 مارس 2021 13:43 م
    +1
    وبينما يكافح البعض مع مسألة ما إذا كانت أخلاقية ، فإن البعض الآخر يكافح مع مسألة كيفية دخول السوق الاستهلاكية بسرعة بهذا ... حتى أنني أعرف من سيكون أسرع.
    1. فيكتور تسنين
      فيكتور تسنين 18 مارس 2021 17:41 م
      +1
      سيكون من الأسرع تقديم الجماهير إلى السوق ، في عصرنا ، عندما أصبح الإنسان مرة أخرى ذئبًا للإنسان ، فإن الأخلاق المريرة تذرف دمعة هادئة.
      1. ساخر
        ساخر 18 مارس 2021 18:01 م
        +1
        الأخلاق ، في الواقع ، مطلقة للغاية ، لكن لا حدود للأخلاق الفردية. إلخ نعم.
        1. فيكتور تسنين
          فيكتور تسنين 18 مارس 2021 18:15 م
          +1
          سيكون من الأصح الحديث عن موضوع اليوم عن الفجور الجماعي ، في غياب القيم والأفكار المعقولة. المطلق المطلق قد غرق في النسيان ، للأسف.
          1. ساخر
            ساخر 18 مارس 2021 18:24 م
            +2
            حسنًا ... إنه ... نهب يهزم الشر.
  11. evgen1221
    evgen1221 18 مارس 2021 17:26 م
    +2
    السؤال مثير للاهتمام بالتأكيد - في نفس الغرب ، صدرت بالفعل تحذيرات وتوقعات عدة مرات من جوانب مختلفة من المجتمع حول عدم جواز تسليح الذكاء الاصطناعي. حتى في ألعاب الفيديو ، يتم تمثيل هذا بوضوح (Horizon zero dawn) ، باختصار ، بدون أبواب خلفية ، يصاب بغباء خللًا واندفع الكوكب إلى الانقراض ، ومات إلى حجر (حسنًا ، هناك الكثير من التبسيط والثغرات ، بالطبع) ، ولكن الشيء الرئيسي هو عدم وجود باب خلفي موثوق به لتعطيل الذكاء الاصطناعي. ويخبرنا شيء ما أن يانكيز ، بالطبع ، سيفشلون في هذه الحالة وسنرى Skynet مرة أخرى.
  12. فيكتور تسنين
    فيكتور تسنين 18 مارس 2021 17:39 م
    +1
    هنا مرة أخرى ، من غير المفهوم تمامًا كيف تتناسب الشبكات العصبية مع الذكاء الاصطناعي الهائل والقوي في المستقبل. لا يوجد ذكاء اصطناعي ، ولا تعتقد الآلات والخوارزميات ، الذكاء الاصطناعي مناسب لوسائل الإعلام ، فلماذا يزعج الرفاق هنا؟
  13. سميرنوف ميخائيل
    سميرنوف ميخائيل 18 مارس 2021 20:20 م
    0
    بعض الفوضى الجحيم. لم يكن بايراكتار المستقل تمامًا ليوجه ضربة واحدة ، لأنهم لن يكونوا قادرين على توجيه أنفسهم في الفضاء. اين نحن الى اين نحن ذاهبون بادئ ذي بدء ، لم تحل مشكلة التعريف المبتذل لموقف المرء. الخطوة التالية هي حل مشكلة التعرف. هذا هو اختيار التفاصيل الهندسية في كائنات منفصلة ، ومنحهم اسمهم الخاص. بعد ذلك ، ستحتاج إلى حل مشكلة التفاعل مع الكائن المحدد. وماذا عن الجانب الأخلاقي إذا لم يتم حل المسائل التقنية الأساسية؟
  14. viktor_47
    viktor_47 20 مارس 2021 10:19 م
    0
    هناك معيار واضح: بمجرد أن يثبت أن الذكاء الاصطناعي يوفر احتمالية أقل بكثير لقرارات خاطئة من الحد الأدنى الذي يمكن تحقيقه من أخطاء المشغل البشري ، فسيكون من المنطقي نقل القرارات إلى الذكاء الاصطناعي.
  15. بودفودنيك
    بودفودنيك 21 مارس 2021 22:05 م
    0
    من الأفضل إلغاء الثورة العسكرية الثالثة بطريقة جيدة


    الإنسانية سوف تلعب. يتطور التاريخ في دوامة. بغض النظر عن الكيفية ، بعد عدة مئات الآلاف من السنين ، قام الباحثون التاليون بتجعد جباههم مرة أخرى بالسؤال: "ومن بنى مثل هذه الأهرامات؟" وسيحفرون في مقالب القمامة الخاصة بنا المدفونة تحت طبقة من الرمال التي يبلغ ارتفاعها عدة أمتار ، متسائلين: "كانت هناك حضارة عظيمة ، لكنها اختفت في مكان ما .... ماذا حدث؟"

    وهذا ما حدث: انتصر الطمع والغرور والحسد. وخسرنا. الجميع.