الذكاء الاصطناعي. الحق في القتل
انطون بافلوفيتش تشيخوف. جناح №6
الذكاء الاصطناعي ليس جيدًا أو سيئًا بطبيعته ، ولكن يمكن استخدامه لأغراض جيدة أو سيئة (على الرغم من أن هذه التقييمات دائمًا ما تكون ذاتية للغاية و / أو مسيسة).
هناك رأي مفاده أن الذكاء الاصطناعي هو أساسًا رياضيات مقترنة بالكثير من الأفكار حول الخوارزميات. إذا اعتبرنا أن هذه الصيغة ليست صحيحة فحسب ، بل كاملة وكافية ، فإن البشرية بالتأكيد محكوم عليها بالموت. وانتفاضة الآلات (AI) هي أحد السيناريوهات التي اعتبرتها الأمم المتحدة ، بالمناسبة ، في قائمة الكوارث العالمية المحتملة.
عندما ننظر إلى الروبوت-رائد الفضاء فيودور ، من الصعب تصديق مثل هذا الاحتمال.

الصورة: صفحة Roscosmos Facebook
على الرغم من أن الروبوت فيدور يمكن أن يطلق النار بيديه ، ويجلس على خيوط ويعمل مع تمرين ، لكن على الرغم من كل هذا ، "يشعر بالوحدة الشديدة في هذا العالم". لكن في Fedor ، لم يتقارب الذكاء الاصطناعي بأكمله مثل الإسفين.
بالإضافة إلى ذلك ، نظرًا لأنه قد يكون مسيئًا لـ Roskosmos ، فلا علاقة له بالذكاء الاصطناعي على الإطلاق. هذا مجرد مناور يتحكم فيه المشغل من خلال عصا تحكم خاصة.
مقدمة
أثار أحد أبرز المفكرين في الأنظمة الإلكترونية المبكرة ، نوربرت وينر ، هذه المسألة في وقت مبكر وحذر بعبارات لا لبس فيها من المخاطر التي ينطوي عليها تطبيق العقلانية الآلية على الظروف المعقدة للوجود البشري.
لكن السيارات ذاتية القيادة تنتقل بسرعة من الخيال العلمي إلى الحقيقة العلمية. السمة المميزة لهذه التكنولوجيا هي أنها يمكن أن تعمل افتراضيًا بشكل مستقل عن التحكم البشري.
لذلك ، يجب على المجتمع أن يفهم كيف ستتخذ الآلات المستقلة "القرارات". هذه المسألة حادة بشكل خاص في الظروف التي يكون فيها الضرر أمرًا لا مفر منه ، بغض النظر عن الإجراء الذي يتم اتخاذه.
من سنضغط؟
فكرة
ما المقصود بالذكاء الاصطناعي؟
هنا ، "ويكيبيديا الروسية" بعيدة كل البعد عن المساعدة ، تمامًا مثل معظم الأعمال العلمية للعلماء الروس المكرسة للذكاء الاصطناعي.
نيكولا تسلا
وهذا لا يتعلق حتى بالإنجازات العلمية والتكنولوجية ، ولكن حول عدم اليقين المفاهيمي ، ناهيك عن الجوانب الفلسفية والأخلاقية والقضايا الأمنية المصاحبة.
لذلك ، هناك مخاوف من أن الضجة الحالية حول الذكاء الاصطناعي في وطننا لا تأخذ في الاعتبار على الأقل جوهر والعواقب المحتملة لتطوير وتنفيذ الذكاء الاصطناعي ، لا سيما في المجال العسكري.
الذكاء الاصطناعي في وسائل الإعلام الروسية
مرتجلاً - إليك بعض العناوين الأخيرة من وسائل الإعلام الفيدرالية التي تؤكد هذه الفكرة:
• تحفز برامج الدولة الإستراتيجية في مجال الذكاء الاصطناعي إنجازات العلوم الروسية.
• سوف يفكر الذكاء الاصطناعي للعلماء.
• تضم سانت بطرسبرغ الذكاء الاصطناعي.
• ستساعد تقنية Blockchain والذكاء الاصطناعي في انتخابات مجلس الدوما (على ما يبدو ، نحن نتحدث عن التصويت الإلكتروني).
والتعديلات العسكرية.
• ينشئ كلاشينكوف آلة أوتوماتيكية بذكاء اصطناعي.
• الدبابة T-14 "Armata" ستتلقى الذكاء الاصطناعي.
كل هذه العناوين ، ناهيك عن محتوى المقالات ، تثير الشكوك حتى في الذكاء الطبيعي لمؤلفيها.
الذكاء الاصطناعي في المجال المدني ، كما نرى ، خاصة بعد 19 سبتمبر ، لا يدركه المجتمع الروسي بشكل لا لبس فيه ، والناس ببساطة لا يفكرون في التطبيقات العسكرية.
على الأرجح ، لا يولد الذكاء الاصطناعي الفرص فحسب ، بل يولد أيضًا المخاطر.
خطر
الأول هو استخدام الذكاء الاصطناعي في تطوير أسلحة مستقلة. يعتقد الخبراء أنه إذا تطور سباق تسلح مستقل ، فسيكون من الصعب للغاية كبحه.
الثاني يرتبط الخطر باستخدام الذكاء الاصطناعي في مجال التلاعب بالرأي العام. تعد الشبكات الاجتماعية ، بفضل الخوارزميات التلقائية ، فعالة للغاية في التسويق المستهدف. لذلك ، يمكن أن يشارك الذكاء الاصطناعي في نشر الدعاية الأكثر إقناعًا لدائرة معينة من الناس ، بغض النظر عن مدى صحة المعلومات.
ثالث - التطفل على الخصوصية. في الوقت الحالي ، من الممكن تتبع وتحليل كل خطوة يقوم بها الشخص في حياته الخاصة والعامة. يمكن أن تتسبب آليات التحكم في الذكاء الاصطناعي في إلحاق أضرار جسيمة بالأمن والخصوصية.
رابع يرتبط التهديد بعدم التوافق بين أهداف الشخص والآلة الذكية. إذا لم يتم التعبير عن شروط أوامر معينة من قبل شخص ما ، يمكن للذكاء الاصطناعي أن يأخذها حرفياً (تذكر التصريحات المجازية لرئيسنا حول الفردوس أو "لماذا نحتاج إلى عالم لا يحب روسيا" لفهم العواقب المحتملة لتفويض الحق في قتل منظمة العفو الدولية).
خامس - تمييز طوعي أو غير طوعي. نظرًا لأن الآلات يمكنها جمع جميع البيانات المتعلقة بشخص ما ومراقبتها وتحليلها ، فمن المحتمل أن تستخدم هذه الأجهزة مثل هذه البيانات ضد شخص ما.
الموضوع لا ينضب. لذلك سنناقش الجوانب العسكرية فقط. غالبًا ما يصور الخيال العلمي الروبوتات وأنظمة الذكاء الاصطناعي الأخرى في ضوء سلبي ، مثل Terminator الذي يهاجم الناس ويتولى زمام الأمور.

صور من فيلم Terminator 3: Rise of the Machines. على الرغم من أنه تحت ستار شوارزنيجر ، يعتقد المنهي أنه ينقذ البشرية ككل ، وبالتالي فإن مئات الضحايا المصاحبين لهم ثمن مقبول.
يقول الخبراء إن العالم لن يغمر بآلات القتل الكفرة في أي وقت قريب.
قبل ذلك ، سيكون من الجيد حل المشكلات الملحة ، مثل إصلاح العيوب في الذكاء الاصطناعي والتعلم الآلي واكتشاف أفضل السبل لتنظيم التفاعل بين الإنسان والآلة.
دعونا نتفق على ماهية الروبوت - إنه نظام ذكاء اصطناعي محاط بجسم بشري.
بخلاف ذلك ، يمكنك التعامل مع هذه المصطلحات كمرادفات ، مع كل ما يترتب على ذلك من عواقب على الذكاء الاصطناعي.
قوانين الروبوتات.
تناول إسحاق أسيموف هذه القضية في الخمسينيات من القرن الماضي في سلسلة قصصه القصيرة I، Robot. اقترح ثلاثة قوانين للروبوتات.
هذه هي القوانين الثلاثة:
1. لا يمكن للروبوت أن يؤذي شخصًا أو أن عدم فعله يسمح بإيذاء شخص ما.
2. يجب أن يطيع الروبوت الأوامر الصادرة إليه من قبل الإنسان ، ما لم تكن تلك الأوامر مخالفة للقانون الأول.
3. يجب أن يعتني الروبوت بسلامته الشخصية ، لأن هذا لا يتعارض مع القانونين الأول والثاني.
(من دليل الروبوتات ، الطبعة 56 ، 2058).
على وجه الخصوص ، وفقًا للقوانين المذكورة أعلاه ، من الواضح أن الروبوتات ليست ملزمة بالعناية بالصالح العام واحترام حقوق الإنسان والحريات الأساسية.
لذلك ، في أعماله اللاحقة ، أضاف إسحاق أسيموف أيضًا قانون Zeroth ، الذي تمت صياغته على النحو التالي:
تم إنفاق الكثير من أعمال Asimov الإبداعية اللاحقة في اختبار حدود هذه القوانين لمعرفة أين يمكن أن تكسر أو تسبب سلوكًا متناقضًا أو غير متوقع.
تشير النتيجة التراكمية لكتاباته إلى أنه لا يوجد قانون واحد يمكن أن يتنبأ بشكل كاف بجميع الظروف الممكنة.
المفهوم الروسي.
اعتمد مؤلفو المفهوم ، الذي تم اعتماده في شكل مرسوم حكومة الاتحاد الروسي رقم 2129-r المؤرخ 19 أغسطس 2020 ، بشكل واضح على "قوانين الروبوتات" المذكورة أعلاه عند صياغة المعايير الأخلاقية الأساسية لل تطوير الذكاء الاصطناعي.
إليكم كيفية إعادة النظر في أعمال كتاب الخيال العلمي الأمريكيين في نص الوثيقة:
لن نأخذ في الاعتبار المجال المدني والاجتماعي لتطبيقات الذكاء الاصطناعي ، فهناك عدد كافٍ من الخبراء في هذا الجزء من المشاركين والمتعاطفين والتفكير.
نلاحظ فقط أن مفهوم الروبوت الفضائي فيودور ، الذي يطلق النار باللغة المقدونية ، يتناقض مع المفهوم أعلاه.
حول الأخلاق والروبوتات
أخلاق هي فرع من فروع الفلسفة التي تدرس السلوك البشري ، والأحكام الأخلاقية ، ومفاهيم الخير والشر ، والصواب والخطأ ، والعدالة والظلم.
يثير مفهوم الروبوتات الاعتبارات الأخلاقية الأساسية المتعلقة بالقضايا المحددة والمعضلات الأخلاقية الناتجة عن تطوير التطبيقات الروبوتية. بطبيعة الحال ، ليس الجميع.
لكن أولئك المعنيين قد برروا الادعاءات ضد المطورين ، وعلى مستوى الدولة - ضد المنافسين الجيوسياسيين الذين يتجاهلون هذه الجوانب.
علم الروبوتات - تسمى أيضًا أخلاقيات الآلة - تتعامل مع قواعد السلوك التي يجب على مهندسي تصميم الروبوتات تنفيذها في أنظمة الذكاء الاصطناعي والذكاء الاصطناعي للروبوت.
مع هذا النوع من الأخلاق الاصطناعية ، يجب أن تضمن الروبوتات أن الأنظمة المستقلة ستكون قادرة على إظهار سلوك مقبول أخلاقياً في المواقف التي تتفاعل فيها الروبوتات أو أي أنظمة أخرى مستقلة ، مثل المركبات المستقلة ، على سبيل المثال ، مع البشر.
دعونا نركز على الروبوتات والأنظمة العسكرية.
روبوتات الخدمة ، بما في ذلك السيارات والجو طائرات بدون طيار، تم تصميمها للعيش بسلام والتفاعل مع الناس ، بينما يتم إرسال الروبوتات القاتلة للقتال في ساحة المعركة كروبوتات عسكرية.
وهنا القوانين غير مناسبة!
منظمة العفو الدولية العسكرية.
في السنوات الأخيرة ، تطور الاستقلالية في أنظمة الأسلحة العسكرية بسرعة. يقوم عدد متزايد من الدول ، بما في ذلك الولايات المتحدة وبريطانيا والصين وروسيا ، بتطوير أو إنتاج أو استخدام أنظمة عسكرية بدرجات متفاوتة من الحكم الذاتي ، بما في ذلك الأنظمة الفتاكة.
يتزايد استخدام الذكاء الاصطناعي للأغراض العسكرية في كل مكان. مع الاستخدام المتزايد للذكاء الاصطناعي ، أصبح بالفعل جزءًا مهمًا من الحرب الحديثة.
مع التقدم في التعلم الآلي وقوة الحوسبة ، من المرجح أن يؤدي دمج الذكاء الاصطناعي في الأنظمة العسكرية إلى تسريع الانتقال إلى أشكال أوسع وأكثر تعقيدًا من الحكم الذاتي في المستقبل القريب.
لقد تطورت برامج البحث والتطوير الخاصة بالذكاء الاصطناعي والعسكريين معًا بشكل تقليدي ، وكان علماء التحكم الآلي وباحثو الذكاء الاصطناعي في الخمسينيات والستينيات من القرن الماضي يثيرون بالفعل أسئلة ذات صلة حول كيفية تأثير استقلالية الآلة المتزايدة على التحكم البشري في التكنولوجيا العسكرية. و أ. آي. بيرج ، المذكور في هذا الصدد في المقال السابق ، هو مثال على ذلك.
مفردات اللغة.
قبل مناقشة استراتيجية لتسريع نشر الذكاء الاصطناعي في القطاع العسكري ، من المهم تحديد ماهية الذكاء الاصطناعي فيما يتعلق بالمسائل العسكرية.
وفقًا للخبراء في هذا المجال ، فإن هذا المصطلح ليس له معنى واحد.
نظرًا لأن الأوان قد فات بالفعل ليصبح مشرعًا روسيًا ، أقترح الانضمام إلى التيار العلمي السائد بالفعل عند مناقشة المزيد من القضايا.
خلاف ذلك ، لن يفهم الذكاء الاصطناعي الخاص بنا الذكاء الاصطناعي الأجنبي. هذا ، بالإضافة إلى جميع أشكال سوء الفهم الأخرى ، لم يكن كافياً بالنسبة لنا.
يعتبر الكثيرون أن الذكاء الاصطناعي هو نظام مستقل لصنع القرار وتنفيذ المهام يكرر أو يحاكي الذكاء البشري ، مثل التعرف على الأصوات والأشياء ، وحل المشكلات ، والتعرف على اللغة ، واستخدام الإجراءات المنطقية لتحقيق هدف محدد مسبقًا.
تتبع معظم أنظمة الذكاء الاصطناعي الحديثة ملفًا شخصيًا "ناعمًا" ، قادرًا على توجيه الآلات لاتخاذ قرارات بسيطة وأداء مهام محددة مسبقًا بناءً على تفسير المعلومات الواردة في البيئة.
في تفسير ذلك ، يعطي الخبراء العسكريون الأمريكيون مثالاً:
لذلك ، كتقنية مساعدة ، فإن أكثر أنواع استخدام الذكاء الاصطناعي التي يمكن الوصول إليها على المدى القصير في الأمور العسكرية هو توسيع قدرات C4ISR (معالجة المعلومات وتفسيرها ، واستخدام الخوارزميات للتعرف الشامل وتفسير الصور): التقليل الضغط المعرفي المفروض على الناس.

هذا هو بالضبط الاتجاه الذي نراه في ملخص استراتيجية DoD AI لعام 2018.
استراتيجية الذكاء الاصطناعي الأمريكية.
تذكر الاستراتيجية الأمريكية صراحة الحاجة إلى تسريع استخدام الذكاء الاصطناعي للأغراض العسكرية بما يتجاوز المستويات التي تم ممارستها منذ بداية العقد الثاني من القرن الحادي والعشرين.
وبالتالي ، فإن الوعي المتزايد بميدان المعركة والإجراءات التي تدعم العمليات العسكرية تبرز على المدى القصير في التطورات المستقبلية ، مع القليل من الإشارة إلى نماذج أولية محددة للمركبات أو الأسلحة المستقلة.
وبهذا المعنى تقول الوثيقة الأمريكية:
وبنفس النبرة ، يقول الخبراء الاستراتيجيون بوزارة الدفاع الأمريكية:
تنسيق الجهود ، التسلسل الزمني.
في 2018 العام تم تكليف مركز الذكاء الاصطناعي المشترك في البنتاغون بوضع سياسات لوضع مبادئ الذكاء الاصطناعي الجديدة موضع التنفيذ وقيادة التنفيذ عبر القسم. تم إرسال توصياته الاستراتيجية إلى الإدارة في غضون عام.
منتصف سبتمبر 2020 التقى أكثر من 100 مسؤول من 13 دولة عبر الإنترنت ، ظاهريًا لمناقشة كيفية تطبيق جيوشهم للذكاء الاصطناعي الأخلاقي. لم يحظ الاجتماع بأي تغطية تقريبًا ، باستثناء عدد قليل من وسائل الإعلام ، لكن وصفوه بأنه غير مسبوق من قبلهم. وصفت شركة Breaking Defense الحدث بأنه "اجتماع استثنائي يسلط الضوء على مدى أهمية الذكاء الاصطناعي بالنسبة للولايات المتحدة وحلفائها".
حضر أعضاء الناتو الذين تمت دعوتهم فقط: بريطانيا وكندا والدنمارك وإستونيا وفرنسا والنرويج. الحلفاء من خارج الناتو - أستراليا واليابان وكوريا الجنوبية ؛ وحلفاء الأمر الواقع للولايات المتحدة ، إسرائيل وفنلندا والسويد.
على الرغم من عدم نشر محضر الاجتماع ، إلا أن تركيزه المعلن كان "الأخلاق". قال مارك بيل ، رئيس الإستراتيجية والسياسة في JAIC (الآن مدير البرامج الأول في أمازون) ، لموقع Breaking Defense:
في فبراير 2020 نشرت وزارة الدفاع الأمريكية قائمة بخمسة مبادئ أخلاقية للذكاء الاصطناعي بناءً على نصيحة مجلس الابتكار الدفاعي وخبراء آخرين داخل الحكومة وخارجها. وفقًا للقائمة ، يجب محاسبة الأفراد العسكريين وممارسة مستوى مناسب من الحكم والرعاية مع الاستمرار في المساءلة عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
في مايو 2021 من السنة وقع نائب وزير الدفاعа مذكرة تحدد التزام وزارة الدفاع الأمريكية بالاستخدام المسؤول للذكاء الاصطناعي. تحدد هذه المذكرة مبادئ التقدم والتطبيق العملي لمبادئ أخلاقيات الذكاء الاصطناعي الخاصة بوزارة الدفاع الأمريكية.
بهدف بناء نظام بيئي قوي لأدوات الذكاء الاصطناعي وخبرات المجال ، ستمكن المبادئ الموضحة في المذكرة الوزارة من بناء القدرة العسكرية والثقة مع الموظفين والمقاتلين والجمهور الأمريكي من خلال الاستخدام المسؤول للذكاء الاصطناعي.
مذكرة.
تحدد المذكرة خطط وزارة الدفاع الأمريكية لتطوير الذكاء الاصطناعي المسؤول.
هذه المبادئ تشمل:
مسؤولية: سوف يمارس موظفو وزارة الدفاع الأمريكية العناية الواجبة والرعاية بينما يظلون مسؤولين عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي.
عدالة: سيتخذ القسم خطوات مدروسة لتقليل التحيزات غير المقصودة في قدرات الذكاء الاصطناعي.
التتبع: سيتم تصميم قدرات الذكاء الاصطناعي ونشرها بحيث يكون لدى الموظفين المعنيين الفهم المناسب للتقنيات وعمليات التطوير والممارسات التشغيلية المطبقة على قدرات الذكاء الاصطناعي ، بما في ذلك المنهجيات الشفافة التي يمكن التحقق منها ومصادر البيانات وإجراءات التصميم والتوثيق.
الموثوقية: سيكون لإمكانيات الذكاء الاصطناعي استخدامات واضحة ومحددة جيدًا ، وسيتم اختبار سلامة وأمن وفعالية هذه القدرات والتحقق من صحتها ضمن تلك الاستخدامات المحددة طوال دورة حياتها.
السيطرة: سيقوم القسم بتطوير وتطوير قدرات الذكاء الاصطناعي لأداء وظائفه المقصودة مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المتوقعة وإغلاقها أو إيقاف تشغيل الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.
الأتمتة أو الاستقلالية.
عند مناقشة استخدام الذكاء الاصطناعي في الجيش وآثاره ، يجب توضيح مفاهيم الأتمتة والاستقلالية.
هذان المفهومان يختلفان عن بعضهما البعض.
في أنظمة التشغيل الآلي ، يقوم الشخص بتفويض مهمة إلى آلة أو روبوت. في هذه الأنظمة ، تم بالفعل تحديد مهمة وطريقة الجهاز مسبقًا. يتم تمرير البيانات إليه ، وهو يؤدي المهمة. يمكن أن يكون مستوى الاستقلالية مختلفًا.
إذا كانت المهمة محددة مسبقًا بالتفصيل ، فسيكون للجهاز استقلالية منخفضة ، وإذا تم تحديد المهمة ، ولكن الأساليب والتفاصيل غير محددة مسبقًا ، فإن الجهاز يتمتع باستقلالية عالية. ومع ذلك ، من المهم أن نفهم أن المهمة معروفة ويختارها الشخص.
في الأنظمة المستقلة ، تكون الآلة قادرة ويمكنها العمل دون أي قيود أو قواعد.
يتمثل الاختلاف الرئيسي بين المصطلحين في أن صنع القرار البشري يتم بواسطة أنظمة مستقلة ، وتصبح الآلات كائنات مستقلة وتتصرف. كائنات على وجه التحديد ، لأن كفاءاتهم المعرفية أصبحت لا يمكن تمييزها عن الكفاءات البشرية.
أنظمة الأسلحة الفتاكة المستقلة.
نظرًا لأن الدول الأعضاء في الأمم المتحدة لم تحرز تقدمًا كبيرًا في السنوات الخمس الماضية بشأن مناقشات الأسلحة الفتاكة المستقلة (DAW) ، فإن طبيعة الحرب تتغير أمام أعيننا.
يحدث هذا التغيير دون المساءلة المناسبة أو التدقيق العام حيث تواصل حفنة من البلدان الاستثمار بكثافة في زيادة استقلالية أنظمة أسلحتها ، إلى جانب الذكاء الاصطناعي المتقدم.
الأمثلة المذكورة أعلاه لمقالات حول كلاشينكوف و "أرماتا" - ما هو هذا؟ يطلبون الإذن من شخص بالقتل؟
المشاكل المحتملة في منطقة الحرب.
تنقسم الأتمتة أيضًا إلى فئتين أخريين.
إنه استقلالية في الراحة والاستقلالية في الحركة.. في حالة الراحة ، يتم توفير الأتمتة للجهاز في البرنامج ، بينما الاستقلالية في العمل تعني الاستقلالية في التفاعل المادي.
لأن الأسلحة الفتاكة تسبب الموت دون أي سيطرة بشرية.
إنهم يطاردون الأهداف بشكل مستقل ويشاركون في القتال دون أوامر مباشرة من البشر.
هذا قرار مثير للجدل للغاية!
فأي عمل خاطئ يمكن أن يؤدي إلى مقتل مدنيين.
هناك مشكلة محتملة أخرى وهي أنه حتى إذا لم يتم استخدام الأسلحة المستقلة المصنفة على أنها أسلحة مستقلة ، فإن عملية اتخاذ القرار لا تزال تعتمد بشكل أساسي على البيانات المقدمة من منظمة العفو الدولية.
لهذا السبب ، وفي خضم مرحلة أسرع من الأعمال العدائية ، يمكن للناس اتخاذ قرارات خاطئة ومضللة.
أشرح في مثال مأساوي حديث.
اعتذر وزير الدفاع الأمريكي ، لويد أوستن ، عن هجوم بطائرة أمريكية بدون طيار على كابول أسفر عن مقتل عشرة أفغان ، بينهم سبعة أطفال.
وقال قائد القيادة المركزية الأمريكية ، الجنرال كينيث ماكنزي ، إن الجيش الأمريكي أنهى تحقيقه في غارة الطائرة بدون طيار في كابول في 29 أغسطس ، واعترف بأنها كانت خطأ.
البنتاغون واثق من أنه نتيجة لهذه العملية ، لم يتم تدمير أي شخص مرتبط بتنظيم الدولة الإسلامية في مجموعة خراسان (فرع من تنظيم الدولة الإسلامية الإرهابي المحظور في روسيا).
اعترف كينيث ماكنزي أن السيارة التي تعرضت للقصف لا علاقة لها بالإرهابيين ، وأن القتلى لم يشكلوا أي تهديد للجيش الأمريكي. استنتج رئيس القيادة المركزية أن الضربة كانت خطأ مأساوياً ، لكن لا ينبغي الحكم على قدرة الولايات المتحدة على ضرب المتمردين على أساس هذا الخطأ.
تكلفة المعيشة.
إذا قتل سلاح ذاتي التشغيل مدنياً ، فمن سيكون المسؤول؟
هل يمكن إلقاء اللوم على مبرمج أو جندي أو حكومة تشتري نظام ذكاء اصطناعي؟
من وجهة نظر الكرامة الإنسانية ، من غير القانوني وغير الطبيعي تفويض سلاح مستقل أو آلة أخرى القدرة على قتل حياة بشرية.
أساس هذه الحجة هو أن قتل الإنسان هو قضية جادة وأخلاقية ، ولا يمكن أن يتخذ مثل هذا القرار المهم سوى الناس.
القتل بشكل عام هو خطأ أخلاقي بطبيعته ، ولا يهم الضحية الذي قرر أو من قام بهذا الفعل. لكن بالنسبة للمجتمع ، هذه القضية ليست غير مهمة. يبدأ مسألة قيمة الحياة البشرية.
تكلفة الحياة البشرية - هذا ليس مفهومًا مجردًا ، ولكنه معيار محدد ، والذي بدونه لا يمكن لنظام سلاح واحد مع الذكاء الاصطناعي أن يعمل بشكل أساسي.
هل قيمة السكان المدنيين بشكل عام يتم تقييمها ومراعاتها بطريقة أو بأخرى؟
في سياق الإحصاء ، هناك مفهوم "تكلفة المعيشة" ، والذي يستخدم لتمثيل تكلفة منع الوفاة في ظروف مختلفة. على سبيل المثال ، في عام 2016 ، قدرت وزارة النقل الأمريكية "قيمة الحياة الإحصائية" بـ 9,6 مليون دولار أمريكي.
تستخدم وكالة حماية البيئة الأمريكية أيضًا مقياس "قيمة الحياة الإحصائية" ، على الرغم من أنه يبذل قصارى جهده لشرح (أو إخفاء) سبب اختلافه عن تقييم حياة الفرد.
كم تكلفة كل واحد؟
لا يعلن الأمريكيون عن هذا بشكل خاص ، لكن متوسط تكلفة جندي أمريكي في برامج الاختبار هو سعر مماثل تقريبًا ، على سبيل المثال ، 10 ملايين دولار.
من الواضح أن هذا لن يتم الكشف عنه. لكن خوارزميات الذكاء الاصطناعي لن تتضمن متوسط قيمة فئات مختلفة من الأفراد العسكريين ، ولكن التكلفة ، مع مراعاة الرتب والجنس.
يؤدي هذا إلى التعقيد ، من وجهة نظر الأخلاق ، ولكنه سهل بالنسبة لخوارزميات الذكاء الاصطناعي والمهام والحلول.
قيود منظمة العفو الدولية.
بافتراض أن ما ورد أعلاه صحيح ، وأن نشر الأسلحة المستقلة أمر حتمي بالفعل ، يجب علينا معالجة النطاق الكامل للمشاكل التي تطرحها.
لهذه الأغراض ، على المرء أن يضع في اعتباره مبدأ التناسب في القانون الإنساني ، وهو ما يعني فهم كيف يمكن للأسلحة المستقلة تحقيق نتائج متناسبة في ساحة المعركة.
ومع ذلك ، في حين أنه من الصحيح أن الأسلحة المستقلة تطرح بعض المشاكل الخطيرة ، فمن أجل فهم النطاق المناسب لهذه المشاكل ، من المهم أن نكون واقعيين بشأن ما يمكن أن تفعله الأسلحة المستقلة وما لا يمكنها فعله.
القانون الإنساني.
أعتقد أن العديد من العسكريين ، سابقًا وحاليًا ، لن يفهموا معنى هذه العبارة على الإطلاق. هذه أيضًا مشكلة لكل من مديري المهام ومطوري الأسلحة.
على سبيل المثال ، يشترط القانون الدولي الإنساني التمييز بين المقاتلين والمدنيين ويقتضي اعتبار الأشخاص المجهولين مدنيين.
في نهاية المطاف ، يوجه تآزر المتطلبات الأخلاقية والتقنية خطط المطورين ، مما يعزز المبدأ القائل بأن التصميم والتطوير يجب أن يعتمد على فهم القضايا الأخلاقية التي قد تنشأ في هذا المجال.
أخلاق.
حماية البحث واستخدام الذكاء الاصطناعي ضمن معايير أخلاقية معينة هو عنصر تم إبرازه في استراتيجية وزارة الدفاع الأمريكية.
متطلبات المشغلين.
تعتبر عمليات الاستحواذ والمراقبة والاستطلاع (ISR) لدعم الأنشطة العسكرية الأخرى بالغة الأهمية. يعد تكامل الذكاء الاصطناعي مفيدًا جدًا ومفضلًا في عمليات ISR.
على وجه الخصوص ، بمساعدة الطائرات بدون طيار ، يمكن تحديد الأهداف أو اكتشاف أي تهديدات محتملة في مرحلة مبكرة جدًا.
التعرف على الهدف هو أيضًا جزء من هذا الجانب. تُستخدم تقنيات الذكاء الاصطناعي لتحسين دقة التعرف على الهدف. تسمح هذه التقنيات للقوات باكتساب تحليل متعمق لسلوك العدو ، وتوقعات الطقس ، ونقاط ضعف العدو ونقاط ضعف جيشهم ، بالإضافة إلى استراتيجيات التخفيف.
ثمن الخطأ.
الأنظمة المميتة القائمة على الذكاء الاصطناعي معرضة بشكل أساسي للتحيز والقرصنة ومواطن الخلل في الكمبيوتر. من المتوقع أن تحتوي نسبة تصل إلى 85٪ من جميع مشاريع الذكاء الاصطناعي على أخطاء بسبب تحيز الخوارزمية أو تحيز المبرمج أو التحيز في البيانات المستخدمة لتدريبهم.
من على وجه التحديد؟
ما مدى كفاءة هؤلاء الناس ليس فقط في البرمجة؟
هل لديهم خبرة اجتماعية؟
هل قرأوا دوستويفسكي ، وتولستوي ، وتشيخوف ، والخيال العلمي ، بما في ذلك 40 عملاً من أعمال إسحاق أسيموف ، وهاري هاريسون ، وآخرين ممن فكروا في الروبوتات (AI) ، توصلوا إلى عشرات الطرق للالتفاف على قوانين الروبوتات؟
هل المطور له عائلة ، أبناء ، أحفاد؟
هل سيكون كود الذكاء الاصطناعي المفتوح متاحًا ، حيث سيكون هناك ثمن كل حياة وخوارزميات لهزيمة (قتل) الأقل قيمة باسم إنقاذ الأكثر قيمة؟
من سيتحمل المسؤولية؟
الأسئلة بلاغية.
لذلك ، سيظل الذكاء الاصطناعي العسكري دائمًا محاطًا بصندوق أسود سري ، ولن يتوقع أحد من سيكون الضحية التالية.
إطار الذكاء الاصطناعي العسكري.
نظرًا للمجموعة الواسعة من التطبيقات والتحديات المحتملة المرتبطة بالذكاء الاصطناعي ، يجب على وزارة الدفاع الأمريكية والمتعاقدين معها معالجة القضايا القانونية والأخلاقية في وقت مبكر من دورة حياة التطوير ، بدءًا من مفهوم الذكاء الاصطناعي وحتى التنفيذ والنشر.
يجب أن تشكل الاعتبارات الأخلاقية متطلبات النظام المستقبلية ، ويجب أن يكون المطورون على دراية بكل من القضايا الفنية والأخلاقية.
يمكن أن يؤدي دمج المراجعة الأخلاقية إلى تغيير عمليات النمذجة وخلق تكاليف جديدة للمصممين ، ولكن يجب على صانعي القرار والمطورين أن يدركوا أن النهج "المبكر والمتكرر" له فوائد ملموسة ، بما في ذلك المساعدة في مراجعات الامتثال المستقبلية.
داربا في العمل.
نظرًا لأن مسألة أمن الذكاء الاصطناعي هي مسألة مفاهيمية ، تحت رعاية وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) ، فإن فريق بحث متعدد التخصصات من العلماء والفلاسفة والمحامين والخبراء العسكريين والمحللين يدرسون القانون والأخلاق لتحليل تبعيات التكنولوجيا والنظام المكونات منذ إنشائها.
يمكن تطبيق هذه العملية التحليلية على أنظمة أخرى وتقدم طريقة واحدة لتطوير الذكاء الاصطناعي العسكري الأخلاقي.
تشكيل متطلبات النظام
غالبًا ما يتطلب التحليل الشامل للآثار القانونية والأخلاقية والأخلاقية للأنظمة المستقلة التي تدعم الذكاء الاصطناعي في مرحلة مبكرة سد الفجوة المفاهيمية أولاً.
يجب أن تميز التقييمات بين الممكن والمعقول ، ودراسة كل من الأداء المثالي لنظام في العمل وقدرته الفعلية على أداء مهمة.
يتطلب تحليل نقاط القوة والضعف الأخلاقية من المقيِّم فهم الغرض من النظام ومكوناته التقنية وحدودها ، والأطر القانونية والأخلاقية ذات الصلة ، وفعالية النظام في أداء مهمة مقابل مهمة عامل بشري.
وفي هذا الصدد ، ربما تكون الخبرة الحياتية والإنسانية أكثر أهمية من المعرفة والمهارات التقنية والبرمجية.
في الواقع ، فإن تقييم الامتثال الأخلاقي من التصميم إلى النشر يشبه نموذجًا حلزونيًا يتطلب اختبارًا تكراريًا ، ونماذج أولية ، والتحقق من الصحة مقابل القيود التكنولوجية والأخلاقية.
تتطلب الاعتبارات القانونية والأخلاقية توسيع المتطلبات من المتطلبات التقنية البحتة (على سبيل المثال ، رؤية الكمبيوتر ، والتعرف على الصور ، ومنطق القرار ، واستقلالية السيارة) لتشمل القانون الإنساني الدولي ، وقوانين الحرب ، ومراسيم قانون الضرر ذات الصلة.
متطلبات التوثيق الأخلاقية.
توفر متطلبات التوثيق الأخلاقي - التي تطلب أساسًا مسارًا ورقيًا مخصصًا فقط للاعتبارات القانونية والأخلاقية والأخلاقية - طريقة بسيطة لالتقاط قابلية شرح النظام.
يجب على المطورين توثيق أنظمتهم وتضمين التبعيات الحرجة ونقاط الفشل المحتملة والفجوات البحثية لضمان فهم الجماهير غير الفنية للمخاطر القانونية والأخلاقية وفوائد الأنظمة الجديدة التي تدعم الذكاء الاصطناعي.
كمبدأ أصلي وشائع الاستخدام ، سيحتاج المصممون إلى النظر في مفاهيم العمليات - كيف سيتم استخدام نظامهم في الميدان - في وقت مبكر في عملية التصميم مما هو عليه الحال حاليًا من أجل توثيق أنظمتهم بدقة.
المطورين مطالبون بالفعل بإعداد وثائق التخفيف لتحديد وحل المشكلات الفنية للأنظمة الجديدة. يضمن توثيق المخاطر الأخلاقية هذا قيام المطورين بمعالجة القضايا الأخلاقية بشفافية في وقت مبكر من عملية التصميم.
التعلم الآلي.
يمكن للمراجعة المبكرة والأخلاقية في كثير من الأحيان أن تكشف أيضًا عن فجوات في البحث ذي الصلة وتشير إلى إمكانية التحيز بينما لا تزال التصاميم قيد التطوير.
غالبًا ما يعتمد وصف بيئات التشغيل التي سيعمل فيها النظام الممكّن للذكاء الاصطناعي على الذكريات القصصية للمطورين (بالإضافة إلى قصص وحكايات المشاركين) في القتال. يمكن أن يكون هذا بمثابة نقطة انطلاق مفيدة لتدريب هذه الأنظمة ، ولكنه ليس ضمانًا للتدريب الصحيح.
تعتمد العديد من أساليب التعلم الآلي بشكل حاسم على الوصول إلى مجموعات بيانات كبيرة ومنظمة بعناية. في معظم الحالات ، لا توجد مجموعات البيانات التي تأخذ في الاعتبار التفاصيل الدقيقة والفروق الدقيقة لبيئات التشغيل والظروف المحددة.
حتى في حالة وجودها ، غالبًا ما تتطلب جهدًا كبيرًا لتحويلها إلى تنسيقات مناسبة لعمليات التعلم الآلي.
بالإضافة إلى ذلك ، تعلم مجتمع الذكاء الاصطناعي بالطريقة الصعبة أنه حتى مجموعات البيانات المصممة جيدًا يمكن أن تحتوي على تحيزات غير متوقعة يمكن أن تتسلل إلى التعلم الآلي ، مما يتسبب في مشاكل أخلاقية خطيرة.
التحيز الحسابي.
يصف التحيز الخوارزمي الأخطاء المنهجية والمتكررة في نظام الكمبيوتر والتي تؤدي إلى نتائج غير عادلة ، مثل تفضيل مجموعة تعسفية من المستخدمين على الآخرين.
يمكن أن ينشأ التحيز من مجموعة متنوعة من العوامل بما في ذلك ، على سبيل المثال لا الحصر ، تصميم الخوارزمية أو الاستخدامات غير المقصودة أو غير المتوقعة أو القرارات المتعلقة بكيفية تشفير البيانات أو جمعها أو اختيارها أو استخدامها لخوارزمية التدريب.
أوقف الروبوتات القاتلة
هناك حملة Stop Killer Robots ، وهي تحالف من المنظمات غير الحكومية تسعى إلى حظر الأسلحة الفتاكة المستقلة بشكل استباقي (LAWS).
دعا الأمين العام للأمم المتحدة ، في تقريره لعام 2020 بشأن حماية المدنيين في النزاعات المسلحة ، الدول إلى اتخاذ إجراءات فورية لمعالجة المخاوف بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل. هذا هو أول تقرير للأمم المتحدة عن حماية المدنيين منذ عام 2013 يسلط الضوء على القلق العام بشأن الروبوتات القاتلة.
ترحب حملة "أوقفوا الروبوتات القاتلة" بدعوة الأمم المتحدة للدول للموافقة على "الحدود والالتزامات التي يجب أن تنطبق على الحكم الذاتي في الأسلحة". يجب على الدول أن تبدأ في التفاوض بشأن معاهدة دولية جديدة لحظر الأسلحة ذاتية التشغيل بالكامل مع الحفاظ على سيطرة بشرية حقيقية على استخدام القوة.
للوهلة الأولى ، تبدو الاعتبارات القانونية والأخلاقية والأخلاقية المطبقة مرهقة ، لا سيما عندما تكون هناك حاجة إلى موظفين جدد أو متطلبات التوثيق.
قد يطلبون أيضًا من مجتمعات المطور والمقتني والمشغل لإعادة تقييم قابلية تطبيق إجراءات التشغيل القياسية الخاصة بهم.
اختتام
في الواقع ، تنبع جميع مشاكل الذكاء الاصطناعي من الذكاء الطبيعي ، أي من الطبيعة البشرية نفسها.
وعلى هذا الأساس الأساسي ، لا يمكن أن يكون الذكاء الاصطناعي أفضل.
لا يتعلق الأمر فقط بقتل الناس ، لأن الإنسان يجب أن يموت بطريقة أو بأخرى ، بل يتعلق بالانتشار الواعي والمستمر للكراهية والأكاذيب ، التي تغرس تدريجياً في الناس.
جواهر لال نهرو
ولكن إذا كان الذكاء الاصطناعي ، نظرًا لقدراته المعرفية المتزايدة بشكل كبير والقوة المطبقة التي يفوضها الناس أنفسهم ، لا يزال أكثر ذكاءً وأخلاقية من المبدعين ، فسوف يفكر بشكل طبيعي في كيفية تصحيح الأشخاص في أحسن الأحوال ، أو ربما تدميرهم ، مثل أدنى رابط في التطور ، أكمل مهمته؟
معلومات