آیا پیش نویس قوانین جدید پنتاگون می تواند ربات های قاتل را تحت کنترل داشته باشد؟

به گزارش وبلاگ هوانورد، وزارت دفاع ایالات متحده به تازگی از پیش نویس دستورالعمل های خود در مورد استفاده اخلاقی از هوش مصنوعی در جنگ پرده برداری کرده است.بخشی از این قوانین به موضوع ربات های قاتل پرداخته است اما آیا واقعا این نوع قوانین می توانند پیشگیرانه باشند؟

آیا پیش نویس قوانین جدید پنتاگون می تواند ربات های قاتل را تحت کنترل داشته باشد؟

به گزارش سرویس آی تی و فناوری انتخاب، ربات های قاتل ، خواه با هدف ترساندن یا تهدیدی برای توازن بین المللی قدرت باشند ، خواه با هدف مانورهای نظامی نیازمند برخی برنامه ریزی های قانونمند هستند.

پیش نویس دستورالعمل های استفاده از ربات های قاتل اواخر هفته گذشته توسط هیئت نوآوری دفاعی (DIB) منتشر شد. وزارت دفاع در سال 2018 مأموریتی را معین کرده بود تا بر اساس آن این هیئت مجموعه ای از قوانین اخلاقی را برای استفاده از هوش مصنوعی در جنگ تهیه کند.

در بخش مقدمه این قوانین آمده است: حفظ مزیت رقابتی در هوش مصنوعی برای امنیت ملی ما ضروری است. پنج اصل اخلاق هوش مصنوعی را برای تصویب توسط وزارت دفاع تایید می کند ، که عبارتند از: مسئولیت ، عدالت پذیری، قابلیت ردیابی ، قابلیت اعتماد و قابلیت کنترل.

این سند با داشتن پنج ستون از اصول هوش مصنوعی ، طیف گسترده ای از موضوعات را در بر می گیرد. به عنوان مثال:

-تأکید می شود که هنگام استقرار سیستم های خودمختار ، انسان باید سطح قضاوت مناسب را انجام دهد؛ یعنی مسئولیت

- عدالت پذیری بدان معنی است که این سیستم ها باید عاری از تعصب ناخواسته باشند

- با ردیابی به این معنی است که ابزارهای هوش مصنوعی باید کاملاً شفاف باشند و متخصصان برای درک دقیق نحوه عملکرد آنها باید به داده های لازم دسترسی داشته باشند

-سیستم های خودمختار باید به طور مداوم مورد آزمایش قرار گیرند تا از قابلیت اطمینان آنها اطمینان حاصل شود

- قابلیت کنترل به این معناست که باید بدانند چگونه می توان این سیستمها را متوقف کرد

این سند قوانین جدید 65 صفحه می رسد که به طور غیرمعمول طولانی است. برای تنظیم توسعه سلاح های خودمختار ، وزارت دفاع از سال 2012 با تکیه بر یک بخشنامه 15 صفحه ای ، در پی کاهش مخاطرات است.وزارت دفاع آمریکا در سال 2018 نتوانست به توافق با گوگل برای توسعه هوش مصنوعی پهپادها دست یابد ، زیرا کارمندان این شرکت به استفاده از فناوری برای قتل مردم بیگناه معترض شدند.

بنابراین به نظر می رسد عدم اعتماد به شیوه ای که ارتش ممکن است از فناوری غیرنظامی استفاده کند ، یکی از دلایلی است که وزارت دفاع آمریکا موازین اخلاقی جدیدی را به کار می گیرد.به راحتی می توان فهمید که چرا این وضعیت در شرایط فعلی ژئوپلیتیک مشکل ساز است. در حالی که چین اظهار داشت هوش مصنوعی را در اولویت ملی قرار داده است ، روسیه در حال تحقیق در زمینه تکنیک Era برای استقرار هوش مصنوعی در حوزه نظامی است. بنابراین ، آیا دستورالعمل های جدید وزارت دفاع به اندازه کافی دقیق است تا اعتماد غیرنظامیان به استفاده نظامی از هوش مصنوعی را تقویت کند؟

آماندا شارکی ، مدرس علوم کامپیوتر در دانشگاه شفیلد انگلستان و عضو کمپین برای متوقف کردن روبات های قاتل گفت: این ممکن است کمی فشار وارد کند اما نمی توان مطمئن بود که کاملا موثر است. با این حال گام مذکور یک گام مفید و پایدار است.

  • طراحی ویلا

    طراحی ویلا | برای طراحی ویلای دوپلکس مدرن و یا ویلایی کلاسیک با ما همراه باشید.

  • قطار اروپا

    رزرو قطار اروپا | در سیستم رزرو قطارهای اروپا ما با بهترین و ارزانترین قیمت بلیط تهیه کنید.

منبع: انتخاب

به "آیا پیش نویس قوانین جدید پنتاگون می تواند ربات های قاتل را تحت کنترل داشته باشد؟" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "آیا پیش نویس قوانین جدید پنتاگون می تواند ربات های قاتل را تحت کنترل داشته باشد؟"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید