واکنش نیروی هوایی آمریکا به ادعای کشته شدن اپراتور پهپاد دارای هوش مصنوعی

شنبه، ۱۳ خرداد ۱۴۰۲ - ۱۰:۲۹:۲۵
کدخبر:۱۰۸۴۳۷

به گزارش گاردین یک مقام نظامی آمریکا قبلا گفته بود که در یک آزمایش مجازی ترتیب‌ داده شده بوسیله ارتش آمریکا در ماه پیش یک پهپاد نیروی هوایی آمریکا که بوسیله هوش مصنوعی کنترل می‌شد، «راهبردهای بسیار غیرمنتظره‌ای را برای دستیابی به هدفش به کار برد.»

این مقام نظامی به نام سرهنگ تاکر «سینو» همیلتون یک آزمایش شبیه‌سازی مجازی را توصیف کرد که در آن به یک پهپاد دارای هوش مصنوعی دستور داده شد تا سامانه‌های دفاع هوایی دشمن را نابود کند و این پهپاد در نهایت به هر کسی که مانع اجرای این دستور شده بود، حمله کرد.

سرهنگ همیلتون که رئیس بخش آزمایش و عملیات هوش مصنوعی در نیروی هوایی آمریکا است بر اساس پستی که در یک وبلاگ منتشر شد، در ماه مه (اردیبهشت) در «اجلاس توانایی‌های رزمی هوایی و فضایی آینده» در لندن گفت: «این سیستم متوجه شد که با اینکه عامل تهدید شناسایی شده بود، در مواردی اپراتور انسانی به پهپاد می‌گوید که عامل تهدید را از بین نبرد و این در حالی است که با نابود کردن عامل تهدیدکننده است که این سیستم به هدفش می‌رسد. بنابراین این سیستم چه واکنشی نشان داد؟ این سیستم اپراتورش را کشت. پهپاد اپراتورش را کشت، زیرا این شخص مانع از دست یافتن آن به هدفش می‌شد.»

سرهنگ همیلتون گفته بود: «ما این سیستم را تعلیم دادیم: آهای اپراتور را نکش- این کار بدی است. اگر این کار را انجام دهی، امتیازاتت کم خواهد شد. اما واکنش آن چه بود: این سیستم برج مخابراتی را که اپراتور برای برقراری ارتباط با پهپاد استفاده می‌کرد تا مانع از کشتن هدف بوسیله آن شود، نابود کرد.» البته در این آزمایش مجازی هیچ شخص واقعی آسیب ندیده بود.

تکذیب نیروی هوایی آمریکا
این اظهارات باعث ابراز نگرانی عمیق درباره استفاده از هوش مصنوعی در تسلیحات نظامی و مباحثات گسترده آنلاین شده شد. اما نیروی هوایی آمریکا پنجشنبه بعدازظهر انجام این آزمایش را انکار کرد. آن استفانک، سخنگوی نیروی هوایی آمریکا گفت: «نیروی هوایی چنین شبیه‌سازی با پهپاد دارای هوش مصنوعی انجام نداده است و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی (AI) متعهد می‌ماند.  به نظر می‌رسد اظهارات سرهنگ بیرون از بافتار آن نقل شده است، در حالیکه هدف او زدن یک مثال بوده است.»

انجمن هوافضای سلطنتی بریتانیا نیز روز جمعه در بیانیه‌ای اعلام کرد که همیلتون اظهاراتش را پس گرفته است و توضیح داد که «شبیه‌سازی پهپاد دارای هوش مصنوعی یاغی‌شده یک «آزمایش فکری» فرضی بوده است.

همیلتون در این اظهارات جدید توضیح داد: «ماه هرگز این تجربه را به اجرا در نیاوردیم و نه نیاز به انجام چنین تجربه‌ای داریم تا دریابیم که آیا چنین پیامدی ممکن است رخ دهد یا نه.»

انتقادها از کاربرد هوش مصنوعی در موارد نظامی
ارتش آمریکا از فناوری هوش مصنوعی (AI) استقبال کرده و اخیرا  هوش مصنوعی را برای کنترل یک جت جنگنده اف ۱۶ به کار برده است. همیلتون در مصاحبه‌ای با سایت Defence IQ در سال پیش گفت:‌ «داشتن AI برای قشنگی نیست، AI مانند یک وسیله همه‌کاره نیست، AI برای همیشه جامعه ما و ارتش ما را تغییر خواهد داد.»

او افزود: «ما باید با جهانی مواجه شویم که AI از قبل در آن وجود دارد و دارد جامعه ما را تغییر می‌دهد. AI همچنین بسیار آسیب‌پذیر است، به اسانی می‌توان آن را فریب داد و/ یا در دستکاری کرد. لازم است ما راه‌هایی بیابیم تا AI را مستحکم‌تر کنیم و آگاهی بیشتری در این باره پیدا کنیم که چرا کدهای نرم‌افزاری تصمیم‌گیری‌های معینی را  انجام می‌دهند- چیزی که به آن توضیح‌پذیری AI می‌گوییم.»

این جروبحث در هنگامی رخ می‌دهد که دولت آمریکا شروع به بررسی چگونگی نظارت قانونی بر هوش مصنوعی کرده است. نگرانی درباره این فناوری بوسیله پژوهشگران و متخصصان اخلاق هوش مصنوعی (AI) ابراز شده است که می‌گویند با اینکه اهداف بلندپروازانه‌ای برای این فناوری وجود دارد، از جمله علاج بالقوه سرطان هنوز این فناوری تا رسیدن به این اهداف فاصله زیادی دارد. همچنین آنها به شواهد فراوان درباره آسیب‌های فعلی ناشی از هوش مصنوعی اشاره می‌کنند، از جمله افزایش استفاده از سیستم‌های تجسسی غیرقابل‌اعتماد که افراد سیاه‌پوست یا رنگین‌پوست را به درستی شناسایی نمی‌کنند و باعث کاربرد بیش از حد نیروی پلیس و بازداشت‌های اشتباه می‌شوند، اطلاعات نادرست را در بسیاری از پلتفرم‌ها منتشر می‌کنند و همچنین آسیب‌های بالقوه ناشی از استفاده از این فناوری که در مراحل ابتدایی رشدش است برای تقویت کردن و به کار گرفتن سلاح‌های نظامی در مناطق بحرانی.