سازمان دیدبان تروریسم با ابراز نگرانی از تهدیدهای هوش مصنوعی برای امنیت ملی کشورها، از سازندگان این فنآوری انقلابی خواسته تا ذهنیت «آرمانشهری» خود از هوش مصنوعی را کنار بگذارند، چراکه این فنآوری جدید میتواند افراد آسیبپذیر را با خود همراه کند.
گاردین به نقل از جاناتان هال کیسی، مدیر این نهاد مستقر در بریتانیا، نوشت که تهدیدهای امنیتی هوش مصنوعی روز به روز آشکارتر میشود و در پیشبرد این فنآوری باید ملاحظات و نیات تروریستها را در نظر داشت.
به گفته جاناتان هال کیسی، در توسعه بیش از اندازه هوش مصنوعی عمدتا بر نکات بالقوه مثبت این فنآوری تمرکز شده و در این مسیر از چگونگی استفاده احتمالی تروریستها از آن برای حملات غفلت شده است.
گاردین در ادامه به نقل از هال نوشت که سازندگان هوش مصنوعی باید در کنار خود یک نئونازی ۱۵ ساله دو آتشه داشته باشند تا تهدیدهای بالقوه این فنآوری را بهتر درک کنند.
دیدبان تروریسم که بهطور مستقل به بازبینی قوانین دولت بریتانیا در زمینه تروریسم میپردازد، نگرانی فزاینده خود را از دامنه رباتهای چت هوش مصنوعی برای متقاعد کردن افراد آسیبپذیر و یا افراد دارای طیف متنوعی از عملکردهای عصبی برای انجام حملات تروریستی ابراز کرده است.
جاناتان هال در ادامه میافزاید: «تلقینپذیری انسانهای غوطهور در دنیای دیجیتال و فنآوریهای نوین نگران کننده است. این فنآوریها به کمک زبان مخاطبان خود را به اقداماتی ترغیب میکنند. از همین رو، امنیت جامعه میتواند به شدت به خطر بیفتد.»
به گفته دیدبان تروریسم، برای مقابله با نوع تازهای از تهدیدهای تروریستی مرتبط با هوش مصنوعی نیاز به تدوین قوانین تازهای است. از آنجایی که هوش مصنوعی میتواند در انتخاب اهداف تروریستها بهغایت کاربردی باشد، مقررات موثر و دارای ضمانت اجرا میتواند تا اندازهای خطر فزاینده سلاحهای مرگبار خودکار را مهار کند.
فاصله میان پیشرفت فنآوریهای جدید و قوانین ناظر بر آن همواره محل بحث و نگرانیهای سازمانهای مدافع صلح و امنیت بوده است. با رشد فزاینده فنآوریها در حوزه رباتها از یکسو و از فناوریهای ارتباطی از سوی دیگر، نوع تازهای از تهدیدهای تروریستی ظهور یافته که به شدت مایه نگرانی شده است.
برای مثال دور از ذهن نیست که یک پهپاد کوچک کاملا خودکار از مکانی نامعلوم برای حمله به هدفی مشخص به پرواز درآید و با کمک فنآوری هوش مصنوعی در لحظهای مناسب هدف را شناسایی و حمله انجام شود، و هیچ اثری از خود باقی نگذارد. این حمله میتواند در روز روشن و در میان جمعیتی در میدان شهر روی دهد، طوری که هیچ کس نتواند حدس بزند هوش مصنوعی قرار است در لحظه چه تصمیمی بگیرد و چه کسی یا کسانی را هدف قرار دهد.
واقعیت این است که قوانین بازدارنده در این زمینه و دستگاههای ناظر بر چنین فنآوریهایی تاخیر نسبتا زیادی دارند.
پیش از این، تسلیحات مرگبار خودکار در نبرد اوکراین عرض اندام کرده بود و سوالهای جدی اخلاقی در مورد پیامدهای ماشین کشتار خودکار مطرح شده است.
در بریتانیا، سازمان اطلاعات داخلی (امآی۵) و موسسه آلن تورینگ، نهاد ملی علم دادهها و هوش مصنوعی در حال انجام اقداماتی برای مقابله با چالشهای امنیتی ناشی از هوش مصنوعی هستند.
همانطور که الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی این مؤسسه میگوید، هوش مصنوعی در تعامل با محیط میتواند یاد بگیرد و خود را سازگار کند.
توجه به همبودگی این سه عامل یعنی تعامل، یادگیری و سازگاری با محیط، ویژگی حیرتانگیز هوش مصنوعی نشان میدهد که بشر با چه تهدید جدی روبهروست. در کنار مزایای هوش مصنوعی، به نظر میرسد اتخاذ تدابیر نظارتی بر هوش مصنوعی از ضرورتی انکارناپذیر برخوردار است، تا این تازهترین فناروی بشری به ماری در آستین، و بلای عصر نوین تبدیل نشود.