صدای پای سلاح‌های کشنده هوش مصنوعی به گوش می‌رسد

سلاح‌های خودکاری که با هدایت هوش مصنوعی کار می‌کنند، در حال حاضر مورد استفاده قرار می‌گیرند و محققان، کارشناسان حقوقی و اخلاق مداران در حال دست و پنجه نرم کردن با این چالش هستند که چه مواردی در میدان نبرد باید مجاز باشد و چه مواردی نباید مجاز باشد.

به گزارش ایسنا،  توسعه سلاح‌های مرگبار خودمختار(LAWs)، از جمله پهپادهای مجهز به هوش مصنوعی، در حال افزایش است. به عنوان مثال، وزارت دفاع ایالات متحده تاکنون یک میلیارد دلار برای برنامه رپلیکیتور(Replicator) خود در نظر گرفته است که هدف آن ساخت ناوگانی از وسایل نقلیه خودران کوچک و تسلیحاتی است. زیردریایی‌ها، تانک‌ها و کشتی‌های آزمایشی ساخته شده‌اند که از هوش مصنوعی برای خلبانی و شلیک استفاده می‌کنند. پهپادهای تجاری موجود می‌توانند از قابلیت تشخیص تصویر هوش مصنوعی برای رسیدن به اهداف استفاده کرده و آنها را منفجر کنند. سلاح‌های خودمختار مرگبار برای کار کردن به هوش مصنوعی نیاز ندارند، اما این فناوری، سرعت، ویژگی و توانایی فرار را به آنها اضافه می‌کند. برخی از ناظران از آینده‌ای بیم دارند که در آن انبوهی از پهپادهای ارزان هوش مصنوعی توسط هر جناحی برای از بین بردن یک فرد خاص با استفاده از فناوری تشخیص چهره اعزام شوند.

به نقل از نیچر، در جنگ میان روسیه و اوکراین، فیلم‌های ویدئویی نشان می‌دهد که پهپادها به خاک روسیه تا بیش از ۱۰۰۰ کیلومتری مرز نفوذ کرده و زیرساخت‌های نفت و گاز را تخریب کرده‌اند. به گفته کارشناسان، احتمالا هوش مصنوعی(AI) به هدایت پهپادها به سمت اهدافشان کمک کرده است. برای استفاده از چنین سلاح‌هایی، به حضور هیچ فردی برای نگه داشتن ماشه یا تصمیم نهایی برای انفجار نیاز نیست.

وارفر(Warfare) یک برنامه نسبتا ساده برای هوش مصنوعی است. استوارت راسل(Stuart Russell) دانشمند رایانه در دانشگاه کالیفرنیا، برکلی، و یک مبارز برجسته علیه سلاح‌های هوش مصنوعی می‌گوید: قابلیت فنی یک سیستم برای یافتن یک انسان و کشتن آن بسیار ساده‌تر از توسعه یک ماشین خودران است.

ظهور هوش مصنوعی در میدان نبرد بحث‌هایی را در میان محققان، کارشناسان حقوقی و اخلاق‌شناسان برانگیخته است. برخی استدلال می‌کنند که سلاح‌هایی که به کمک هوش مصنوعی کار می‌کنند می‌توانند از سلاح‌های هدایت شونده توسط انسان دقیق‌تر باشند و به طور بالقوه باعث کاهش آسیب‌های جانبی مانند تلفات غیرنظامی و آسیب به مناطق مسکونی و کاهش تعداد سربازان کشته و معلول شوند و در عین حال به کشورها و گروه‌های آسیب‌پذیر برای دفاع کمک کنند. برخی دیگر تأکید می‌کنند که سلاح‌های خودمختار ممکن است اشتباهات فاجعه باری را مرتکب شوند و بسیاری از ناظران نگرانی‌های اخلاقی فراگیر در مورد انتقال تصمیمات هدف‌گذاری به یک الگوریتم دارند.

سال‌هاست که محققان برای کنترل این تهدید جدید مبارزه می‌کنند. اکنون سازمان ملل گامی تعیین کننده برداشته است. قطعنامه‌ای در ماه دسامبر سال گذشته موضوع سلاح‌های خودمختار کشنده را به دستور جلسه مجمع عمومی سازمان ملل در ماه سپتامبر امسال اضافه کرد. و آنتونیو گوترش(António Guterres)، دبیرکل سازمان ملل متحد در ژوئیه سال گذشته اظهار داشت که می‌خواهد تا سال ۲۰۲۶ ممنوعیت سلاح‌هایی که بدون نظارت انسان عمل می‌کنند اعمال شود. بانی دوچرتی(Bonnie Docherty)، وکیل حقوق بشر در دانشکده حقوق هاروارد در کمبریج، ماساچوست، می‌گوید که این موضوع در دستور کار سازمان ملل پس از یک دهه یا بیشتر قابل توجه بوده است. او می‌گوید: دیپلماسی به کندی پیش می‌رود، اما گام مهمی است.

کارشناسان می‌گویند این اقدام اولین مسیر واقع بینانه را برای دولت‌ها ارائه می‌دهد تا بر روی سلاح‌های هوش مصنوعی کار کنند. اما گفتنش از انجام دادنش آسان‌تر است. این تسلیحات سوالات دشواری را در مورد عامل انسانی، مسئولیت‌پذیری و میزانی که مقامات باید بتوانند تصمیمات مرگ و زندگی را به ماشین‌ها واگذار کنند، ایجاد می‌کند.

تحت کنترل در آوردن

تلاش‌ها برای کنترل و تنظیم استفاده از سلاح‌ها به صدها سال قبل باز می‌گردد. برای مثال، شوالیه‌های قرون وسطی توافق کردند که اسب‌های یکدیگر را با نیزه‌های خود هدف قرار ندهند. در سال ۱۶۷۵، کشورهای فرانسه و امپراتوری روم موافقت کردند که استفاده از گلوله‌های سمی را ممنوع کنند.

امروزه، عمده‌ترین محدودیت‌های بین‌المللی در مورد تسلیحات از طریق کنوانسیون سازمان ملل متحد در مورد برخی سلاح‌های متعارف(CCW)، معاهده‌ای در سال ۱۹۸۳ است که به عنوان مثال برای ممنوعیت سلاح‌های لیزری کور کننده استفاده شده است.

تسلیحات خودمختار دستکم دهه‌هاست که وجود داشته‌اند، از جمله موشک‌های گرمایاب و حتی مین‌های زمینی که با فشار کار می‌کنند و قدمت آنها به جنگ داخلی آمریکا برمی‌گردد. با این حال، اکنون توسعه و استفاده از الگوریتم‌های هوش مصنوعی در حال گسترش قابلیت‌های چنین سلاح‌هایی است.

کنوانسیون سازمان ملل متحد در مورد برخی سلاح‌های متعارف از سال ۲۰۱۳ به طور رسمی در حال بررسی تسلیحات تقویت شده با هوش مصنوعی بوده است، اما از آنجا که برای تصویب مقررات به اجماع بین‌المللی نیاز دارد و به دلیل اینکه بسیاری از کشورهایی که فعالانه این فناوری را توسعه می‌دهند مخالف هرگونه ممنوعیتی هستند، پیشرفت این روند کند بوده است.

بخشی از مشکل عدم اجماع در مورد این است که سلاح‌های خودمختار کشنده واقعا چه هستند.

یک تجزیه و تحلیل در سال ۲۰۲۲ حداقل ده‌ها تعریف از سیستم‌های تسلیحاتی خودمختار ارائه شده توسط کشورها و سازمان‌هایی مانند سازمان پیمان آتلانتیک شمالی(ناتو) را پیدا کرد. راسل می‌گوید که این تعاریف طیف وسیعی را در بر می‌گیرد و میزان توافق یا حتی درک محدود از هوش مصنوعی را نشان می‌دهد.

برای مثال، بریتانیا می‌گوید سلاح‌های خودمختار کشنده «قادر به درک هدف و جهت سطح بالاتر» هستند، در حالی که چین می‌گوید چنین سلاحی می‌تواند «به طور مستقل بیاموزد، عملکردها و قابلیت‌های خود را به گونه‌ای فراتر از انتظارات انسانی گسترش دهد». آلمان «خودآگاهی» را به‌عنوان یک ویژگی ضروری سلاح‌های خودمختار در نظر می‌گیرد که اکثر محققان می‌گویند با آنچه امروزه از هوش مصنوعی برمی‌آید، بسیار فاصله دارد.

راسل می‌گوید: این نوع خودآگاهی به این معنی است که سلاح باید صبح از خواب بیدار شود و تصمیم بگیرد که به تنهایی به روسیه حمله کند.

اگرچه تعریف جامع‌تر، خاص‌تر و واقع‌بینانه‌تر برای سلاح‌های خودمختار کشنده باید مشخص شود، اما برخی از کارشناسان می‌گویند که می‌توان منتظر ماند. دوچرتی می‌گوید: معمولا یک تعریف کارآمد برای شروع فرآیند کافی است و می‌تواند به کاهش اعتراضات اولیه کشورهای مخالف اقدام کمک کند.

مزیت هوش مصنوعی

بر اساس تحلیلی که در سال ۲۰۲۳ توسط مرکز مطالعات جنگ در دانشگاه جنوبی دانمارک منتشر شد، سلاح‌های خودمختار هدایت‌شده توسط هوش مصنوعی که امروزه در اختیار فرماندهان ارتش قرار دارد، نسبتا خام هستند. و شامل پهپادهایی با حرکت کُند و ناشیانه مجهز به مواد منفجره کافی برای منفجر کردن خودشان و اهدافشان می‌شوند.

این «مهمات سرگردان» می‌تواند به اندازه یک هواپیمای مدل باشد، قیمتی در حدود ۵۰ هزار دلار داشته باشد و چند کیلوگرم مواد منفجره را تا فاصله ۵۰ کیلومتری حمل کند که برای نابودی یک وسیله نقلیه یا کشتن سربازان کافی است.

این مهمات از حسگرهای روی برد استفاده می‌کنند که فرکانس‌های نوری، مادون قرمز یا رادیویی را برای شناسایی اهداف بالقوه نظارت می‌کنند. هوش مصنوعی این ورودی‌های حسگر را با پروفایل‌های از پیش تعیین‌شده تانک‌ها، خودروهای زرهی و سیستم‌های راداری و همچنین انسان‌ها مقایسه می‌کند.

ناظران می‌گویند که مهم‌ترین مزیت این بمب‌های خودمختار نسبت به پهپادهای کنترل از راه دور این است که اگر طرف مقابل تجهیزاتی برای مسدود کردن ارتباطات الکترونیکی داشته باشد، همچنان آنها کار می‌کنند.

اگرچه شایعاتی مبنی بر کشته شدن جنگجویان در لیبی توسط مهمات خودمختار در سال ۲۰۲۰ وجود داشت، گزارش‌های مربوط به درگیری در اوکراین این ایده را تقویت کرده است که اکنون از پهپادهای هوش مصنوعی استفاده می‌شود.

سخت است که بدانیم سلاح‌های هوش مصنوعی در میدان جنگ چقدر خوب عمل می‌کنند، تا حد زیادی به این دلیل که ارتش‌ها چنین داده‌هایی را منتشر نمی‌کنند. تام کوپینگر-سایمز (Thomas Copinger-Symes)، معاون فرمانده فرماندهی استراتژیک بریتانیا، در پاسخ به پرسشی مستقیم در مورد سیستم‌های تسلیحاتی هوش مصنوعی سال گذشته، اظهار نظر چندانی نکرد و تنها گفت که ارتش این کشور در حال انجام مطالعات است.

اگرچه داده‌های میدان جنگ در دنیای واقعی پراکنده است، محققان خاطرنشان می‌کنند که هوش مصنوعی مهارت‌های پردازش و تصمیم‌گیری برتری دارد که از نظر تئوری، مزیت قابل توجهی را ارائه می‌دهد. برای مثال، در آزمایش‌های سالانه تشخیص سریع تصویر، الگوریتم‌ها تقریبا برای یک دهه از عملکرد افراد متخصص بهتر عمل کرده‌اند. برای مثال، یک مطالعه در سال گذشته نشان داد که هوش مصنوعی می‌تواند تصاویر تکراری را در مقالات علمی سریع‌تر و جامع‌تر از یک متخصص انسانی پیدا کند.

در سال ۲۰۲۰، یک مدل هوش مصنوعی به لطف «مانورهای تهاجمی و دقیقی که خلبان انسانی نمی‌توانست از پس آن بربیاید»، خلبان باتجربه هواپیمای جنگنده F-۱۶ را در یک مجموعه نبردهای شبیه‌سازی شده شکست داد. سپس، در سال ۲۰۲۲، محققان نظامی چینی گفتند که یک پهپاد مجهز به هوش مصنوعی، هواپیمایی را که از راه دور توسط یک اپراتور انسانی روی زمین به پرواز در می‌آمد، فریب داده است. هواپیمای هوش مصنوعی در موقعیتی قرار گرفت که می‌توانست رقیب خود را ساقط کند.

زاک کالنبورن(Zak Kallenborn)، تحلیلگر امنیتی در مرکز مطالعات استراتژیک و بین‌المللی در واشنگتن دی‌سی می‌گوید: هوش مصنوعی پهپاد می‌تواند تصمیم‌گیری‌های بسیار پیچیده‌ای در مورد نحوه انجام مانورهای خاص، نزدیک شدن به حریف و زاویه حمله بگیرد.

کالن‌بورن می‌گوید هنوز مشخص نیست که سلاح‌های هوش مصنوعی چه مزیت استراتژیک مهمی را ارائه می‌دهند، به خصوص اگر هر دو طرف به آنها دسترسی داشته باشند.  او افزود: بخش بزرگی از مسئله، خود فناوری نیست، بلکه نحوه استفاده ارتش‌ها از آن فناوری است.

هوش مصنوعی همچنین می‌تواند در جنبه‌های دیگر جنگ، از جمله تهیه فهرستی از اهداف بالقوه استفاده شود.  

خطی در شن و ماسه

یکی از معیارهای کلیدی که اغلب برای ارزیابی اخلاقیات سلاح‌های خودمختار استفاده می‌شود این است که تا چه حد قابل اعتماد هستند و تا چه حد ممکن است کارها اشتباه پیش بروند.

کالنبورن می‌گوید سلاح‌های هوش مصنوعی می‌توانند به راحتی روی سیگنال‌های راداری مادون قرمز یا قدرتمند قفل شوند و آنها را با مجموعه‌ای از داده‌ها مقایسه کنند. این بدان معناست که وقتی یک سلاح هوش مصنوعی منبع سیگنال راداری ورودی را در میدان جنگ شناسایی می‌کند، می‌تواند با خطر کمی برای آسیب رساندن به غیرنظامیان، شلیک را انجام دهد.

او می‌گوید، اما تشخیص تصویر بصری مشکل سازتر است. جایی که اساسا فقط یک حسگر مانند دوربین وجود دارد، من فکر می‌کنم که شما خیلی بیشتر در معرض خطا هستید. اگرچه هوش مصنوعی در شناسایی تصاویر خوب است، اما بی‌خطا نیست. او می‌گوید تحقیقات نشان داده است که تغییرات کوچک در تصاویر می‌تواند نحوه دسته‌بندی آن‌ها توسط شبکه‌های عصبی را تغییر دهد و برای مثال باعث شود که یک هواپیما با یک سگ اشتباه گرفته شود.

یکی دیگر از خطوط تقسیم‌بندی برای اخلاق شناسان این است که چگونه از یک سلاح استفاده می‌شود: برای حمله یا دفاع.

سیستم‌های خودمختار پیچیده هدایت شونده با رادار در حال حاضر برای دفاع از کشتی‌ها در دریا استفاده می‌شود. لوسی ساچمن(Lucy Suchman)، جامعه‌شناس در دانشگاه لنکستر، بریتانیا، که تعاملات بین انسان‌ها و دستگاه‌ها را مطالعه می‌کند، می‌گوید که اخلاق‌دانان با این نوع سلاح‌های خودمختار راحت‌تر هستند، زیرا به جای افراد، مهمات را هدف قرار می‌دهند و به سختی می‌توان سیگنال‌های آنها را به اشتباه به چیز دیگری نسبت داد.

یکی از اصول رایج پیشنهادی در بین محققان و ارتش این است که انسان در حلقه سلاح‌های خودمختار وجود داشته باشد. اما اینکه مردم کجا و چگونه باید درگیر شوند هنوز مورد بحث است. بسیاری از افراد، از جمله ساچمن، معمولا این ایده را به این معنا تفسیر می‌کنند که عوامل انسانی باید قبل از صدور مجوز حملات، اهداف را به صورت بصری بررسی کنند و در صورت تغییر شرایط میدان نبرد مانند ورود غیرنظامیان به منطقه نبرد باید بتوانند حمله را متوقف کنند.

برخی از سیستم‌ها به کاربران اجازه می‌دهند تا بسته به شرایط، بین حالت‌های کاملا مستقل و با هدایت انسان تغییر حالت بدهند. ساچمن و دیگران می‌گویند این به اندازه کافی خوب نیست. او می‌گوید: مجبور کردن یک انسان برای غیرفعال کردن یک عملکرد مستقل، کنترل معنی‌داری ایجاد نمی‌کند. راسل پیشنهاد می‌کند که شلیک باید توسط یک اپراتور از راه دور فعال شود و هرگز توسط هوش مصنوعی فعال نشود.

دستکم یک نکته در بحث سلاح‌های خودمختار کشنده وجود دارد که به نظر می‌رسد تقریبا همه حتی کشورهایی که عموما مخالف کنترل هستند، بر آن توافق دارند و آن تصمیم برای پرتاب سلاح‌های هسته‌ای است.

کنترل کردن سیستم

کالن‌بورن می‌گوید متأسفانه هرگونه ممنوعیت استفاده از سلاح‌های خودمختار از طریق بازرسی‌ها و مشاهدات به سختی اعمال می‌شود.

برای مثال، در مورد سلاح‌های هسته‌ای، یک سیستم برای بازرسی مکان‌ها و ممیزی مواد هسته‌ای وجود دارد. اما با هوش مصنوعی، پنهان کردن یا تغییر موارد گوناگون در پرواز آسان‌تر است.

همه این مسائل وارد بحث‌های سازمان ملل خواهد شد که در مجمع عمومی سپتامبر امسال آغاز می‌شود. یک کنفرانس پیشرو نیز توسط اتریش در پایان آوریل برگزار شده است تا به شروع این گفتگوها کمک کند. اگر تعداد کافی از کشورها در ماه سپتامبر به اقدام رأی دهند، احتمالا سازمان ملل کارگروهی را برای تعیین این مسائل تشکیل خواهد داد.

دوچرتی که نقشی کلیدی در مذاکرات پیمان منع تسلیحات هسته‌ای سازمان ملل در سال ۲۰۱۷ داشت، اضافه می‌کند که ممکن است یک معاهده ظرف سه سال ارائه شود. طبق تجربه من، پس از شروع مذاکرات، این روند نسبتا سریع پیش می‌رود.

انتهای پیام

  • سه‌شنبه/ ۲۵ اردیبهشت ۱۴۰۳ / ۰۳:۵۵
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1403022417585
  • خبرنگار : 71654