به گزارش ایسنا و به نقل از دیلیمیل، پوتین در جلسه خود با "آرکادی وولوژ"( Arkady Volozh) رییس شرکت "یاندکس"(Yandex) بزرگترین شرکت اینترنتی روسیه از وی درخواست کرد که مشخص کند چقدر طول خواهد کشید تا هوش مصنوعی بشریت را ببلعد.
این پرسش از سوی رییسجمهور روسیه زمانی مطرح شد که وولوژ در حال صحبت در رابطه با ظرفیتهای هوش مصنوعی بود.
این پرسش سبب مکث وولوژ شد و وی پس از مدتی تامل پاسخ داده است که امیدوار است این اتفاق هیچ گاه رخ ندهد.
پس از ایجاد یک وقفه رییس یاندکس در رابطه با مزیتهای ماشینها در بسیاری از کارها نسبت به انسانها توضیحاتی داد و تلاش کرد این موضوع را به این صورت حل کند که بسیاری از ماشینها برای انسانها بیخطر هستند.
اما رییسجمهور روسیه بدون آنکه تحت تاثیر قرار بگیرد پاسخ داد که ماشینهای مد نظر وولوژ فکر نمیکنند و هوشمند نیستند اما زمانی که پای ماشینهای هوشمند به میدان بیاید داستان متفاوت خواهد بود.
این اولین باری نیست که پوتین نگرانی خود را در رابطه با هوش مصنوعی ابراز میکند.
پوتین اخیرا به جنگ لفظی بینالمللی در مورد توسعه هوش مصنوعی پیوست. وی چندی پیش در جمع دانشجویان گفته بود کشوری که در حوزه هوش مصنوعی پیشرو باشد، رهبر آینده جهان خواهد بود.
وی افزود: هوش مصنوعی آینده است، نه تنها برای روسیه بلکه همه بشریت. هوش مصنوعی فرصت بزرگی است، اما تهدیداتی نیز به همراه دارد که حدس زدن آنها دشوار است. هر کس که رهبر این حوزه شود، حاکم جهان خواهد شد.
"الون ماسک" در پی این اظهارات "پوتین" هشدار داد که رقابت برای برتری در جهان هوش مصنوعی میتواند موجب شروع جنگ جهانی سوم شود.
کارآفرین و رئیس شرکت "اسپیس ایکس"، "تسلا" و "The Boring Company" در توییتر گفت: مسابقه چین، روسیه و به زودی تمام کشورهایی که علوم رایانهای قوی و پیشرفتهای دارند، برای برتری در هوش مصنوعی به احتمال زیاد علت شروع جنگ جهانی سوم خواهد بود.
وی گفت که کمتر نگران تهدید هستهای کره شمالی است، چرا که به نظر او چنین اقداماتی به منزله "خودکشی" خواهد بود.
"ماسک" مدتهاست که صدای مخالفتش را علیه سلاحها و رباتهای خودکار مرگبار بلند کرده است.
وی یکی از 116 امضا کننده نامه سرگشاده به سازمان ملل متحد است که ماه گذشته به این سازمان ارسال شد و امضا کنندگان خواستار ممنوعیت توسعه و استفاده از رباتهای مرگبار و سلاحهایی شدند که از هوش مصنوعی بهره میبرند، همچون سلاحهای لیزری و شیمیایی.
در این نامه آمده است که توسعه سلاحهای خودکار مرگبار اجازه میدهد که درگیریهای مسلحانه در مقیاسی بزرگتر از همیشه و در زمانبندی سریعتر از چیزی که انسان بتواند درک کند، انجام گیرد. اینها میتوانند سلاحهایی وحشتناک باشند. سلاحهایی که ظالمان و تروریستها علیه مردم بی گناه استفاده خواهند کرد و سلاحهایی که برای مقاصد ناخوشایندی ساخته میشوند. ما فرصت زیادی برای واکنش نداریم. هنگامی که این "جعبه پاندورا" باز شود، بستن آن سخت خواهد بود.
"جعبه پاندورا"، به روایت افسانههای یونانی جعبهای بود با محتوای تمامی بلاها و شوربختیهای ناشناخته بشریت از جمله بیکاری، بیماری، مرگ و غیره. امروزه اصطلاح "جعبه پاندورا" به عنوان ضربالمثل در رابطه با مواردی استفاده میشود که فلاکتی بی علاج به بار آمده باشد.
انتهای پیام