سعید ابریشمی در گفتوگو با ایسنا با بیان اینکه هوش مصنوعی میتواند به عنوان دستیار آموزشی مورد استفاده قرار گیرد، اظهار کرد: این تکنولوژی حتی میتواند در آینده نقش آموزشدهنده را هم ایفا کند. من مطمئنم در آینده تدریس به این شیوهای که امروز در جریان است، از بین خواهد رفت و سیستمهای هوش مصنوعی خواهند توانست تا حدی جای مدرسان را بگیرند.
وی با بیان اینکه هوش مصنوعی میتواند در حوزههایی نظیر آموزش به گسترش عدالت کمک کند، افزود: امروز امکانات آموزشی در همه جا به طور مساوی در دسترس نیست اما با گسترش هوش مصنوعی، افراد در هر نقطهای خواهند توانست از تدریس یک مدرس هوشمند بهره ببرند و از آموزش سطح بالا برخوردار باشند.
عضو هیات علمی گروه مهندسی کامپیوتر دانشگاه فردوسی مشهد با اشاره به اینکه کشور ما هنوز نتوانسته سهمی قابل توجه در پیشرفت هوش مصنوعی داشته باشد، خاطرنشان کرد: باید افرادی مجاب شوند که در صورت سرمایهگذاری در این حوزه به منفعتی دست خواهند یافت. در حال حاضر در کشور ما به دلیل مسائلی نظیر تورم بالا و نبود سود قابل توجه در کار تولید، ریسک سرمایهگذاری در تکنولوژیهای نوین مانند هوش مصنوعی به شدت بالاست؛ لذا کسی تمایلی به سرمایهگذاری در این حوزه ندارد و این باعث افزایش مهاجرت نخبگان نیز میشود که خود عامل دیگری در عقبماندگی کشور ما در حوزه تکنولوژیهای نوین است.
ابریشمی با اشاره به پیشرفت روزافزون هوش مصنوعی در دنیا بر لزوم تدوین مبانی حقوقی برای توسعه و استفاده از این تکنولوژی تاکید و عنوان کرد: اگر ما در طراحی سیستمهای هوشمند دقت نکنیم، خطراتی جدی جامعه بشری را تهدید خواهد کرد. هوش مصنوعی به سرعت در حال تبدیل شدن به یک خطر است؛ در حالی که برای جلوگیری از این خطرات کاری در جهان انجام نمیگیرد.
وی ادامه داد: چند روز پیش در اخبار آمد که کاخ سفید مدیران سه شرکت اصلی فعال در حوزه هوش مصنوعی (شرکتهای open AL، مایکروسافت و گوگل) را احضار کرد و به آنان هشدار داد هر خطری که هوش مصنوعی برای بشریت ایجاد کند، مسئولیتش با این شرکتهاست. با توجه به اینکه سنای آمریکا هم جلساتی را با این افراد داشت، به نظر میرسد این کشور در حال تدوین یکسری قوانین در حوزه مسائل حقوقی مربوط به هوش مصنوعی است.
عضو هیات علمی گروه مهندسی کامپیوتر دانشگاه فردوسی مشهد اضافه کرد: چند ماه پیش نیز تعدادی از بزرگان IT درخواست کرده بودند برای مدتی تحقیقات در حوزه هوش مصنوعی متوقف شود تا قوانین لازم در این حوزه تدوین گردد. هنوز ابعاد خطرات احتمالی هوش مصنوعی خیلی برای ما مشخص نیست و آنقدر موج پیشرفت در این حوزه پرسرعت در حال جلو رفتن است که همه را غافلگیر کرده و هنوز جهان در حال بررسی است که چگونه میتواند این فناوری را طوری مدیریت کند که بشریت کمترین آسیب را ببیند. باید منتظر باشیم در چند ماه آینده حداقل قوانین اولیه تصویب شود.
ابریشمی با بیان اینکه در رابطه با هوش مصنوعی ۲ خطر آینده بشر را تهدید میکند، گفت: اولین خطر این است که ما روزی موجودی را بسازیم که از خودمان هوشمندتر است و میتواند کنترل را از ما بگیرد. هرچند این اتفاق ممکن است در آینده نزدیک رخ ندهد اما احتمال وقوعش بالاست.
وی افزود: خطر نزدیکتر سوء استفاده برخی افراد از هوش مصنوعی است. یعنی این تکنولوژی به دست افرادی بیفتد که با استفاده از آن به بشریت لطمه بزنند؛ مثلا افرادی ممکن است تلاش کنند از هوش مصنوعی بخواهند یک نقشه مطمئن و بینقص برای انجام یک حمله تروریستی بکشند؛ اینها خطرات مهمتری است که ممکن است هوش مصنوعی در پی داشته باشد.
این استاد دانشگاه با بیان اینکه باید هرچه سریعتر قوانینی برای محدودیت دسترسی همگانی به سطوح بالای هوش مصنوعی وضع شود، اظهار کرد: این کار باعث میشود این ابزار قدرتمند به دست جنایتکاران و مجرمان بینالمللی نیفتد تا با استفاده از آن هر ظلمی را نسبت به بشریت انجام دهند.
انتهای پیام