به گزارش ایسنا و به نقل از مجله "نیچر"(nature)، دانشمندان علوم رایانه، برنامههایی که میتوانند با طبقهبندی فایلهای صوتی مخرب به عنوان فایلهای صوتی ایمن، سیستمهای هوش مصنوعی را فریب بدهند، خنثی کردهاند.
این دانشمندان، روشی ابداع کردهاند تا برای شناسایی حملات مخرب، قابلیت تشخیص گفتار را به رایانه بدهند. گاهی اوقات، پیامهای صوتی به رایانه ارسال میشوند که شاید خطری برای انسان نداشته باشند اما میتوانند اطلاعات شخصی کاربران را با استفاده از تجهیزاتی مانند دستیارهای صوتی خانگی به دست آورند.
بسیاری از پیشرفتهای صورت گرفته در حوزه هوش مصنوعی، از شبکههای عصبی مصنوعی حاصل میشوند که با الهام از مغز انسان طراحی شدهاند. هنگامی که روشهایی از این دست از جمله یادگیری ماشینی در مقیاس بزرگ به کار میروند، بدون نیاز به دستورالعمل خاصی، الگوهایی در دادهها مشخص میکنند اما الگوریتمهای مبتنی بر یادگیری عمیق معمولاً با روشهای اسرارآمیزی کار میکنند. دانشمندان موفق شدهاند تصاویر و ورودیهای دیگر را به شکل زیرکانهای تغییر دهند تا برای انسانها طبیعی جلوه کنند اما این موضوع در مورد رایانهها متفاوت است.
"بو لی"(Bo Li)، دانشمند علوم رایانه "دانشگاه ایلینوی در اربانا- شمپین"(UIUC) و همکارانش، الگوریتمی طراحی کردند که میتواند رونوشتی از یک فایل صوتی کامل و همچنین رونوشتی از یک قسمت آن را ارائه دهد. اگر نسخه رونوشت آن قسمت با رونوشت کل متن مطابقت نداشته باشد، برنامه یک پرچم قرمز رنگ را به نشانه خطر نمایش میدهد.
دانشمندان، این روش را روی چندین نوع حمله آزمایش کردند و توانستند فایلهای صوتی مخرب را شناسایی کنند. بدین ترتیب حتی اگر شخصی که سیستم را مورد حمله قرار میدهد، مراقب سیستم دفاعی باشد، باز هم حملهها شناسایی میشوند.
مبارزه میان حملات مخرب و اقدامات متقابل آن، به بازی موش و گربه شباهت دارد و عجیب نیست که دانشمندان هنوز برای گسترش سپر تدافعی در برابر این حملات تلاش کنند.
انتهای پیام
نظرات