به گزارش ایسنا، با یکپارچه شدن فزاینده هوش مصنوعی با فناوریهای اطلاعات و ارتباطات (ICT) که سهم مهمی در تجارت، جوامع و زندگی ما دارد، رگولاتورها با وظیفه پیچیده به حداقل رساندن تهدیدات و حداکثر کردن منافع مواجه هستند. هوش مصنوعی بهطور فوقالعادهای کاربردی است؛ هوش مصنوعی در حال تعبیه شدن در هر کجاست. مهم نیست که آیا شما در حرفه پزشکی مشغول هستید یا در تولید یا حتی در کشاورزی، شما با برنامههای کاربردی هوش مصنوعی سر و کار خواهید داشت.
ماشینهای دارای هوش مصنوعی قادرند حجم عظیمی از دادههای بهدستآمده از منابع مختلف را برای انجام طیف گستردهای از وظایف، بررسی کرده و آنها را به کار ببرند. گسترش هوش مصنوعی دوگانگیهای متعددی نظیر خطرات و فرصتها، انسان و ماشین، محدودیتها و توانمندسازها ایجاد کرده است. رگولاتورها باید با این موضوعات و عدم اطمینان برای ایجاد زیرساختی امن و ایمن برای توسعه هوش مصنوعی تعامل داشته باشند.
هوش مصنوعی جهانی که ما میشناسیم را تغییر میدهد
زمانیکه هوش مصنوعی فرصتی مناسب از جانب فناوری بود، خیلی وقت است که سپری شده است. طبق گزارش سازمان تنظیم مقررات و ارتباطات رادیویی، آناستازیا لاترباخ، نویسنده همکار کتاب «ضرورت هوش مصنوعی» میگوید: هوش مصنوعی یکی از قدرتمندترین فناوریهای روی این سیاره است و پتانسیل باورنکردنی برای و بازتعریف تجارت، جوامع و سبک زندگی ما دارد. اینترنت پیش از این حدود 20 درصد از اقتصاد جهانی را متحول کرده است و هوش مصنوعی مابقی آن را تغییر شکل خواهد داد. این یعنی همین الان که ما صحبت میکنیم، 80 درصد اقتصاد توسط هوش مصنوعی در حال تغییر شکل است.
بنا به گفته کمال حسین اویچ، مدیر دپارتمان زیرساختهای ITU، هوش مصنوعی میتواند یک تغییردهنده واقعی بازی باشد اما میتواند اثرات جدی و مشکلات بالقوهای را نیز ایجاد کند. با وجود اینکه تأثیر بالقوه هوش مصنوعی در شرایط تغییر جهانی هنوز کاملاً روشن نیست، حسین اویچ از احتیاط و دقت در مقرراتگذاری حمایت کرد.
همچنین طبق اظهارات الکساندر استویانویچ، مدیر اجرایی و بنیانگذار AVA، هوش مصنوعی قادر به تشخیص اطلاعات درست از نادرست نیست. وی به قضیه هکرهایی اشاره کرد که اطلاعات نادرست در خصوص ترافیک شدید را روی سیستمی گذاشتند که از اطلاعات راجع به منبع ترافیک برای مدیریت خیابانهای شهر استفاده میکرد، اما منجر به تأخیر شد.
از طرفی راهحل کاهش خطرات هوش مصنوعی شاید در مشکلات مربوط به آن تعبیه شده باشد. نیل ساهوتا، استاد مخترع IBM و راهنمای توسعه تجارت جهانی برای گروه واتسون IBM میگوید: هوش مصنوعی به خودی خود میتواند بهعنوان یک دفاعکننده علیه حملات خدمت کند. فناوری هوش مصنوعی، همانطور که قدرتمندتر میشود، بیشتر قادر به پیشبینی حملاتی میشود که ما هنوز تصورش را نکردهایم.
اما فیلیپ ریتینگر، مدیرعامل اتحاد جهانی سایبری میگوید: ما باید خدماتی را ارائه کنیم که امنیت سایبری را در خود داشته باشد. توسعه محصولات و خدماتی که از هوش مصنوعی برای دفاع فعالانه علیه حملات سایبری استفاده میکنند، مهم است. ما باید خدماتی را ارائه کنیم که امنیت سایبری را در خود داشته باشد. پتانسیل بزرگ هوش مصنوعی، توانایی ارائه آن خدمات زیربنایی را به یک روش امنتر امکانپذیر میکند.
انسان در مقابل ماشین
اما اکنون این سوال مطرح میشود که آیا پیشرفت در هوش مصنوعی تأثیر منفی بر انسان خواهد داشت؟ لوییجی ریبافی، دبیر کل سازمان امنیت سایبری اروپایی (ECSO) میگوید: فاکتور انسانی همیشه مهمتر از فناوری خواهد بود. از طرفی سرژ دروز، معاون شرکت CERT و رئیس هیاتمدیره FIRST میگوید: من واقعاً در مورد ماشینهایی که وظایف انسان ها را به عهده میگیرند نگران نیستم. من نگران غرق شدن در باتلاقی از ماشینهایی هستم که کامل نیستند.
مهندسان همچنان نقش حیاتی در طراحی الگوریتمهای جامع، امن و موثر دارند. به گفته ایلیا کولوشنکو، مدیرعامل شرکت High-Tech Bridge ، برخی افراد فکر میکنند که با هوش مصنوعی، امکان حذف افراد وجود دارد. اما فناوری هوش مصنوعی به همان اندازه کارآمد است که افرادی که آن را طراحی کردهاند، هستند. همچنین میهو ناگانوما، مدیر اداره تحقیقات رگولاتوری و بخش استراتژی امنیت سایبری شرکت NEC میگوید: هوش مصنوعی نیاز به حضور متخصصان با مهارت را ایجاد میکند زیرا تصمیم آخر باید توسط انسان گرفته شود.
چطور هوش مصنوعی اخلاقی و کامل ایجاد کنیم؟
مقررات هوش مصنوعی نه تنها باید امنیت و ایمنی را در نظر بگیرد، بلکه اخلاق و جامعیت را نیز باید مد نظر داشته باشد. مایک بست، مدیر موسسه دانشگاهی سازمان ملل متحد در محاسبات و جامعه (UNU-C) میگوید: ما همه باید با چشمان کاملاً باز و با ملاحظات اخلاقی و موضوعاتی که از ابتدا مطرح شده است، وارد این سیستمها شویم.
هوش مصنوعی به جای اینکه جایگزین انسان شود، به ما امکان میدهد با انجام وظایف سنگین و روزمره، از آنچه که انسان میتواند تعریف کند، فراتر برویم و فراتر از آنچه که میتوانیم تصور کنیم را ببینیم.
به گفته آرون کلینر، مدیر صنعت بیمه و حمایت از سیاستهای شرکت مایکروسافت، مقررات باید از هوش مصنوعی انسانمحور حمایت کند. از طرفی هوش مصنوعی نه تنها جایگزین افراد نمیشود بلکه آنها را قادر میسازد کارهای بیشتری را انجام دهند.
بسیاری از مباحث مرتبط با هوش مصنوعی بر نیاز به هماهنگی مقرراتگذاری بین پیشرفت نوآوری و اطمینان از امنیت و اعتماد، تاکید میکنند. به گفته دروز، اطمینان از قابل اعتماد بودن اطلاعات، ستون اصلی هوش مصنوعی و خدمات قابل اعتماد خواهد بود. همچنین هر خدمات هوش مصنوعی که میخواهد رقابت کند، باید اطمینان حاصل کند که از دادهها و فیلترها به روشی مفید استفاده میکند.
گایدر بالسایتایت، مدیر توسعه دولتی و بینالمللی ثبت آمار توسعه نروژ (NRD) بر اهمیت چارچوبهای در حال توسعه برای اطمینان از ایمنی، تاکید کرده و میگوید: فناوری حل و فصل موضوعات را امکانپذیر میکند، اما نمیتواند خودش را حل و فصل کند. اگر سازماندهی نداشته باشیم و نتوانیم از ظرفیتهای مرتبط بهخوبی استفاده کنیم، حتی بهسختی میتوانیم به چالشهای فناوریهای جدید بپردازیم.
ایجادکنندگان هوش مصنوعی و رگولاتورها باید اخلاق شامل میزان فراگیر بودن الگوریتمها را نیز در نظر بگیرند. هماهنگی هدف بین خدمات اتوماتیک ماشینی و انسان، موضوعی است که از لحاظ طراحی، کدگذاری و تبدیل آن اصول به مدلهای تجاری کنونی و آینده باید مورد بررسی قرار گیرد. پیشروی با موثرترین و امنترین مقررات هوش مصنوعی نیازمند آگاهی زیاد از فناوری از یک سو و رویکرد هماهنگ سیاستگذاران، بخش خصوصی و رگولاتورها از سوی دیگر است.
محمد عزیزی، رئیس سازمان تنظیم مقررات و ارتباطات افغانستان (رگولاتوری افغانستان)، نیز بر اهمیت هماهنگی تاکید کرده و میگوید: در جهانی که امنیت سایبری و هوش مصنوعی در اینترنت اشیاء در شماری از موضوعات اهمیت فزایندهای دارد، بهویژه در سیستمهای مخصوص سلامت دیجیتال، زیرساختهای دیجیتال و سیستمهای امنیتی و حمل و نقل، آنچه اهمیت دارد این است که سازمانهای اجرای قانون و رگولاتورها نمیتوانند بهتنهایی عمل کنند- واقعاً ضروری است که آنها با یکدیگر کار کنند.
انتهای پیام