فاطمه کنعانی، عضو هیاتعلمی پژوهشکده مطالعات فناوری در یادداشتی که «فرهیختگان» منتشر کرده، نوشت: این، جملهای بسیار عمیق و تأملبرانگیز است. با این حال، پیامدهای منفی و خطراتی که میتوان برای این فناوری متصور شد، کافی است تا به مقولهای حولانگیز تبدیل شود. استیفن هاوکینگ، فیزیکدان و دانشمند برجسته انگلیسی نیز گفته است: «موفقیت در ایجاد هوش مصنوعی موثر، میتواند بزرگترین یا بدترین رویداد تاریخ تمدن بشر باشد، مگر اینکه یاد بگیریم چگونه خود را برای رویارویی با خطرات احتمالی آن آماده کرده و از آنها اجتناب کنیم.»
البته درمورد بسیاری از فناوریها، بررسی مخاطرات و خطرات جانبی آنها بر تمدن بشر حائز اهمیت است اما ظرفیت تقریبا نامحدود و وهمانگیز و ماهیت عدم قطعیت هوش مصنوعی، بر اهمیت موضوع افزوده است. برای مثال، طبق پیشبینیهای آژانس جاسوسی ایالات متحده درمورد فناوریهای دیجیتال و پیشرفتهای هوش مصنوعی در سال ۲۰۴۰ «هم دولتها و هم بازیگران غیردولتی تقریبا بهطور قطع میتوانند از این ابزارها برای تاثیرگذاری بر جوامع، با افزایش دستکاریهای شناختی۲ و قطبیسازی اجتماعی۳ استفاده کنند.» این قبیل مسائل با اشتباهات جزئی در الگوریتمها، دادههای ورودی، مدلها و... شروع میشوند و در فرآیند تصمیمگیری رشد میکنند. بنابراین قبل از بروز آنها، دولتها و سازمانها باید بهخوبی نسبت به چهارچوب مشخص و راه مهارشان آگاهی کسب کنند.
یکی از مخاطراتی که هوش مصنوعی میتواند ایجاد کند و خود، بهصورت دومینووار منجر به ایجاد زیانهای جبرانناپذیر شود، مخاطرات اخلاقی است. اخلاق مفهومی پیچیده است. به زبان ساده، نظامی از اصول یا قواعد و دستورالعملهایی است که کمک میکند خوب یا درست را تعیین کنیم.
اخلاق به دو دسته؛ انتزاعی و کاربردی تقسیم میشود. اخلاق کاربردی شامل اخلاق فناوری نیز هست و اخلاق هوش مصنوعی از این نوع است. اخلاق هوش مصنوعی شامل اصولی است که روی اخلاق ماشین، ربات و سایر کارگزاران هوش مصنوعی تمرکز میکند و به این سوال مهم میپردازد که توسعهدهندگان، تولیدکنندگان و اپراتورها و کاربران انسانی چگونه باید رفتار کنند تا آسیبهای اخلاقی ناشی از هوش مصنوعی در جامعه را به حداقل کاهش دهند. البته برخی از این مسائل بین سیستمهای هوش مصنوعی و سایر سیستمهای رایانهای مشترک بوده و برخی دیگر مختص هوش مصنوعی است.
در پروژهای که بهمنظور بررسی مسائل اخلاقی هوش مصنوعی انجام شد، چالشها به سه دسته تقسیم شدند:
۱. موضوعات مربوط به یادگیری ماشین؛ شامل چهار زیردسته کلی: حریم خصوصی، پایایی، شفافیت و امنیت.
۲. موضوعات مربوط به دنیای دیجیتال؛ شامل موضوعات اقتصادی (شامل از بین رفتن مشاغل، تمرکز قدرت اقتصادی، هزینه نوآوری)، عدالت و انصاف (مناقشه درمورد مالکیت داده، تاثیر منفی بر سیستم عدالت، ضعف دسترسی به خدمات عمومی، نقض حقوق بشر کاربران نهایی، نقض حقوق بشر در زنجیره ارزش، تاثیر منفی بر گروههای آسیبپذیر، بیانصافی)، آزادی (عدم دسترسی و آزادی اطلاعات، از دست رفتن قدرت تصمیمگیری انسانی، از دست دادن آزادی و استقلال فردی)، عدم قطعیت (اثرات نامطلوب ناخواسته و غیرقابل پیشبینی، اولویتگذاری مسائل نادرست و امکان استفاده مجرمانه و مخرب) و مسائل اجتماعی گستردهتر (روابط نابرابر قدرت، عدم تقارن قدرت، مسائل کنترل و استفاده از داده و سیستمها، عدم رضایت آگاهانه، عدم اعتماد، ظرفیت کاربرد در صنایع دفاعی و نظامی، تاثیر منفی بر سلامت، کاهش ارتباطات انسانی، تاثیر منفی بر محیطزیست).
۳. موضوعات و مسائل مربوط به متافیزیک؛ آگاهی ماشین ۴، بیداری هوش مصنوعی ۵، کارگزاران اخلاقی خودمختار ۶، فراهوش، تکینگی و تغییرات در طبیعت انسان.
اما در مقابل این چالشها چه باید کرد؟ آیا حکمرانی هوش مصنوعی صرفا با کسب آمادگی فنی و بدون تجهیز شدن برای کاهش مخاطرات و زیانهای ناشی از آن، امکانپذیر است؟ اگر توسعه این فناوری با محوریت اصول اخلاقی محور قرار گیرد، آیا صرفا الگوبرداری از اصول و چارچوبهای اخلاقی کشورهایی که در حوزه هوش مصنوعی پیشرو هستند، کافی است؟ اینها سوالاتی هستند که جوامع و حاکمیت برای جلوگیری از افتادن در دام هوش مصنوعی باید برای آنها به دنبال پاسخ باشند.
حکمرانی اخلاقی هوش مصنوعی، موضوعی است که به این مهم میپردازد. حکمرانی اخلاقی، مجموعهای از فرآیندها، فرهنگها و ارزشهای طراحیشده برای تضمین بالاترین میزان استاندارد رفتار انسان است. میتوان گفت که به تبع این تعریف، حکمرانی اخلاقی هوش مصنوعی، مجموعهای از فرآیندها، فرهنگها، اصول و ارزشهای طراحی شده برای جلوگیری یا مقاومت دربرابر رفتارهای غیراستاندارد و اخلاقی ماشین است. در واقع در این زمینه، آینده و جریان پیشرفت هوش مصنوعی به حدی نامشخص و غیرشفاف است که با وجود تمام تلاشها باز هم تضمین اخلاقی بودنش ادعایی بیش نیست.
جمعبندی و پیشنهاد
حکمرانی در هر جامعه، با نظام ارزشهای آن جامعه پیوندی ناگسستنی دارد. حکمرانی اخلاقی هوش مصنوعی مجموعهای از فرآیندها، فرهنگها، اصول و ارزشهای طراحی شده برای جلوگیری یا مقاومت در برابر رفتارهای غیراستاندارد و اخلاقی ماشین است. هرآنچه که بخواهد در این حد با زندگی بشر در هم تنیده شود، لازم است از اصول و کدهای اخلاقی هم تبعیت کند. بنابراین در بلندمدت کشورهایی که بتوانند هوش مصنوعی را مبتنی بر اصول و ارزشهای خود توسعه دهند، دارای مزیت استراتژیک خواهند بود.
با وجود تلاشهای گسترده جهانی که برای اخلاقمداری هوش مصنوعی انجام شده و از آن جمله میتوان به «سند توصیهنامه اخلاق هوش مصنوعی یونسکو» اشاره کرد، اتکای صِرف به این اصول کلی کافی نبوده و صدمات جبران ناپذیری برای کشور به دنبال خواهد داشت. به دیگر سخن، مشارکت ایران در تدوین این سند و اسناد مشابه، بسیار ارزشمند است و توصیه میشود اما خود نیازمند بررسی موشکافانهتر و با جزئیات بیشتری است که از ارزشها و اصول اخلاقی نشأت گرفته باشد؛ درواقع حتی اگر سرفصلهای اخلاقی کشورهای مختلف مشترک باشد، بهطور مثال همگی روی ویژگی منصفانه بودن هوش مصنوعی اتفاقنظر داشته باشند، اما تعریف و برداشتهای متفاوتی در مناطق و کشورهای مختلف نسبت به موضوع انصاف و عمق آن وجود داشته باشد.
انتهای پیام