روحالله باقری در گفتوگو با ایسنا در خصوص اخلاقیات در هوش مصنوعی اظهار کرد: اخلاقیات در حوزه هوش مصنوعی به افراد اطمینان میدهد که فناوریهای مبتنی بر هوش مصنوعی با رعایت نکات اخلاقی بدون آسیب رساندن به کار گرفته میشوند و ما از ابزار هوش مصنوعی جهت بروندادهها و دریافت خروجیهای خارج از چهارچوب اخلاقیات، انتظاری نداریم.
وی با اشاره به دامنه گسترده اصول اخلاقی گفت: اصول بر اساس اینکه در کجا و چگونه اخلاقیات را تعریف کنیم، مطرح میشوند و بهطور کلی شامل اصل شفافیت، پاسخگویی مسئولانه یا عدالت و احترام به حریم خصوصی هستند. هوش مصنوعی باید طوری طراحی شود که هم شفافیت را در نظر بگیرد، هم پاسخگویی مسئولانه به همراه داشته باشد، همچنین هم عدالت را در نظر قرار دهد و هم مباحث مرتبط با احترام به حریم خصوصی افراد را رعایت کند. هوش مصنوعی میتواند تاثیرات شگرف و زیادی بر زندگی افراد و تصمیمگیریهای آنان بگذارد و اگر مسائل اخلاقی در حوزه هوش مصنوعی رعایت نشود اصل اول هوش مصنوعی که به نوعی ایجاد جریان آزاد اطلاعاتی است را نقض میکند؛ یعنی به نوعی خود هوش مصنوعی باعث ایجاد تبعیض و نقض حریم خصوصی و نامسولانه رفتار کردن در مقابل شفافیت و عدم عدالت خواهد بود که این موضوع میتواند تاثیرات منفی دیگری در همه زمینههای مرتبط با آن از جمله حوزه آموزش ایجاد کند.
مسائل سیاسی، اقتصادی، فرهنگی و اجتماعی، چاقوهای دو لبه در توسعه هوش مصنوعی
باقری بیان کرد: مسائل سیاسی، اقتصادی، فرهنگی و جهتگیریهای اجتماعی، چاقوهای دو لبه در توسعه و بهکارگیری صنایع و فناوریهای مرتبط با هوش مصنوعی هستند. به نوعی سیاستهای حاکمیتی و مسائل اقتصادی ممکن است موجب تسریع یا حتی کند شدن توسعه فناوریهای هوش مصنوعی شوند یعنی ممکن است برخی از مسائل سیاسی اقتضا کند تا فناوریهای مرتبط با هوش مصنوعی محدود شوند و توسعه پیدا نکند زیرا ممکن است منجر به گسترش بیعدالتی و تبعیض همچنین نقض حریم خصوصی و مباحثی از این قبیل شوند.
استاد دانشگاه فردوسی اشاره کرد: برخی از مباحث اقتصادی ممکن است سودآوری بالاتری برای شرکتهای خصوصی رقم بزند و فناوری هوش مصنوعی در زمینه خاصی توسعه پیدا کند و نقطه مقابل آن ممکن است برخی از فناوریهای هوش مصنوعی موجب بروز جنبشها و حرکتهایی در سطح جامعه شوند که از نظر حاکمیتی مورد قبول واقع نمیشوند و همین مسئله دوگانگی ایجاد کند. بنابراین مسائل سیاسی، اقتصادی، اجتماعی و فرهنگی هر کدام مثل چاقوهای دو لبه عمل میکنند هم میتوانند موجب تسریع و هم میتوانند منجر به محدود کردن توسعه هوش مصنوعی شوند اما چه موجب تسریع، چه موجب تهدید یا محدود کردن شوند باید چهارچوبهای اخلاقی در حوزه ملی و بینالمللی و چهارچوبهای قانونی جامعتری برای نظارت بر فرایند توسعه هوش مصنوعی کشورها و جوامع بینالملل در نظر گرفته شود. آنچه در حوزه اخلاق میگنجد در حوزه اخلاق آورده شود و آنچه اخلاق قادر به پاسخگویی به آن نیست در حوزه قانون ذکر شود؛ وقتی یک اصل اخلاقی دارید این اصل از جنس «باید» خواهد بود، یعنی بهتر است که رعایت شود البته ممکن است بعضی از افراد این اصول اخلاقی را رعایت نکنند به همین دلیل باید از حوزه اخلاقیات خارج و به حوزه قانون سپرده شود که به «باید اجباری» تبدیل میشوند.
اساسیترین چالش هوش مصنوعی، مسئله سوگیری الگوریتمی است
باقری در مورد چالشهای کنونی هوش مصنوعی اخلاقی و مسئله سوگیری اظهار کرد: چند چالش اساسی در این مورد وجود دارد که اغلب این چالشها برگرفته از محتوای واقعی زندگی ماست و به الگوریتم هوش مصنوعی مربوط نمیشود، بلکه الگوریتمها از محتوای زندگی ما الگو میگیرند و اساسیترین چالشی که ممکن است هوش مصنوعی دچار آن شود، مسئله سوگیری الگوریتمی است. فرض کنید مجموعه دادههایی در دنیای واقعی وجود دارد که با تحلیل این دادهها هوش مصنوعی تصمیم میگیرد بیشترین امتیاز را به یک گروه خاص یا یک جامعه آماری خاص بدهد بهعنوان مثال در تحلیل دادهها به این نتیجه رسیده است که جنسیت بر نحوه انجام یک کار خاص تاثیر دارد، الگوریتم ناخواسته در یک حفره سوگیری قرار گرفته است و این مسئله را جنسیتی میکند که لزوماً به معنی درست بودن نتایج برای تمام جوامع آماری نیست. در همین مثال جنسیتی، مشخص میشود که یادگیری مفاهیم مرتبط با هنر برای بانوان باکیفیت بالاتری همراه است و هوش مصنوعی این مورد را از دنیای واقعی الگوگیری کرده و در تحلیلها از آن استفاده میکند.
وی با اشاره به نقض حریم خصوصی گفت: دادههایی که در تحلیلها استفاده میشوند دادههای انسانی و دادههای سیستمهای مختلف هستند که این دادهها بهصورت مستقیم و غیر مستقیم با حریم خصوصی افراد سر و کار دارند پس نقض حریم خصوصی از دیگر چالشهای اساسی در حوزه هوش مصنوعی محسوب میشود که چارچوب اخلاقی، آن را از نقض حریم خصوصی منع میکند. مورد بعدی بحث فقدان و نبودن شفافیت در نحوه عملکرد الگوریتمهاست. الگوریتم هوش مصنوعی داریم که برای منع ناظر انسانی جعبه سیاه دارد که این الگوریتم توسط دادههای دیگری آموزش دیده که ممکن است از قبل در آن دادهها سوگیری وجود داشته باشد و همان سوگیری به الگوریتمها منتقل شود و این الگوریتمها عملکرد توأم با سوگیری را انجام میدهند به عبارتی، ناظر انسانی نمیتواند عملکرد الگوریتم هوش مصنوعی را با دقت بررسی کند چون الگوریتم هوش مصنوعی الگوریتمهای ایجاد شده هستند و این نبود شفافیت در نحوه عملکرد الگوریتم خودش بهعنوان چالش بسیار اساسی است.
با وجود دقت فراوان نمیتوان به هوش مصنوعی اعتماد کرد
عضو هیئت علمی گروه مدیریت فناوری اطلاعات دانشگاه فردوسی مشهد در خصوص اعتماد به هوش مصنوعی گفت: الگوریتمها یاد میگیرند که چطور کلاهبرداری کنند و چطور بهرهکشی احساسی از انسانها انجام دهند که بسیار بسیار موضوع خطرناکی است طوریکه در خیلی موارد نمیتوان به الگوریتم هوش مصنوعی با وجود دقت فراوان آن اعتماد کرد. برخی از الگوریتمها ممکن است دادههایی را برای یادگیری به کار ببرند که این دادهها بدون اینکه تهیهکننده و منبع آنها مشخص باشد تبعیض جنسیتی یا تبعیض نژادی یا تبعیض فرهنگی را در خود دارند که همین تبعیض بهطور مستقیم به الگوریتم منتقل میشود و الگوریتم در عملکرد خودش این نکته را لحاظ میکند، بهعنوان مثال سیستم تشخیص چهرهای طراحی میشود و این سیستم تشخیص چهره در تشخیص چهره زنان یا در تشخیص چهره افراد رنگین پوست یا در تشخیص چهره افرادی با ویژگیهای خاص دقیق عمل نمیکند چرا؟ چون دادههایی که به این ماشین داده شده به اندازه کافی نبوده تا عملکرد بهتری صورت بگیرد پس در تشخیص چهره زنان، در تشخیص چهره افراد رنگین پوست و در تشخیص چهره افراد با ویژگیهای چهره خاص نمیتواند دقیقا عمل کند یعنی ما ناخواسته سوگیری دنیای واقعی را به سمت الگوریتم بردیم و الگوریتم را دچار سوگیری کردیم.
وی تصریح کرد: هیچ تضمینی در حفظ حریم خصوصی در هوش مصنوعی وجود ندارد اما میتوانیم با تکنیکهایی این موضوع را تاحدودی تعدیل کنیم اما نمیتوان آن را بهطور کامل از بین برد بهعنوان مثال روشهایی نظیر یادگیری فدرال را میتوانیم به کار ببریم که دادههای حساس به صورت محلی پردازش شوند. یعنی دادههای با حساسیت زیاد را به سمت سرورهای مرکزی هوش مصنوعی نمیفرستیم بلکه به صورت محلی این دادهها را پردازش میکنیم. در این روش دادههای قومیتی، دادههای فرهنگی، دادههای جغرافیایی خاص را در سرورهای محلی هوش مصنوعی مورد پردازش قرار داده سپس این دادهها رمزگذاری میشوند و به نوعی با تکنیکهای ناشناسسازی به صورت دادههای ناشناس به سمت سرورهای مرکزی ارسال میشوند تا مورد تحلیل قرار بگیرند. به این ترتیب دادههایی که با استفاده از تکنیک فدرال به سمت سرورهای مرکزی هوش مصنوعی میروند به حفظ حریم خصوصی کمک میکنند.
باقری در مورد ایجاد هوش مصنوعی اخلاقمدار گفت: در مرحله اول باید دادهها، دارای شفافیت لازم باشند و از آنجایی که مباحث اخلاقی از زندگی بشر ناشی میشوند الگوریتمها بر اساس تحلیل دادههای مناطق جغرافیایی کره زمین مختلف خواهند بود و به همین دلیل قواعد اخلاقی نیز ممکن است متفاوت باشند اما شفافیت دادهها به کاربران اطمینان میدهد که از دادههای آنها بهصورت ناشناس ومسئولانه استفاده میشود. هرچند وقتی میگوییم هیچ سوگیری در دادههای هوش مصنوعی وجود ندارد، واقعا نمیتوانیم تضمین کنیم آیا واقعا سوگیری وجود دارد یا خیر و هیچ تضمینی در آن نیست و وقتی یادگیری هوش مصنوعی بر اساس این دادهها باشد شاید مدت یک ، ۲ ، ۴و یا ۵ سال طول بکشد تا پاسخهای سوگیرانه آن مشخص شود. همچنین باید مواردی مانند حریم خصوصی، امنیت داده، امکان پیگیری تصمیمات هوش مصنوعی و توانایی پاسخ دادن به مسائل اجتماعی و مواردی از این نوع در طراحی ماشینهای هوشمند یا عاملهای هوشمند در نظر گرفته شود؛ زیرا این مسائل به ما کمک میکنند تا وقتی دادهها برای یادگیری در اختیار یک ماشین و یک ایجنت قرار میگیرند پالایش شوند. البته ممکن است واقعا سایه اثر مسائل اجتماعی، مسائل مرتبط با حریم خصوصی، مسائل مرتبط با امنیت دادهها، مسائل مرتبط با پیگیری اخلاقی یا قانونی تصمیمات هوش مصنوعی را در دادهها کشف نکنیم و این بحث بسیار پیچیده است و بهترین و دقیقترین پاسخ در این مورد، گذر زمان است یعنی ۱۰ سال، ۱۵ و یا ۲۰سال دیگر صحبت از این مسائل خیلی بیارزش خواهد بود زیرا تا آن زمان هوش مصنوعی در بوته امتحان قرار میگیرد و خودش به این مورد پاسخ میدهد، به عبارتی پاسخ خودش شفاف نمایش داده میشود که آیا هوش مصنوعی میتواند به این مباحث اخلاقی پاسخ دهد یا خیر.
دانشگاهها و اساتید نقش کلیدی در آموزش اصول و چارچوبهای اخلاقی در هوش مصنوعی دارند
وی در مورد نقش دانشگاه و اساتید در زمینه اخلاقیات در هوش مصنوعی اظهار کرد: قطعاً دانشگاهها و اساتید دانشگاهها میتوانند نقش کلیدی در آموزش اصول و چارچوبهای اخلاقی در هوش مصنوعی ایفا کنند یعنی اساتید از طریق پژوهشهایی که در این زمینه انجام میشود چارچوبهای اخلاقی هوش مصنوعی را به نسلهای آینده منتقل کنند. همچنین برگزاری کارگاههای آموزشی میتواند باعث تنویر افکار عمومی و دانشجویان شود تا بتوانند نسبت به مباحث اخلاقی حساسیت لازم و مناسب را داشته باشند. دانشگاهها و اساتید دانشگاهها میتوانند مفاهیمی از جمله حریم خصوصی، عدالت و شفافیت را که در حوزه اخلاقیات در هوش مصنوعی بیان شد را در سطح جامعه رواج دهند یعنی نقش اثرگذاری اجتماعی داشته باشند و در کنار این موضوع، میتوانند مستقل از مباحث دیگر، چارچوبها و استانداردهای اخلاقی را که حاصل پژوهش تحقیق و آموزش است را طراحی کنند و در اختیار سازمانهای ذیربط برای نظارت بر توسعه فناوریهای هوش مصنوعی قرار دهند.
انتهای پیام