/اخلاقیات در هوش مصنوعی/

هوش مصنوعی اخلاق‌مدار است؟

عضو هیئت علمی گروه مدیریت فناوری اطلاعات دانشگاه فردوسی مشهد گفت: مفهوم اخلاقیات در هوش مصنوعی به مجموعه‌ای از اصول، نگرش، استاندارد و واقعیت‌هایی اطلاق می‌شود که به افراد اطمینان می‌دهد، فناوری‌های مبتنی بر هوش مصنوعی به‌طور مسئولانه و با رعایت نکات اخلاقی بدون آسیب رساندن به جامعه و محیط، به کار گرفته می‌شوند.

روح‌الله‌ باقری در گفت‌وگو با ایسنا در خصوص اخلاقیات در هوش مصنوعی اظهار کرد: اخلاقیات در حوزه هوش مصنوعی به افراد اطمینان می‌دهد که فناوری‌های مبتنی بر هوش مصنوعی با رعایت نکات اخلاقی بدون آسیب رساندن به کار گرفته می‌شوند و ما از ابزار هوش مصنوعی جهت برون‌داده‌ها و دریافت خروجی‌های خارج از چهارچوب اخلاقیات، انتظاری نداریم.

وی با اشاره به دامنه گسترده‌ اصول اخلاقی گفت: اصول بر اساس اینکه در کجا و چگونه اخلاقیات را تعریف کنیم، مطرح می‌شوند و به‌طور کلی شامل اصل شفافیت، پاسخگویی مسئولانه یا عدالت و احترام به حریم خصوصی هستند. هوش مصنوعی باید طوری طراحی شود که هم شفافیت را در نظر بگیرد، هم پاسخگویی مسئولانه به همراه داشته باشد، همچنین هم عدالت را در نظر قرار دهد و هم مباحث مرتبط با احترام به حریم خصوصی افراد را رعایت کند. هوش مصنوعی می‌تواند تاثیرات شگرف و زیادی بر زندگی افراد و تصمیم‌گیری‌های آنان بگذارد و اگر مسائل اخلاقی در حوزه هوش مصنوعی رعایت نشود اصل اول هوش مصنوعی که به نوعی ایجاد جریان آزاد اطلاعاتی است را نقض می‌کند؛ یعنی به نوعی خود هوش مصنوعی باعث ایجاد تبعیض و نقض حریم خصوصی و نامسولانه رفتار کردن در مقابل شفافیت و عدم عدالت خواهد بود که این موضوع می‌تواند تاثیرات منفی دیگری در همه زمینه‌های مرتبط با آن از جمله حوزه آموزش ایجاد کند.

مسائل سیاسی، اقتصادی، فرهنگی و اجتماعی، چاقوهای دو لبه در توسعه هوش مصنوعی

باقری بیان کرد: مسائل سیاسی، اقتصادی، فرهنگی و جهت‌گیری‌های اجتماعی، چاقوهای دو لبه در توسعه و به‌کارگیری صنایع و فناوری‌های مرتبط با هوش مصنوعی هستند. به نوعی سیاست‌های حاکمیتی و مسائل اقتصادی ممکن است موجب تسریع یا حتی کند شدن توسعه فناوری‌های هوش مصنوعی شوند یعنی ممکن است برخی از مسائل سیاسی اقتضا کند تا فناوری‌های مرتبط با هوش مصنوعی محدود شوند و توسعه پیدا نکند زیرا ممکن است منجر به گسترش بی‌عدالتی و تبعیض همچنین نقض حریم خصوصی و مباحثی از این قبیل شوند.

استاد دانشگاه فردوسی اشاره کرد: برخی از مباحث اقتصادی ممکن است سودآوری بالاتری برای شرکت‌های خصوصی رقم بزند و فناوری هوش مصنوعی در زمینه خاصی توسعه پیدا کند و نقطه مقابل آن ممکن است برخی از فناوری‌های هوش مصنوعی موجب بروز جنبش‌ها و حرکت‌هایی در سطح جامعه شوند که از نظر حاکمیتی مورد قبول واقع نمی‌شوند و همین مسئله دوگانگی ایجاد کند. بنابراین مسائل سیاسی، اقتصادی، اجتماعی و فرهنگی هر کدام مثل چاقوهای دو لبه عمل می‌کنند هم می‌توانند موجب تسریع و هم می‌توانند منجر به محدود کردن توسعه هوش مصنوعی شوند اما چه موجب تسریع، چه موجب تهدید یا محدود کردن شوند باید چهارچوب‌های اخلاقی در حوزه ملی و بین‌المللی و چهارچوب‌های قانونی جامع‌تری برای نظارت بر فرایند توسعه هوش مصنوعی کشورها و جوامع بین‌الملل در نظر گرفته شود. آنچه در حوزه اخلاق می‌گنجد در حوزه اخلاق آورده شود و آنچه اخلاق قادر به پاسخگویی به آن نیست در حوزه قانون ذکر شود؛ وقتی یک اصل اخلاقی دارید این اصل از جنس «باید» خواهد بود، یعنی بهتر است که رعایت شود البته ممکن است بعضی از افراد این اصول اخلاقی را رعایت نکنند به همین دلیل باید از حوزه اخلاقیات خارج و به حوزه قانون سپرده شود که به «باید اجباری» تبدیل می‌شوند.

اساسی‌ترین چالش هوش مصنوعی، مسئله سوگیری الگوریتمی است

باقری در مورد چالش‌های کنونی هوش مصنوعی اخلاقی و مسئله سوگیری اظهار کرد: چند چالش اساسی در این مورد وجود دارد که اغلب این چالش‌ها برگرفته از محتوای واقعی زندگی ماست و به الگوریتم هوش مصنوعی مربوط نمی‌شود، بلکه الگوریتم‌ها از محتوای زندگی ما الگو می‌گیرند و اساسی‌ترین چالشی که ممکن است هوش مصنوعی دچار آن شود، مسئله سوگیری الگوریتمی است. فرض کنید مجموعه داده‌هایی در دنیای واقعی وجود دارد که با تحلیل این داده‌ها هوش مصنوعی تصمیم می‌گیرد بیشترین امتیاز را به یک گروه خاص یا یک جامعه آماری خاص بدهد به‌عنوان مثال در تحلیل داده‌ها به این نتیجه رسیده است که جنسیت بر نحوه انجام یک کار خاص تاثیر دارد، الگوریتم ناخواسته در یک حفره سوگیری قرار گرفته است و این مسئله را جنسیتی می‌کند که لزوماً به معنی درست بودن نتایج برای تمام جوامع آماری نیست. در همین مثال جنسیتی، مشخص می‌شود که یادگیری مفاهیم مرتبط با هنر برای بانوان باکیفیت بالاتری همراه است و هوش مصنوعی این مورد را از دنیای واقعی الگوگیری کرده و در تحلیل‌ها از آن استفاده می‌کند.

وی با اشاره به نقض حریم خصوصی گفت: داده‌هایی که در تحلیل‌ها استفاده می‌شوند داده‌های انسانی و داده‌های سیستم‌های مختلف هستند که این داده‌ها به‌صورت مستقیم و غیر مستقیم با حریم خصوصی افراد سر و کار دارند پس نقض حریم خصوصی از دیگر چالش‌های اساسی در حوزه هوش مصنوعی محسوب می‌شود که چارچوب اخلاقی، آن را از نقض حریم خصوصی منع می‌کند. مورد بعدی بحث فقدان و نبودن شفافیت در نحوه عملکرد الگوریتم‌هاست. الگوریتم هوش مصنوعی داریم که برای منع ناظر انسانی جعبه سیاه دارد که این الگوریتم‌ توسط داده‌های دیگری آموزش دیده که ممکن است از قبل در آن داده‌ها سوگیری وجود داشته باشد و همان سوگیری به الگوریتم‌ها منتقل شود و این الگوریتم‌ها عملکرد توأم با سوگیری را انجام می‌دهند به عبارتی، ناظر انسانی نمی‌تواند عملکرد الگوریتم هوش مصنوعی را با دقت بررسی کند چون الگوریتم هوش مصنوعی الگوریتم‌های ایجاد شده هستند و این نبود شفافیت در نحوه عملکرد الگوریتم خودش به‌عنوان چالش بسیار اساسی است.

با وجود دقت فراوان نمی‌توان به هوش مصنوعی اعتماد کرد

عضو هیئت علمی گروه مدیریت فناوری اطلاعات دانشگاه فردوسی مشهد در خصوص اعتماد به هوش مصنوعی گفت: الگوریتم‌ها یاد می‌گیرند که چطور کلاهبرداری کنند و چطور بهره‌کشی احساسی از انسان‌ها انجام دهند که بسیار بسیار موضوع خطرناکی است طوری‌که در خیلی موارد نمی‌توان به الگوریتم هوش مصنوعی با وجود دقت فراوان آن اعتماد کرد. برخی از الگوریتم‌ها ممکن است داده‌هایی را برای یادگیری به کار ببرند که این داده‌ها بدون اینکه تهیه‌کننده و منبع آنها مشخص باشد تبعیض جنسیتی یا تبعیض نژادی یا تبعیض فرهنگی را در خود دارند که همین تبعیض به‌طور مستقیم به الگوریتم منتقل می‌شود و الگوریتم در عملکرد خودش این نکته را لحاظ می‌کند، به‌عنوان مثال سیستم تشخیص چهره‌ای طراحی می‌شود و این سیستم تشخیص چهره در تشخیص چهره زنان یا در تشخیص چهره افراد رنگین پوست یا در تشخیص چهره افرادی با ویژگی‌های خاص دقیق عمل نمی‌کند چرا؟ چون داده‌هایی که به این ماشین داده شده به اندازه کافی نبوده تا عملکرد بهتری صورت بگیرد پس در تشخیص چهره زنان، در تشخیص چهره افراد رنگین پوست و در تشخیص چهره افراد با ویژگی‌های چهره خاص نمی‌تواند دقیقا عمل کند یعنی ما ناخواسته سوگیری دنیای واقعی را به سمت الگوریتم بردیم و الگوریتم را دچار سوگیری کردیم.

وی تصریح کرد: هیچ تضمینی در حفظ حریم خصوصی در هوش مصنوعی وجود ندارد اما می‌توانیم با تکنیک‌هایی این موضوع را تاحدودی تعدیل کنیم اما نمی‌توان آن را به‌طور کامل از بین برد به‌عنوان مثال روش‌هایی نظیر یادگیری فدرال را می‌توانیم به کار ببریم که داده‌های حساس به صورت محلی پردازش شوند. یعنی داده‌های با حساسیت‌ زیاد را به سمت سرورهای مرکزی هوش مصنوعی نمی‌فرستیم بلکه به صورت محلی این داده‌ها را پردازش می‌کنیم. در این روش داده‌های قومیتی، داده‌های فرهنگی، داده‌های جغرافیایی خاص را در سرورهای محلی هوش مصنوعی مورد پردازش قرار داده سپس این داده‌ها رمزگذاری می‌شوند و به نوعی با تکنیک‌های ناشناس‌سازی به صورت داده‌های ناشناس به سمت سرورهای مرکزی ارسال می‌شوند تا مورد تحلیل قرار بگیرند. به این ترتیب داده‌هایی که با استفاده از تکنیک فدرال به سمت سرورهای مرکزی هوش مصنوعی می‌روند به حفظ حریم خصوصی کمک می‌کنند.

باقری در مورد ایجاد هوش مصنوعی اخلاق‌مدار گفت: در مرحله اول باید داده‌ها، دارای شفافیت لازم باشند و از آنجایی که مباحث اخلاقی از زندگی بشر ناشی می‌شوند الگوریتم‌ها بر اساس تحلیل داده‌های مناطق جغرافیایی کره زمین مختلف خواهند بود و به همین دلیل قواعد اخلاقی نیز ممکن است متفاوت باشند اما شفافیت داده‌ها به کاربران اطمینان می‌دهد که از داده‌های آنها به‌صورت ناشناس ومسئولانه استفاده می‌شود. هرچند وقتی می‌گوییم هیچ سوگیری در داده‌های هوش مصنوعی وجود ندارد، واقعا نمی‌توانیم تضمین کنیم آیا واقعا سوگیری وجود دارد یا خیر و هیچ تضمینی در آن نیست و وقتی یادگیری هوش مصنوعی بر اساس این داده‌ها باشد شاید مدت یک ، ۲ ، ۴و یا ۵ سال طول بکشد تا پاسخ‌های سوگیرانه آن مشخص شود. همچنین باید مواردی مانند حریم خصوصی، امنیت داده، امکان پیگیری تصمیمات هوش مصنوعی و توانایی پاسخ دادن به مسائل اجتماعی و مواردی از این نوع در طراحی ماشین‌های هوشمند یا عامل‌های هوشمند در نظر گرفته شود؛ زیرا این مسائل به ما کمک می‌کنند تا وقتی داده‌ها برای یادگیری در اختیار یک ماشین و یک ایجنت قرار می‌گیرند پالایش شوند. البته ممکن است واقعا سایه اثر مسائل اجتماعی، مسائل مرتبط با حریم خصوصی، مسائل مرتبط با امنیت داده‌ها، مسائل مرتبط با پیگیری اخلاقی یا قانونی تصمیمات هوش مصنوعی را در داده‌ها کشف نکنیم و این بحث بسیار پیچیده‌ است و بهترین و دقیق‌ترین پاسخ در این مورد، گذر زمان است یعنی ۱۰ سال، ۱۵ و یا  ۲۰سال دیگر صحبت از این مسائل خیلی بی‌ارزش خواهد بود زیرا تا آن زمان هوش مصنوعی در بوته امتحان قرار می‌گیرد و خودش به این مورد پاسخ می‌دهد، به عبارتی پاسخ خودش شفاف نمایش داده می‌شود که آیا هوش مصنوعی می‌تواند به این مباحث اخلاقی پاسخ دهد یا خیر.

دانشگاه‌ها و اساتید نقش کلیدی در آموزش اصول و چارچوب‌های اخلاقی در هوش مصنوعی دارند

وی در مورد نقش دانشگاه و اساتید در زمینه اخلاقیات در هوش مصنوعی اظهار کرد: قطعاً دانشگاه‌ها و اساتید دانشگاه‌ها می‌توانند نقش کلیدی در آموزش اصول و چارچوب‌های اخلاقی در هوش مصنوعی ایفا کنند یعنی اساتید از طریق پژوهش‌هایی که در این زمینه انجام می‌شود چارچوب‌های اخلاقی هوش مصنوعی را به نسل‌های آینده منتقل کنند. همچنین برگزاری کارگاه‌های آموزشی می‌تواند باعث تنویر افکار عمومی و دانشجویان شود تا بتوانند نسبت به مباحث اخلاقی حساسیت لازم و مناسب را داشته باشند. دانشگاه‌ها و اساتید دانشگاه‌ها می‌توانند مفاهیمی از جمله حریم خصوصی، عدالت و شفافیت را که در حوزه اخلاقیات در هوش مصنوعی بیان شد را در سطح جامعه رواج دهند یعنی نقش اثرگذاری اجتماعی داشته باشند و در کنار این موضوع، می‌توانند مستقل از مباحث دیگر، چارچوب‌ها و استانداردهای اخلاقی را که حاصل پژوهش تحقیق و آموزش است را طراحی کنند و در اختیار سازمان‌های ذیربط برای نظارت بر توسعه فناوری‌های هوش مصنوعی قرار دهند.

انتهای پیام

  • دوشنبه/ ۳ دی ۱۴۰۳ / ۱۳:۴۷
  • دسته‌بندی: خراسان رضوی
  • کد خبر: 1403100301973
  • خبرنگار : 50072