• شنبه / ۲۷ خرداد ۱۴۰۲ / ۱۸:۵۷
  • دسته‌بندی: رسانه دیگر
  • کد خبر: 1402032717668
  • خبرنگار : 71611

حکمرانی اخلاقی برای حفظ تمدن بشر در عصر هوش مصنوعی

حکمرانی اخلاقی برای حفظ تمدن بشر در عصر هوش مصنوعی

همه‌چیز از این سوال آلن تورینگ آغاز شد؛ «آیا ماشین‌‏ها می‏توانند فکر کنند؟» تلاش‌های دانشمندان و متخصصان برای پاسخ به این سوال، موجب ایجاد و توسعه هوش مصنوعی شده است. امروزه دامنه این پیشرفت‌‏ها تا جایی گسترده شده که همه زندگی بشر را احاطه کرده است. کمتر کسی است که بر مزایای بالقوه توسعه این فناوری، اذعان نداشته باشد. به عقیده «مکس تگمارک»۱، «هرآنچه درمورد تمدن، مورد پسند بشر است، محصول هوش است. لذا تقویت هوش انسانی توسط هوش مصنوعی، تا جایی‏‌ که بتوان آن را مدیریت کرد، می‌‏تواند به شکوفایی تمدن منجر شود».

فاطمه کنعانی، عضو هیات‌علمی پژوهشکده مطالعات فناوری در یادداشتی که «فرهیختگان» منتشر کرده، نوشت: این، جمله‏ای بسیار عمیق و تأمل‌برانگیز است. با این حال، پیامدهای منفی و خطراتی که می‏توان برای این فناوری متصور شد، کافی است تا به مقوله‏‌ای حول‌‏انگیز تبدیل شود. استیفن هاوکینگ، فیزیکدان و دانشمند برجسته انگلیسی نیز گفته است: «موفقیت در ایجاد هوش مصنوعی موثر، می‏‌تواند بزرگ‌ترین یا بدترین رویداد تاریخ تمدن بشر باشد، مگر اینکه یاد بگیریم چگونه خود را برای رویارویی با خطرات احتمالی آن آماده کرده و از آنها اجتناب کنیم.»

البته درمورد بسیاری از فناوری‏‌ها، بررسی مخاطرات و خطرات جانبی آنها بر تمدن بشر حائز اهمیت است اما ظرفیت تقریبا نامحدود و وهم‌‏انگیز و ماهیت عدم قطعیت هوش مصنوعی، بر اهمیت موضوع افزوده است. برای مثال، طبق پیش‌بینی‌های آژانس جاسوسی ایالات متحده درمورد فناوری‌های دیجیتال و پیشرفت‌های هوش مصنوعی در سال ۲۰۴۰ «هم دولت‌ها و هم بازیگران غیردولتی تقریبا به‌طور قطع می‌توانند از این ابزارها برای تاثیرگذاری بر جوامع، با افزایش دستکاری‌های شناختی۲ و قطبی‌سازی اجتماعی۳ استفاده کنند.» این قبیل مسائل با اشتباهات جزئی در الگوریتم‏‌ها، داده‌‏های ورودی، مدل‏‌ها و... شروع می‌شوند و در فرآیند تصمیم‌گیری رشد می‌کنند. بنابراین قبل از بروز آنها، دولت‌‏ها و سازمان‏‌ها باید به‌خوبی نسبت به چهارچوب مشخص و راه‏ مهارشان آگاهی کسب کنند. 

یکی از مخاطراتی که هوش مصنوعی می‌‏تواند ایجاد کند و خود، به‌صورت دومینووار منجر به ایجاد زیان‏‌های جبران‌‏ناپذیر شود، مخاطرات اخلاقی است. اخلاق مفهومی پیچیده است. به زبان ساده، نظامی از اصول یا قواعد و دستورالعمل‌‏هایی است که کمک می‏کند خوب یا درست را تعیین کنیم. 

اخلاق به دو دسته؛ انتزاعی و کاربردی تقسیم می‌‏شود. اخلاق کاربردی شامل اخلاق فناوری نیز هست و اخلاق هوش مصنوعی از این نوع است. اخلاق هوش مصنوعی شامل اصولی است که روی اخلاق ماشین، ربات‏ و سایر کارگزاران هوش مصنوعی تمرکز می‏کند و به این سوال مهم می‏‌پردازد که توسعه‏‌دهندگان، تولیدکنندگان و اپراتورها و کاربران انسانی چگونه باید رفتار کنند تا آسیب‌های اخلاقی ناشی از هوش مصنوعی در جامعه را به حداقل کاهش دهند. البته برخی از این مسائل بین سیستم‌های هوش مصنوعی و سایر سیستم‌های رایانه‌‏ای مشترک بوده و برخی دیگر مختص هوش مصنوعی است. 

در پروژه‏ای که به‌منظور بررسی مسائل اخلاقی هوش مصنوعی انجام شد، چالش‌ها به سه دسته تقسیم شدند:

۱. موضوعات مربوط به یادگیری ماشین؛ شامل چهار زیردسته کلی: حریم خصوصی، پایایی، شفافیت و امنیت.

۲.  موضوعات مربوط به دنیای دیجیتال؛ شامل موضوعات اقتصادی (شامل از بین رفتن مشاغل، تمرکز قدرت اقتصادی، هزینه نوآوری)، عدالت و انصاف (مناقشه درمورد مالکیت داده، تاثیر منفی بر سیستم عدالت، ضعف دسترسی به خدمات عمومی، نقض حقوق‌ بشر کاربران نهایی، نقض حقوق‌ بشر در زنجیره ارزش، تاثیر منفی بر گروه‏‌های آسیب‏پذیر، بی‌انصافی)، آزادی (عدم دسترسی و آزادی اطلاعات، از دست رفتن قدرت تصمیم‌‏گیری انسانی، از دست دادن آزادی و استقلال فردی)، عدم قطعیت (اثرات نامطلوب ناخواسته و غیرقابل پیش‏‌بینی، اولویت‏‌گذاری مسائل نادرست و امکان استفاده مجرمانه و مخرب) و مسائل اجتماعی گسترده‏‌تر (روابط نابرابر قدرت، عدم تقارن قدرت، مسائل کنترل و استفاده از داده و سیستم‌ها، عدم رضایت آگاهانه، عدم اعتماد، ظرفیت کاربرد در صنایع دفاعی و نظامی، تاثیر منفی بر سلامت، کاهش ارتباطات انسانی، تاثیر منفی بر محیط‌زیست).

۳. موضوعات و مسائل مربوط به متافیزیک؛ آگاهی ماشین ۴، بیداری هوش مصنوعی ۵، کارگزاران اخلاقی خودمختار ۶، فراهوش، تکینگی و تغییرات در طبیعت انسان.

اما در مقابل این چالش‌ها چه باید کرد؟ آیا حکمرانی هوش مصنوعی صرفا با کسب آمادگی فنی و بدون تجهیز شدن برای کاهش مخاطرات و زیان‌‏های ناشی از آن، امکان‏پذیر است؟ اگر توسعه این فناوری با محوریت اصول اخلاقی محور قرار گیرد، آیا صرفا الگوبرداری از اصول و چارچوب‌های اخلاقی کشورهایی که در حوزه هوش مصنوعی پیشرو هستند، کافی است؟ اینها سوالاتی هستند که جوامع و حاکمیت برای جلوگیری از افتادن در دام هوش مصنوعی باید برای آنها به دنبال پاسخ باشند.

حکمرانی اخلاقی هوش مصنوعی، موضوعی است که به این مهم می‏پردازد. حکمرانی اخلاقی، مجموعه‌‏ای از فرآیندها، فرهنگ‏‌ها و ارزش‌های طراحی‌‏شده برای تضمین بالاترین میزان استاندارد رفتار انسان است. می‌‏توان گفت که به تبع این تعریف، حکمرانی اخلاقی هوش مصنوعی، مجموعه‌‏ای از فرآیندها، فرهنگ‏‌ها، اصول و ارزش‌های طراحی‏‌ شده برای جلوگیری یا مقاومت دربرابر رفتارهای غیراستاندارد و اخلاقی ماشین است. در واقع در این زمینه، آینده و جریان پیشرفت هوش مصنوعی به حدی نامشخص و غیرشفاف است که با وجود تمام تلاش‌ها باز هم تضمین اخلاقی بودنش ادعایی بیش نیست. 

جمع‌‏بندی و پیشنهاد

حکمرانی در هر جامعه، با نظام ارزش‌های آن جامعه پیوندی ناگسستنی دارد. حکمرانی اخلاقی هوش مصنوعی مجموعه‏ای از فرآیندها، فرهنگ‌‏ها، اصول و ارزش‌های طراحی‏ شده برای جلوگیری یا مقاومت در برابر رفتارهای غیراستاندارد و اخلاقی ماشین است. هرآنچه که بخواهد در این حد با زندگی بشر در هم تنیده شود، لازم است از اصول و کدهای اخلاقی هم تبعیت کند. بنابراین در بلندمدت کشورهایی که بتوانند هوش مصنوعی را مبتنی‌ بر اصول و ارزش‌های خود توسعه دهند، دارای مزیت استراتژیک خواهند بود. 

با وجود تلاش‌های گسترده جهانی که برای اخلاق‌‏مداری هوش مصنوعی انجام شده و از آن جمله می‏توان به «سند توصیه‌‏نامه اخلاق هوش مصنوعی یونسکو» اشاره کرد، اتکای صِرف به این اصول کلی کافی نبوده و صدمات جبران ناپذیری برای کشور به دنبال خواهد داشت. به دیگر سخن، مشارکت ایران در تدوین این سند و اسناد مشابه، بسیار ارزشمند است و توصیه می‌‏شود اما خود نیازمند بررسی موشکافانه‌تر و با جزئیات بیشتری است که از ارزش‌ها و اصول اخلاقی نشأت گرفته باشد؛ درواقع حتی اگر سرفصل‏‌های اخلاقی کشورهای مختلف مشترک باشد، به‌طور مثال همگی روی ویژگی منصفانه بودن هوش مصنوعی اتفاق‌‏نظر داشته باشند، اما تعریف و برداشت‌‏های متفاوتی در مناطق و کشورهای مختلف نسبت به موضوع انصاف و عمق آن وجود داشته باشد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha