به گزارش ایسنا، دکتر علیرضا منجمی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت» که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، گفت: وضعیتهایی که «خودفهمی» ما را از وضعیت انسانی ما به چالش میکشد، جایی است که در آن پرسشهای فلسفی مهم میشود. هوش مصنوعی چنین وضعیتی است و خودفهمی ما را به چالش کشیده است.
وی با بیان اینکه برای بررسی تاثیرات هوش مصنوعی باید بین ریسک و خطر تمایز قائل شد، گفت: وقتی میگوییم چیزی خطرناک است یعنی به ما آسیب میرساند، ولی وقتی میگوییم ریسک دارد یعنی احتمال اینکه به ما سود برساند، وجود دارد. در مورد استفاده از هوش مصنوعی میگوییم که استفاده از آن ریسک دارد و به این معنی نیست که خطرناک است.
هوش مصنوعی چه ریسکهایی به همراه دارد؟
استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی در مورد ریسکهای هوش مصنوعی خاطر نشان کرد: به دلیل اینکه این تکنولوژی همواره در حال تغییر است ممکن است هر لحظه ریسکهای آن نیز متفاوت باشد. آخرین ریسکهای هوش مصنوعی در حال حاضر را مرکز ایمنی هوش مصنوعی یا Center for AI Safety آخرین ریسکهای هوش مصنوعی را فهرست کرده است.
وی در مورد این ریسکها توضیح داد: یکی از این ریسکها این است که احتمال این وجود دارد که هوش مصنوعی به سلاح تبدیل شود و این در حوزه پزشکی اهمیت زیادی دارد. ریسک دیگر این است که هوش مصنوعی اطلاعات غلط به ما بدهد و این از آن جهت اهمیت دارد که این اطلاعات غلط را چگونه باید تشخیص داد و خطا را چه کسی باید اطلاع دهد؟
منجمی با بیان اینکه یکی از خطرات هوش مصنوعی تغییر ارزشها و اهداف است، گفت: سومین خطر هوش مصنوعی آن است که این سیستمها به مرور ارزشها و اهدافی را به ما ارائه کنند و به مرور ارزشها و اهداف را تغییر دهند. مثل رفتارهایی که افراد در پلتفرمهای اجتماعی انجام میدهند که خیلی رادیکال است در صورتی که ممکن است در دنیای واقعی افراد رادیکالی نباشند.
وی یکی از خطرات دیگر را تضعیفسازی دانست و گفت: وقتی وظایف را از دوش انسانها برمیداریم، انسانها ناتوان میشوند. مثل دستخط افراد که الان که همه تایپ میکند، به تدریج بدتر شده است. همچنین اینکه دادهها در انحصار چند کمپانی بزرگ است نیز یکی دیگر از خطرات است.
استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان اینکه هوش مصنوعی ممکن است اهداف و ارزشهای جدیدی را تولید کند، گفت: تکنولوژی چند ویژگی دارد. تکنولوژی بیقرار است و خودکار است و هیچ راهی وجود ندارد که بتوان متوقفش کرد ولی این به آن معنی نیست که ارزشهای تکنولوژی را بپذیریم. فریبکاری و خطرهای قدرت طلبانه نیز از دیگر خطرات این تکنولوژی هستند.
ما در حباب تکنولوژیک زندگی میکنیم
منجمی، مواجهه تکنولوژی و پزشکی را بسیار با اهمیت دانست و گفت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه میتوانسیتم آن را درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژیها جزئی از انسان است. به همین دلیل درمان بدون در نظر گرفتن تکنولوژی امکانپذیر نیست.
وی با بیان اینکه با وجود هوش مصنوعی خیلی از تعاریف تغییر میکند، گفت: در مورد مسائلی مثل تعریف سلامت و بیماری باید مجدد فکر کنیم. اگر قرار است به سمت پزشکی شخصی برویم، تعریف بیماری و سلامت تغییر میکند. «طبیعی» خیلی معنا پیدا نمیکند، چرا که ما در حباب تکنولوژیک زندگی میکنیم. موضوع استفاده از هوش مصنوعی رابطه پزشک و بیمار را نیز تغییر میدهد. معنی زیست ما را تغییر میدهد و درک ما را از بدن تغییر میدهد.
وی افزود: بخشی از مشکلات مربوط به مسائل حقوقی و اخلاقی است که دچار تغییر میشود. در مورد استدلالهای پزشکی، در مورد تبیین و علیت مجدد باید فکر کرد.
منجمی با اشاره به اینکه همبستگی نمیتواند نشاندهنده علیت باشد، گفت: اگر ایده یا فرضیهای پشت فرضیه نباشد، تحلیل یافتهها هیچ معنایی ندارد. برای تحلیل یافتهها نیاز به چارچوب و الگو است و نباید مقهور حجم زیاد دیتا شویم. به همین دلیل نیازمند تعامل فلسفه پزشکی و فلسفه تکنولوژی هستیم.
وی خاطر نشان کرد: سواد تکنولوژی اهمیت زیادی دارد که همه شهروندان، پزشکان و سیاستگذاران نیاز است آن را بدانند و فهم عام از تکنولوژی و ارزیابی نقادانه تکنولوژی بسیار مهم است. اینکه میگویند تکنولوژی یک ابزار است که میتوان از آن استفاده خوب یا بد کرد، در مورد هوش مصنوعی اینگونه نیست. برای مثال سازندگان دارو متعهد به تولید دارو هستند و در مورد عوارض و نحوه مصرف و ... در راهنمای دارو نکاتی وجود دارد. ولی مثلاً نور آبی موبایل باعث بیخوابی میشود، اما در کدام دفترچه موبایل چنین چیزی نوشته شده است؟
انتهای پیام