به گزارش ایسنا، دکتر حمیدرضا نمازی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت» که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، در مورد نقش هوش مصنوعی در پژوهش و پژوهشهای پزشکی، گفت: یکی از موضوعات مهم در حوزه پژوهش «متاریسرچ» است. متاریسرچ؛ انجام پژوهش راجع به پژوهش است و برخی فلسفه پژوهش نیز به آن اتلاق میکنند. همچنین «فرا پژوهش» نیز به آن میگویند که در آن به روشها، ارزیابی پژوهشها و مشوقهای پژوهش و... پرداخته میشود.
وی با بیان اینکه فرا پژوهش به دنبال ایجاد دوگانهسازی و زیر سوال بردن پژوهشها نیست، خاطر نشان کرد: هدف فراپژوهش این است که پژوهشها را نقد کند و به دنبال تقویت دانش است.
استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران با اشاره به اینکه چهار تلقی از فرا پژوهش وجود دارد، گفت: اولین تلقی بحث اخلاق در پژوهش است که به کمیتههای اخلاق در پژوهش انجامیده و به بوروکراسی، تعارض منافع میپردازد. اخلاق در پژوهش نگاه توریستی به روش پژوهش دارد و در برابر پژوهشهای بیهوده سکوت کرده است.
وی ادامه داد: دومین تلقی فراپژوهش در مورد نقد روششناختی و فرآیندی پژوهشها است و در آن به بحران تکرارپذیری و اینکه در برخی رشتهها مثل پزشکی، روانپزشکی و ... وقتی پژوهشها تکرار میشوند، نتیجههای متفاوت به دست میآید. همچنین این رویکرد به نقد مفهوم «معناداری»، تصادفیسازی، مطالعات کیفی، مساله انتشار و مجلات و عقبماندگی تکنولوژیک پرداخته میشود. در این رویکرد حیلههای پژوهشی نیز بررسی میشوند.
نمازی در مورد تلقی سوم فراپژوهش، توضیح داد: این رویکرد به فلسفه علم و مطالعات علم به فراپژوهش میپردازد و مسائلی مانند مسئله بررسی همتایان (peer review) و جامعه علمی را بررسی میکند و به نهاد علم، جامعهشناسی علم میپردازد. رویکرد چهارم نیز در مورد تحلیل زمینهها و اثرات اجتماعی، فرهنگی پژوهشها است و مسائلی مانند تاثیر پژوهش بر پژوهشگر، عمومیسازی پژوهش، پژوهشهای بیهوده و ... میپردازد.
وی به استفاده از هوش مصنوعی در فراپژوهش پرداخت و گفت: کاربست هوشمصنوعی در فراپژوهش دارای فرصتها و تهدیداتی است. هوش پتانسیل زیادی در انتشار و ترجمه دارد. در آینده تقریبا شخصی به عنوان مؤلف و مترجم و ... نخواهیم داشت. همچنین هوش مصنوعی میتواند اصالت مقاله را بررسی کند. میتوان از آن در بررسی همتا (peer review)، ویرایش، ساینتومتریک و ... پژوهش کمک گرفت. برخی نشریات به این سمت رفتهاند که بررسی همتای انسانی را حذف کنند.
استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران با بیان اینکه کاربست هوشمصنوعی در فراپژوهش تهدیداتی نیز دارد، توضیح داد: هوش مصنوعی پتانسیل زیادی در ریسک و bias و خطا دارد. حجم زیادی دیتا در دنیا وجود دارد، ولی چون در این دیتاها پیشفرض داشته است، ارزیابی هوش مصنوعی از آن نیز درگیر همان پیشفرضها میشود.
وی تصریح کرد: برای مثال به دلیل این پیش فرض که سیاهپوستان بیشتر مرتکب جرایم میشوند، در مناطقی که سیاهپوستان زندگی میکنند نیز دوربینهای بیشتری وجود دارد و بنابراین حجم عظیمی از دادهها در مورد آن وجود دارد. بنابراین وقتی همین دادهها را به هوش مصنوعی میدهیم، همان خطا را خواهد داشت.
نمازی ادامه داد: مسائل زیستمحیطی نیز در تهدیدات هوش مصنوعی خیلی مهم است. برای مثال مدلهای AI حجم زیادی انرژی مصرف میکند. یکی دیگر از چالشها این است که هوش مصنوعی خودبسنده میشود و حوزههای جدید ایجاد میکند.
وی با بیان اینکه از دیگر چالشها این است که نمیتوان گفت بار حقوقی خطای هوش مصنوعی به عهده چه کسی است، به ملاحظات اخلاقی هوش مصنوعی اشاره کرد و گفت: مسائلی مانند توضیحپذیری و تفسیرپذیری، ارتباط علیت و همبستگی، خطا و بایوس هوش مصنوعی، پرایوسی و حریم شخصی و دیپ فیک که مفهوم اعتماد را در جامعه از بین میبرد (بهویژه در پژوهشهایی که مبتنی بر تصاویر هستند) از ملاحظات اخلاقی حوزه هوش مصنوعی است.
استادیار مرکز تحقیقات اخلاق و تاریخ پزشکی دانشگاه علوم پزشکی تهران به عقبماندگی سیستمهای قانونی از هوش مصنوعی پرداخت و گفت: سیستمهای قانونی تا بخواهند فکر کنند که هوش مصنوعی چیست و بخواهند برای آن قانونگذاری کنند، هوش مصنوعی به حدی پیشرفت میکند که نمیتوانند به گرد پای آن نیز برسند. به همین دلیل افرادی که در زمینه اخلاق کار میکنند، باید به این زمنیهها بپردازند.
انتهای پیام
نظرات