به گزارش ایسنا و به نقل از فیز، گروهی از پژوهشگران در یک مطالعه جدید نشان دادند که چگونه هوش مصنوعی(AI)، بهویژه مدلهای زبانی بزرگ(LLM) میتواند تحقیقات علوم اجتماعی را بازتعریف کند.
ایگور گروسمن، استاد روانشناسی در دانشگاه واترلو میگوید: آنچه که ما میخواهیم در این مقاله بررسی کنیم این است که چگونه روشهای تحقیقاتی علوم اجتماعی را میتوان تطبیق داد، حتی بازآفرینی کرد تا از قدرت هوش مصنوعی استفاده کرد.
پژوهشگران برجسته از دانشگاه واترلو، دانشگاه تورنتو، دانشگاه ییل و دانشگاه پنسیلوانیا در مطالعه جدید خود خاطرنشان میکنند که مدلهای زبانی بزرگ که بر روی مقادیر وسیعی از دادههای متنی آموزش دیدهاند، به طور فزایندهای قادر به شبیهسازی پاسخها و رفتارهای انسانمانند هستند. این موضوع، درها را به روی آزمایش نظریهها و فرضیهها در مورد رفتار انسان در مقیاس و سرعت بسیار گسترده باز میکند.
برای پژوهش در علوم اجتماعی تاکنون از روشهای مختلفی از جمله پرسشنامه، آزمونهای رفتاری، مطالعات مشاهدهای و آزمایشها برای به دست آوردن نمایشی کلی از ویژگیهای افراد، گروهها، فرهنگها و پویایی آنها استفاده شده است. اکنون، فناوری هوش مصنوعی در حال ظهور ممکن است چشم انداز جمعآوری دادهها را در این زمینه تغییر دهد.
گروسمن میگوید: مدلهای هوش مصنوعی میتوانند طیف گستردهای از تجربیات و دیدگاههای انسانی را نشان دهند که احتمالاً به آنها درجه آزادی بالاتری برای ایجاد پاسخهای متنوع نسبت به روشهای متعارف شرکتکننده انسانی میدهد که میتواند به کاهش نگرانیهای تعمیمپذیری در پژوهشها کمک کند.
فیلیپ تتلاک استاد روانشناسی در دانشگاه پنسیلوانیا میگوید: مدلهای زبانی بزرگ میتوانند جایگزین شرکت کنندگان انسانی برای جمعآوری دادهها شوند. در واقع، مدلهای زبانی بزرگ قبلاً توانایی خود را در ایجاد پاسخهای نظرسنجی واقع بینانه در مورد رفتار مصرف کننده نشان دادهاند. این مدلها، پیشبینیهای مبتنی بر انسان را در سه سال آینده متحول خواهند کرد.
وی افزود: برای انسانهایی که از هوش مصنوعی کمک نمیگیرند، منطقی نخواهد بود که قضاوتهای احتمالی را در بحثهای جدی سیاستگذاری انجام دهند.. من ۹۰ درصد شانس آن را میدهم. البته واکنش انسانها به همه اینها موضوع دیگری است.
پژوهشگران همچنین استدلال میکنند که مطالعات با استفاده از شرکتکنندگان شبیهسازیشده میتواند برای ایجاد فرضیههای جدید مورد استفاده قرار گیرد که سپس میتواند در جمعیتهای انسانی تأیید شود.
با این حال، این رویکرد بدون مشکلات احتمالی نیست. مدلهای زبانی بزرگ اغلب برای حذف سوگیریهای اجتماعی-فرهنگی که در انسانهای واقعی وجود دارد، آموزش میبینند. به این معنی که جامعه شناسانی که از هوش مصنوعی به این روش استفاده میکنند، نمیتوانند آن سوگیریها را مطالعه کنند.
پروفسور داون پارکر، یکی از نویسندگان این مقاله از دانشگاه واترلو، بر اهمیت معرفی دستورالعملهای روشن برای حاکمیت مدلهای زبانی بزرگ در تحقیقات علوم اجتماعی تاکید میکند.
وی میگوید: نگرانیهای عملگرایانه در مورد کیفیت دادهها، عادلانه و برابری دسترسی به سیستمهای قدرتمند هوش مصنوعی قابل توجه خواهد بود. بنابراین، ما باید اطمینان حاصل کنیم که مدلهای زبانی بزرگ در علوم اجتماعی، مانند همه مدلهای علمی، منبع باز هستند. به این معنی که الگوریتمها و دادههای ایده آل آنها برای بررسی دقیق، آزمایش و اصلاح در دسترس همگان است.
وی افزود: همچنین تنها با حفظ شفافیت و تکرارپذیری میتوانیم اطمینان حاصل کنیم که تحقیقات علوم اجتماعی با کمک هوش مصنوعی واقعاً به درک ما از تجربه انسانی کمک میکند.
انتهای پیام