• دوشنبه / ۲۰ اسفند ۱۴۰۳ / ۰۸:۱۹
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1403122013690
  • خبرنگار : 71604

کاربران، «چت‌جی‌پی‌تی» را مضطرب کرده‌اند!

کاربران، «چت‌جی‌پی‌تی» را مضطرب کرده‌اند!

پژوهشگران می‌گویند «چت‌جی‌پی‌تی» از ورودی‌های خشونت‌آمیز کاربران اضطراب گرفته و به همین دلیل، آنها در حال آموزش روش‌های تمرکز حواس به چت‌بات برای تسکین آن هستند.

به گزارش ایسنا، یک پژوهش جدید نشان داده است که «چت‌جی‌پی‌تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند.

به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند.

پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند - دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند - در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.

«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ - هرچند نه به‌ جای آنها - جمع‌آوری کنند.

بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha