• چهارشنبه / ۲ فروردین ۱۴۰۲ / ۱۶:۱۶
  • دسته‌بندی: رسانه دیگر
  • کد خبر: 1402010200643
  • خبرنگار : 71611

مدیرعامل OpenAI درباره خطرات هوش مصنوعی هشدار داد

کمی از چت جی‌پی‌تی می‌ترسیم!

کمی از چت جی‌پی‌تی می‌ترسیم!

چت جی‌پی‌تی در مدت کوتاهی از ظهورش، دنیا را درنوردیده و بیم و امیدهای زیادی را در میان مردم برانگیخته است. این مدل زبانی مبتنی بر هوش مصنوعی بی‌شک یکی از انقلابی‌ترین کاربردهای تکنولوژی در سال‌های اخیر بوده است. بسیاری از کارشناسان معتقدند در کنار مزایا و کاربردهای متنوع چت جی‌پی‌تی، نباید از خطرات و مشکلات احتمالی آن غافل شد. حالا حتی مدیرعامل شرکت OpenAI هم که توسعه‌دهنده چت جی‌پی‌تی است، درباره مخاطرات آن هشدار داده است. «سم آلتمن» معتقد است که این تکنولوژی همان‌طور که باعث تغییر شکل جامعه خواهد شد، خطرات جدی هم به همراه خواهد داشت.

به گزارش ایسنا، روزنامه «دنیای اقتصاد» در ادامه نوشت: آلتمن ۳۷ ساله تاکید می‌کند که نهادها و سازمان‌های ناظر و جامعه باید با این تکنولوژی به خوبی درگیر شوند تا بتوانند از عواقب منفی بالقوه آن برای بشریت جلوگیری کنند. او در مصاحبه‌ای با شبکه خبری ABC News با اشاره به اینکه چت جی‌پی‌تی می‌تواند مهم‌ترین تکنولوژی برای ارتقای کیفیت زندگی افراد باشد، گفت: «در اینجا باید محتاط باشیم. فکر می‌کنم مردم باید خوشحال باشند که ما کمی از این تکنولوژی ترسیده‌ایم.» آلتمن با تاکید بر اینکه او به‌طور مرتب با مقامات دولتی در ارتباط است، در ادامه گفت: «من به‌طور مشخص نگران آن هستم که این الگوهای زبانی بتوانند برای دروغ‌پراکنی و تولید اطلاعات نادرست در مقیاس وسیع مورد استفاده قرار بگیرند. حالا همان‌طور که این الگوهای زبانی مبتنی بر هوش مصنوعی در کدنویسی کامپیوتری بهتر می‌شوند، می‌توانند برای حملات سایبری خطرناک هم مورد استفاده قرار بگیرند.»

چت جی‌پی‌تی که تنها چند ماه پیش عرضه شد، در حال حاضر بهترین اپلیکیشن مصرفی تاریخ از نظر سرعت رشد به حساب می‌آید. این اپلیکیشن در طول همین چند ماه، به رکورد ۱۰۰میلیون کاربر فعال ماهانه دست پیدا کرده است. در مقابل، برای تیک‌تاک ۹ ماه و برای اینستاگرام حدود سه سال طول کشید تا به چنین رکوردی برسند. حالا چت جی‌پی‌تی در تست‌های مختلف، امتیاز بالایی به دست آورده است و به شکلی ماهرانه می‌تواند به اغلب زبان‌های برنامه‌نویسی، کد کامپیوتری بنویسد. GPT-۴ یک قدم به سمت هدف OpenAI برای ایجاد هوش مصنوعی عمومی نزدیک‌تر است. از همان اواخر نوامبر که چت‌جی‌پی‌تی عرضه شد، خیلی‌ها در انتظار انتشار GPT-۴ بودند و بسیاری از کاربرانی که با نسخه‌ قبلی این برنامه کار کرده بودند، از قابلیت‌های خیره‌کننده این برنامه هوش مصنوعی شگفت‌زده شده‌اند.

جی‌پی‌تی-۴ جدیدترین نقطه عطف در تلاش OpenAI برای پیشرفت در یادگیری عمیق است، پاسخ‌های متنی دقیق‌تری ارائه خواهد داد و داده‌های ورودی تصویری و متنی این فناوری را به شکل گسترده‌ای پیش می‌برد. شرکت OpenAI همچنین اعلام کرد که نسخه جدید این برنامه در مقایسه با نسخه قبلی، درباره خطای عملکردی یا دروغ و توهین یا اصطلاحا «توهم»، به‌ مراتب گزارش‌های کمتری دریافت می‌کند. به گفته OpenAI، برای ساخت و توسعه جی‌پی‌تی-۴ شش ماه زمان صرف شده است تا ایمن‌تر و هماهنگ‌تر شود. جی‌پی‌تی-۴ تا ۸۲ درصد کمتر به درخواست‌های محتوای غیرمجاز پاسخ می‌دهد و احتمال پاسخ‌های واقعی آن تا ۴۰ درصد بیشتر است. با این حال، سم آلتمن درباره این نسخه جدید گفته که با وجود پیش‌بینی‌ها، جی‌پی‌تی-۴ هنوز ناقص و محدود است.

سم آلتمن در حالی که از موفقیت محصول شرکتش رضایت دارد، اما می‌گوید که نگرانی از خطرات احتمالی این زبان هوش مصنوعی بارها خواب شبانه را از چشم‌های او ربوده است. یکی از ترس‌های عملی- تخیلی رایجی که آلتمن به آن اشاره نکرد این است که الگوهای هوش مصنوعی، نیازی به انسان‌ها ندارند، خودشان به تنهایی تصمیم می‌گیرند و نقشه حاکمیت بر جهان را می‌کشند. آلتمن در این مورد می‌گوید: «چت جی‌پی‌تی منتظر کسی است که یک ورودی به آن بدهد. این ابزاری است که تا حد زیادی تحت کنترل انسان قرار می‌گیرد.» آلتمن با اشاره به اینکه نگران نوع کنترلی است که انسان‌ها می‌توانند روی آن داشته باشند، اضافه می‌کند: «افراد دیگری هم خواهند بود که هیچ محدودیت امنیتی برای آن نمی‌گذارند. فکر می‌کنم جامعه زمان محدودی برای محاسبه چگونگی واکنش نشان دادن به آن، نظارت بر آن و مدیریت آن در اختیار دارد.»

ظاهرا این نگرانی چندان هم بیراه نیست؛ تا جایی که ولادیمیر پوتین، رئیس‌جمهور روسیه، در زمان آغاز سال تحصیلی سال ۲۰۱۷ به دانشجویان گفته بود که هر کس بتواند رقابت در عرصه هوش مصنوعی را مدیریت کند، احتمالا سکان رهبری جهان را هم به دست خواهد گرفت. آلتمن با اشاره به این نقل‌قول گفت: «این قطعا اظهارنظر ترسناکی است. در عوض امیدوارم به صورت مداوم سیستم‌های قدرتمندتری را توسعه بدهیم که بتوانیم در موارد مختلف از آنها بهره ببریم و آنها را با زندگی روزمره و اقتصاد ادغام کنیم تا به ابزاری برای رسیدن افراد به اهداف‌شان تبدیل بشود.»

نگرانی از اطلاعات نادرست

طبق اعلام شرکت OpenAI، نسخه جدید GPT-۴ بهبودهای زیادی نسبت به نسخه قبلی دارد که از آن جمله می‌توان به توانایی درک تصاویر به عنوان یک ورودی، اشاره کرد. آزمایش‌های اولیه نشان می‌دهند که این نسخه جدید می‌تواند توضیح بدهد که در یخچال خانه هر فرد چه چیزهایی وجود دارد، پازل و معما حل کند و حتی معنی الگوهای رفتاری افراد در اینترنت را به وضوح توضیح بدهد. البته این قابلیت در حال حاضر تنها در اختیار گروه کوچکی از کاربران قرار دارد. با این همه، به عقیده آلتمن، موضوع مهمی که درباره الگوهای زبانی هوش مصنوعی مانند چت جی‌پی‌تی وجود دارد، اطلاعات نادرست است. او معتقد است که این برنامه می‌تواند اطلاعات نادرستی به افراد بدهد. آلتمن در این مورد می‌گوید: «آنچه تلاش می‌کنم درباره آن به مردم هشدار بدهم، چیزی است که به آن مشکل توهمات می‌گوییم. این الگوی زبانی، مسائل را با چنان اطمینانی مطرح می‌کند که انگار حقیقت غیر قابل انکار هستند.»

OpenAI اعلام کرده است که این زبان هوش مصنوعی بیشتر از استدلال استقرایی بهره می‌گیرد تا به حافظه سپردن. در همین راستا، «میرا موراتی» مدیر ارشد تکنولوژی این شرکت به ABC News می‌گوید: «یکی از بزرگ‌ترین تفاوت‌ها میان نسخه قبلی با GPT-۴ همین توانایی استدلال بهتر آن است. هدف آن است که واژه بعدی پیش‌بینی شود و با این کار شاهد درک بیشتر این زبان خواهیم بود. ما می‌خواهیم این الگوهای زبانی، جهان را مثل ما ببینند و درک کنند.» آلتمن در تکمیل این موضوع می‌گوید: «روش درست تفکر این الگوهای زبانی، داشتن یک موتور استدلال است، نه دیتابیسی از حقایق و داده‌ها. ما می‌خواهیم که آنها توانایی استدلال را به دست بیاورند و امیدواریم در طول زمان به این توانایی دست بیابند.»

احتیاط‌هایی در برابر بازیگران بد

نوع اطلاعاتی هم که چت جی‌پی‌تی و دیگر الگوهای زبانی هوش مصنوعی در اختیار دارند، محل نگرانی هستند. برای مثال، اینکه چت جی‌پی‌تی بتواند به یک کاربر روش ساخت یک بمب را آموزش بدهد یا خیر. جواب خیر است، به خاطر معیارهای ایمنی که در کدنویسی چت جی‌پی‌تی در نظر گرفته شده. آلتمن در این مورد به ABC News می‌گوید: «موضوعی که نگران آن هستم، آن است که قرار نیست ما تنها خالقان این تکنولوژی باشیم. افراد دیگری هم خواهند بود که محدودیت‌های امنیتی مد نظر خودشان را در این تکنولوژی می‌گنجانند.»

از نظر مدیرعامل شرکت OpenAI، راهکارها و نکات ایمنی کمی برای تمام این خطرات بالقوه وجود دارند. یکی از آنها این است که بگذاریم در همین روزهای اول، جامعه با چت جی‌پی‌تی درگیر شود و مردم روش کار با این تکنولوژی را بیاموزند. مدیر ارشد تکنولوژی این شرکت هم معتقد است که با استفاده بیشتر مردم از چت جی‌پی‌تی، شناسایی موارد خطرناک و مشکلات بالقوه آن ساده‌تر خواهد شد. میرا موراتی در این مورد می‌گوید: «شناسایی موارد کاربرد چت جی‌پی‌تی، مشکلات و معایب آن، به ما برای بهبود سریع‌تر در نسخه‌های بعدی کمک می‌کند. به همین دلیل استفاده بیشتر مردم از این تکنولوژی برای ما اهمیت زیادی دارد.»

آلتمن هم با این رویکرد موافق است و می‌گوید: «مردم به زمان بیشتری برای به‌روز شدن، تعامل و استفاده کردن از این تکنولوژی نیاز دارند تا بتوانند نقاط تاریک آن را شناسایی کرده و بهره‌برداری مفیدتری از آن بکنند. ما با متخصصان امنیتی و سیاستگذاری مختلفی صحبت کرده‌ایم، سیستم‌ها را برای شناسایی موارد مشکل بررسی کرده و می‌دانیم که این تکنولوژی هنوز کامل نیست، اما همچنان به آموزش و یاد گرفتن دراین فرآیند اعتقاد داریم.»

هوش مصنوعی جایگزین مشاغل می‌شود؟

در میان دغدغه‌های مختلفی که درباره قابلیت‌های خطرناک این تکنولوژی وجود دارد، جایگزین شدن آن با مشاغل جایگاه خاصی دارد. آلتمن معتقد است که احتمالا بعضی مشاغل در آینده نزدیک از بین می‌روند و بیشتر نگرانی‌ها مربوط به سرعت این اتفاق است. او در این مورد می‌گوید: «فکر می‌کنم بیش از دو نسل از بشریت در برابر تغییرات تکنولوژیک عمده مقاومت کرده‌اند. اما بالاخره این اتفاق در کمتر از ۱۰ سال دیگر رخ خواهد داد.» با این حال مدیرعامل OpenAI افراد را تشویق می‌کند تا چت جی‌پی‌تی را بیشتر به عنوان یک ابزار ببینند، نه یک جایگزین. او تاکید می‌کند: «خلاقیت انسان نامحدود است و ما می‌توانیم مشاغل تازه‌ای پیدا کنیم. کاربردهای چت جی‌پی‌تی به عنوان یک ابزار، مخاطرات خاص خودشان را هم دارند.»

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha