به گزارش ایسنا، جفری هینتون، استاد دانشگاه تورنتو که اغلب به دلیل تحقیقات پیشگامانهاش در زمینه شبکههای عصبی، «پدرخوانده هوش مصنوعی» نامیده میشود، اخیراً به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.
او اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا آزادانهتر حوزهای را که به پیشگامی آن کمک کرده بود، نقد کند.
هینتون عمر خود را وقف مطالعه شبکههای عصبی کرده است که اغلب، کلید هوش مصنوعی هستند، اما بیشتر به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ شناخته میشود. شبکه عصبی موفق او میتواند از تصاویر آموزشی برای کمک به تشخیص اشیای رایج استفاده کند.
هینتون پیشرفت و افزایش اخیر هوش مصنوعیهای مولد مانند ChatGPT و Bing Chat را نشانههایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.
وی در روزهای اخیر در کنفرانسی موسوم به کالیژن(Collision) که در تورنتو برگزار شد، نگرانیهای خود را تشریح کرده است.
در حالی که شرکتها هوش مصنوعی را به عنوان راه حلی برای همه چیز میدانند و آن را تبلیغ میکنند، جفری هینتون زنگ خطر را به صدا درآورده است. او میگوید متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز شود و معتقد است که سازگاری اخلاقی هوش مصنوعی ممکن است هزینه زیادی داشته باشد.
گذشتن از گوگل برای آزادی بیان
گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خریداری کرد و مفهوم زیربنایی اختراع او به رشد موجی از توسعه کمک کرد که منجر به فناوری هوش مصنوعی مولد امروزی شد.
اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.
این پژوهشگر نگران است که گوگل در تلاش برای رقابت با رباتهای هوش مصنوعی نظیر ChatGPT، Bing Chat و مدلهای مشابه، محدودیتها و احتیاطهای قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.
هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی میگوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی کارها را حذف کند، بلکه به طور کامل جایگزین برخی از مشاغل شود.
این دانشمند همچنین در مورد امکان توسعه سلاحهای کاملاً خودمختار و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از دادههای آموزشی نگران است.
جفری هینتون میگوید سال گذشته زمانی که شرکتهای گوگل، OpenAI و دیگران شروع به ایجاد سیستمهای هوش مصنوعی کردند، موضع او تغییر کرده است. هوش مصنوعی تنها در پنج سال گذشته به سرعت توسعه یافته است که به گفته پدرخوانده این حوزه، تصور اینکه در پنج سال آینده چه اتفاقی میافتد، «ترسناک» است.
تهدیدی برای بشریت
هینتون مدعی است که هوش مصنوعی تنها به اندازه افرادی که آن را میسازند، خوب است و نوعِ بد آن هنوز هم میتواند بر نمونهی خوب آن پیروز شود.
وی توضیح داد: من متقاعد نشدهام که بتوانم یک هوش مصنوعی خوب را که تلاش میکند جلوی بدی را بگیرد، کنترل کنم. برای مثال، ممکن است دشوار باشد که یک مجتمع نظامی-صنعتی را از تولید رباتهای جنگی بازدارید.
او میگوید شرکتها و ارتشها ممکن است جنگهایی را دوست داشته باشند که تلفات در آنها، ماشینهایی هستند که به راحتی میتوان آنها را جایگزین کرد.
در حالی که هینتون معتقد است که مدلهای زبانی بزرگ(هوش مصنوعی آموزشدیده که متنی شبیه به انسان تولید میکند، مانند GPT-۴ توسعه یافته توسط شرکت OpenAI) میتواند منجر به افزایش چشمگیر بهرهوری شود، اما او نگران است که طبقه حاکم به سادگی از این مزیت برای غنیسازی خود سوءاستفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون میگوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر میکند».
هینتون همچنین دیدگاه خود را که بسیار نقل قول شده بود، تکرار کرد. او میگوید هوش مصنوعی میتواند خطری برای موجودیت بشریت ایجاد کند. اگر هوش مصنوعی از انسان باهوشتر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.
هینتون افزود: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش ضروری است، ما به مشکل میخوریم.
از نظر هینتون، این تهدیدها، علمی-تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده است.
هینتون میگوید در حال حاضر مشکلات زیادی وجود دارد. او استدلال میکند که سوگیری و تبعیض همچنان یک مشکل اساسی است، زیرا دادههای آموزشی نادرست میتواند نتایج ناعادلانهای ایجاد کند. الگوریتمها نیز اتاقهای پژواک ایجاد میکنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت میکنند.
در رسانههای خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس میشود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایدهها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده تقویت میشوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمیروند و دیدگاههای متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده میشوند.
هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاقهای پژواک است. او مطمئن نیست که آیا بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.
این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است، اگرچه او هشدار میدهد که استفاده سالم از این فناوری ممکن است هزینه بالایی داشته باشد. انسانها ممکن است مجبور باشند کار آزمایشی و تجربی را برای درک اینکه چگونه هوش مصنوعی ممکن است اشتباه کند و این که چگونه از در دست گرفتن کنترل توسط آن جلوگیری کنند، انجام دهند.
وی میگوید در حال حاضر تصحیح سوگیریها امکانپذیر است. یک مدل زبانی بزرگ میتواند به اتاقهای پژواک پایان دهد، اما تغییرات در سیاستهای شرکت را بسیار مهم میدانم.
این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست میدهند، گفت که احساس میکند «سوسیالیسم» یا جامعهگرایی برای رسیدگی به نابرابری مورد نیاز است و مردم میتوانند با انتخاب مشاغلی که میتواند با گذشت زمان تغییر کند، مانند لولهکشی، از بیکاری در امان بمانند. به نظر میرسد او شوخی نمیکند و معتقد است که جامعه ممکن است مجبور باشد تغییرات گستردهای برای انطباق با هوش مصنوعی در خود ایجاد کند.
شایان ذکر است که هینتون در این موضعگیری، تنها نیست. تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامهای سرگشاده امضا و منتشر کردهاند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شدهاند. با این حال، سخنان هینتون به عنوان یکی از برجستهترین چهرههای این صنعت، وزن قابل توجهی دارد.
امیدواری به صنعت هوش مصنوعی
برخی دیگر از مصاحبهها در کنفرانس کالیژن(Collision) امیدوارکنندهتر بود. کالین مورداک، مدیر بازرگانی گوگل دیپمایند در یک بحث متفاوت گفت که هوش مصنوعی در حال حل برخی از سختترین چالشهای جهان است.
وی گفت صحبت زیادی در این زمینه نمیشود. گوگل دیپمایند در حال فهرستبندی تمام پروتئینهای شناخته شده، مبارزه با باکتریهای مقاوم به آنتیبیوتیک و حتی تسریع کار بر روی توسعه واکسنهای مالاریا است.
او از چیزی به عنوان «هوش مصنوعی عمومی» سخن به میان آورد که میتواند چندین مشکل را حل کند و به عنوان نمونه به محصولات گوگل اشاره کرد. وی گفت: ابزار Lookout برای توصیف عکسها مفید است، اما فناوری زیربنایی آن باعث میشود جستجو در YouTube Shorts نیز امکانپذیر شود.
مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.
مورگان مکگوایر، دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را از طریق بازی دور هم جمع میکند- تا حد زیادی با این موضوع موافق است. او معتقد است که ابزارهای هوش مصنوعی مولدِ سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ایجاد مواد درون بازی را آسانتر میکنند.
روبلوکس حتی در حال عرضه یک مدل هوش مصنوعی منبعباز به نام StarCoder است که امیدوار است با در دسترستر کردن مدلهای زبانی بزرگ به دیگران کمک کند.
در حالی که مکگوایر در یک بحث به چالشهایی در مورد مقیاسبندی و تعدیل محتوا اذعان کرد، اما او معتقد است که متاورس به لطف مجموعه خلاقانهاش، امکانات نامحدودی خواهد داشت.
مورداک و مکگوایر هر دو نگرانیهای مشابهی را با هینتون ابراز کردند، اما لحن آنها قطعاً کمتر هشداردهنده بود.
مورداک تاکید کرد که دیپمایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاورههای تخصصی و سرمایهگذاریهای آموزشی گوگل دیپمایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفتهای شگفتانگیز را بدهد.
مکگوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه میکند، بر مجموعههای دادهای متنوع تکیه میکند و شفافیت را تمرین میکند.
امید به آینده
بر خلاف اظهار نظرهایی که جفری هینتون اخیرا داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک گوگل کاهش نیافته است. خودش میگوید اگر کارم را در گوگل ترک نمیکردم، مطمئنم که روی مدلهای هوش مصنوعی چندوجهی کار میکردم که در آن بینش، زبان و سایر نشانهها به تصمیمگیری کمک میکند.
وی میگوید کودکان کوچک فقط از زبان یاد نمیگیرند، ماشینها نیز میتوانند همین کار را انجام دهند.
در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت میتواند هر کاری را که یک انسان میتواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال، GPT-۴ میتواند خود را برای حل پازلها و معماهای دشوارتر وفق دهد.
هینتون اذعان میکند که سخنرانیاش در کنفرانس کالیژن، چیز زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.
او میگوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم.
هینتون در پایان، آزادانه اعتراف کرد که با وجود مشکلات اخلاقی احتمالی، از اشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او گفت: من عاشق این چیزها هستم. چطور میتوان عاشق ساختن چیزهای هوشمند نبود؟
انتهای پیام
نظرات