به گزارش ایسنا و به نقل از سیانان، در ماه مه، سم آلتمن، مدیر عامل شرکت اُپن ایآی(OpenAI)، با ارائه یک درخواست فوری از قانونگذاران به اتاق استماع کمیته فرعی سنا در واشنگتن دی سی رفت.
درخواست او این بود که مقررات فکر شدهای ایجاد شود که وعدههای پر قدرت هوش مصنوعی را در بر بگیرد در حالی که خطر غلبه آن بر بشریت را کاهش میدهد. این لحظهای تعیین کننده برای او و آینده هوش مصنوعی بود.
با رونمایی از هوش مصنوعی چت جیپیتی شرکت اُپن ایآی در اواخر سال گذشته، آلتمن ۳۸ ساله یک شبه تبدیل به آینه تمامنمای ابزار جدیدی از هوش مصنوعی شد. ابزاری که میتواند تصاویر و متون را در پاسخ به درخواستهای کاربران تولید کند. این فناوری، هوش مصنوعی مولد نام گرفت.
مدت کوتاهی پس از رونمایی، چتجیپیتی تبدیل به نامی شد که تقریبا مترادف با خود هوش مصنوعی در نظر گرفته میشد.
مدیران از آن برای پیشنویس ایمیلها استفاده میکردند، مردم بدون تجربه قبلی در زمینه کدنویسی وبسایت ایجاد میکردند و امتحانهایی را از دانشکدههای حقوق و بازرگانی میگذراندند. این ابزار پتانسیل این را دارد که تقریبا هر صنعتی، از جمله آموزش، امور مالی، کشاورزی و مراقبتهای بهداشتی از جراحیها گرفته تا تولید واکسنهای دارویی را متحول کند.
اما همین ابزار نگرانیهایی نیز به وجود آورده است. از تقلب در مدارس و جایگزین شدن کارگران انسانی گرفته تا حتی یک تهدید برای حیات بشریت.
به عنوان مثال، ظهور هوش مصنوعی باعث شده که اقتصاددانان نسبت به بازار کار هشدار دهند.
بر اساس برآورد گلدمن ساکس، حدود ۳۰۰ میلیون شغل تمام وقت در سراسر جهان در نهایت ممکن است به نوعی توسط هوش مصنوعی مولد خودکار شود. بر اساس گزارش ماه آوریل مجمع جهانی اقتصاد، حدود ۱۴ میلیون موقعیت شغلی تنها در عرض پنج سال آینده ناپدید خواهد شد.
آلتمن در شهادت خود در مقابل اعضای کنگره گفت که پتانسیل هوش مصنوعی برای دستکاری رای دهندگان و هدف قرار دادن اطلاعات نادرست یکی از نگرانیهای من است.
دو هفته پس از جلسه استماع، آلتمن به صدها دانشمند، محقق و رهبر کسبوکار برتر هوش مصنوعی پیوست و نامهای را امضا کرد که در آن آمده بود: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همهگیریها و جنگ هستهای، به عنوان یک اولویت جهانی در نظر گرفته شود.
این هشدار به طور گسترده در مطبوعات پوشش داده شد و برخی معتقد بودند که نشان میدهد باید چنین سناریوهای آخرالزمانی جدیتر گرفته شود. این موضوع همچنین یک پویایی مهم در سیلیکونولی را نمایان میکند.
مدیران ارشد برخی از بزرگترین شرکتهای فناوری به مردم میگویند که هوش مصنوعی پتانسیل انقراض انسان را دارد و همچنین برای سرمایهگذاری و به کارگیری این فناوری در محصولاتی که میلیاردها نفر در اختیار دارند رقابت میکنند.
اگرچه آلتمن، یک کارآفرین قدیمی و سرمایهگذار سیلیکونولی است اما در سالهای اخیر تا حد زیادی از کانون توجه دور بوده است اما در ماههای اخیر نگاهها به او به عنوان عنصر اصلی انقلاب هوش مصنوعی معطوف شده است.
این همچنین او را در معرض دعوی قضایی، بررسی نظارتی و ستایش و محکومیت در سراسر جهان قرار داده است. با این حال، آن روز در مقابل کمیته فرعی سنا، آلتمن رونق فعلی فناوری را به عنوان یک لحظه مهم توصیف کرد.
او گفت: آیا هوش مصنوعی مانند چاپخانهای خواهد بود که دانش، قدرت و یادگیری را به طور گسترده در سرتاسر جهان منتشر میکند و به افراد عادی قدرت میدهد تا به شکوفایی بیشتر منجر میشود که برتر از همه منجر به آزادی بیشتر میشود؟ یا این که بیشتر شبیه به بمب اتمی خواهد بود که عواقب وحشتناک آن تا به امروز ما را آزار میدهد؟
آلتمن مدتهاست که خود را به عنوان فردی معرفی کرده است که مراقب خطرات ناشی از هوش مصنوعی است و متعهد شده که مسئولانه رو به جلو حرکت کند.
او یکی از چندین مدیر عامل حوزه فناوری است که با رهبران کاخ سفید، از جمله معاون رئیس جمهور کامالا هریس و رئیس جمهور جو بایدن، ملاقات میکند تا بر اهمیت توسعه هوش مصنوعی اخلاقی و مسئولانه تأکید کند.
دیگران میخواهند آلتمن واُپنایآی با احتیاط بیشتری حرکت کنند.
ایلان ماسک، که پیش از جدا شدن از این گروه، به ایجاد اُپنایآی کمک کرد، و دهها رهبر فناوری، استادان و محققین آزمایشگاههای هوش مصنوعی میخواهند که اُپنایآی آموزش قویترین سیستمهای هوش مصنوعی را به مدت دستکم شش ماه متوقف کند. آنها به خطرات عمیقی که برای جامعه و انسانیت وجود دارد، استناد میکنند.
در همان حال، برخی از کارشناسان این سوال را مطرح کردند که آیا کسانی که نامه را امضا کردهاند به دنبال حفظ برتری رقابتی خود نسبت به سایر شرکتها هستند یا خیر.
آلتمن میگوید که با بخشهایی از نامه موافق است، از جمله اینکه «محدوده ایمنی باید افزایش یابد، اما گفت که توقف آموزش «راهی بهینه» برای رسیدگی به چالشها نخواهد بود. با این وجود، اُپنایآی پای خود را محکم روی پدال گاز فشار میدهد.
به تازگی گزارش شده است که جانی ایو(Jony Ive)، طراح آیفون و اُپنایآی در حال مذاکره برای جمعآوری یک میلیارد دلار از شرکت ژاپنی سافتبنک SoftBank برای ایجاد یک دستگاه هوش مصنوعی به عنوان جایگزین تلفن هوشمند بوده است.
آرون لوی(Aaron Levie)، مدیر عامل شرکت ابری سازمانی باکس و دوست قدیمی آلتمن که با او در دنیای استارتآپ آشنا شده، به سیانان گفته است که آلتمن «دروننگر» است و میخواهد درباره ایدهها بحث کند، دیدگاههای مختلف را دریافت کند و بازخورد روی هر چیزی که روی آن کار میکند را بینهایت تشویق میکند.
لوی گفت: من همیشه میدانستم که او به طرز باورنکردنی در مورد ایدههای خود انتقادی است و مایل است هر نوع بازخوردی را در مورد هر موضوعی که در طول سالها با آن درگیر بوده، دریافت کند.
اما برن الیوت(Bern Elliot)، تحلیلگر موسسه تحقیقاتی گارتنر، به این کلیشه معروف اشاره کرد: که قرار دادن همه تخم مرغها در یک سبد خطراتی دارد، مهم نیست چقدر به کاری که میکنید مطمئن هستید.
او افزود: خیلی اتفاقات ممکن است برای یک سبد رخ دهد.
چالشهای پیش رو
آلتمن هنگام تاسیس اُپنایآی در سال ۲۰۱۵ به سیانانگفت که میخواست در مسیر هدایت هوش مصنوعی باشد، نه اینکه نگران آسیبهای احتمالی آن باشد و کاری انجام ندهد. او گفت: من اکنون بهتر میخوابم زیرا میدانم میتوانم تاثیرگذار باشم.
آلتمن به رغم موقعیت خود میگوید که همچنان نگران این فناوری است. او در سال ۲۰۱۶ گفت: من برای بقا آماده میشوم. او به چندین سناریو فاجعهبار اشاره کرد که شامل حمله هوش مصنوعی به ما بود.
او گفت: من اسلحه، طلا، یدید پتاسیم، آنتیبیوتیک، باتری، آب، ماسکهای ضدگاز دارم و همچنین یک قطعه زمین بزرگ در بیگ سور که میتوانم به آنجا پرواز کنم.
با این حال، برخی از کارشناسان صنعت هوش مصنوعی میگویند که تمرکز بر سناریوهای آخرالزمانی ممکن است توجهها را از آسیبهای محتملتری که نسل جدید ابزارهای قدرتمند هوش مصنوعی میتواند برای مردم و جوامع ایجاد کند، منحرف کند.
روآن کوران(Rowan Curran)، تحلیلگر شرکت تحقیقات بازار فارستر(Forrester)، نگرانیهای مشروع در مورد اطمینان از اینکه دادههای آموزشی، بهویژه برای مدلهای عظیم، دارای حداقل سوگیری هستند یا دارای سوگیری قابل درک و قابل کاهش هستند را تایید کرد.
سم آلتمن: من اکنون بهتر میخوابم زیرا میدانم میتوانم تاثیرگذار باشم. او گفت: ایده آخرالزمان هوش مصنوعی به عنوان یک سناریوی واقعبینانه که هر نوع خطری را برای بشریت به ویژه در کوتاهمدت و میانمدت ارائه میکند، صرفا بر پایه حدس و گمان است.
تمرکز مداوم بر این موضوع بهعنوان یکی از خطرات بزرگی که همراه با پیشرفت هوش مصنوعی به وجود میآید، توجهها را از چالشهای واقعی امروز برای کاهش آسیبهای فعلی و آتی ناشی از دادهها و مدلهایی که بهطور ناعادلانه توسط کاربران انسانی استفاده میشوند، منحرف میکند.
رئیس جمهور بایدن شاید در بزرگترین تلاش گسترده تا به امروز، اوایل هفته از فرمانی اجرایی رونمایی کرد که بر اساس آن، توسعهدهندگان سیستمهای هوش مصنوعی قدرتمند باید نتایج آزمایشهای ایمنی خود را قبل از انتشار برای عموم با دولت فدرال به اشتراک بگذارند. در صورتی که پای خطرات امنیت ملی، اقتصادی یا سلامت در میان باشد.
پس از جلسه استماع سنا، امیلی بندر(Emily Bender)، استاد دانشگاه واشنگتن و مدیر آزمایشگاه زبان شناسی محاسباتی آن در مورد آینده هوش مصنوعی حتی اگر به شدت تحت نظارت باشد، ابراز نگرانی کرد و گفت: اگر آنها صادقانه معتقدند که این فناوری میتواند منجر به انقراض بشر شود، پس چرا آن را متوقف نمیکنند؟
مارگارت اومارا(Margaret O’Mara)، مورخ فناوری و استاد دانشگاه واشنگتن، میگوید که سیاستگذاری خوب نه فقط توسط یک یا چند نفر بلکه باید با توجه به دیدگاهها و منافع متعدد و در نظر گرفتن منافع عمومی شکل بگیرد.
اومارا با اشاره به شباهتهای دنیای فیزیک هستهای قبل و در طول توسعه بمب اتمی پروژه منهتن گفت: چالش با هوش مصنوعی این است که تعداد بسیار کمی از افراد و شرکتها واقعا میدانند که چگونه کار میکند و پیامدهای استفاده از آن چیست.
با این حال، اومارا گفت بسیاری از افراد در صنعت فناوری به دنبال این هستند که آلتمن نیرویی باشد که جامعه را با هوش مصنوعی متحول میکند اما آن را ایمن نگه میدارد.
او گفت: این شبیه کاری است که بیل گیتس و استیو جابز برای رایانه شخصی در اوایل دهه ۱۹۸۰ و نرمافزار در سال ۱۹۹۰ انجام دادند. امید میرود که بتوانیم فناوری داشته باشیم که اوضاع را بهتر میکند.
جهان روی آلتمن حساب میکند تا در برابر فناوری که به اذعان خودش میتواند یک سلاح کشتار جمعی باشد، به نفع بشریت عمل کند.
انتهای پیام