به گزارش ایسنا و به نقل از فست کمپانی، با وجود فناوریهای مولد هوش مصنوعی که اکنون تقریبا برای همه در دسترس هستند، شاید فصل انتخابات سال آینده آمریکا فضای اطلاعاتی را به سالنی از آینه تبدیل کند که در آن هیچ کس مطمئن نباشد که چه محتوایی واقعی است و چه چیزی توسط هوش مصنوعی تولید شده است. اگر افراد سیاسی در سالهای ۲۰۱۶ و ۲۰۲۰ رسانههای اجتماعی را به سلاح تبدیل کردند، در سال ۲۰۲۳ ممکن است با دیپفیکها به این عرصه وارد شوند.
آمریکاییها اکنون از این احتمال میترسند. نظرسنجی مشترک شرکت «مورنینگ کانسالت»(Morning Consult) و وبگاه «آکسیوس»(Axios) در ماه اوت نشان داد که بیش از نیمی از آمریکاییها معتقدند اطلاعات نادرست به تعیین کردن برنده انتخابات ریاست جمهوری ۲۰۲۴ کمک خواهد کرد و بیش از یک سوم گفتند که هوش مصنوعی، اعتماد آنها را نسبت به نتیجه انتخابات آمریکا کاهش میدهد.
با رونق گرفتن هوش مصنوعی و رقابتهای داغ انتخابات ۲۰۲۴، فشار بر کنگره آمریکا و شرکتهای فناوری برای پیش گرفتن یک اقدام در حال افزایش است. در حالی که کنگره هفته پیش جلسهای را در مورد این موضوع برگزار کرد، شرکتهای «متا»(Meta) و «مایکروسافت»(Microsoft) گامهای جدیدی را برای مقابله با دیپفیک و سایر انواع هوش مصنوعی دستکاریکننده حقیقت برداشتند.
متا قوانین جدیدی را در مورد نحوه ارائه کردن محتوای سیاسی تولید شده به صورت عکس، ویدیو یا صدا در فیسبوک و اینستاگرام وضع کرد. این شرکت گفت از کمپینهای سیاسی و گروههای ذینفع میخواهد برچسب افشاگری را روی هرگونه تبلیغات سیاسی یا اجتماعی بگذارند که با استفاده از فناوریهای هوش مصنوعی ایجاد میشود. به عنوان مثال، اگر گروه «دونالد ترامپ» از فناوری هوش مصنوعی برای تولید یک ویدیوی ساختگی از سقوط «جو بایدن» حین توقف مبارزات انتخاباتی استفاده کند، باید این واقعیت همراه با ویدیو فاش شود.
این سیاست که از ابتدای سال آینده آغاز میشود، برای همه تبلیغکنندگان سیاسی در سراسر جهان اعمال خواهد شد. متا اولین محرک در فضای تبلیغاتی نبود. «گوگل» در ماه سپتامبر اعلام کرد تبلیغکنندگان ملزم به برچسب زدن تبلیغات تولیدشده توسط هوش مصنوعی هستند که در پلتفرمهای یوتیوب و گوگل اجرا میشوند.
همچنین، متا اذعان کرد که تبلیغکنندگان را از به کار بردن فناوریهای هوش مصنوعی خود برای ایجاد تبلیغات در گروههای حساس یا تحت نظارت مانند مسکن، اشتغال، اعتبار، سلامت، داروسازی یا خدمات مالی منع میکند. تبلیغات در گروههایی که حاوی محتوای تولیدشده با استفاده از فناوریهای شخص ثالث مانند «دال-ئی»(DALL-E) یا «میدجرنی»(Midjourney) هستند، به برچسب افشا نیاز دارند.
پلتفرمهای اجتماعی، چندین گزینه را برای مقابله کردن با دیپفیک دارند. چالش، یافتن رویکردی است که آسیب رسیدن به آزادی بیان و یکپارچگی انتخابات را به حداقل برساند. «کیتی هاربث»(Katie Harbath) مدیر سابق سیاست عمومی فیس بوک گفت: این پرسش فلسفی وجود دارد که آیا دیپفیکها باید از پلتفرم حذف شوند یا این که بررسی واقعیت، برچسبگذاری و کاهش توزیع آنها کافی است. این بیشتر یک پرسش پیرامون ارزش آزادی بیان است.
متا یک راهحل سبکتر را انتخاب کرد. این شرکت همه تبلیغات حاوی محتوای تولیدشده توسط هوش مصنوعی را ملزم نمیکند که دارای برچسب باشند. هاربث خاطرنشان کرد که وقتی محتوا به صورت دیجیتالی ایجاد میشود یا به روشهایی تغییر میکند که برای ادعا یا موضوع مطرحشده بیاهمیت است، نیازی به برچسب نیست.
«رابرت وایزمن»(Robert Weissman) عضو گروه حمایت از مصرفکننده «پابلیک سیزن»(Public Citizen) گفت که سازمان او ترجیح میدهد ممنوعیت کامل تبلیغات دیپفیک سیاسی را ببیند اما او از تصمیم متا حمایت میکند. وی افزود: به کار بردن برچسب در این فضا میتواند آسیب را تا حد زیادی کاهش دهد.
ایرادی که پابلیک سیزن به متا وارد میکند، محدود کردن برچسبها به دیپفیک در تبلیغات است. این سازمان میگوید که برخی از تأثیرگذارترین و ویروسیترین دیپفیکهای سیاسی ممکن است بهعنوان پستهای معمولی نشان داده شوند. وایزمن ادامه داد: دیپفیکها احتمالا به این دلیل بر انتخابات تأثیر میگذارند که رسمیت بیشتری را به همراه دارند.
توجه داشته باشید که سیاست رسانهای دستکاریشده متا که همه محتوای فیسبوک و اینستاگرام را پوشش میدهد، با هدف حذف ویدیوی تولیدشده توسط هوش مصنوعی در پیش گرفته شده است و موضوع آن، جملاتی هستند که افراد مورد نظر نگفتهاند.
شناسایی دیپفیکهای سیاسی در میان میلیاردها پست دیگر این پلتفرم، داستان دیگری است. هاربث گفت: این پرسش وجود دارد که این فناوری تا چه اندازه برای شناسایی پیشگیرانه دیپفیک خوب است. این فقط مشکل متا نیست، بلکه یک مشکل در سطح صنعت است که سالها روی آن کار کردهاند.
متا برای شناسایی کردن اطلاعات نادرست و سایر محتوای مضر، به شدت به سیستمهای هوش مصنوعی متکی است اما این سیستمها برای شناسایی کردن آن در برخی فرمتها مانند «میمها» تلاش کردهاند.
متا به درخواستهای مصاحبه پاسخ نداد.
در حالی که متا سعی دارد از رایدهندگان در برابر گمراه شدن توسط هوش مصنوعی محافظت کند، مایکروسافت و دیگران بر ارائه فناوریهایی به کمپینهای انتخاباتی برای کنترل محتوا و شباهت آنها تمرکز دارند. مایکروسافت فناوری جدیدی را برای علامتگذاری دیجیتالی معرفی کرد که به سازندگانی مانند کمپینهای انتخاباتی امکان میدهد تا محتوای خود را به صورت دیجیتالی برچسبگذاری کنند تا مشخص شود که چه زمانی، چگونه، چرا و توسط چه کسی ساخته شده است. سپس، اگر طرف دیگری سعی داشته باشد محتوا را برای گمراه کردن(شاید با تغییر یا برچسبگذاری اشتباه) انتخاب کند، منشا و هدف واقعی عکس یا ویدیو را میتوان به راحتی در دادههای رمزنگاری موجود در فایل پیدا کرد. سرویس واترمارک دیجیتال در بهار سال پیش رو برای گروه کوچکی از کاربران شامل کمپینهای سیاسی راهاندازی میشود.
اگرچه کمپینها معمولا از فناوریهای مایکروسافت برای ایجاد محتوای تبلیغاتی استفاده نمیکنند اما از محصولات امنیتی و بهرهوری مایکروسافت برخوردار میشوند. به احتمال زیاد یک کمپین انتخاباتی از محصولات شرکت «ادوبی»(Adobe) برای ایجاد محتوای تبلیغاتی استفاده خواهند کرد. ادوبی نیز یک فناوری منبع باز به نام «Content Credentials» ارائه کرده است که میتوان آن را در فناوریها و پلتفرمهای ایجاد محتوا جاسازی کرد. «نیویورک تایمز» و «وال استریت ژورنال» از این فناوری برای احراز هویت اخبار استفاده خواهند کرد. شرکت «انویدیا»(Nvidia) و یک استارتاپ هوش مصنوعی تولیدکننده تصویر موسوم به «Stability AI» از آن برای احراز هویت محتوای تولیدشده استفاده خواهند کرد. شرکتهای سازنده دوربین عکاسی مانند «نیکون»(Nikon) و «لایکا»(Leica) آن را برای شناسایی تصاویر به کار خواهند برد.
صحنه سیاسی آمریکا قبلا شاهد آغاز استفاده کردن از دیپفیک بوده است. در ماه ژوئن، کمپین «ران دسنتیس»(Ron DeSantis) سیاستمدار آمریکایی متهم شد تصاویر ایجادشده توسط هوش مصنوعی را از ترامپ در یک ویدیوی آنلاین منتشر کرده است. در ماه آوریل، «کمیته ملی جمهوریخواهان آمریکا»(RNC) یک تبلیغ ویدیویی را از یک آینده ویرانشهری آمریکا با تصاویر تولیدشده توسط هوش مصنوعی منتشر کرد که در آن بایدن مجددا به عنوان رئیسجمهور انتخاب شد. البته در آن تبلیغ، استفاده کردن از هوش مصنوعی فاش شد.
اطلاعیههای متا و مایکروسافت همزمان با یک جلسه استماع در مورد دیپفیکها منتشر شدند که توسط کمیته فرعی مجلس نمایندگان آمریکا در مورد امنیت سایبری، فناوری اطلاعات و نوآوری دولتی برگزار شد. قانونگذاران، بخش قابل توجهی از سال جاری را به منظور آماده شدن برای تصویب مقررات مربوط به هوش مصنوعی مسئول صرف کردهاند. وایزمن باور دارد که موضوع اطلاعات نادرست سیاسی تولیدشده توسط هوش مصنوعی، در صدر فهرست اولویتهای بسیاری از قانونگذاران قرار گرفته زیرا این واقعیت آشکار است که میتوان از دیپفیکها مستقیما علیه آنها در انتخابات مجدد استفاده کرد.
مایکروسافت، ادوبی و سایر شرکتهای فناوری، حمایت خود را از لایحه دو حزبی به نام «قانون محافظت از انتخابات در برابر هوش مصنوعی فریبنده» ابراز داشتهاند که توسط «ایمی کلوبوچار»(Amy Klobuchar)، «جاش هاولی»(Josh Hawley)، «کریس کونز»(Chris Coons) و «سوزان کالینز»(Susan Collins) سناتورهای آمریکا ارائه شده است. به گفته منابع، این لایحه که حق نامزد آسیبدیده از دیپفیک را برای شکایت و دریافت خسارتهای قانونی تثبیت میکند، در ساختمان کنگره مطرح شده است اما هیچ چیز قطعی نیست.
انتهای پیام