به گزارش ایسنا و به نقل از گیزمگ، امکان تغییر و ویرایش یا حذف سخنان افراد در یک ویدئو اکنون به کمک یک الگوریتم ویرایش ممکن شده است.
یک الگوریتم جدید جعل عمیق میتواند صوت و تصویر را به شکل جدیدی تبدیل کند که در آن گوینده در ویدئو آن چیزی را بگوید که شما میخواهید.
توسعه این الگوریتم حاصل همکاری محققان دانشگاه استنفورد، مؤسسه مکس پلانک، دانشگاه پرینستون و شرکت ادوبی است.
محققان میگویند در دنیای آینده از این فناوری برای کاهش هزینههای فیلمهای سینمایی و تلویزیونی استفاده خواهد شد، چرا که وقتی یک بازیگر چیزی را اشتباه میگوید یا حرکت اشتباهی انجام میدهد دیگر نیاز به برداشت مجدد نخواهد بود و هوش مصنوعی میتواند به راحتی همان یک برداشت را اصلاح کند.
این الگوریتم به منظور یادگیری حرکات صورت یک سخنران به حدود ۴۰ دقیقه ویدئوی آموزشی و یک رونوشت از آنچه توسط وی گفته میشود نیاز دارد، بنابراین اگر میخواهید نتایج خوبی داشته باشید فعلاً چیزی نیست که بتوان روی یک قطعه ویدئویی کوتاه اجرا کرد.
نمایش این ۴۰ دقیقه ویدئو به الگوریتم فرصت میدهد تا تغییرات دقیق صورت گوینده را در بیان هر کلمه رصد کند. از آن پس هنگامی که شما متن را ویرایش میکنید، الگوریتم میتواند یک مدل سه بعدی از چهره گوینده متناسب با کلمات و جملات جدید ایجاد کند.
سپس یک تکنیک یادگیری ماشین به نام "تفسیر عصبی"(Neural Rendering) میتواند مدل سه بعدی را با بافت تصویر واقعی سازگار کند تا تصویر حاصل از واقعیت غیرقابل تشخیص باشد.
از نرمافزارهایی مانند "VoCo" نیز میتوان برای تقلید صدای گوینده استفاده کرد تا کلمات و جملات جدید با صدای گوینده و بدون نقص بیان شده و کاملاً با تصویر جدید هماهنگ باشد.
این تیم از توان بالقوه نرم افزار ابداعی خود برای استفادههای غیراخلاقی آگاه است و جانب احتیاط را در توسعه آن رها نکرده است. چرا که ممکن است از آن برای مقاصد غیرقانونی و غیراخلاقی استفاده شود و رواج آن موجب میشود دیگر کسی به هیچ ویدئویی در فضای مجازی اعتماد نکند.
این تیم تحقیقاتی تلاشهایی برای مقابله با سوءاستفاده احتمالی از این نرم افزار داشته است و یک راه حل ارائه داده که در آن هر کسی که از این نرم افزار استفاده میکند، به ناچار عبارت جعلی زیر ویدئوی ویرایش شده ثبت میشود. بدیهی است که این راه حل در صورتی که نتوان آن را دور زد جلوی هر سوءاستفادهای را خواهد گرفت.
این تیم همچنین پیشنهاد میکند که دیگر روشهای قانونی مانند تکنیکهای انگشت نگاری دیجیتال یا غیردیجیتال برای تعیین اینکه آیا یک ویدئو دستکاری شده قابل استفاده است.
در واقع پتانسیل توسعه فناوری مقایسه هر قطعه از ویدئو با قطعه اصلی آن وجود دارد اما هنوز محقق نشده است و مشخص نیست که چگونه میتوان آن را در سطح جهانی اجرا کرد.
همچنین بسیاری از برنامههای یادگیری عمیق در حال حاضر قادر به شناسایی تصاویر تقلبی هستند. اگرچه که هرچه این برنامهها بهتر عمل کنند، سیستمهای جعل نیز به طور خودکار بهتر میشوند.
بنابراین توسعه این سیستم در صورت عدم بکارگیری تمهیدات لازم احتمالاً به یک مشکل پیچیده و جدی تبدیل خواهد شد و تأثیر مهمی بر تولید اخبار در دهههای آتی خواهد داشت.
انتهای پیام