• سه‌شنبه / ۱ اسفند ۱۴۰۲ / ۱۹:۵۸
  • دسته‌بندی: رسانه دیگر
  • کد خبر: 1402120100708
  • منبع : خبرگزاری‌ها

جعل در دنیای دیجیتال؛ چگونه دیپ‌فیک را تشخیص دهیم؟

جعل در دنیای دیجیتال؛ چگونه دیپ‌فیک را تشخیص دهیم؟

جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است.

به گزارش ایسنا، به نقل از خبرگزاری آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می‌شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب‌هایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر می‌گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.

در محتواهای جعل عمیق از الگوریتم‌هایی استفاده می‌شود که با استفاده از تصویر یا صدای افراد نسخه‌ای جعلی می‌سازند و صدایی را تولید می‌کنند که هرگز آن فرد به زبان نیاورده و یا ویدئویی از او می‌سازند که فرد هرگز در آن حضور نداشته است. ساخت محتوای جعل عمیق مدام ارزان‌تر و آسان‌تر می‌شود و به طور معمول همیشه در آستانه انتخابات مهم در کشورهای مختلف موج جدیدی از آن به راه می‌افتد. تهیه شواهد و مدارک تقلبی، ایجاد اطلاعات غلط برای تخریب سیاستمداران و افراد سرشناس، دستکاری اسناد مالی و فرستادن پیام‌های متنی برای اهداف خلافکارانه از جمله کاربردهای مخرب فناوری جعل عمیق هستند.

باورپذیری محتوای جعلی توسط مخاطب

اگرچه روایت‌های نادرست در شبکه‌های اجتماعی سال‌های سال مشکل‌ساز بوده است، اما محتواهای ساخته‌شده با جعل عمیق آسیب جدی‌تری دارند. تصاویر و ویدئوها بیشتر از متن‌ها در ذهن مخاطب باقی می‌مانند، قانع‌کننده به نظر می‌رسند و می‌توان آن‌ها را در سطح گسترده به اشتراک گذاشت.

مردم در شناسایی جعل عمیق مهارت چندانی ندارند 

محتوای جعل عمیق همچنین می‌تواند باعث عدم قطعیت شود، زیرا ممکن است افراد زیادی آن را باور کنند. با این حال، مطالعات نشان داده‌اند که مردم در شناسایی جعل عمیق مهارت چندانی ندارند و اغلب نمی‌توانند جعل را از واقعیت تشخیص دهند، به ویژه آنکه تشخیص صوت‌های جعلی به مراتب سخت‌تر از ویدئوهای جعلی است.

بیشتر مردم تصور می‌کنند که می‌توانند ویدئوهای جعلی را به راحتی تشخیص دهند، اما این باور چندان دقیق نیست. بر اساس مطالعه‌ای که در ژورنال آی‌ساینس منتشر شد، ۲۱۰ داوطلب شرکت‌کننده در آزمایش تشخیص محتوای جعلی با نظارت هیئتی از دانشگاه آمستردام شرکت کردند و نتایج نشان داد که داوطلبان تنها در ۵۰ درصد از موارد توانستند ویدئوها و صداهای جعلی را تشخیص دهند.

توانایی مغز در شناسایی محتوای جعلی

تیجل گروتسوِیجرز (Tijl Grootswagers) عصب‌شناس محاسباتی از دانشگاه وسترن سیدنی می‌گوید: «عجیب نیست که فریب محتواهای جعلی را می‌خوریم چرا به ما آموزش نداده‌اند که چگونه واقعیت و جعل را از یکدیگر تشخیص دهیم. این مهارت را نداریم.»

با این حال، به نظر می‌رسد که مغز از ویژگی شناسایی محتواهای جعلی برخوردار است. گروتسوِیجرز در آزمایشی از ۲۲ داوطلب خواست تا به تصویری جعلی از یک چهره مشهور نگاه کنند و سپس متوجه شد که وقتی افراد به آن تصاویر نگاه می‌کنند یک سیگنال الکتریکی متمایز در قشر بینایی آن‌ها برانگیخته می‌شود که با سیگنال تولیدشده در هنگام نگاه کردن به تصویر واقعی متفاوت بود. یا این وجود، داوطلبان نتوانستند به درستی تشخیص دهند که کدام تصاویر واقعی هستند. دلیل این امر نامشخص است، اما شاید به دلیل تداخل سایر مناطق مغز با سیگنال‌های قشر بینایی باشد، یا شاید این سیگنال‌ها را تا کنون جدی نگرفته باشیم.

ماجرای ویدئوی جعلی تام کروز

انتشار ویدئویی از تام کروز، بازیگر مشهور هالیوود که در سال ۲۰۲۱ به سرعت در شبکه‌های اجتماعی جهان دست‌به‌دست شد نمون‌های مشهور و بسیار نزدیک به واقعیت به نظر می‌رسید نمونه‌ای معروف از ساخت ویدئو با فناوری جعل عمیق بود که واکنش‌های زیادی را در تمام دنیا برانگیخت. در این ویدئو ابتدا یک بازیگر مشهور کمدی به نام بیل هیدر (Bill Hader) ادای تام کروز را درمی‌آورد و حرف‌هایی را از او نقل قول‌ می‌کند و چند لحظه بعد با استفاده از فناوری جعل عمیق، چهره تام کروز را می‌بینیم که در حال گفتن همان حرف‌ها و انجام همان اداها است. این تغییر چهره به حدی طبیعی انجام می‌شود که گویا واقعاً خود تام کروز است که دارد آن حرف‌ها را می‌زند.

کریس اومه (Chris Ume) از حرفه‌ای‌های مشهور در حوزه جلوه‌های بصری که اِفکت‌های بصری فوق‌العاده‌ای از تام کروز را در شبکه اجتماعی تیک‌تاک منتشر کرده است می‌گوید:«ساخت ویدئوهای جعل عمیق فقط با فشردن یک دکمه انجام نمی‌شود. این پیام مهم من برای مردم و علاقه‌مندان است؛ هر کلیپ کوتاه جعل عمیق هفته‌ها کار می‌برد و سازندۀ آن باید به الگوریتم متن باز در نرم‌افزار «دیپ فیس لب» DeepFaceLab آشنایی‌ کافی داشته باشد و کارکردن با ابزار ویرایش پیشرفتۀ ویدئو را نیز بداند. برای ساخت چنین ویدئوهایی، معمولاً از ترکیب جلوه‌های بصری (VFX) و تصاویر تولیدشده توسط کامپیوتر (CGI) استفاده می‌شود؛ در نهایت برای بهبود آن به سراغ ترفندهای جعل عمیق می‌رویم تا به ویدئویی کامل و بی‌نقص برسیم.»

روش‌های تشخیص جعل عمیق ویدئویی

حالت غیرعادی صورت، حرکت غیرطبیعی صورت یا بدن، رنگ‌های غیرطبیعی، ویدئوهایی که با بزرگ‌نمایی یا کوچک‌نمایی غیرعادی و عجیب به نظر می‌رسند، صداهای ناسازگار، نگاه ثابت و پلک نزدن افراد از جمله نشانه‌های احتمالی جعل عمیق در محتوای ویدئویی هستند.

روش‌های تشخیص جعل عمیق متنی

وجود غلط املایی، جملاتی که نگارش طبیعی و روان ندارند یا اطلاعات آن‌ها نادرست است، آدرس ایمیل مشکوک، عبارات و مفاهیمی که با لحن و گفتار فرستنده فرضی مطابقت ندارد و پیام‌های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند در ردۀ شاخص‌های شناسایی جعل عمیق متنی هستند. با این حال، با پیشرفت هوش مصنوعی، بعضی از این شاخص‌های شناسایی دیگر به کار نمی‌آیند. برای مثال، ابزارهایی که پلک زدن طبیعی در تصویر ایجاد می‌کنند.

اگرچه جعل عمیق در بسیاری از موارد برای کارهای غیرقانونی و تقلب استفاده می‌شود، اما در صنایعی مانند فیلم‌سازی، هنر و ارتباط با مشتری نیز کاربردهای بسیار مفیدی دارد و می‌تواند در زمان و هزینه‌های برندها صرفه‌جویی کند. برای مثال، استفاده از این فناوری در پویانمایی شخصیت‌ها و یا در فیلم‌های دوبله‌شده باعث می‌شود لب زدن بازیگران حین بیان دیالوگ‌ها، بسیار طبیعی‌تر به نظر برسد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha