به گزارش ایسنا، بنابر اعلام یوآیدی، امروزه استفاده از این فناوری در حال تبدیل شدن به یک الگوی رفتاری است، از جعل ویدیو گرفته تا تعویض چهره افراد مشهور را میتوان با این فناوری انجام داد و این فرآیند تولید ویدئو با فناوری Deepfake نسبتاً ساده است. این فناوری با استفاده از شبکه عصبی هوش مصنوعی پیشرفته، تصویری از چهره یک شخص را روی سر و بدن شخص دیگری قرار میدهد؛ بهعبارتدیگر، در یک فیلم تولیدشده با استفاده از این فناوری به نظر میرسد که چهره و صدای ضبطشده، مربوط به یک شخص واقعی است، اما کلماتی که در این ویدئو گفته شده، هرگز توسط آن شخص واقعی، گفته نشده است.
ممکن است فکر کنید هرگز فریب فناوری Deepfake را نخوردهاید، اما هیچکس نمیتواند ۱۰۰ درصد از این موضوع مطمئن باشد، چرا که دقیقاً همانند جلوههای ویژه خوب فیلمهای هالیوودی، بعضی از آنها آنقدر خوب هستند که هرگز متوجه آن نمیشویم.
محققان شرکت امنیت سایبری دیپ تریس، بهتازگی ۱۴،۶۹۸ ویدئو آنلاین Deepfake را پیدا کردهاند، این رقم در دسامبر ۲۰۱۸، ۷.۹۶۴ ویدئو بود. فناوری Deepfake همچنین برای ارائه اطلاعات نادرست سیاسی و جرائم سایبری مورد استفاده قرار گرفته است. یک مثال جهانی آن کلاهبرداری است که در سال ۲۰۱۹ اتفاق افتاد در این کلاهبرداری تعدادی از مجرمان با استفاده از نرمافزار مبتنی بر هوش مصنوعی، صدای مدیر اجرائی یک شرکت انرژی را جعل کرده و خواستار انتقال غیرمجاز مبلغ ۲۴۳،۰۰۰ دلار شدند. در این کلاهبرداری، مدیر آن شرکت انرژی، مستقر در بریتانیا فکر کرد که با رئیس خود (مدیر اجرایی شرکت مادر این مجموعه در آلمان) در حال صحبت است که از او درخواست میکند پول را برای یک تأمینکننده مجارستانی ارسال کند. تماسگیرنده آلمانی ادعا کرد که این درخواستی اضطراری بوده و دستور داد که این انتقال ظرف یک ساعت انجام شود.
احراز هویت بایومتریک
اکنونکه محبوبیت احراز هویت بایومتریک روزبهروز در حال افزایش است (طبق گزارش گارتنر[۳] تا سال ۲۰۲۲، ۷۰ درصد سازمانهایی که از احراز هویت بایومتریک برای دسترسی به نیروی کارشان استفاده میکنند، این راهکار را از طریق اپلیکیشن تلفنهای هوشمند اجرا میکنند ضمن اینکه در سال ۲۰۱۸، آمار این استفادهکنندگان کمتر از ۵ درصد بود) بنابراین، بدیهی است که این سؤال پیش بیاید که آیا Deepfake میتواند این راهکارهای مبتنی بر ویژگیهای بایومتریک را فریب دهد؟
جواب این سؤال در برخی موارد بله و در برخی دیگر خیر است. واضح است که این جواب خیلی رضایتبخش نیست؛ اما این واقعاً به نوع تکنولوژی احراز هویت دیجیتال بستگی دارد که در راهکار احراز هویت بکار گرفته شده است.
تکنولوژی تشخیص زندهبودن تصویر وارد میشود؛ این تکنولوژی چیست و چگونه Deepfakeها را تشخیص میدهد؟
امروزه برای احراز هویت کاربران در راهکارهای احراز هویت دیجیتال، از کاربران خواسته میشود که تصویری از کارت ملی (سایر مدارک شناسایی دولتی) خود گرفته و سپس یک عکس سلفی از خود بگیرند. بعد از آن چهره موجود در عکس سلفی با چهره مدرک شناسایی مطابقت داده شده و یکسان بودن صاحب گواهی شناسایی و عکس سلفی بررسی میشود. این فرآیند به نظر ساده میآید؛ اما متأسفانه، اینطور نیست.
در حال حاضر، مجرمان سایبری از عکس برای دور زدن سیستمهای احراز هویت بایومتریک استفاده میکنند. به این صورت که بهجای اینکه از چهره خود، عکس سلفی بگیرند از روی عکس دیگری عکس میگیرند و اگر شخصی تصویر کارت شناسایی و عکس یک فرد دیگر را داشته باشد میتواند با این روش این راهکارها را دور بزند.
در پاسخ به این موضوع، پلتفرم احراز هویت دیجیتال یوآیدی فناوری تشخیص زندهبودن تصویر یا همان Liveness Detection را برای ایجاد تمایز بین کاربران واقعی و هویتهای جعلی ارائه کرده است. به این صورت که کاربر در مرحله گرفتن عکس سلفی، بهجای عکس، یک ویدئوی ۵ ثانیهای سلفی از خود میگیرد و فناوری تشخیص زندهبودن تصویر با استفاده از این ویدئو بررسی میکند که شخص صاحب ویدئو در لحظه زنده است. هدف از این کار این است که بدانیم آیا اطلاعات بایومتریک مورد بررسی (چهره فرد) متعلق به یک شخص زنده و حی و حاضر است؟ به بیان سادهتر، تشخیص زندهبودن تصویر باعث میشود که رباتها و افراد جاعل نتوانند از عکس، فیلم، ماسک یا سایر دادههای بایومتریک (به سرقت رفته یا جعلی) برای ایجاد یا دسترسی به حسابهای آنلاین استفاده کنند. تشخیص زندهبودن تصویر تضمین میکند که فقط انسانهای واقعی قادر به ایجاد و دسترسی به حسابهای کاربری خود باشند.
در فناوری تشخیص زندهبودن تصویر میتوان، روشهایی برای تشخیص زندهبودن تصویر از کاربران درخواست کرد مانند چشمک زدن، لبخند زدن، سرخ خود را حرکت دادن، نگاه کردن به چراغهای چشمکزن، تقلید کردن حالتهای چهره تصادفی، تلفظ کردن اعداد تصادفی و موارد دیگر. این تکنیکهای تشخیص زندهبودن تصویر در لحظه میتوانند از استفاده از فناوری DeepFake برای جعل هویت جلوگیری کنند.
حتی وقتی کلاهبرداران سعی میکنند با استفاده از یک روش کلاهبرداری با جعل این تکنیکها، یک انسان واقعی را تقلید کنند هوش مصنوعی سیستم تشخیص زندهبودن تصویر ویژگیهای غیرطبیعی آنها را تشخیص میدهد. در این مورد، برای اینکه کلاهبرداران بتوانند از فیلم Deepfake استفاده کنند باید آن را روی یک مانیتور نمایش داده و از آن فیلم سلفی بگیرند که در این حالت اشعههای منتشرشده از مانیتور، تصویر پیکسلهای آن و دیگر پارامترهای آن توسط سیستم تشخیص زندهبودن تصویر یوآیدی شناسایی میشود؛ بنابراین نمیتوان از فناوری Deepfake برای دور زندن سیستم تشخیص زنده بودن تصویر استفاده کرد.
انتهای رپرتاژ آگهی