الگوریتم هوش مصنوعی برای تولید اخبار جعلی باورپذیر

شرکت اوپن‌ای‌آی(OpenAI) متعلق به ایلان ماسک به تازگی یک الگوریتم هوش مصنوعی خطرناک توسعه داده است که اخبار جعلی و گمراه کننده و باورپذیر نوشته و منتشر می‌کند.

به گزارش ایسنا و به نقل از انگجت، شرکت OpenAI در ماه فوریه اعلام کرد که الگوریتمی را ایجاد کرده است که می‌تواند خبرهای جعلی و قابل باور بنویسد و با توجه به اینکه این فناوری دارای قدرتی بیش از حد خطرناک است، یک نسخه کنترل شده و ناقص از آن را منتشر کرد تا بتواند شمه‌هایی از این فناوری را به عموم نشان دهد و نحوه استفاده از آن را تحلیل کند.

اکنون این شرکت می‌گوید هیچ مدرک محکمی از سوءاستفاده این هوش مصنوعی مشاهده نکرده است و طی همین هفته نسخه کامل آن را منتشر خواهد کرد.

این هوش مصنوعی موسوم به "GPT-2" در ابتدا برای پاسخ به سؤالات، تهیه خلاصه داستان‌ها و ترجمه متون طراحی شده بود. اما محققان نگران این بودند که بتوان از آن استفاده کرد تا حجم زیادی از اطلاعات نادرست را منتشر کرد. درعوض دیدند که از آن تنها برای مواردی مانند آموزش بازی‌های ماجراجویی متنی و نوشتن داستان استفاده شد.

از آنجا که این نسخه کوچک به سوءاستفاده گسترده منجر نشد، شرکت OpenAI مدل کامل GPT-2 را منتشر می‌کند. این شرکت در پست وبلاگ خود ابراز امیدواری کرده که نسخه کامل به محققان کمک کند تا مدل‌های تشخیص متن تولید شده توسط هوش مصنوعی بهتری توسعه دهند و تبعیض‌های زبانی را ریشه کن کنند.

ایده توسعه یک هوش مصنوعی که بتواند اخبار جعلی باورپذیر تولید کند، نگران کننده است، اما برخی معتقدند که این فناوری خواه ناخواه توسعه خواهد یافت و OpenAI باید سریعاً کار خود را به اشتراک بگذارد تا محققان بتوانند ابزاری برای مبارزه یا حداقل شناسایی متون تولید شده توسط ربات ایجاد کنند.

انتهای پیام

  • جمعه/ ۱۷ آبان ۱۳۹۸ / ۱۷:۳۶
  • دسته‌بندی: فناوری
  • کد خبر: 98081710057
  • خبرنگار : 71589