به گزارش ایسنا و به نقل از انگجت، شرکت "انویدیا" رویکرد جدیدی را برای آموزش "شبکههای زایای دشمن گونه"(GANs) ایجاد کرده است که می تواند روزی آنها را برای انجام کارهای مختلف و بزرگتری مناسب سازد.
قبل از توضیح کار شرکت "انویدیا"، بد نیست کمی در مورد نحوه کار "شبکه زایای دشمن گونه"(GAN) بدانیم. هر "GAN" از دو شبکه عصبی رقیب تشکیل شده است: یک مولد و یک جدا کننده. هدف الگوریتم در مولد، ایجاد تصاویر جدید است و جدا کننده هزاران تصویر حاصل را بررسی می کند. سپس از این داده ها برای مربیگری یا آموزش همتای خود استفاده می کند.
شبکه های زایای دشمن گونه سنتی به منظور ایجاد نتایج مداوم و باورپذیر به حدود 50 هزار تا 100 هزار تصویر آموزشی نیاز دارند و با تعداد تصاویر کم به مشکل می خورند. در این موارد، جدا کننده اطلاعات پایه کافی ندارد تا بتواند به طور موثر مولد را مربیگری کند.
"شبکههای زایای دشمن گونه"(Generative Adversarial Networks) یک کلاس از چارچوبهای یادگیری ماشین هستند که به دست "ایان گودفلو" و همکارانش در سال ۲۰۱۴ پیشنهاد شدند. دو شبکه عصبی در یک بازی روبروی یکدیگر قرار میگیرند؛ در چارچوب یک بازی با گردایش صفر، که سود یک کنشگر ضرر کنشگر دیگر است.
در این روش شبکه فرا میگیرد چگونه از دادههای آموزش، دادههای جدیدی به وجود بیاورد که از دید آماری دادههای آموزش و به وجود آمده همسان باشند. برای نمونه، شبکه زایای دشمن گونه آموزش یافته میتواند عکسهای جدیدی را به وجود آورد که از دید بیننده درست باشد و بسیاری از ویژگیهای دادههای آموزشی را در بر بگیرد.
ایده بنیادی شبکههای زایای دشمن گونه بر پایه آموزش جداکننده است. بدین ترتیب، شبکه زایا به جای اینکه در پی کاهش فاصله با یک عکس باشد، در تلاش برای گمراه کردن شبکه جداکننده خواهد بود. بنابراین مدل، توانایی این را پیدا می کند که به وجود آوردن عکسها را فرا بگیرد.
در گذشته، یکی از روش های محققان هوش مصنوعی برای حل این مشکل، استفاده از روشی به نام "تقویت داده" بود. با استفاده مجدد از یک الگوریتم تصویر به عنوان نمونه، در مواردی که مطالب زیادی برای کار وجود ندارد، آنها سعی می کردند با ایجاد کپیهای تحریف شده از دادههای موجود، این مشکل را برطرف کنند. تحریف در این حالت میتواند به معنای برش یک تصویر، چرخاندن آن یا برگرداندن آن باشد. ایده این کار نیز این است که شبکه هرگز یک تصویر را دو بار نبیند.
مشکل این روش این است که منجر به شرایطی میشود که GAN به جای خلق چیزی جدید، از آن تحریفات تقلید میکند. رویکرد جدید شرکت "انویدیا" موسوم به "تقویت سازگار جدا کننده"(ADA) هنوز از همین روش "تقویت داده" استفاده میکند، اما این کار را به صورت تطبیقی انجام میدهد. یعنی به جای اینکه تصاویر را در کل مراحل آموزش، تحریف کند، این کار را به صورت انتخابی و به اندازه کافی انجام میدهد تا GAN به مشکل نخورد.
نتیجه بالقوه رویکرد جدید "انویدیا" معنادارتر از آن است که تصور کنید. آموزش یک هوش مصنوعی برای نوشتن یک بازی جدید ماجراجویی مبتنی بر متن، آسان است، زیرا مواد زیادی برای کار الگوریتم وجود دارد، اما این مورد درباره بسیاری از وظایف دیگر که محققان میتوانند برای کمک به GANها متوسل شوند، صدق نمیکند.
به عنوان مثال، آموزش یک الگوریتم برای تشخیص یک اختلال عصبی نادر در مغز دقیقاً به دلیل نادر بودن آن دشوار است. با این حال، یک GAN آموزش دیده با رویکرد "ADA" می تواند این مشکل را برطرف کند.
همچنین پزشکان و محققان میتوانند یافتههای خود را با سهولت بیشتری به اشتراک بگذارند، زیرا آنها در حال کار بر روی یک پایه از تصاویر ایجاد شده توسط هوش مصنوعی هستند، نه بیماران در دنیای واقعی.
شرکت "انویدیا" اطلاعات بیشتری را در مورد رویکرد "ADA" در کنفرانس آتی "NeurIPS" که از شش دسامبر آغاز شده است، به اشتراک میگذارد.
انتهای پیام