به گزارش ایسنا و به نقل از گیزمودو، با رقابت شرکتهای گوناگون برای به کارگیری فناوری تشخیص چهره، سوالات بسیاری در مورد تاثیر این فناوری در تشدید تبعیض نژادی مطرح میشود.
اخیرا، مشخص شد که نرمافزار تشخیص چهره تجاری، در مورد افرادی که پوست تیرهتری دارند، دقت کمتری به خرج میدهد و مدافعان حقوق بشر، نگران استفاده پلیس از این روشهای تشخیص چهره هستند.
با وجود این موضوع، گسترش این سیستمها همچنان ادامه دارد و تضمین شده که الگوریتمهای بهتری در راه هستند اما هنوز در به کار بردن سیستم تشخیص چهرهای که واقعا خالی از تبعیض نژادی باشد، تردیدهایی به چشم میخورد.
در اوایل سال جاری، "جوی بولاموینی"(Joy Buolamwini) و "تیمنیت گبرو"(Timnit Gebru)، پژوهشگران دانشگاه "ام.آی.تی"(MIT)، تبعیض نژادی را در یکی از سیستمهای تشخیص چهره مشخص کردند. آنها ادعا داشتند که چهره سیاهپوستان، در پایگاه دادهها ارائه نمیشود و این موضوع، به عدم دقت کافی سیستم در بررسی چهرههای تیرهتر منجر میشود. همچنین، این پژوهشگران دریافتند هنگامی که الگوریتمهای گوناگون تشخیص چهره، موظف به شناسایی جنسیت میشوند، در تشخیص زنان سیاهپوست، تا 34.7 درصد اشتباه میکنند. از سوی دیگر، میزان خطا در تشخیص چهره مردان سفیدپوست، کمتر از یک درصد بوده است.
در مقاله مربوط به این بررسی، مشخص شد که میزان خطای نرمافزار طبقهبندی جنسیت "مایکروسافت"(Microsoft) در شناسایی زنان سیاهپوست، 20.8 درصد است. در مقابل، مایکروسافت اعلام کرد که دادههای سیستم خود را برای شناسایی طیف رنگهای گوناگون در تشخیص چهره، دوباره تنظیم خواهد کرد تا اختلاف نژادی را در طبقهبندی جنسیت اصلاح کند.
"برایان براکین"(Brian Brackeen)، مدیرعامل استارتاپ هوش مصنوعی "کایروز" (Kairos) در مصاحبه ای گفت: ما، در مورد دو مشکل جداگانه و منحصربهفرد در صنعت صحبت میکنیم. تبعیضهای فنی، راهحلهای فنی دارند اما حتی تشخیص چهره کامل، میتواند موجب تشدید تبعیض نژادی شود و این، مشکلی است که به راهحلهای پیچیدهتری نیاز دارد. باید به هر دو مشکل توجه شود اما این مشکلات، دو موضوع جداگانه هستند.
راه حل نهایی براکین برای این مشکل، توقف فروش سیستمهای تشخیص چهره به سازمانهای مجری قانون است.
انتهای پیام
نظرات