سیستم‌های تشخیص چهره برای بعضی از نژادها با دقت پایین تری عمل کرده

تکنولوژی هوش مصنوعی و رباتیک

سیستم‌های تشخیص چهره‌ی پلیس و FBI از نرم‌افزارهایی استفاده می‌کنند که به نوعی نژادپرست هستند. این موضوع عامدانه نیست، بلکه حاصل نحوه‌ی طراحی این سیستم‌ها و همچنین داده‌هایی است که سیستم‌ها بر مبنای آنها قرار دارند. اما نژادپرستی این سیستم‌ها مسئله‌ساز است. سازمان‌های اجرای قانون به مرور زمان، بیشتر و بیشتر به چنین ابزارهایی وابسته می‌شوند تا بازجویی‌های جنایی را انجام دهند. اما اگر این نرم‌افزارهای آنها دقیق نباشند، ممکن است خطاهایی در کارشان رخ دهد.

سازمان‌های اجرای قانون هیچ جزییاتی از نحوه‌ی استفاده از سیستم‌های تشخیص چهره ارایه نداده‌اند، اما در ماه ژوئن بیانیه‌ای دولتی صادر شد مبنی بر اینکه FBI میزان دقت سیستم‌های تطبیق چهره را آزمایش نکرده است.

با اینکه آن سیستم‌های تشخیص چهره تقریبا ۹۵ درصد دقت دارند، اما تصاویری که به عنوان داده به آنها داده شده، تحت شرایط کنترل شده، ثبت شده‌اند. تصاویری که در شرایط نه چندان ایده‌آل مثل نور کم یا حالت‌های غیرطبیعی چهره گرفته شده‌اند، ممکن است به بروز خطا منجر شوند.

علاوه بر این، ممکن است این الگوریتم‌ها به خاطر نوع آموزش‌هایشان نژادپرست شوند. نرم‌افزارهای تطبیق چهره برای اینکه کار کنند، اول باید با استفاده از داده‌های آموزشی بتوانند چهره‌ها را تشخیص دهند. داده‌های آموزشی مجموعه‌ی از تصاویر هستند که به نرم‌افزار اطلاعاتی درباره‌ی نحوه‌ی تفاوت چهره‌ها می‌دهند. اگر یک جنسیت، گروه سنی یا نژادی خاصی به اندازه‌ی کافی در داده‌های آموزشی ارایه نشود، این موضوع روی عملکرد الگوریتم تاثیر می‌گذارد. ظاهرا الگوریتم‌های مورد استفاده‌ی پلیس برای تشخیص چهره‌ی گروه خاصی از افراد به اندازه‌ی کافی داده‌های آموزشی دریافت نکرده است. به عنوان مثال، الگوریتم‌هایی که پلیس فلوریدا استفاده می‌کند، در تشخیص چهره‌ی زنان، آمریکایی‌های آفریقایی تبار و افراد جوان‌تر دقت زیادی ندارند.

«الیس اتول»، مدیر آزمایشگاه تحقیقاتی تشخیص چهره در دانشگاه تگزاس، می‌گوید: «اگر داده‌های آموزشی با تعصب زیادی برای نژاد خاصی انتخاب شوند، الگوریتم در تشخیص چهره‌های آن نژاد بهتر می‌شود. اتول و همکارانش در سال ۲۰۱۱ پی بردند الگوریتم‌هایی که در کشورهای غربی ساخته توسعه داده‌ می‌شوند در تشخیص چهره‌های سفیدپوستان بهتر بودند و برای چهره‌های آسیای شرقی به همان اندازه دقت نداشتند.

حالا که چند سال از پژوهش‌های مختلف در این زمینه گذشته، دقت الگوریتم‌های تجاری در بسیاری از زمینه‌های به میزان قابل توجهی افزایش یافته و اختلاف عملکرد آنها میان جنسیت‌ها و نژادهای مختلف کمتر شده است.

منبع: Technology Review

READ  ۷۹ درصد بازار گوشی‌های بالای ۸۰۰ دلار در اختیاراپل قرار دارد

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *