گوگل: الگوریتم های تقویت کننده نژادپرستی باید متوقف شوند
دو مدیر شرکت گوگل گفتند برخی الگوریتمهای هوش مصنوعی به جوامع حاشیه نشین آسیب میزنند که برای جلوگیری از آن باید اقدام شود.
این مدیران ارشد گوگل درباره راههایی که فناوری یادگیری ماشین ممکن است به جامعههای حاشیهای مانند سیاه پوستان در آمریکا و سراسر جهان آسیب بزند گفتهاند. هوش مصنوعی معمولاً توسط پلیس برای نظارت گسترده بر روی مردم مورد استفاده قرار میگیرد و ممکن است مورد استفاده برای مجازاتهای مغرضانه قرار بگیرد. البته این بدان معنا نیست که تکنولوژی هم نژاد پرستانه شده، اما انسانها ممکن است با تعصبهای بیجا، از تکنولوژی سوء استفاده کرده و از آن در این جهت استفاده کنند. برای مثال، چندی پیش در آمریکا فرد آفریقایی تباری بدلیل تشخیص اشتباه سیستم شناسایی چهره و تطابق چهره آن فرد با یک دزد، به اشتباه مورد بازداشت قرار گرفته بود. مطالعات قبلی نشانگر این بوده که سیستمهای تشخیص چهره، گاهاً در افراد سیاه پوست اشتباه میکنند و نمیتوانند بین آنها تمایز قایل شوند؛ و این آنجایی است که نظارت عمومی در دنیای واقعی عملکرد افتضاحی دارد و ممکن است باعث دردسر شهروندان سیاه پوست شود.
در سالهای اخیر، گوگل بدلیل مشکلات الگوریتمهای هوش مصنوعیاش که افراد را تحت تأثیرات منفی قرار داده، بارها در رسانهها مورد نقد قرار گرفته است. برای مثال گوگل ابزاری برای طبقه بندی نظرات مردم در شبکههای اجتماعی طراحی کرده که در عین مفید بودن مضراتی را هم به همراه داشته است و مثلاً عباراتی که در آنها از کلمه سیاه پوست استفاده شده را به اشتباه در دسته نظرات منفی قرار داده است.
گوگل اعلام کرده که چنین اشتباهاتی ممکن است رخ بدهند ولی آنها آگاه هستند و به محض رخ دادن هرگونه مشکلی در این زمینه سریعاً آن را برطرف خواهند کرد تا برای جوامع کوچکتر هم فضایی برای شنیده شدن صدایشان ایجاد کنند.
بیشتر بخوانید: استفاده از هوش مصنوعی برای ترجمه کتیبههای دوران هخامنشیان
منبع