Отсутствие разнообразия в технологиях вредит ИИ

В технологической индустрии есть проблема разнообразия, в этом нет ничего нового. Однако эта проблема разнообразия имеет пагубные последствия для будущего искусственный интеллект развития, утверждает глава Всемирного экономического форума по искусственному интеллекту и машинному обучению Кей Ферт-Баттерфилд.

Отсутствие разнообразия в технологиях вредит ИИ

Выступая на мероприятии в Тяньцзине, Китай, Ферт-Баттерфилд отметил проблему предвзятости в алгоритмах ИИ, призвав к необходимости сделать отрасль «гораздо более разнообразной» на Западе.

Смотрите связанные 

Исследователи Массачусетского технологического института научили ИИ обнаруживать депрессию
DeepMind от Google использует свою виртуальную руку, чтобы предсказать, когда кто-то может умереть
ИИ «убьет много рабочих мест», утверждает генеральный директор Alibaba, и технологические гиганты должны защитить человеческую расу.

«Были некоторые очевидные проблемы с алгоритмами ИИ», — сказала она. CNBC, упоминая случай, произошедший в 2015 году, когда Программное обеспечение Google для распознавания изображений пометило чернокожего мужчину и его друга как «горилл».

. Согласно отчету, опубликованному ранее в этом году Проводной, Google еще не исправил эту проблему должным образом — вместо этого он решил просто заблокировать поисковые запросы для приматов.

«Поскольку мы видим, что таких вещей становится все больше и больше, этические дебаты вокруг искусственного интеллекта стали гораздо более масштабными», — сказал Ферт-Баттерфилд. Она также отметила развертывание Общее положение о защите данных (GDPR) в Европе, утверждая, что это выдвинуло этические вопросы о данных и технологиях «на передний план».

ЧИТАЙТЕ СЛЕДУЮЩИЙ: Илон Маск предупреждает, что ИИ «неподконтрольен человеку»

Доминирование «белые мужчины определенного возраста” в строительных технологиях было указано как основная причина предвзятости, проникающей в алгоритмы, лежащие в основе ИИ. Обучение систем машинного обучения на расово неоднородных наборах данных ранее отмечалось как проблема, особенно в программном обеспечении для распознавания лиц.

Эксперимент, проведенный ранее в этом году в Массачусетский технологический институт (MIT), например, тестировал три коммерчески доступные системы распознавания лиц, разработанные Майкрософт, IBM и китайской фирмы Megvii. Результаты показали, что системы правильно определяли пол белых мужчин в 99% случаев, но этот показатель успеха резко упал до 35% для чернокожих женщин. То же самое можно сказать и о программном обеспечении для распознавания Amazon. ошибочное определение 28 членов Конгресса США как преступников.

Об этом заявил доктор Адриан Веллер, программный директор по искусственному интеллекту в Институте Алана Тьюринга. Альфр: «Алгоритмические системы все чаще используются способами, которые могут напрямую влиять на нашу жизнь, например, при принятии решений о кредитах, найме или даже вынесении уголовных приговоров. Крайне необходимо обеспечить справедливое отношение этих систем ко всем людям — они не должны подвергать неправомерной дискриминации ни одного человека или подгруппу.

ЧИТАЙТЕ СЛЕДУЮЩИЙ: Великобритания сталкивается с утечкой мозгов из-за ИИ, поскольку таланты уезжают за границу

«Это вызывает особую озабоченность, когда методы машинного обучения используются для обучения систем на прошлых человеческих решениях, которые могут отражать исторические предубеждения».

Веллер отметил, что все больше работ направлено на то, чтобы сделать алгоритмы честными, прозрачными и этичными. Эта точка зрения аналогична точке зрения Ферт-Баттерфилда, который подчеркнул, что Всемирный экономический форум пытается обеспечить рост ИИ «на благо человечества».

Человеческое разнообразие может быть не единственной проблемой, с которой сталкивается ИИ. А недавнее обучение Университет Кардиффа и Массачусетский технологический институт обнаружили, что группы автономных машин могут демонстрировать предрассудки, просто идентифицируя, копируя и обучаясь этому поведению друг у друга.