Алгоритмы должны регулироваться, считает депутат от лейбористской партии

Не пора ли регулировать алгоритмы? Так считает один депутат от лейбористской партии — и она не единственная, кто высказывает опасения по поводу алгоритмической подотчетности.

Алгоритмы должны регулироваться, считает депутат от лейбористской партии

Чи Онвура, министр труда теневой промышленности, сказал Хранитель что алгоритмы должны регулироваться так же, как и их результаты.

«Алгоритмы не выше закона», — сказала она газете. Она добавила: «Результаты алгоритмов регулируются — компании, которые их используют, должны соблюдать трудовое законодательство и законы о конкуренции».

Онвура признал, что регулировать алгоритмы, когда им не хватает прозрачности, непросто, заявив, что этот вопрос будет рассмотрен в документе от лейбористов, который должен быть опубликован в новом году.

Потенциальный вызов дыму и зеркалам Силиконовой долины следует за давлением на Google и Facebook. справиться с потоком «фейковых новостей» распространяется обеими службами, и по мере того, как все больше людей находят работу в так называемой гиг-экономике, при этом на их занятость влияют алгоритмы, созданные такими компаниями, как Uber.

Такие проблемы требуют алгоритмической подотчетности, академики утверждали. Вопрос в том, как привлечь к ответственности то, что по своей природе сбивает с толку и чаще всего является «секретным соусом» успеха компании.

Смотрите связанные 

Том Уотсон из лейбористской партии призывает правительство расследовать влияние роботов на рабочие места

«Алгоритмы — это область, которая в принципе должна регулироваться, поскольку они представляют собой способы категоризации людей, вещей и действий и подсчета результатов», — сказал Ник Кулдри, профессор медиа, коммуникаций и социальной теории Лондонской школы экономики. «Очень важно, что подсчитывается и как обрабатываются результаты».

Но он добавил, что потребность в регулировании зависит от функции. «Возможно, меня гораздо меньше волнуют алгоритмы, которые меняют мои рекомендации по покупке или прослушиванию. получают, чем те, которые влияют на то, что кажется мне новостью, или влияют на то, как меня оценивают другие», — сказал он. сказал нашему родственный сайт, ИТ-специалист.

«Организации всегда должны брать на себя ответственность за то, как они представляют мир и как они представляют людей, и это ничем не отличается», — добавил он. «Это вопрос не столько прозрачности (неспециалистам может быть трудно понять, как работает алгоритм, даже если им говорят), сколько подотчетности. И в основе этого лежит вопрос о том, следует ли собирать информацию, на которой работает алгоритм, в первую очередь».

Другими словами, алгоритмическая подотчетность может в некотором роде вернуться к защите данных. Доктор Элисон Пауэлл, доцент и директор по СМИ и коммуникациям LSE, отмечает, что General Data Постановление о защите предусматривает, что функция алгоритма должна быть «понятна тем, кому он влияние."

Но она сказала, что функциональной прозрачности может быть недостаточно, и может быть необходимо, чтобы обучающие данные и другие элементы были доступны для изучения. «Алгоритмы можно регулировать постфактум, то есть с точки зрения их результатов, но это сложно в условиях, когда машинное обучение или другие используются методы искусственного интеллекта, поскольку может быть разрыв между заявлениями, сделанными в начале процесса, и результатами в конце», — сказала она. объяснил. «Ученые-компьютерщики предложили стратегию «процедурной регулярности» для решения этой проблемы. Этот процесс пытается сделать шаги алгоритмической обработки более регулярными, чтобы были способы проверки и обеспечения того, чтобы процесс не дискриминировал людей несправедливо».

Изображение: Обмен политиками, используется в рамках Creative Commons