Joy Buolamwini

Joy Buolamwini

Founder and Artist-in-Chief, Algorithmic Justice League

Joy Buolamwini – компьютерный ученый и цифровой активист, родом из Ганы, основательница Альянса по справедливости в алгоритмах (AJL) в 2016 году. Она присоединилась к президенту Байдену в июне на закрытом круглом столе и высказала свои опасения по поводу использования технологий распознавания лиц и биометрических данных в полиции, образовании и здравоохранении. Буоламвини стала известной благодаря своей работе по исследованию искусственного интеллекта и его социального влияния. В своей книге «Разоблачение ИИ: моя миссия по защите человеческого в мире машин» она показывает, как расизм, сексизм, цветизм и инвалидизм могут привести к тому, что многие люди остаются недостаточно представленными и уязвимыми перед предвзятостью в создании алгоритмов.

В интервью для журнала TIME Буоламвини объяснила, почему она называет себя «поэтом кода», рассказала о работе AJL и поделилась своими мыслями по поводу регулирования ИИ. Она отметила, что ее интерес к проблеме предвзятости в ИИ был вызван личным опытом – во время учебы в Массачусетском технологическом институте она обнаружила, что ИИ-продукты, которые она создавала, показывали худшие результаты на ее темнокожем лице, чем на лицах ее светлокожих однокурсников.

Чтобы привлечь внимание к проблемам предвзятости в ИИ, Буоламвини использует искусство и рассказы. Она снимает фильмы, устраивает выставки в разных странах мира, проводит аудиты ИИ систем, дает популярные лекции и написала книгу «Разоблачение ИИ». Цель ее работы – показать, как ИИ может повлиять на нашу жизнь и какие возможности открывает перед нами эта технология. Она также подчеркивает, что для того, чтобы привлечь внимание обычных людей к проблемам ИИ, не нужно иметь докторскую степень в этой области. Ее цель – расширить круг лиц, участвующих в обсуждении влияния ИИ на нашу жизнь.

Альянс по справедливости в алгоритмах занимается исследованиями в области ИИ и его возможных опасностей. Они известны благодаря работам, в которых были обнаружены предвзятость в продуктах таких компаний, как Microsoft, IBM и Amazon. В результате эти компании прекратили предоставлять свои системы распознавания лиц правоохранительным органам после того, как исследования AJL показали наличие предвзятости в их коммерческих продуктах. Также они уделяют внимание людям, пострадавшим от ИИ систем, и вручают премию «Справедливость по Гендерному Тону» – $5000 представителям ЛГБТ-сообщества, которые пострадали от систем распознавания лиц.

Одной из целей AJL является создание платформы для сообщений о вреде, причиняемом ИИ системами. В настоящее время, если человек пострадал от ИИ системы, ему трудно найти место, где можно поделиться своим опытом. Альянс планирует создать такую платформу, чтобы люди могли делиться своими историями и предупреждать других об опасных системах.

Как правительства могут регулировать ИИ? В Соединенных Штатах до сих пор отсутствует федеральное регулирование ИИ систем распознавания лиц и биометрических данных, которые привели к ошибочному аресту Роберта Уильямса. Правительства должны гарантировать, что все ИИ системы разрабатываются и используются с уважением к правам человека, включая конфиденциальность, безопасность и недискриминацию. Для этого необходимо обеспечить разнообразие и включенность в команды, разрабатывающие ИИ системы, проводить аудиты и оценки рисков для высокорисковых ИИ систем и финансировать исследования, направленные на предотвращение вредных последствий. Кроме того, необходимо гарантировать, что цифровой разрыв не усугубляет существующие неравенства. Это связано с тем, что ИИ инструменты часто используются как «стражи», принимающие решения о доступе к образованию, работе, здравоохранению и многому другому. Правительства должны инвестировать в цифровую грамотность и обеспечить, чтобы люди имели необходимые навыки для работы с цифровым миром.

Другие специалисты
Jan Leike
Jan Leike
Superalignment Co-Lead, OpenAI
Нейросеть:
Verity Harding
Verity Harding
Director of the AI & Geopolitics Project, Cambridge University