Богдан Кулыныч доказал предвзятость алгоритмов Twitter, которые используются для фокусировки на наиболее интересных частях снимка в режиме предпросмотра.
Компания выплатила ему 3,5 тысячи долларов.
Кулыныч учится в аспирантуре в швейцарском университете EPFL. Он cгенерировал несколько рядов с почти идентичными лицами, чтобы проверить, на чём сфокусируются алгоритмы соцсети. Оказалось, программа чаще выбирает худые лица молодых людей со светлой кожей.
Я использую фразу «жизнь, имитирующая искусство, имитирующее жизнь». Люди создают фильтры, потому что думают, что это «красиво». В конечном итоге наши модели учатся на этих нереальных представлениях, что значит быть привлекательным.
Румман Чоудхури
глава команды Twitter по этике ИИ
Впервые пользователи заметили, что в алгоритмы Twitter обрезают темнокожих людей и даже чёрных собак на фото в 2020 году. Тогда соцсеть провела исследование, результаты которого подтвердили эти догадки, но также авторы отметили, что алгоритмы крайне редко отдают предпочтения женским лицам со светлой кожей.
Из-за возникшего спора соцсеть анонсировала премию. Компания пообещала награду в 3,5 тысячи долларов тому, кто сможет доказать предвзятость алгоритмов. Сам Кулыныч же признался, что испытывает смешанные чувства из-за всего происходящего.
Алгоритмический вред — это не просто баги. Крайне важно, что много вредных технологий вредны не из-за непреднамеренных ошибок, а скорее по замыслу. Это происходит от желания максимизировать выгоду для себя и затраты для других. Например, понижение заработной платы, распространение кликбейтов и дезинформации далеко не всегда связаны с «предвзятыми» алгоритмами.
Богдан Кулыныч