Европейская комиссия объявила о старте экспериментального проекта по практической реализации ряда принципов, которые должны будут соблюдаться компаниями и правительствами при разработке и использовании искусственного интеллекта.
Эти принципы не похожи на Три закона робототехники Айзека Азимова, они не предлагают правила поведения для роботов, а вместо этого затрагивают важные юридические и этические проблемы, которые могут возникнуть в обществе, поскольку человечество интегрирует ИИ в такие сферы, как здравоохранение, образование и потребительские технологии.
Для этих целей в 2018 году была сформирована группа из 52 независимых экспертов, определивших семь ключевых требований, которым, по их мнению, должны соответствовать будущие системы искусственного интеллекта.
- Человеческое содействие и надзор: ИИ не должен рушить автономию человечества, манипулировать людьми или принуждать их к чему-либо, а люди, в свою очередь, должны иметь возможность вмешиваться и контролировать каждое решение, принимаемое программным обеспечением.
- Техническая надёжность и безопасность: системы ИИ должны быть устойчивыми к внешним атакам.
- Конфиденциальность и управление данными: персональные данные, используемые ИИ-системами, должны оставаться конфиденциальными.
- Прозрачность: решения, принимаемые программным обеспечением, должны «пониматься и отслеживаться людьми».
- Разнообразие, недискриминация и справедливость: предоставляемые ИИ-системами услуги, должны быть доступны всем, независимо от возраста, пола, расы или других факторов.
- Экологическое и социальное благополучие: системы искусственного интеллекта должны быть экологически ответственными и способствовать позитивным социальным изменениям.
- Подотчетность: ИИ-системы должны быть защищены существующими средствами защиты корпоративной информации. О негативных воздействиях систем необходимо сообщать заранее.
Эти принципы не имеют юридической силы, но они могут способствовать появлению законодательной базы, созданной Европейским союзом.
В рамках данного проекта был также подготовлен список вопросов для «достоверной оценки искусственного интеллекта», которые могут помочь экспертам выяснить любые потенциальные слабые места или опасности в программном обеспечении, использующем алгоритмы ИИ. Подробный отчёт по проблемам искусственного интеллекта будет представлен на конференции, которая пройдёт 9 апреля в Брюсселе.