Искусственный интеллект (ИИ) — это технология, которая за последние несколько лет произвела революцию во многих аспектах жизни. С одной стороны, она открывает новые возможности, но с другой – несет в себе риск злоупотреблений, которые могут поставить под угрозу права человека и основные социальные ценности. В ответ на эти вызовы Европейский союз разработал положения, содержащиеся в Акте об ИИ. Целью этого положения является не только поддержка инноваций, но и защита граждан от ненадлежащего и неэтичного использования этой технологии.
Одним из ключевых элементов регулирования являются запрещенные практики, которые считаются особенно опасными. О том, что запрещается делать с помощью искусственного интеллекта, подробно рассказано в данной статье «Польского консультанта».
Манипулирование поведением пользователя
Первая запрещенная практика, включенная в Акт (Регламент) об искусственном интеллекте — это использование ИИ для манипулирования поведением пользователей.
Как водится, слова достаточно грозные, но во многом общие. Ниже рассмотрим некоторые аспекты более детально.
Эксплуатация слабостей людей
Регламент также запрещает использование ИИ таким образом, чтобы манипулировать людьми, находящимися в особо уязвимых ситуациях. Такая практика может привести к эксплуатации слабостей этих людей, что является серьезным нарушением их прав.
Например, рекламные кампании, анализирующие поведение детей и создающие сомнительный контент, особенно приложения, использующие данные о поведении детей для адаптации рекламного контента, могут нарушать их право на защиту от манипуляций. Аналогичным образом, использование данных пожилых людей для продвижения товаров или услуг, не соответствующих их реальным потребностям, является примером злоупотребления их слабостями.
Оценка рисков
Согласно положениям Акта об ИИ, запрещено использовать системы искусственного интеллекта для следующих практик:
- Оценка риска преступлений на основе психологических или социальных профилей людей. Закон гласит, что подобная практика приводит к несправедливому отношению к людям на основе неполных или неверных данных, а также нарушает принцип презумпции невиновности.
- Размещение на рынке, ввод в эксплуатацию или использование систем ИИ в целях оценки или классификации лиц или групп лиц в течение определенного периода времени на основе их социального поведения или известных, предполагаемых или прогнозируемых личных характеристик или черт личности, когда социальная оценка приводит к одному или обоим из следующих последствий: несправедливое или неблагоприятное обращение с некоторыми лицами или группами лиц в социальных контекстах, которые не связаны с контекстами, в которых данные были изначально созданы или собраны, или несправедливое или неблагоприятное обращение с некоторыми лицами или группами лиц, которое является неоправданным или несоразмерным их социальному поведению или его серьезности.
- Размещать на рынке, вводить в эксплуатацию для этой конкретной цели или использовать систему ИИ для проведения оценки риска в отношении физических лиц с целью оценки или прогнозирования риска совершения физическим лицом преступления, основываясь исключительно на профилировании физического лица или оценке его личностных черт и характеристик. Этот запрет не распространяется на системы ИИ, используемые для поддержки человеческой оценки участия человека в преступной деятельности, которая уже основана на объективных и проверяемых фактах, напрямую связанных с преступной деятельностью.
Например, системы, используемые для прогнозирования преступлений на основе социально-экономических, психологических и поведенческих данных, полученных в результате наблюдения за действиями человека в Интернете. Эти данные не связаны напрямую с риском совершения преступления, но используются для идентификации человека как потенциального преступника.
Нецелевой сбор биометрических данных
Еще один важный аспект — Акт об ИИ запрещает нецелевой сбор биометрических данных, таких как изображения лиц, для создания баз данных распознавания лиц. Такие действия могут создать систему массового наблюдения, которая может использоваться бесконтрольным образом.
Например, сбор биометрических данных в общественных местах, к примеру, с помощью камер, следящих за людьми, входящими в магазины или на городских улицах, является практикой, которая может нарушать основные права граждан на неприкосновенность частной жизни.
Оценка эмоций в контексте работы и образования
Согласно Регламенту, запрещено использование систем искусственного интеллекта, анализирующих эмоции людей на рабочих местах или в учебных заведениях. Такая практика может привести к нарушению конфиденциальности людей, которых оценивают на основе их эмоций, что может повлиять на их профессиональную карьеру или образовательный прогресс.
Закон об ИИ также запрещает маркетинг, внедрение в конкретных целях или использование систем ИИ для составления выводов об эмоциях человека на рабочем месте или в образовательных учреждениях, за исключением случаев, когда система ИИ должна внедряться или рекламироваться в медицинских целях или в целях безопасности.
Например, использование технологии распознавания эмоций на рабочем месте для оценки вовлеченности сотрудников или права на продвижение по службе, может привести к дискриминации. Такие системы могут искажать оценки эмоций, которые не имеют никакой связи с реальным психическим здоровьем или производительностью труда сотрудника.
Классификация людей на основе конфиденциальных данных
Акт об ИИ запрещает классификацию лиц на основе биометрических данных. Такая практика приводит к стигматизации и может также привести к дискриминации, особенно в контексте трудоустройства, доступа к государственным услугам или защиты от насилия.
Данный запрет не распространяется на маркировку или фильтрацию законно полученных наборов биометрических данных, таких как изображения, или на категоризацию биометрических данных в сфере уголовного правосудия.
Удаленная биометрическая идентификация в общественных местах
Использование технологии распознавания лиц в общественных местах в режиме реального времени запрещено, за исключением особых, обоснованных обстоятельств, таких как борьба с терроризмом или поиск пропавших без вести лиц. Практика массового наблюдения за гражданами считается нарушением неприкосновенности частной жизни и человеческого достоинства.
Использование систем удаленной биометрической идентификации в режиме реального времени в общественных местах в целях обеспечения соблюдения закона запрещено, за исключением случаев, в которых такое использование строго необходимо для достижения одной из следующих целей:
- целенаправленный поиск конкретных жертв похищения, торговли людьми или сексуальной эксплуатации людей, а также пропавших без вести лиц;
- для предотвращения конкретной, существенной и непосредственной угрозы жизни или физической безопасности физических лиц или реальной и существующей или реальной и предвидимой угрозы террористического акта;
- установление местонахождения или идентификация лица, подозреваемого в совершении уголовного преступления, в целях расследования, судебного преследования или исполнения наказаний в отношении преступлений, указанных в отдельном списке (Приложении II), которые в соответствующем государстве-члене наказываются лишением свободы или мерой, связанной с лишением свободы на максимальный срок не менее четырех лет.
Например, использование распознавания лиц для наблюдения за гражданами в общественных местах во время протестов, может привести к подавлению свободы слова и права на собрания. Наблюдение за участниками общественных мероприятий в массовом масштабе не только нарушает неприкосновенность частной жизни, но и может быть использовано в политических целях, что представляет серьезную угрозу демократии.
Наказание за нарушение запретов
Закон AI предусматривает финансовые санкции за запрещенные практики, которые могут достигать очень высоких сумм. Размер штрафов зависит от типа и масштаба нарушения.
Штрафы могут составлять до 35 миллионов евро или 7% от общего годового мирового оборота за предыдущий финансовый год, в зависимости от того, что больше.