Работа в Европе

ЕС: Массовое распознавание лиц - это аппарат полицейских государств

В апреле ЕС станет первой глобальной силой, которая изложит подробные планы регулирования искусственного интеллекта, включая правила использования технологий биометрического наблюдения, таких как публичное распознавание лиц.

Биометрические технологии собирают данные, уникальные для нашего тела и поведения, которые раскрывают конфиденциальную информацию о том, кто мы есть. Более половины стран ЕС используют распознавание лиц и аналогичные инструменты способами, которые противоречат их собственным правилам в области прав человека, как выяснила группа защиты европейских цифровых прав (EDRi).

Несмотря на то, что эти инвазивные технологии рекламируются как простое средство борьбы с преступностью, в действительности они часто основываются на ненаучных и дискриминационных основах. Их используют могущественные деятели, пытающиеся изображать Бога и приносить пользу только технологическим компаниям, которые их продают.

Наши правительства в лучшем случае наивно создают идеальные условия для антидемократического массового наблюдения за целым населением. Европейцы сопротивляются - движение Reclaim Your Face подало общеевропейскую петицию, чтобы подтолкнуть институты ЕС к запрету вредного использования этих технологий.

Несмотря на то, что технология распознавания лиц существует уже несколько десятилетий, в последние несколько лет наблюдается растущее желание ограниченных в средствах советов и полицейских сил автоматизировать использование мимики и голоса людей, движений и поведения людей, чтобы предсказать, является ли этот человек «подозрительным».

Ранее в этом месяце суд высшей инстанции ЕС рассмотрел дело о спорных тестах на «детекторе лжи» ИИ в рамках проекта под названием iBorderCTRL. Депутат Европарламента Патрик Брейер подает в суд на Еврокомиссию за пилотный проект, финансируемый ЕС, который проходил в период с 2016 по 2019 год. По данным Комиссии, проект направлен на ускорение проверок для граждан стран, не входящих в ЕС, путешествующих в ЕС. На самом деле он использовал инвазивный биометрический анализ эмоций, который, по словам некоторых ученых, не работает, чтобы определить, давать ли кому-то свободу путешествовать.

iBorderCTRL и аналогичные проекты, финансируемые ЕС, подвергались критике за секретность, в которой проводились эксперименты с предполагаемым нарушением прав, за то, что они являлись частью все более бесчеловечных стратегий контроля над миграцией, и за посягательство на «познавательную свободу» людей. Другой пример можно увидеть в Нидерландах, где власти используют биометрические технологии для прогнозирования агрессивности людей.

Мы являемся свидетелями того, как власти тратят огромные суммы денег на биометрические технологии, основанные на данных, как на простой путь к решению сложных социальных проблем. Они делают это вместо того, чтобы вкладывать средства в образование, социальное обеспечение или в установление доверия с сообществами, которые являются более эффективными методами сокращения преступности и улучшения равного доступа к возможностям.

Эти технологии усилят существующую дискриминацию в отношении цветных людей, людей с ограниченными возможностями и других маргинализированных групп.

Ученые показали присущую биометрическим системам структурную дискриминацию. Исследования показывают, что алгоритмы анализа лица постоянно считают черные лица более злыми и опасными, чем белые лица. Мы также знаем, что биометрические системы разработаны с учетом якобы «нейтрального» лица и тела, что может исключать людей с ограниченными возможностями и всех, кто не соответствует произвольной норме.

Обустройство наших улиц, супермаркетов и парков этими технологиями усилит существующую дискриминацию в отношении цветных людей, людей с ограниченными возможностями и других маргинализированных групп. Вместо того чтобы оспаривать эти методы, они будут скрыты за завесой ложных научных авторитетов и преднамеренной непрозрачности.

Лондонская полиция, например, утверждает, что распознавание лиц никогда не используется в одиночку для принятия решения. Тем не менее, исследования Университета Эссекса показывают, что люди психологически отстранены от оспаривания решений, основанных на ИИ, из-за тяжелого бремени их опровержения. Коротко: «Компьютер говорит нет».

Технология игнорирует тот факт, что выражения и эмоции сильно различаются как на культурном, так и на индивидуальном уровне.

Заявляя, что мы знаем, что люди думают или собираются делать дальше, биометрические системы последнего поколения подталкивают нас к технологической полиции мыслей. Посредством экспериментов по «чтению мыслей», таких как iBorderCTRL, ЕС узаконивает шаткую лженауку и открывает дверь для все более инвазивных биометрических прогнозов. Технология игнорирует тот факт, что выражения и эмоции сильно различаются как на культурном, так и на индивидуальном уровне. Биометрическое обнаружение подозрений, напротив, заставляет всех действовать в соответствии с произвольными технологическими стандартами.

Правительства открывают ящик пандоры, в котором государственный контроль распространяется не только на все, что мы делаем, но и на наши сокровенные мысли, и применяем его в контекстах, где наша невиновность или вина предсказываются на основе наших биометрических данных. Эти инструменты и методы - мечта любого полицейского государства по преимуществу и полная противоположность верховенству закона. Но у нас есть возможность остановить их, прежде чем они станут широко распространенными в наших обществах.

История не может дать нам более четкого предупреждения о том, что происходит, когда общества разделяются и обращаются друг против друга на основании того, кто считается подозрительным.

Европейская кампания Reclaim Your Face, которую поддерживает EDRi, призывает навсегда прекратить массовое биометрическое наблюдение, такое как iBorderCTRL. Их петиция, которая, как они надеются, соберет 1 миллион подписей. Запускается она сегодня и направлена ​​на содействие будущему, в котором люди не будут сегментироваться по внешнему виду, религии, сексуальности, инвалидности и другим факторам, которые составляют нашу разнообразную идентичность. История не может дать нам более четкого предупреждения о том, что происходит, когда общества разделяются и обращаются друг против друга на основании того, кто считается подозрительным, ненормальным и аберрантным.

Страны ЕС будут решать, будут ли юридически контролироваться разработка и использование ИИ. Как первый континент, который рассматривает возможность регулирования этих быстроразвивающихся технологий, он может подать глобальный пример, например, запретив методы биометрического массового наблюдения.

Это обеспечило бы всем нам возможность пользоваться презумпцией невиновности, свободными от осуждения машин, которые лишают нас нашего достоинства, нарушают нашу физическую и психологическую неприкосновенность и угрожают нашим демократическим свободам. Мы призываем вас быть вместе с нами - #ReclaimYourFace.

Источник: euronews

Ещё новости