Разработчики хотят защитить ваши селфи от систем распознавания лиц

4

«Fawkes» может быть самой продвинутой защитой от систем для распознавания лиц, таких как Clearview AI, — пока алгоритмы не усовершенствуются.


BLOOMBERG / GETTY IMAGES

Эта статья первоначально появилась на VICE US.

Исследователи создали, возможно, самую продвинутую систему для обмана самых передовых алгоритмов распознавания лиц, через тонкую модификацию изображений, чтобы сделать лица и другие объекты неузнаваемыми для машин.

Программа, разработанная исследователями из Чикагского университета, основана на предыдущей работе группы исследователей Google, изучающих, как работают глубокие нейронные сети. В 2014 году они выпустили документ, показывающий, что «незаметные возмущения» на изображении могут заставить современные алгоритмы распознавания ошибочно классифицировать изображение. Их работа привела к взрыву исследований в новой области: подрывной деятельности против систем распознавания изображений посредством состязательных атак.

Работа приобрела новую актуальность благодаря широкому внедрению технологии распознавания лиц и открытию того, что такие компании, как Clearview AI , очищают сайты социальных сетей для создания огромных баз данных лиц, на которых они обучают алгоритмы, которые затем продаются в полицию, универмаги и спортивные лиги.

Новая программа под названием «Фоукс», названная в честь печально известного революционера, чье лицо украшает вездесущие протестные маски Anonymous, «маскирует» картинку, добавляя к изображению небольшое количество пикселей. Несмотря на то, что изменения незаметны для человеческого глаза, если скрытая фотография используется для обучения алгоритма (например, путем получения из социальных сетей), это приведет к тому, что система распознавания лиц неверно классифицирует изображение рассматриваемого человека. Исследователи сообщают в новой статье, что скрытые изображениями Фокса успешно одурачивали системы распознавания Amazon, Microsoft и Megvii в 100% попыток.

Amazon не ответил на запрос о комментарии. Microsoft и Megvii отклонили запросы на интервью.

«Fawkes позволяет людям защититься от несанкционированного применения систем распознавания лиц без значительного искажения их фотографий или без заметных пятен», — говорится в документе. Шон Шэн, один из ведущих авторов, сказал, что команда не может прокомментировать дальнейшее исследование, потому что оно проходит процесс экспертной оценки.

Команда признала, что Fawkes далек от идеального решения. Он опирается на систему распознавания, обучаемую на скрытых изображениях, но большинство людей уже имеют десятки, если не сотни, своих фотографий, размещенных в Интернете, из которых системы могли уже извлечь. Согласно документу, успех Фокса упал до 39 процентов, когда в тренировочный набор алгоритма входило менее 85 процентов скрытых фотографий для конкретного человека.

«Это очень, очень хорошая идея, но с точки зрения практических последствий или широкого использования неясно, насколько широко она будет принята», — сказал Motherboard Анил Джейн, профессор биометрии и машинного обучения в Университете штата Мичиган. «И если она получит широкое распространение, тогда системы распознавания лиц внесут некоторые изменения в свои алгоритмы, чтобы этого избежать».

Существует определенная и растущая потребность в средствах защиты от слежки, которые могут нарушить распознавание изображений, о чем свидетельствует широкий ассортимент очков, шляп, футболок и узоров, созданных для этой цели. Кроме общего состояния обеспокоенности, распознавание лиц представляет собой прямую физическую угрозу для активистов, групп меньшинств и работников секс-индустрии, часто нанося им вред неожиданным образом.

Fawkes — не первая попытка создания инструмента защиты от распознавания лиц. В 2018 году группа инженеров и технологов, работающих в Гарвардском Центре Интернета и общества им. Беркмана Кляйна, опубликовала EqualAIs , онлайн-инструмент, в котором использовалась похожая методика. Метод тонкого изменения входных данных, таких как фотографии, для подрыва обучения глубокой нейронной сети известен как ядовитая атака.

Fawkes пока недоступен для публичного использования, и, если и когда это произойдет, эксперты говорят, что, скорее всего, пройдет немного времени, прежде чем поставщики систем распознавания лиц разработают ответ. Большая часть исследований новых ядовитых атак или других форм состязательных атак против глубоких нейронных сетей сосредоточена как на способах обнаружения и победы над методами, так и на их создании.

Как и многие другие области кибербезопасности, эксперты утверждают, что распознавание лиц должно быть игрой в кошки-мышки.

Ссылка на источник

Читайте также