2022-06-19 00:51:34
Снова адверсариал атаки. Есть такая штука Fawkes (да, именно из-за масок из комикса Алана Мура) -- инструмент, чтобы незаметно изменять ваши фотографии перед публикацией в интернетах, так чтобы всякий нейронки потом вас не могли узнать. Я почитал статейку, как оно работает и какой сценарий использования предполагается.
Сначала ТЛДР, а то потом стена текста будет и вы напугаетесь.
- Портите картинки, грузите их в интернеты, машина потом думает что вы выглядите совсем не так как на самом деле
- Проверяли это дело на разных больших API для классификации лиц, при соблюдении некоторых (выполнимых) условий работает (по словам авторов) на 100%
- Применимость очень ограничена, потому что базовый сценарий вы скорее всего уже испортили, засветившись в интернете как следует.
- Искажения, всё же заметные даже на среднем уровне. А надёжный сценарий предполагает более сильные искажения.
- Плохо работает, когда атакуемая модель не классификатор (ну там софтмакс на выходе и выплёвывает вероятность класса), а просто ищет ближайший кластер, соответствующий человеку (как в амазоновском API)
- Модели подготовленные к адверсариал атакам всё ещё сложно одолеть (как Face++)
- Наверняка можно делать модели защищённые от этой штуки, но пока это приколюха для полутора параноиков, возможно никто не будет заморачиваться.
- Если вы не умеете pip install ... и ваша машина никак не сможет завести тензорфлоу, то вам оно не доступно.
- Несмотря на все минусы, это пока самое практичное, что я видел.
- Можно наверное доучить, переписать, сделать пару костылей и станет лучше.
- Чуда не случилось, но вместе со строгой цифровой гигиеной (выдернуть сетевую карту, да) может быть не лишним. Всё-таки даже самому серьёзному параноику может пригодиться фото в LinkedIn.
319 views21:51