Получи случайную криптовалюту за регистрацию!

​Программисты обманули системы обнаружения deepfake-видео | vc | AI - все об искусственном интеллекте

Программисты обманули системы обнаружения deepfake-видео | vc

В принципе фото- и видеоподделки в интернете далеко не новость, но Deepfake вывела их на новый уровень. Из-за массового распространения таких материалов в интернете инженеры начали создавать системы, предназначенные для их обнаружения. Но недавно исследователи рассказали о том, как можно обмануть и эти системы.

В ходе конференции WACV 2021 программисты впервые показали, что обмануть детекторы дипфейков можно, вставляя в каждый видеокадр входные данные (их ещё называют примерами состязательности или состязательными примерами). Это немного изменённые данные, заставляющие искусственный интеллект ошибаться в своих выводах.

Исследователи говорят, что это делает дипфейки ещё более серьёзной угрозой для человечества

Более того, по их словам, поддельные видео с примерами состязательности могут обмануть программу детектор, даже не зная, как работает её модель машинного обучения. Тотесть для обхода программы не нужно даже понимать, как работают её "внутренности".