Главная - Новости - Нижегородцам рассказали, как не стать жертвой дипфейка

Нижегородцам рассказали, как не стать жертвой дипфейка

За последние годы технологии прикладного искусственного интеллекта совершили огромный скачок в развитии. С их помощью научились даже подделывать лица и голоса людей — создавать дипфейки. О том, как их распознать, какую пользу или вред могут принести подобные разработки, корреспондент «Открытого Нижнего» узнал у заместителя директора по методической работе Института филологии и журналистики ННГУ имени Н. И. Лобачевского, руководителя магистерской программы «Искусственный интеллект и журналистика данных», доцента Людмилы Макаровой.

По ее словам, предпосылки к появлению дипфейков возникли вместе с возможностями создавать визуальный контент. При этом, если раньше для подобного рода фальсификаций требовались серьезные навыки, то современные технологии позволили значительно упростить этот процесс.

К таковым разработкам и относится дипфейк (от англ. deep learning – глубокое обучение, fake – фальшивый). Это технология, основанная на использовании прикладного искусственного интеллекта. Ее суть в том, чтобы создать новый контент путем наложения лиц и голосов людей на различные видео- и аудиоматериалы.

Людмила Макарова рассказала, что дипфейки изображений начали развиваться относительно недавно. Если еще в 2010-х использование такого метода подделки видео можно было достаточно легко распознать в силу несовершенства технологии, то уже в 2016 году произошел настоящий прорыв в этом направлении.

Первым таким звоночком, что распространение этой технологии несет опасность, стали выборы в США в 2018 году, когда был опубликован ролик, где экс-президент Барак Обама якобы произнес некоторые провокационные высказывания. Это и стало началом новой эры использования дипфейков, — отметила собеседник «Открытого Нижнего».

Источник: youtube.com/watch?v=cQ54GDm1eL0

Фото: youtube.com/watch?v=cQ54GDm1eL0

Кроме того, похожий случай произошел в начале 2024 года во время предвыборной кампании в Индонезии. Так, 6 января заместитель председателя партии «Голкар» Эрвин Акса распространил в соцсетях дипфейк-видео, в котором ныне покойный индонезийский президент Хаджи Сухарто призвал голосовать за кандидата от партии «Голкар».

Этот случай вызвал большой скандал, ведь использование дипфейков в политических целях не запрещено, хотя это и крайне сомнительно с этической точки зрения. Поэтому обсуждалась возможность введения жестких законов за использование таких технологий, по примеру Китая, где авторы дипфейков привлекаются к уголовной ответственности за угрозу нацбезопасности, — сказала эксперт.

Фото: страница Эрвина Акса в соцсети

Фото: страница Эрвина Акса в соцсети

При этом распознать качественно сделанный дипфейк без соответствующего опыта крайне сложно. Однако выделяют несколько признаков, которые могут указывать на подделку исходного лица человека на видео: мерцание, размытости в районе рта или лица, неестественные тени или свет, неестественные движения, особенно рта, челюсти и бровей, расхождения в оттенках кожи или строении тела, а также рассинхрон движения губ.

Кроме того, уже существует программное обеспечение для выявления дипфейков. В частности, разработан детектор Fake Catcher от компании Intel — он выявляет подделку изображения, опираясь на цветовые пульсации подкожных вен лица. Также компания Sensity создала онлайн-платформу для автоматической идентификации дипфейков. Среди отечественных разработок можно выделить нейромодели класса Efficient Net от «Сбера».

Примечательно, что в настоящее время начали подделывать не только лица людей на видео, но и голоса.

Вообще само воспроизведение голоса – это одна из самых сложных технологий, поэтому ее удалось реализовать совсем недавно. Именно на 2022-2023 годы пришелся качественный скачок в создании голосовых дипфейков, — отметила доцент ННГУ.

Натренировать качественную модель голоса какого-либо человека не стоит больших усилий — требуется буквально 15 минут оригинального голоса. При этом сервисов, которые могли бы распознать такую подделку, в открытом доступе пока нет. Поэтому опираться приходится лишь на четкость своего слуха.

Разумеется, такими технологиями начали активно пользоваться мошенники. Однако это не повод запрещать подобные разработки, да это, по большому счету, невозможно. Ведь дипфейки уже используются, например, в фильмах и рекламе. Но правовая регуляция в этом направлении однозначно требуется. Кроме того, в людях нужно развивать цифровую грамотность, чтобы они не принимали на веру очевидные подделки, — заключила Людмила Макарова.

Ранее «Открытый Нижний» рассказывал, что в ННГУ имени Н. И. Лобачевского ведется разработка нейросети для автоматической верификации информации в медиа. В скором времени специалисты готовятся представить рабочий прототип.

Источник: «Открытый Нижний»

Все новости