Поиск по сайту
Технологии
19.02.2024 12:32

Нижегородцам рассказали, как отличить дипфейки от оригинала

Существует несколько основных признаков, по которым можно узнать подделку.
Нижний Новгород. 19 февраля. NewsRoom24.ru -

Стало известно, как отличить дипфейки от оригинального контента. Об этом «Открытому Нижнему» рассказала замдиректора по методической работе ИФИЖ ННГУ Людмила Макарова.

Согласно данным из открытых источников, дипфейк – это методика синтеза изображения или голоса, в основе которой лежит искусственный интеллект. Суть технологии заключается в создании нового фото- или видеоконтента с помощью наложения лиц и голосов людей.

По словам Макаровой, в 2016 году произошёл настоящий прорыв в использовании дипфейков изображений. А спустя два года началась новая эра в их применении. Тогда во время выборов в США в сети появился ролик, на котором бывший президент Барак Обама якобы озвучил провокационные высказывания. На самом деле видео оказалось дипфейком.

Ещё один похожий случай произошёл в начале 2024 года на предвыборной кампании в Индонезии. В местных соцсетях распространили ролик, на котором скончавшийся 16 лет назад индонезийский президент Хаджи Сухарто призывал голосовать за кандидата одной из партий. После этого на обсуждение вынесли возможность введения жестких законов за использование подобных технологий.

Доцент ННГУ подчёркивает, что человеку без опыта понять, что видео - дипфейк, будет крайне сложно. Однако существует несколько признаков, которые помогут в распознавании подделки. К ним относятся мерцание и размытость в районе головы, неестественность теней или света, расхождения в речи и мимике губ, строении тела, странные движения челюсти и бровей.

Для того, чтобы отличить подделку изображения от оригинала, была создана программа Fake Catcher от Intel. Она определяет дипфейк по цветовым пульсациям подкожных вен лица. Кстати, в России также есть подобная разработка – нейромодель класса Efficient Net от «Сбера».

В 2022-2023 годах эра развития дипфейков получила новый скачок – мошенники научились подделывать голоса людей. Так, чтобы получить качественную модель голоса любого человека, достаточно всего лишь 15 минут его оригинальной речи. Сервисов по распознаванию подобных подделок пока нет.

«Это не повод запрещать подобные разработки, да это, по большому счету, невозможно. Ведь дипфейки уже используются, например, в фильмах и рекламе. Но правовая регуляция в этом направлении однозначно требуется», - заключила Людмила Макарова.

Ранее сообщалось, что методику распознавания фейков разработали в Нижнем Новгороде. Специалисты выясняют, как технологии воздействуют на сознание молодёжи.

Еще в рубрике
 
Текст сообщения*
Перетащите файлы
Ничего не найдено
Защита от автоматических сообщений