
Как пишет ТАСС со ссылкой на Центр цифровой экспертизы Роскачества, в России резко увеличилось число случаев обмана граждан с использованием нейросетей. Теперь мошенники всё чаще "оживляют" умерших родственников своих жертв, создавая дипфейки при помощи современных инструментов.
При этом, как отметили в ведомстве, изначально такая опция в нейросетях создавалась для терапии после утраты родственника. Сейчас же она стала технологией, которую преступники обратили во зло. Как отмечают специалисты, создаваемые хакерами дипфейки позволяют им обходить даже биометрические проверки.
Несмотря на это, подчеркнул в разговоре с Metro эксперт по нейросетям, медиаменеджер издания "Ведомости" Олег Городничий, искусственный интеллект пока не достиг таких высот в подделывании видеоматериалов. Однако качество аудиофейков поражает.
– Если мы говорим про аудиофайлы, которые создаёт нейросеть с полным дублированием голоса определённого человека, то здесь они достигли высочайшего уровня. Нейросети уже могут полностью повторить тембральную окраску любого человека, если у вас есть запись его голоса. Именно по этой причине мошенники часто пользуются звонками в Telegram, задают вопросы, записывают ваши ответы и потом используют ваш голос, – добавил он.
Но видеообман пока не удаётся. У у специалистов в этой области изготовление такого дипфейка может занять достаточно длительный срок.
– В создании видеоконтента нейросети пока не дошли до того уровня, чтобы биометрия засчитала такой дипфейк за полноценного человека. Здесь пока ещё есть нюансы – нехарактерные движения, неестественные для людей, расплывающиеся уголки губ, слишком частое моргание или его отсутствие, слишком гладкая кожа. Всё это выдаёт дипфейк. То есть на пользовательском уровне создать обманку невозможно, – подчеркнул Городничий.
В качестве ответных мер, которые могли бы обезопасить пользователей от нейросетевого обмана, специалист предложил размещать на созданных при помощи ботов видео воттермарки (видимые изображения в кадре, которые используют для указания авторства контента или для подтверждения подлинности).
– Во избежание увеличения мошеннических действий на фоне роста качества производимого нейросетями контента компании должны маркировать подобные материалы вотермарками. Так, чтобы все пользователи понимали, что он создан именно нейросетью, – резюмировал он.