
В Гонконге сотрудник перевёл мошенникам 39 млн долларов, поверив подделке. За три месяца 2025 года ущерб от таких атак во всём мире превысил 200 млн долларов.
– Качество дипфейков растёт настолько быстро, что даже профессионалы не всегда могут отличить подделку, – говорит Екатерина Корнюшина, генеральный директор проекта aIDeepFake, который занимается распознаванием фейковых голосов и видео.
По словам эксперта, сегодня около 15% атак на топ-менеджеров происходят с использованием синтетического голоса или видео. Мошенники звонят от имени знакомого, ведут беседу о контрактах, проверке данных, и в этот момент из жертвы извлекается нужная информация. Пока человек уверен, что разговаривает с реальным коллегой, в другом месте совершается настоящая атака.
Голос без души: почему дипфейк так легко обманывает мозг
– Синтетический голос научился не просто повторять слова. Он может шутить, проявлять эмоции и даже просить о помощи. И звучит при этом почти как живой, – говорит Екатерина Корнюшина.
По её словам, мировой ущерб от ИИ-мошенничества к 2027 году может превысить 40 миллиардов долларов — такие оценки приводит Deloitte. Именно потому дипфейк уже перестал быть просто игрушкой: это полноценный инструмент социальной инженерии, с помощью которого атакуют как корпорации, так и частных лиц.
– Но дипфейк — это не зло. Это всего лишь инструмент. Всё зависит от того, кто его использует, – подчёркивает Екатерина.
Она отмечает, что во многих сферах дипфейки приносят реальную пользу. Например, в образовании они помогают преподавателям говорить на десятках языков, в кино — “омолаживают” или “воскрешают” актёров, в медицине — возвращают голос пациентам с нарушением речи.
Как рассказывает эксперт, новым витком в развитии технологии стали так называемые "живые аватары" — цифровые двойники реальных людей, которые могут вести видеозвонки в реальном времени.
– Эти технологии уже тестируются в бизнесе: виртуальный продавец или HR-менеджер общается с клиентами 24/7, полностью копируя манеру общения конкретного человека, – объясняет Екатерина Корнюшина. – Чем реалистичнее аватар, тем выше вероятность злоупотреблений. И если мы не будем контролировать такие технологии, риски станут слишком высокими.
Когда фейк становится поводом для настоящей паники
Как считает Екатерина Корнюшина, особенно опасны дипфейки там, где последствия обмана выходят за рамки одного человека. Это банки, госуслуги, службы поддержки, экзамены и, конечно, соцсети и СМИ. Поддельные видео от имени врачей, чиновников, военных могут вызвать массовую дезинформацию и привести к хаосу.
– Сегодня уже недостаточно просто смотреть и слушать. Нужно проверять. Даже если картинка безупречна, – подчёркивает она.
Ситуацию усугубляет так называемый "эффект дипфейка": человек может заявить, что подлинное видео — фейк и избежать ответственности. Это разрушает саму идею цифровых доказательств. Это тревожный сигнал для судов, СМИ и всех, кто работает с фактами.
В России только начинают обсуждать правила маркировки синтетического контента и ответственность за его использование. В технологически развитых странах также готовятся законопроекты, но технологии развиваются быстрее, чем нормативы.
– Мы не сможем остановить нейросети. Но можем научиться сосуществовать с ними. Осознанно и осторожно, – говорит эксперт.
Почему фейк может сделать каждый — и что из этого выйдет
Екатерина обращает внимание: нейросети стали массовыми. Уже сегодня любой пользователь с базовыми навыками способен сгенерировать видео, которое обманет не только друга, но и службу безопасности. Это и есть "демократический дипфейк" — угроза, пришедшая не сверху, а снизу.
– Мы видим, как дипфейки всё чаще используют в личных конфликтах. От компромата до интимного видео без согласия. Это уже не технология — это оружие, – подчёркивает Екатерина. – Однако угроза не в технологии, а в нашей наивности. Дипфейк не победит тех, кто умеет сомневаться.