В Беларуси завершился эксперимент в рамках инициативы МТС «Идентичность в сети», наглядно показавший, насколько уязвимы даже опытные пользователи перед лицом дипфейков. Белорусские блогеры, среди которых Алексей Холод, Павел Сыроежкин, Оксана Ванчук, Вадим Лапай и другие, опубликовали сгенерированные с помощью ИИ видео с вымышленными сюжетами. Реакция подписчиков оказалась тревожной: значительная часть аудитории приняла подделки за чистую монету.
Итоги обсуждали на экспертной встрече с участием специалистов в области искусственного интеллекта.
«Мы с рождения привыкли доверять тому, что видим и слышим. Быстрая, интуитивная часть мышления реагирует первой и говорит: «Это правда». А чтобы включить критическое мышление, нужно время и усилия. Когда мы уставшие, заняты или просто пролистываем ленту, то не успеваем задуматься», — объяснил Андрей Шиманский, эксперт по ИИ. Он также отметил, что генеративный ИИ за три года прошел путь от лабораторной новинки до массового инструмента, а число атак с deepfake-контентом выросло на 3000%.
Особенно уязвимыми, как выяснилось, остаются пожилые пользователи. «Мы только научили родителей не поднимать трубки от «банков», а теперь у них новый квест — определить, живой ли человек на экране», — иронично заметил блогер Иван Бондарев.
Эксперты предупреждают: для создания фейкового видео сегодня не нужны ни специальные навыки, ни дорогостоящее оборудование — достаточно одной программы и пары кликов. Это делает угрозу по-настоящему массовой. «Сейчас достаточно собрать ваш голос, наложить лицо, и все — можно записать видео, где вы якобы просите деньги, делаете заявление или признаетесь в чем-то. И это будет выглядеть убедительно. В рамках эксперимента мы использовали самую простую программу, в один клик. Она не требует установки, не требует навыков. Это базовый инструмент, доступный абсолютно всем. Вот в этом и кроется главная угроза», — подчеркнул эксперт по ИИ Андрей Цыган.
Чтобы защитить себя и своих близких, участники проекта призвали к развитию цифровой грамотности и предложили конкретные шаги:
-
проверять достоверность источников и подозрительных видео;
-
не делиться сомнительным контентом без проверки;
-
использовать доступные инструменты анализа и распознавания ИИ-контента;
-
обращать внимание на мелкие детали — мимику, движения, звук;
-
сообщать о фейках и подозрительном контенте модераторам платформ и правоохранителям.

Проект стал частью просветительской кампании МТС, направленной на формирование критического отношения к цифровому контенту и защиту личной идентичности в условиях стремительного развития ИИ.




