Инвестирование в Казахстане становится более актуальным из-за снижения ставок по депозитам, хотя и сопряжено с более высокими рисками. Инвесторы могут получать доход через дивиденды или рост стоимости акций, а также через две основные биржи - KASE и AIX. Однако, чтобы грамотно инвестировать, нужно хотя бы знать, какие акции являются реальными, а какие - плод воображения мошенников.
… Стоит зайти на YouTube и задержаться там дольше получаса, как тебе обязательно попадется реклама с участием экс-главы компании «Казатомпром» Мухтара Джакишева, который приглашает казахстанцев поучаствовать в «новом проекте «Казатомпрома» - купить акции и потом спокойно получать баснословные дивиденды. Для подтверждения достоверности информации публикуется его «интервью» известному журналисту Вадиму Борейко, приводятся отзывы благодарных новоиспеченных обладателей этих акций. Недавно к этой кампании добавились ролики с председателем правления АО «Народный банк Казахстана» Умут Шаяхметовой.
А потом на сайте Polisia.kz сообщили, что в Акмолинской области женщина потеряла более трех миллионов тенге, вложив их в «инвестиции» в Казатомпром: 8 августа в полицию города Степногорска поступило заявление о мошенничестве. Акмолинка сообщила, что с 27 июня по 18 июля неизвестные под предлогом выгодных инвестиций в проекты Казатомпрома похитили у нее деньги. Ранее женщина видела рекламу высокодоходных инвестиций на платформе YouTube. Поверив предложению, она оставила свой номер телефона. Вскоре с ней связались мошенники, которые представились сотрудниками компании и убедили перечислить крупную сумму, обещая высокую прибыль, однако позже перестали выходить на связь. Осознав, что стала жертвой обмана, женщина обратилась в полицию, где возбудили уголовное дело.
Реальна ли реклама с Джакишевым и Шаяхметовой? Многие казахстанские СМИ разбирались в этом деле, и на сегодня уже точно установлено, что упомянутая реклама - дипфейк.
Что же такое дипфейки и можно ли с ними бороться?
Считается, что дипфейки (от англ. «deepfake», сочетание «deep learning» - глубокое обучение и «fake» - подделка) впервые появились в конце 2017 года на платформе Reddit, рассказали на портале Ulysmediа. Пользователь под псевдонимом deepfakes создал сообщество, где делился видеороликами, в которых лица знаменитостей были наложены на тела актеров в порнографических фильмах с использованием технологии замены лиц. Эти видео быстро привлекли внимание и вызвали громкие дискуссии об этике и потенциальных угрозах подобных технологий.
На самом деле все началось задолго до Reddit. В 1997 году группа исследователей разработала программу «Video Rewrite», которая позволяла синтезировать новые движения губ в видеозаписях, заставляя человека на видео произносить слова из другой аудиодорожки. Это было одним из первых примеров автоматизированной анимации лиц на основе аудио.
В 2014 году Иэн Гудфеллоу и его коллеги представили генеративно-состязательные сети (GANs), которые стали основой для многих современных технологий создания дипфейков. GANs состоят из двух нейронных сетей - генератора и дискриминатора, которые обучаются в процессе соперничества: генератор создает изображения, а дискриминатор пытается отличить подделки от реальных данных. Это значительно улучшило качество синтезированных изображений и видео.
Пранк - дедушка дипфейка. Пока технологии искусственного интеллекта еще не были так развиты, обманывать известных людей, выдавая себя за знаменитостей и политиков, приходилось «вручную» - имитируя голос и накладывая грим. Особенно преуспели в этом российские пранкеры Вован (Владимир Кузнецов) и Лексус (Алексей Столяров). Их розыгрыши политиков самого разного уровня не раз приводили к международным скандалам.
В одном из случаев они представились экс-президентом Украины Петром Порошенко и смогли выйти на связь с бывшим госсекретарем США Хиллари Клинтон. В ходе разговора обсуждались весьма деликатные вопросы - от будущих выборов до ее отношения к Дональду Трампу (леди назвала его «плохим парнем»). Сам звонок был построен так, чтобы вызвать доверие собеседницы, и, судя по всему, это удалось. В другой истории в апреле 2019 года Вован и Лексус сыграли роль Владимира Зеленского, новоизбранного президента Украины. Их разговор с Эммануэлем Макроном длился около 15 минут. Президент Франции в этот момент пребывал в уверенности, что говорит с реальным коллегой, и потому делился своими взглядами на украинские выборы и ситуацию в регионе. Но, как оказалось позже, все происходившее было искусной инсценировкой.
В Казахстане эти пранкеры тоже отметились: они связались с оппозиционным политиком Мухтаром Аблязовым, представившись российскими оппозиционерами. Они расспрашивали о планах, политической стратегии и действиях в ближайшем будущем. По словам Лексуса, технологию «дипфейк» они не использовали, это был обычный грим.
Развитие искусственного интеллекта избавило и пранкеров, и просто обманщиков от необходимости обладать незаурядным актерским талантом.
В начале 2024 года имя певицы Тейлор Свифт оказалось в эпицентре международного скандала, но не из-за нового альбома или гастрольного тура, а из-за волны фейковых изображений, сгенерированных искусственным интеллектом. В Сети начали стремительно распространяться дипфейки с ее участием - порноизображения, созданные без ее согласия и не имеющие отношения к реальности. Особенно активно они циркулировали в соцсетях X (бывший Twitter), Facebook и Reddit. Один из постов на X собрал более 45 миллионов просмотров, прежде чем был удален. Реакция не заставила себя ждать: фанаты Свифт, известные как «свифти», запустили стихийную онлайн-кампанию. Они массово отправляли жалобы на контент, а также начали публиковать положительные и реальные изображения певицы, чтобы вытеснить дипфейки из поисковых систем. Платформа X была вынуждена временно заблокировать поиск по имени Тейлор Свифт. Ситуация вышла на уровень государственных обсуждений - пресс-секретарь Белого дома Карин Жан-Пьер охарактеризовала происходящее как тревожный сигнал и отметила необходимость разработки четких законодательных мер, способных защитить граждан от подобных инцидентов.
Примерно в это же время в политическом поле разразился другой дипфейковый инцидент, на этот раз связанный с сенатором США Беном Кардином. В сентябре 2024 года злоумышленники, используя технологии генерации видео и аудио, организовали видеозвонок с сенатором от имени министра иностранных дел Украины Дмитрия Кулебы. Во время беседы фальшивый Кулеба задал ряд чувствительных вопросов, которые вызвали у Кардина подозрение. Как только сенатор понял, что его собеседник не тот, за кого себя выдает, он прекратил разговор и немедленно уведомил соответствующие службы. Расследованием инцидента занялось ФБР.
Вообще, 2024 год оказался очень урожайным на скандалы с дипфейками. В мае британская инженерная компания «Arup» стала жертвой мошенничества с использованием дипфейков. Злоумышленники, используя технологии искусственного интеллекта, создали поддельный видеозвонок, в котором генеральный директор компании якобы поручил перевести 25 миллионов долларов на определенный счет. Сотрудники, не заподозрив подвоха, выполнили перевод. Когда обман раскрылся, было уже поздно.
Казахстан тоже оказался, что называется, в тренде. В мае прошлого года предприниматель и общественный деятель Маргулан Сейсембаев стал жертвой такой схемы: мошенники использовали его реальное видео, наложив фальшивый звук, чтобы убедить людей оставить личные данные на фейковом сайте.
В августе этого же года телеведущая телеканала «24KZ» Динара Саду столкнулась с ситуацией, когда мошенники сгенерировали ее голос с помощью нейросети и использовали его в фальшивой рекламе финансового проекта. Ведущая подчеркнула, что никогда не участвовала в подобных инициативах, и выразила обеспокоенность тем, что люди могут поверить в такие подделки.
Примерно в то же время казахстанский адвокат Таир Назханов столкнулся с ситуацией, когда его голос был подделан в одном из видео, где он якобы предлагал юридические услуги по возврату денег, а мошенники указали свои реквизиты для оплаты. Юрист сообщил об этом в полицию, однако правоохранительные органы посчитали, что в данном случае усматриваются гражданско-правовые отношения и нет оснований для вмешательства.
Технологии развиваются так быстро, что законодательство за ними просто не успевает. Но попытки объявить дипфейки вне закона уже предпринимаются. В США на федеральном уровне все еще нет единого закона, регулирующего дипфейковые технологии. Тем не менее в сентябре 2023 года в Конгресс был внесен законопроект под названием «DEEPFAKES Accountability Act», направленный на защиту национальной безопасности и предоставление юридических инструментов жертвам, пострадавшим от дипфейков. Законопроект предусматривает маркировку синтетического контента и вводит ответственность за его злонамеренное использование. Параллельно на уровне штатов уже начали действовать свои законы. Так, в марте Нью-Джерси стал первым штатом, установившим уголовную ответственность за создание и распространение вводящих в заблуждение медиафайлов. Нарушителям грозит до пяти лет лишения свободы.
В Европейском союзе борьба с дипфейками ведется в рамках более широкой инициативы по регулированию искусственного интеллекта. С августа 2024 года вступил в силу Акт об искусственном интеллекте (AI Act) - первый в мире закон, системно регулирующий ИИ. Он требует, чтобы контент, созданный или измененный при помощи ИИ, был четко маркирован как синтетический. Провайдеры обязаны информировать пользователей об использовании ИИ и предпринимать меры против его применения в целях манипуляции.
Великобритания также приняла серьезные меры. В январе 2025 года вступил в силу Акт о безопасности в Интернете (Online Safety Act), который напрямую касается сексуальных дипфейков. За создание и распространение такого контента без согласия пострадавшего теперь грозит до двух лет тюремного заключения.
В Китае еще в январе 2023 года вступили в силу Положения об управлении услугами глубокой синтезии в Интернете. Они обязывают всех поставщиков цифровых платформ, работающих с дипфейками и другим синтетическим контентом, маркировать материалы и не допускать их использования в целях дезинформации или обмана.
Южная Корея тоже усилила свое законодательство в сфере дипфейков осенью 2024 года. Новый закон предусматривает до трех лет тюремного заключения или штраф до 30 миллионов вон за владение и просмотр дипфейк-порнографии. А за создание и распространение такого контента грозит до пяти лет лишения свободы.
В Казахстане разработан проект Закона «Об искусственном интеллекте». При обсуждении законопроекта депутат мажилиса Екатерина Смышляева предлагала ввести уголовную ответственность за дипфейки. Но в текст вошел лишь запрет на «использование подсознательных, манипулятивных или иных методов, существенно искажающих поведение физического лица и ограничивающие способность принимать осознанные решения или вынуждающих принимать решение, которые могут причинить лицу вред, или создавать угрозу причинения вреда жизни, здоровью и имуществу и иного вреда лицу». Так что для борьбы с новыми технологиями пока придется пользоваться старыми законодательными нормами административного и уголовного кодекса - оскорбление чести и достоинства и мошенничество.
В прошлом и текущем годах в нашей газете опубликована серия материалов, посвященная технологиям манипуляции массовым сознанием и способам борьбы с ними. В том числе мы писали и о том, как распознавать дипфейки. При всем совершенстве технологий внимательность и простейшие проверки помогают довольно быстро разоблачить подделки.
Нужно обращать внимание на качество изображения, цвет кожи и глаз, естественность движений и освещения.
Если вы подозреваете дипфейк видеозвонка, попросите собеседника повернуть голову влево-вправо или почесать нос - ИИ очень плохо справляется с расчетами таких неожиданных задач.
Внимательно прислушайтесь к качеству звука и речи на видео - нет ли «металла» или задержек, естественны ли темп и интонации, похожа ли манера речи.
Включайте критическое мышление. Не отвечайте на щедрые предложения с фото или видео известных вам людей или знакомых.
Установите антивирусную программу, которая сможет распознавать подделки.
Сегодня вопрос борьбы с дипфейками стоит очень остро. Эксперты прогнозируют, что именно они станут «угрозой завтрашнего дня», и мы уже сейчас видим, что эти прогнозы начинают сбываться.
Компании-разработчики активно исследуют проблему и создают алгоритмы, помогающие распознавать поддельные изображения и видео. Некоторые страны вводят законы, которые запрещают распространение дипфейков без соответствующей маркировки. Разрабатывается технология цифровых водяных знаков, встраивание которых в изображения и видео может помочь отслеживать их происхождение.
Но один из самых эффективных инструментов - это люди, ведь конечная цель мошенников именно они. Важно повышать цифровую грамотность, обучать людей распознавать признаки дипфейков. Комплексный подход с использованием технологических, образовательных и правовых мер - ключ к эффективной борьбе с «глубокими подделками».
А еще не стоит без проверки использовать информацию, взятую из неофициальных источников, в соцсетях, от людей, с которыми вы не знакомы. Ваши финансы и жизнь зависят от вашей бдительности.
Айгуль МАХМУДОВА,
по материалам из открытых источников