Меню

Ожившие картинки. Развитие digital-мошенничества

Ожившие картинки. Развитие digital-мошенничества

Ожившие картинки.  Развитие digital-мошенничества Ожившие картинки.  Развитие digital-мошенничества
Фото из открытого источника

 width=Развитие digital-мошенничества

В последние годы мошенники активно используют новые технологии для обмана граждан. Дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных граждан, который позволяет «оживить» несуществующих людей, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил. Технология дипфейков основана на мощнейших нейросетях, с помощью которых можно генерировать любые фото и видеоизображения, манипулировать такими биометрическими данными, как тональность голоса, выражение лица человека. Посредством дипфейка можно создавать события, которые никогда не происходили, добавить возраст человеку, или, наоборот, сбросить ему несколько десятков лет, доснять фильм с актером, которого нет в живых, «оживить» фотографию. И этим активно пользуются продюсеры, режиссеры, маркетологи, рекламщики и, конечно же, мошенники. Официально принято считать, что технология дипфейк появилась в 2014 году. Ее базовый алгоритм разработал студент Стэнфордского университета Ян Гудфеллоу, который сейчас является американским ученым, наиболее известным своими работами в области искусственных нейронных сетей и глубокого обучения. Термин «дипфейк» происходит от слов deep learning, то есть «глубокое изучение» и fake - «подделка». Дипфейк - это результат работы ряда алгоритмов для синтеза изображений человеческого лица или голоса. Основные алгоритмы, применяемые для решения данной задачи, основаны на генеративно-состязательных сетях. Посредством данной инновационной технологии можно копировать существующего человека, мимику и голос. Она применяется на телевидении и в социальных сетях, когда искусственная digital-копия человека может скопировать телеведущего и блогера. Дипфейки создаются путем наложения существующих изоб­ражений, аудио и видео на исходные медиафайлы с помощью передового метода глубокого обучения под названием generative adversarial network, или GAN. Другими словами, GAN - это инновационная методика в области искусственного интеллекта, результатом которой является синтез искусственных изображений, неотличимых от подлинных. В методике GAN одновременно задействованы две нейросети: одна сеть, называемая генератор, использует набор данных для создания образца, имитирующего их. Другая сеть, известная как дискриминатор, оценивает, насколько генератору это удалось. Необходимо отметить, улучшение и совершенствование методики GAN привели к созданию еще более реалистичных дипфейков, которые практически невозможно разоблачить простым гражданам. Мошенничество с использованием генеративно-состязательных сетей - это серьезная угроза в информационном плане. Мировые эксперты в области IT-технологий считают, что уже в ближайшем будущем дипфейк может выйти на более серьезный уровень и оставить негативный след в общественно-политической жизни любой страны. Способы мошенничества с использованием этой технологии могут быть разными. Злоумышленники в своих корыстных целях используют дипфейки для кражи персональных данных, digital-личности, к примеру, близкого родственника, знакомого, общественного инфлюенсера, распространения ложной информации в обществе, финансового шантажа и автоматизированных кибератак. С помощью дипфейков злоумышленники подделывают чужую личность для того, чтобы получить доступ к банковскому счету, обналичить его и оформить подставные кредиты, или же синтезируют нового «человека», которого не существует в природе, используя его для совершения крупных финансовых транзакций и изощренных схем кредитного мошенничества. Также мошенники могут использовать данные ушедшего из жизни человека для получения доступа к его онлайн-сервисам и учетным записям или для подачи заявок на банковские карты, кредиты и тому подобное. Как распознать дипфейк В первую очередь обратите внимание на неестественную мимику человека и на странное моргание либо его отсутствие, нелогично выстроенную речь, легкое заикание или роботизированный тон. Ко всему, что кажется вам неестественным, вы должны отнестись с подозрением. В Интернете можно увидеть ролики, в котором публичная личность предлагает вам заработать много денег при минимальных усилиях. К примеру, мошенники используют digital-копию известных и авторитетных личностей для осуществления своих корыстных целей путем привлечения максимального количества внимания и доверия простых граждан. Злоумышленники активно предлагают заработать на различных инвестиционных онлайн-платформах, для участия в которых нужно оставить свои данные на фейковых сайтах и перечислить организаторам небольшие суммы. Будьте аккуратны, когда мошенники заводят речь о деньгах и хотят получить от вас оплату в виде аванса, вступительного взноса, платы за дополнительные услуги. Теперь они могут делать это не напрямую, а через искусственный интеллект. Некоторые сервисы могут создать дипфейквидео или аудио, пусть и не очень хорошего качества, только с помощью одного изображения или голосовой записи длиной в несколько секунд. Для того чтобы определить настоящий ли человек выходит вам на связь, задайте разные вопросы и обратите внимание на мимику, глаза и брови. Дипфейк часто не может полностью передать естественную физику освещения. Если звонящие к вам обращаются по имени и отчеству и знают ваш адрес проживания, это не означает, что эти люди являются официальными лицами. Все необходимые данные можно получить разными способами, они могут находиться в открытом доступе в Интернете. Обязательно спрашивайте фамилию, имя, отчество и должность сотрудника и, чтобы это перепроверить, позвоните в кол-центр организации, от которой звонит якобы их представитель. Если на телефоне высвечивается номер близкого человека, но его плохо слышно, и он сообщает, что попал в беду, просит перевести ему деньги, завершите разговор и перезвоните ему сами. Никогда и никому не сообщайте свои персональные данные, полные реквизиты банковской карты, включая срок действия карты, CVC/CVV-код, а также кодовое слово и остаток денежных средств. Обращаем особое внимание граждан, что в последнее время данная технология прогрессирует и набирает обороты. С помощью технологии генеративно-состязательных сетей кибермошенники могут легко обмануть даже современное поколение, которое выросло в эпоху активного роста инновационных и цифровых технологий. Расскажите о данном виде мошенничества родным и близким, особенно пожилого возраста. Берегите себя, свои деньги и будьте в курсе последних инновационных технологий.

Подготовила Алиса БЕККЕР

Самые читаемые статьи недели: