Меню
6 декабря, 2023 / Знамя труда / Мнение

Отличить правду от вымысла. Нейросети научились фальсифицировать новостную картину

Отличить правду от вымысла. Нейросети научились фальсифицировать новостную картину

Отличить правду от вымысла. Нейросети научились фальсифицировать новостную картину Отличить правду от вымысла. Нейросети научились фальсифицировать новостную картину
Фото из открытого источника

 width=Нейросети научились фальсифицировать новостную картину

Для создания фейков не нужна богатая фантазия. Для этого используются технологии генерации видеоподделок и аудиофальшивок, системы искусственного интеллекта, способные самостоятельно написать новость, не отличимую от настоящей. Исследователи, работающие на стыке IT и лингвистики, пытаются решить фундаментальные проблемы этих наук и научить компьютер понимать человека. Они хотят написать программу, которая пройдет тест Тьюринга: сможет «обмануть» собеседника, убедить, что он разговаривает не с машиной, а с живым человеком. Для этого искусственному интеллекту требуется NLP. Когда люди слышат «NLP», то чаще думают о нейролингвистическом программировании. Но все намного сложнее. Для понимания этого феномена ученые активно осваивают обработку естественного языка - Natural Language Processing. Они учат компьютерные программы правильно понимать человека и разговаривать с ним на равных. Возможно, узнав, какие деньги и усилия направляются на эти исследования, рядовой гражданин спросит, зачем это нужно. Однако очевидные плюсы и ассоциации уже дают ответ на этот вопрос. Эти технологии использует почти каждый: в интернет-поисковиках, онлайн-переводчиках, виртуальных помощниках, таких, как «Алиса», Siri, Cortana. Сегодня программы справляются, когда переводят текст с распространенных языков - с казахского на русский, с русского на английский или немецкий. Наверное, многие заметили, что машинный перевод за последние несколько лет стал заметно лучше. Все дело в том, что в Сети появляется все больше и больше разных текстов, анализируя которые, компьютер может выдать полноценный перевод. Благодаря этой технологии переводу поддаются даже сленг и какие-то редкие диалекты. Но если мало текстов, которые можно изучить и сравнить с переводом, например, на кхмерском, автоматический перевод пока невозможен. Хотя ученые обещают, что NLP в ближайшем будущем поможет и в этом. Отсюда вытекает первая причина появления в Сети фейковых новостей. Так, каждый из нас в социальных сетях натыкался на новости, переведенные автоматически. И если оригинальный текст был написан простым языком, без сложных фразеологизмом, афоризмов и метафор, то и перевод будет приемлемым. Смысл новости не исказится, цифры и факты останутся на своих местах. А вот если оригинальный текст оказался «заковыристым», то автоматический перевод может оказаться чем-то вообще другим. Люди, которые это понимают, часто отключают функцию автоматического перевода и читают новости в оригинале или же самостоятельно занимаются переводом. Важно понимать, что виртуальные помощники сегодня - программы, которые только маскируются под человека. Они понимают и умеют выполнять ряд команд, но не в состоянии ответить на нестандартный вопрос и по-настоящему поддержать разговор. Ученые с замиранием сердца ждут результата и отмечают, что когда закончат текущую работу в этом направлении, «Алису» или Siri можно будет не только спросить о погоде, попросить найти видео в Интернете или завести будильник. С ними можно будет поговорить на любую тему: узнать, что помощник думает о книге или фильме, обсудить события в мире и вашем дворе. Это будет не компьютер, который старается походить на человека. Это будет полноценный искусственный интеллект. Например, недавно в Сети опубликовали статью, которую охотно растиражировали западные СМИ. В США программа, основанная на нейронных сетях, работала журналистом: писала фейковые новости, которые очень трудно отличить от настоящих. Она «придумала» историю, что в стране появилась компания по добыче полезных ископаемых на Луне. Эта новость разошлась сначала по США, а затем и вышла за ее пределы. Ее активно обсуждали в социальных сетях, а правительство даже было вынуждено начать искать руководителей этой фирмы. Но как только новость вышла на такой уровень, ее очень быстро разоблачили. Такова особенность современных нейросетей. Компьютеры могут пока создавать только короткие тексты. Они быстро «забывают», о чем только что писали, не в состоянии связать конец с началом. Однако это временное явление, и ученые активно пытаются научить их говорить и писать не хуже людей. Вычислительные ресурсы сегодня общедоступны, поэтому машинное обучение неизбежно эволюционирует. Его достижения заметно меняют рынок труда, вытесняя рутинные процессы. Поэтому, если рассуждать о востребованности профессий будущего, то нужно уже сейчас ориентироваться на деятельность с большим элементом творчества, то есть такую деятельность, которую сложно заменить машиной. Но, несмотря на все очевидные минусы, уже сегодня можно сказать, что программа работает лучше человека. Так, например, даже в университетах сегодня ученики занимаются несколькими работами, которые еще вчера казались чем-то футуристичным. Во-первых, они учат машину классифицировать текст. После чего нейросеть уже может отнести случайное предложение из текста к одной из 50 возможных категорий. Справляется даже лучше неподготовленного человека. Также IT-сфера сегодня решает одну из важных проблем лингвистики - звукосимволизм. Ученые изучают с помощью компьютерного моделирования, как звуки влияют на смысл слов. Раньше лингвисты проводили исследования «вручную». Но недавно кто-то придумал применить для этого нейроннe. сетm. Она анализирует тексты, смотрит, в каком контексте чаще встречается слово, и «маркирует» его звуки. Например, исследователи обнаружили, что в английском звук [I] ассоциируется с большим и страшным, а звук [ʌ] - с медленным. Чтобы обучить нейронную сеть, нужно обработать большие тексты - сотни тысяч документов. Требуются компьютеры с мощным графическим процессором и большой оперативной памятью. Такие, например, используют в майнинговых фермах. Эта техника работает в десятки раз быстрее обычных компьютеров. Если решать не самую сложную задачу с классификацией текстов на простом ПК, это займет около двух суток. Специально подготовленный сервер же справится за два часа. Понятно, что технические возможности для автоматической генерации «новостей» существуют уже сегодня. Но кто и зачем использует суперкомпьютер для создания фейковых новостей? Мотивация у людей бывает совершенно разной. Например, ученые из Института Аллена по изучению искусственного интеллекта совместно с Вашингтонским университетом создали генерирующую фейк-ньюс нейросеть. Программа на основе анализа текстов Wall Street Journal сама написала новость, которая незнающим человеком могла быть воспринята, как настоящая. Ученые в ходе своих исследований удивились тому, насколько опасна Сеть, ведь в мире уже написано достаточно пропагандистских статей, из которых компьютер может создать нечто новое. Нейросети не станут объединять несколько статей в одну, они поступают гораздо опаснее - берут модели этих статей и генерируют из них фейковый контент. Их качество настолько высоко, что они выглядят весьма убедительными. Впрочем, специалисты отмечают, что при подробном анализе распознать фейк, созданный нейросетью, все-таки можно. В частности, программа может упомянуть не существующее устройство. Например, в существующих фейк-новостях она говорит о «гравитационном тракторе-тягаче», что является теоретическим видом космического аппарата, о вероятности создания которого нередко пишут СМИ. Кроме того, в сообщении могут быть цитаты несуществующих экспертов из несуществующих организаций, названия которых созданы путем соединения слов из названий настоящих компаний. Также в тексте есть логические и смысловые нестыковки между абзацами и небольшие грамматические ошибки. Однако эти недостатки с лихвой окупаются дешевизной и простотой генерирования фейк-новостей для массового потребителя, говорят эксперты. Большие объемы синтезированной дезинформации не только возможны, но уже понемногу заполняют наше инфополе. Распространение такой информации в Интернете может дать возможность для целенаправленных кампаний по дезинформированию населения. Даже если люди не верят фейковым новостям, само понимание их существования подрывает доверие к СМИ и правительствам. Ученые из исследовательского института OpenAI, Сан-Франциско, создали генератор текстов, который может создавать вымышленные новости, анализируя алгоритмы реальных новостей. Таким образом, программа создала довольно стройный со стилистической точки зрения текст о том, что «Россия объявила войну США после того, как Дональд Трамп случайно запустил в воздух ракету. Россия проанализировала траекторию полета и заявила, что примет все меры для обеспечения безопасности ее населения». Директор OpenAI Джек Кларк заявил, что подобные технологии быстро развиваются и через год-два могут быть использованы для масштабных кампаний по дезинформированию и пропаганде. Проблема все большего распространения фейковых новостей в Интернете беспокоит не только специалистов по IT, СМИ и власти многих стран, но и психологов. В августе британская The Times сообщила об исследовании ирландских ученых влияния фейковых новостей на политические предпочтения избирателей. В прошлом году за неделю до проведения в Ирландии референдума о легализации абортов ученые Университета Корка показали 3140 участникам эксперимента шесть новостных заметок по теме референдума, две из которых были ложными. Затем участников попросили выбрать фейки. В ходе обсуждения участники поняли, какие именно новости оказались недостоверными. Спустя некоторое время ученые опросили людей по ряду вопросов, связанных с референдумом и политиками, высказывавшимися по этому вопросу. Выяснилось, что примерно половина участников имеют представление о теме, «помня» о каких-то событиях на основании фейковых новостей. Причем многие из них не смогли восстановить в памяти реальные события даже после того, как им напомнили, что новостные сообщения были сфабрикованы. Исходя из этого, исследователи сделали вывод, что фейковые новости могут влиять на мнения и, соответственно, выбор избирателей даже после разоблачения таких новостей.

Подготовила Алиса БЕККЕР

Самые читаемые статьи недели: