Как нейросети обманывают казахстанцев

Нейросети произвели настоящий фурор! Они могут нарисовать любую картинку, сочинить песню, написать текст, проанализировать данные, и крупный бизнес уже приготовился увольнять часть сотрудников, чтобы сэкономить на заработной плате. Всю работу сделает искусственный интеллект. Однако такой прогресс несет в себе и немалую долю риска.

Как нейросети обманывают казахстанцев

Специалисты по кибербезопасности бьют тревогу, ведь с помощью нейросети мошенники могут с легкостью писать вредоносные коды, подменять лица на видео и подделывать голоса.

Подозрительный тон

Как объясняют эксперты, вы можете написать любой текст, и в течение одной минуты нейросеть создаст аудио- или видеозапись с мимикой, голосом и тоном. Возможностей много, и они даже превышают опасности. Например, история с частной больницей. Ранее там не могли регулярно вести контент, потому что никто из докторов не хотел сниматься. Сейчас мы можем их отснять на две минуты и вместо них создавать видео. При хорошем монтаже зрители даже не будут знать, что настоящие люди в этом ролике не снимались.

Нейросети открывают большие возможности в маркетинге и рекламе. Многие блогеры уже сейчас создают цифровую копию, вещающую за них. Но, к сожалению, нейросети стали также и инструментом мошенников. «Каждый третий казахстанец видит на YouTube приглашения участвовать в фондах от лица Президента Касым-Жомарта Токаева, наших депутатов. Самое ужасное, что многие этому верят и, как минимум, проходят по ссылке.

Используют мошенники также «лица» известных казахстанских блогеров, которые якобы делятся секретами своего успеха и прикрепляют ссылки на сомнительные сайты. Еще один метод мошенничества с помощью нейросетей — голосовое сообщение от родственника с просьбой выслать деньги на указанный счет. Здесь отличить правду от подделки очень сложно. К слову, голос для таких сообщений мошенники берут из разговорных видео в соцсетях и голосовых сообщений в личных диалогах и общих чатах. Создание фейкового голосового сообщения обходится мошеннику в полдоллара. При этом нейросети могут создавать конфликты и в соцсетях. Здесь эксперты приводят в пример фейковый телефонный разговор Нурлана Сабурова и Тины Канделаки, в котором последняя просит Сабурова выступить на ее стороне на фоне недавнего конфликта с казахстанским Правительством. Как отмечают эксперты, у Нурлана Сабурова агрессивный стиль выступления. Но, если посмотреть его «живые» видео, заметно, что стиль общения у комика другой. Понятно, что по телефону он не будет общаться так агрессивно. То есть его выступление в стендапе «скормили» нейросети.

Следует учитывать, что качество работы нейросетей улучшается буквально ежедневно. Уже сейчас можно дополнительно настроить произношение двойника. И здесь возникает вопрос: как отличить живого человека от его цифровой копии? Надо смотреть на контекст. Пока мошенники работают без него. Чтобы обойти ловушки, необходимо следить за речью, дыханием и тоном голоса. Когда человек разговаривает, он немного меняет тон. Две секунды — в одном тоне, потом — в другом. А вот нейросеть не меняет. Так, по глазам, мимике и движению рук иногда можно определить, что перед вами нейросеть.

Также эксперты отмечают, что во многих странах сейчас разрабатывают закон, по которому контент, созданный с помощью искусственного интеллекта, должен будет иметь специальный маркер. Но когда именно он появится, неизвестно, а пока мошенники различными способами обманывают казахстанцев...

Внешность обманчива

В конце прошлого года у нас появилось видео, на котором рассказывается, как мошенники могут оформлять на казахстанцев кредиты с помощью нейросети.

Автор видео призвал не отвечать на видеозвонки с незнакомого номера по WhatsApp.

«Они снимают ваше изображение по видеозвонку, обрабатывают при помощи искусственного интеллекта и оформляют на вас заем в микрокредитных организациях. Как они это делают? Я эту информацию еще не искал, но мое предположение следующее: они работают в связке с нечистыми на руку сотрудниками ЦОНов, у которых есть свободный доступ к нашим с вами персональным данным: ИИН, номеру удостоверения, даже подписи. Есть уже два пострадавших в Костанае, насколько мне известно», — рассказал мужчина.

И это не единственный случай, когда массовую аудиторию пытались обмануть с помощью нейросети. Исследователь в области информационной безопасности Райымбек Магазов рассказывал, что также с помощью этой технологии мошенники дистанционно проходят собеседования в различных компаниях, выдавая себя за другого человека. Потом они трудоустраиваются, получают доступ к корпоративным данным и воруют их в преступных целях. Либо просто обманывают клиентов.

Другой случай: недавно лицо того же Нурлана Сабурова использовали в рекламе онлайн-казино. На некоторых кадрах видно, что движения его губ не совпадают с озвучкой.

В похожую ситуацию попадал известный вайнер Токтарбек Сергазы. Его изображение использовали, чтобы выманивать деньги у доверчивых казахстанцев.

И даже это еще не все способы ввести в заблуждение с помощью нейросети. Так, в январе 2024 года казахстанские программисты выказали озабоченность. Все дело в том, что Microsoft создала новую нейросеть, способную имитировать любой голос, послушав его всего несколько секунд. Тогда она была адаптирована только к английскому языку, но казахстанские разработчики посоветовали готовиться к новому виду мошенничества.

В МВД только за этот январь зарегистрировали 1,6 тысячи фактов интернетмошенничества, но отдельной статистики по схемам, в которых используются технологии нейросетей, там не ведется.

Опыт или наивность?

Deepfake — это поддельные видео, изображения и аудиозаписи, созданные с помощью искусственного интеллекта. По данным Всемирного экономического форума, количество дипфейковых видео растет на 900 процентов в год. Последние достижения прогресса и вовсе упростили процедуру их создания. Эксперты по кибербезопасности говорят об использовании дипфейков мошенниками для создания фишингов, кражи личных данных, финансового мошенничества. С помощью искусственного интеллекта можно даже во время видеозвонка выдавать себя за другого человека.

ChatGPT, который считают «убийцей» «Гугла» благодаря его умопомрачительным способностям, тоже стал инструментом в руках мошенников. Есть очень много вариантов использования нейросети. Особенно на стадии ее открытия каждый мог написать с помощью нее вредоносный код. Достаточно было запросить: «Напиши мне код страницы, который будет отправлять введенные данные пользователя на мою почту или сервер», и вы получали готовую фишинговую страницу.

Согласно последнему исследованию Visa Stay Secure 2023, проведенному Wake field Research, 63 процента казахстанцев не уверены, что способны распознать онлайн-мошенничество. Семеро из 10 обеспокоены тем, что их друзья или близкие могут отреагировать на мошенническое сообщение.

Об уровне осведомленности о мошеннических схемах социальной инженерии свидетельствуют следующие показатели: 85 процентов казахстанцев вероятнее всего не распознают тревожных звоночков, указывающих на то, что они столкнулись с преступниками в Сети. Каждый второй казахстанец по крайней мере один раз попадал на крючок мошенников, а 23 процента из них были обмануты несколько раз.

Вот основные выводы исследования Visa Stay Secure 2023: несмотря на низкий уровень уверенности казахстанцев в собственной способности распознавать мошенничество, респонденты, считающие себя осведомленными относительно тактик онлайн-злоумышленников, с большей вероятностью нажмут на фальшивую ссылку или откликнутся на мошенническое предложение. Так, 51 процент «осведомленных» казахстанцев отреагирует на сообщение, содержащее хорошие новости, а 40 отреагируют на просьбу выполнить срочные действия, тогда как среди тех, кто сомневается в своей бдительности, так же поступят 49 и 41 процент соответственно.

Люди беспокоятся об уязвимости других. Четверо из 10 казахстанцев обеспокоены тем, что их друзья или близкие могут отреагировать на мошенническое сообщение с просьбой подтвердить данные своего счета. Более половины респондентов (59 процентов) переживают, что их друзья или родственники попадутся на уловки мошенников, предлагающих бесплатную подарочную карту или товар с сайта. Вызывает беспокойство казахстанцев и то, что жертвами онлайн-мошенников становятся пенсионеры (69 процентов), несовершеннолетние и дети (16 процентов).

Меньше всего казахстанцы верят запросам о смене пароля: для 79 процентов опрошенных такие сообщения находятся в тройке самых подозрительных. Менее подозрительными являются сообщения о доставке (всего 30 процентов указали в тройке главных источников подозрений), электронные письма с объявлением о распродажах или новых продуктах (46 процентов) или приглашение оставить отзыв о недавнем опыте (20 процентов). Всем этим могут воспользоваться мошенники.

Не заметить тревожные звоночки легко. Только 48 процентов казахстанцев проверяют официальный адрес электронной почты, с которого было отправлено сообщение, а 41 процент — было ли к сообщению прикреплено название компании или логотип. Менее половины ищут номер заказа (49 процентов) или номер счета (25), 36 процентов следят за тем, чтобы текст сообщения был составлен корректно.

В ходе онлайн-исследования было опрошено 5800 взрослых (в возрасте 18 лет и старше) в 17 странах, включая ОАЭ, Королевство Саудовская Аравия, Катар, Кувейт, Оман, Бахрейн, Египет, Пакистан, Тунис, Марокко, Нигерию, Кению, Южную Африку, Кот-д’Ивуар, Украину, Казахстан и Сербию. В Казахстане опрос проходили 300 респондентов. Исследование проводилось в течение марта-апреля 2023 года.

По мнению экспертов, казахстанцев эта проблема еще не в полной мере коснулась, но это лишь вопрос времени. Уже через год она может стать в нашей стране повсеместной. Подобно тем мошенникам, которые названивают нам якобы из банков. И защититься от этого можно будет лишь старым добрым проверенным способом — не быть излишне доверчивым, соблюдать цифровую гигиену и никуда не спешить.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру