Skip to content

ЭКСКЛЮЗИВ Темная сторона искусственного интеллекта: как мошенники используют ИИ для обмана украинцев

Михаил Чернов

Искусственный интеллект стал гигантским технологическим прорывом последних нескольких лет. ИИ может обрабатывать огромные массивы информации, давать рекомендации и ответы по невероятно широкому кругу вопросов, помогать в работе, анализе данных, планировании, быть персональным ассистентом, и не только. Сейчас с помощью ИИ можно создавать картинки и видео, всего в нескольких словах описав желаемое. В этой связи с искусственным интеллектом очень активно экспериментируют представители творческих профессий. Еще бы —  технология невероятно облегчает жизнь создателям контента и ускоряет любые креативные процессы.

Как и все новейшие изобретения, ИИ используется и во благо, и для развлечения, и для откровенно криминальных целей, — об этом рассказывает “Наше місто”.

Baking bread: герои американского сериала — на украинском базаре

Герои культового американского сериала Breaking bаd (“Во все тяжкие”) — на фоне типичной постсоветской реальности: жарят пирожки в кустарных условиях возле “хрущевки”, приносят их в клетчатых сумках и продают их на базаре, вызывая невероятное воодушевление у представителей криминальных кругов.

Казалось бы — хохма, да и только: однако этот ролик, созданный с помощью искусственного интеллекта, завирусился в интернете и набирает массу просмотров.

А на самом деле это даже не видео для развлечения, а рекламный ролик одного из украинских хостинг-провайдеров.

Если раньше для производства рекламного видео требовалось много времени человеко-часов и ресурсов, то сейчас хитовый ролик, который взорвет соцсети можно создать, просто толково изложив задание (т.н. “промт”) для определенной модели ИИ, которая может генерировать видео по заданному описанию.

На грани или за гранью: как с помощью ИИ  создают сексистские видео для соцсетей для заработка на рекламе

Невероятные креативные возможности ИИ уже вовсю используют для заработка, в том числе — с помощью создания провокационного, в частности — сексистского контента.

Циничная присказка маркетологов гласит: «Реклама продает, если в ней есть секс и/или деньги». Интересно, что еще несколько лет назад сексистская реклама была скорее скандальным исключением — эти приемы на грани или за гранью фола использовали лишь некоторые компании, в том числе — известный в Днепре провайдер доступа в интернет. 

Такие “креативные решения”  подвергались критике со стороны отраслевых объединений и активисток, выступающих за гендерное равенство.

Однако сейчас, в эпоху ИИ, массово ширится новый скандальный бум. В соцсетях по всему миру пользуются популярностью странички так называемых «ИИ — моделей»: они содержат откровенные изображения и видео девушек, созданные с помощью искусственного интеллекта. Интересно, что лля ИИ-моделей создают и развивают аккаунты, и в целом — имитируют «реальную жизнь».

Также набирают массу просмотров так называемые бикини-интервью — ролики с девушками в откровенной или пляжной одежде, которые среди прочего берут интервью у мужчин. 

Видео — откровенно сексистские, отмечают эксперты, при этом подобные ролики полностью генерируются искусственным интеллектом. Как правило — с помощью модели Veo 3, которая позволяет создавать крайне реалистичные изображения и видео.

Ролики размещаются в соцсетях, к примеру — активно публикуются на Instagram, и собирают десятки миллионов просмотров. Характерно, что ролики с участием ИИ-моделей носят как правило провокационный характер, они откровенно сексистские по отношению к женщинам, мужчины на видео зачастую дают ответы или комментарии с сексуальным подтекстом, на что зрители реагируют смехом. 

Исследователи установили, что лишь за последнее время такого рода видео просматривали десятки миллионов раз. Благодаря этому люди, которые создают с помощью  ИИ и размещают в сети бикини-интервью или им подобный сексистский контент, банально зарабатывают деньги на рекламе, или продают свою аудиторию через  платформы обмена контентом. Правозащитники предупреждают, что распространение подобных видео нормализует токсичное поведение и закрепляет опасные стереотипы в обществе.

Не только креатив, но и угроза: ИИ с огромным размахом используют мошенники

Искусственный интеллект (ИИ) все чаще становится инструментом для мошенников: злоумышленники во всем мире и в  Украине в частности, среди числа первых освоили самые передовые технологии и пользуются тем, что  во время войны, в тревожной и стрессовой обстановке люди более уязвимы к разного рода манипуляциям. 

Статистические данные говорят о том, что в 2024 году финансовые потери от ИИ-мошенничеств в глобальном мировом масштабе выросли на 33%. Украина чрезвычайно страдает от мошенников (в первую очередь — действующих онлайн):  страна занимает пятое место в мире по количеству пострадавших от кибератак, а также  3-е место в Европе среди стран, чаще всего становившихся объектом зловредной киберактивности. 

Кибер-мошенники бесчинствуют — без каких-либо сантиментов по отношению к людям, несмотря на агрессию, с которой борется страна, экономические сложности и крайне тяжелое положение миллионов граждан . Поэтому гражданам крайне важно знать о том, каким образом действуют злоумышленники, какие используют уловки, и как можно этого избежать

Как злоумышленники обманывают людей с использованием ИИ

В Украине — всплеск мошенничества с использованием возможностей ИИ, инструментов типа deep fake.  Всего за 2024-2025 год зарегистрировано более 65 тыс. дел о мошенничестве, где контент генерировали с помощью ИИ.

В арсенале мошенников — фальшивые голосовые сообщения  

Мошенники используют ИИ для создания аудио, которое имитирует голос родных или знакомых, и звонят жертвам или направляют голосовые сообщения через мессенджеры с просьбой срочно перевести деньги (например, на выкуп, решить проблемы с полицией и т.п.). 

Киберполиция фиксировала схемы, где злоумышленники с помощью ИИ генерируют нужные голосовые записи  на основании предыдущих голосовых сообщений людей, взятых из взломанных мессенджеров или социальных сетей. 

Так, зимой 2025 года мошенники обманули киевлянку на 50 тыс. грн, имитируя голос сына,  якобы попавшего в аварию. Также злоумышленники применяют ИИ для создания звонков якобы от банков — эта схема используется для кражи банковских данных: в 2025 году отмечен рост на 12%

Фишинговые объявления о якобы помощи от государства или легком заработке

Для уже откатанной схемы жулики все активнее используют  ИИ:  массово создают объявления-приманки (например, про легкий заработок или помощь от государства), которые затем рассылают через мессенджеры, распространяют в Телеграмме, шлют по электронной почте. Как правило, в таких сообщениях есть фишинговая (мошенническая) ссылка, по которой жертве предлагают перейти. Затем возможно похищение личных данных или взлом банковских аккаунтов.

Кроме того, в 2025 году мошенники использовали ИИ для создания множества  фейковых объявлений о заработке на просмотре видео — под видом легких денег подсунули доверчивым людям очередную приманку и  обокрали на миллионы гривен.

Злоумышленники использовали deepfake-видео для взлома банковских приложений и кражи средств

Еще одна опасная тенденция. Недавно Национальная полиция разоблачила группу злоумышленников, которые с помощью ИИ ухитрились получить доступ к банковским аккаунтам граждан и похитили в совокупности несколько миллионов гривен.

Схема состояла из нескольких этапов. Жулики заполучили персональные данные пользователей банковских мобильных приложений, включая пароли. Однако для того, чтобы зайти в банковские мобильные приложения, как правило нужно пройти процедуру авторизации (как вариант — через приложение “Дія”), в ходе которой от клиента нередко требуется показать себя на видео и выполнить ряд действий (улыбнуться моргнуть, к примеру). Жулики использовали ИИ для создания фальшивых видеоизображений людей (deep fake) — весьма реалистичных, с помощью которых обманывали банковские системы безопасности.

Зайдя в мобильные приложения банков злоумышленники могли снять средства со счетов жертв. Похищенные средства выводили на подконтрольные счета, затем деньги конвертировались в криптовалюту, обналичивались, сообщает полиция. Всего от действий преступников серьезно пострадали как минимум 286 граждан, на которых оформили кредитов более чем на 4 млн грн. 

Не облегчайте задачу киберпреступникам: советы правоохранителей 

Злоумышленники постоянно совершенствуются, используют все более продвинутые технологии. Киберполиция дает ряд рекомендаций, которые помогут простым людям хоть немного обезопасить себя.

Получили сообщение в мессенджер, электронную почту, в смс с какой-то ссылкой? Никогда не открывайте / не переходите по таким ссылкам сразу! Подумайте дважды знаком ли вам отправитель письма или сообщения, не выглядит ли сообщение нетипичным, подозрительным? Даже, если получили сообщение  от казалось бы знакомого человека — не спешите, сделайте паузу, посоветуйтесь со знакомыми.

Ведь мошенники, рассылающие фишинговые ссылки в различных сообщениях, электронных письмах и т.д., рассчитывают именно на то, что люди перейдут по ссылке не думая, второпях, «на автомате». Не облегчайте задачу мошенникам.

Обезопасьте ваши мессенджеры, аккаунты в соцсетях, электронную почту — используйте 2-факторную авторизацию. Каждый новый вход в аккаунты должен сопровождаться дополнительным подтверждением: либо нужно получить смс на ваш номер, либо ввести код из программы или устройства (например, из приложения Google Authenticator).

Если получили паническое текстовое или голосовое сообщение или даже звонок якобы от родственника/знакомого/ с просьбой срочно прислать деньги, потому что: попал в аварию, избил человека не спешите переводить деньги неизвестно куда и кому. Именно так действуют мошенники — пытаются сбить человека с толку, манипулируют эмоциями, пытаются вызвать панику, а в итоге — выманивают деньги.

Сделайте паузу, подышите, а затем — попробуйте позвонить на обычный мобильный телефон тому человеку, от которого поступило сообщение. Для дополнительной проверки — можно задать ряд вопросов, на которые знаете ответы только вы двое. И только если человек голосом подтвердил, что действительно нужна помощь — тогда стоит помочь.

Берегите себя и сохраняйте бдительность!

Категория: Новости Днепра, Общественные и социальные новости Днепра, Тема дня

Метки: , ,

Приєднуйтесь до нас у

Дивіться також: