Skip to content

ЕКСКЛЮЗИВ Темна сторона штучного інтелекту: як шахраї використовують ШІ для обману українців

Михайло Чернов

Штучний інтелект став гігантським технологічним проривом останніх кількох років, він може обробляти надзвичайні масиви інформації, давати рекомендації та відповіді з величезного кола питань, допомогти у роботі, в аналізі та обробці даних, виступати персональним асистентом, і не лише. За допомогою ШІ можна створювати картинки та відео, в кількох словах описавши бажане. У зв’язку з цим зі штучним інтелектом дуже активно експериментують представники творчих професій, ще б пак! Технологія неймовірно полегшує життя творцям контенту та прискорює будь-які креативні процеси.

Як і всі новітні винаходи, штучний інтелект використовується і на благо, і для розваги, і для злодійських цілей, – про це розповідає “Наше місто”.

Baking bread: герої американського серіалу – на українському базарі

Герої культового серіалу Breaking bad – на тлі типової пострадянської реальності: смажать пиріжки в кустарних умовах поблизу “хрущовки”, приносять їх у клітчастих торбах і продають на базарі, викликаючи неймовірне захоплення у представників кримінальних кіл…

Здавалося б, відверта хохма, однак цей ролик, згенерований штучним інтелектом, завірусився в інтернеті та набирає масу переглядів. 

Насправді ж це – не просто відео для розваги, а рекламний ролик компанії – хостинг-провайдера.

Експерти зазначають: якщо раніше на виробництво рекламного відео потрібно було багато часу, людино-годин та ресурсів, то зараз хітовий ролик для соцмереж можна створити, лише виклавши завдання (так званий “промт”) для моделі ШІ, яка може генерувати відео за заданим описом.

На межі чи за межею: як за допомогою ШІ створюють сексистські відео для соцмереж задля заробітку

Неймовірні креативні можливості ШІ вже щосили використовують для заробітку, зокрема – за допомогою створення провокаційного, сексистського контенту.

Цинічна та стереотипна приказка маркетологів каже: “Реклама продає, якщо в ній є секс та/або гроші”. Цікаво, що ще кілька років тому сексистська реклама була скоріше скандальним винятком – ці прийоми на межі або за межею фолу використовували лише деякі компанії. Зокрема – відомий у Дніпрі провайдер доступу до інтернету. 

Такі “креативні рішення” піддавалися критиці з боку галузевих об’єднань та активісток, які виступають за гендерну рівність.

Однак зараз, в епоху ШІ, масово шириться новий скандальний бум. У соцмережах по всьому світу набувають популярність так звані “ШІ-моделі”: це зазвичай відверті зображення та відео дівчат, створені за допомогою штучного інтелекту. Цікаво, що для ШІ-моделей створюють та розвивають власні акаунти, у яких імітується реальне життя.

Також набирають масу переглядів бікіні-інтерв’ю, ролики з дівчатами у відвертому або пляжному одязі, які серед іншого беруть інтерв’ю у чоловіків. Відео – відверто сексистські, зазначають експерти, при цьому подібні ролики повністю генеруються штучним інтелектом. Як правило – за допомогою моделі Veo 3, яка дозволяє створювати вкрай реалістичні зображення та відео.

Ролики розміщуються в соцмережах, наприклад – активно публікуються в Instagram, і збирають десятки мільйонів переглядів.

 Характерно, що ролики за участю ШІ-моделей носять зазвичай провокаційний характер, вони відверто сексистські та принизливі щодо жінок. Чоловіки на відео часто дають відповіді або коментарі із сексуальним підтекстом, на що глядачі реагують сміхом.

Дослідники встановили, що лише за останній час такого роду відео переглядали десятки мільйонів раз. Завдяки цьому люди, які створюють за допомогою ШІ та розміщують у мережі бікіні-інтерв’ю або подібний сексистський контент, банально заробляють гроші на рекламі або продають свою аудиторію через платформи обміну контентом. Правозахисники, експерти попереджають, що поширення подібних відео нормалізує токсичну поведінку, зокрема серед молоді, та закріплює небезпечні стереотипи в суспільстві.

Не лише креатив, а й загроза: ШІ з величезним розмахом використовують шахраї

Штучний інтелект (ШІ) все частіше стає інструментом для шахраїв: зловмисники у всьому світі і  в Україні зокрема, серед перших опанували найпередовіші технології та користуються тим, що під час війни, у тривожній та стресовій обстановці люди більш вразливі до різного роду маніпуляцій.

Статистичні дані свідчать про те, що у 2024 році фінансові втрати від ШІ-шахрайств у глобальному світовому масштабі зросли на 33%. Україна надзвичайно страждає від інтернет-шахраїв: країна посідає п’яте місце у світі за кількістю постраждалих від кібератак, а також 3-тє місце в Європі серед країн, які найчастіше ставали об’єктом зловмисної кіберактивності.

Кібер-шахраї безчинствують – без будь-яких сентиментів щодо людей, незважаючи на агресію, з якою бореться країна, економічні складнощі та вкрай важке становище мільйонів громадян. Тому громадянам вкрай важливо знати про те, яким чином діють зловмисники, які використовують хитрощі, і як можна цього уникнути.

Як зловмисники обманюють людей з використанням ШІ

В Україні – сплеск шахрайства з використанням можливостей ШІ, інструментів типу deep fake. Загалом за 2024-2025 рік зареєстровано понад 65 тис. справ про шахрайство, де ШІ допомагав генерувати контент.

Фальшиві голосові повідомлення для шахрайства

Шахраї використовують ШІ для створення аудіо, яке імітує голос рідних або знайомих, і дзвонять жертвам або надсилають голосові повідомлення через месенджери з проханням “терміново” перевести гроші (наприклад, “на викуп”, “вирішити проблеми з поліцією” тощо).

Кіберполіція фіксувала схеми, де зловмисники за допомогою ШІ генерують потрібні голосові записи на підставі попередніх голосових повідомлень людей, взятих зі зламаних месенджерів або соціальних мереж.

Наприклад, взимку 2025 року шахраї обманули киянку на 50 тис. грн, імітуючи голос сина, який нібито потрапив в аварію.

Також зловмисники застосовують ШІ для створення дзвінків нібито від банків – ця схема використовується для крадіжки банківських даних: у 2025 році відзначено зростання на 12%.

Фішингові оголошення про нібито допомогу від держави або легкий заробіток

Для вже відомої схеми шахраї все активніше використовують ШІ: масово створюють оголошення-приманки (наприклад, про легкий заробіток або допомогу від держави), які потім розсилають через месенджери, поширюють у Телеграмі, надсилають електронною поштою. Зазвичай у таких повідомленнях є фішингове (шахрайське) посилання, за яким пропонують перейти. Далі можливе викрадення особистих даних або злам банківських акаунтів.

Крім того, навесні 2025 року шахраї використовували ШІ для створення безлічі фейкових оголошень про заробіток на перегляді відео – під виглядом легких грошей підсунули довірливим людям чергову приманку та обікрали українців на мільйони гривень.

Зловмисники використали deepfake-відео для злому банківських додатків та викрадення коштів

Ще одна небезпечна тенденція. Нещодавно Національна поліція викрила групу зловмисників, які з допомогою ШІ зуміли отримати доступ до банківських акаунтів громадян та викрали сукупно кілька мільйонів гривень.

Схема складалася з кількох етапів. Шахраї отримали персональні дані користувачів банківських мобільних додатків, включаючи паролі. Для того, щоб зайти в банківські мобільні додатки, потрібно пройти авторизацію (зокрема – з допомогою системи “Дія”), під час якої клієнт серед іншого має показати себе на відео і виконати певні дії (приміром – посміхнутися або кліпнути очима). Шахраї використовували ШІ для створення фальшивих відеозображень людей (deep fake) – вельми реалістичних, за допомогою яких обманювали банківські системи безпеки. 

Увійшовши до мобільних банківських застосунків, зловмисники знімали кошти з рахунків жертв, виводили вкрадені кошти на підконтрольні рахунки, конвертували в криптовалюту, переводили в готівку, повідомляє поліція. Загалом від дій злочинців  постраждали щонайменше 286 громадян, на яких оформили кредитів на понад 4 млн грн.

Не полегшуйте справу кіберзлочинцям: поради правоохоронців 

Зловмисники постійно вдосконалюються та застосовують все більш інноваційні технології. Кіберполіція дає низку корисних порад, які хоча б трохи допоможуть простим людям убезпечитися.

Отримали повідомлення у месенджер, електронну пошту, в смс із  підозрілим посиланням? Ніколи не переходьте за посиланнями одразу. Подумайте двічі. Зважте, чи знайомий вам відправник листа або повідомлення. Навіть якщо повідомлення – нібито від відомої вам людини – не поспішайте. Зробіть паузу та порадьтеся із досвідченими людьми.

Адже шахраї, які розсилають фішингові посилання у різних повідомленнях, електронних листах тощо,  розраховують саме на те, що люди перейдуть за лінком не думаючи, поспіхом, на автоматі. Не полегшуйте задачу шахраям.

Убезпечте ваші месенджери, акаунти в соцмережах,  електронну пошту – використовуйте 2-факторну авторизацію. Кожен новий вхід в аккаунт має супроводжуватися додатковим підтвердженням: або треба отримати смс на ваш номер, або ввести код зі спеціальної програми або пристрою (приміром, із застосунку Google Authentificator).

Якщо отримали панічне текстове або голосове повідомлення або навіть дзвінок нібито від родича/знайомого  з проханням терміново надіслати гроші, бо потрапив в аварію, збив / побив людину – не поспішайте переказувати гроші невідомо кому. Саме таким чином вчиняють шахраї – намагаються збити людину з пантелику, маніпулювати емоціями, сіяти паніку, а врешті –  видурюють гроші. 

Зробіть паузу, подихайте, а потім – зателефонуйте на звичайний мобільний телефон людині, від якої надійшло повідомлення. Для додаткової перевірки – можна задати низку питань, на які знаєте відповіді лише ви удвох. Лише якщо людина голосом підтвердила, що дійсно потрібна допомога – тоді варто діяти.

Бережіть себе та зберігайте пильність!

Категорія: Новини Дніпра, Суспільні та соціальні новини Дніпра, Тема дня

Позначки: , ,

Приєднуйтесь до нас у

Дивіться також: