Криптошахраї використовують АІ-діпфейки для обману KYC-верифікації на біржах

0
3 649 views
Криптошахраї використовують АІ-діпфейки для обману KYC-верифікації на біржах

Криптошахраї та хакери знаходять нові способи проникнення в заходи безпеки, незважаючи на те, що криптоіндустрія прискорює спроби додати рівні вдосконаленої безпеки до різних платформ. Хакери та шахраї зараз використовують глибокі фейки штучного інтелекту, щоб порушити безпеку криптобірж і пов’язаних з Web3 фірм. За допомогою глибокого фейкового штучного інтелекту сумнозвісні елементи прагнуть обійти критерії ідентифікації, встановлені платформами, сказав у нещодавньому інтерв’ю директор із безпеки Binance Джиммі Су.

Дипфейки — це штучно створені фотографії чи відео, створені для переконливої ​​копії голосу, а також рис обличчя та виразу людини — живої чи померлої. Інструменти штучного інтелекту (AI) і машинного навчання (ML) використовуються для створення глибоких фейків із реалістичною графікою.

Якщо шахраям вдається створити дипфейки криптоінвесторів, це збільшує їхні шанси обійти безпеку криптоплатформ і викрасти кошти користувачів. «Хакер шукатиме нормальне зображення жертви десь в Інтернеті. Виходячи з цього, використовуючи інструменти глибокої підробки, вони можуть створювати відео для обходу. Деякі перевірки вимагають від користувача, наприклад, моргнути лівим оком або дивитися ліворуч чи праворуч, дивитися вгору чи вниз. Глибокі підробки сьогодні достатньо розвинені, щоб вони дійсно могли виконувати ці команди», — сказав Су CoinTelegraph.

Уже кілька місяців гравці криптосектору наголошують на зростаючій загрозі, яку становлять дипфейки, створені ШІ, для необізнаних і нічого не підозрюючих жертв. У лютому 2023 року в соціальних мережах з’явилося глибоке фейкове відео генерального директора Binance Чанпена Чжао. У цьому ролику можна почути, як штучно створений Чжао закликає людей торгувати виключно криптовалютою з ними.

Подібне глибоке фейкове відео Ілона Маска, який ділиться оманливими порадами щодо криптоінвестування, також було помічено в соціальних мережах на початку цього місяця.

Оскільки ці глибокі фейкові відео дуже привабливі, багато людей можуть не помітити деякі попереджувальні ознаки того, що це глибокі фейки. Су прогнозує, що найближчим часом ШІ зможе виявляти нерівні частини глибоких фейків і покращить якість.

«Коли ми дивимося на ці відео, є певні частини, які ми можемо помітити людським оком. наприклад, коли від користувача вимагається повернути голову набік. ШІ подолає [їх] з часом. Отже, це не те, на що ми завжди можемо покластися. Навіть якщо ми можемо контролювати власні відео, є відео, які не належать нам. Отже, одна річ, знову ж таки, — навчання користувачів», — сказав Су в інтерв’ю.

Згідно з нещодавнім звітом дослідницької фірми CertiK, яка займається дослідженням блокчейну, у квітні цього року в результаті криптоексплойтів було вкрадено колосальні 103 мільйони доларів. Шахрайство з виходом з ринку та швидкі позики стали найбільшим джерелом вкрадених коштів у криптовалютних злочинах. За останні чотири місяці 2023 року, за оцінками CertiK, криптовалютні шахраї та хакери вкрали 429,7 мільйонів доларів США.