Шахрайство з використанням технології діпфейків стало «промисловим», згідно з аналізом, опублікованим експертами зі штучного інтелекту, пише The Guardian.
Інструменти для створення кастомізованих, навіть персоналізованих шахрайських схем – з використанням, наприклад, діпфейкових кадрів шведських журналістів чи президента Кіпру – вже не є нішевими, а дешевими та їх можна легко використовувати у великих масштабах, згідно з аналізом бази даних інцидентів штучного інтелекту.
В аналізі було зазначено понад десяток нещодавніх прикладів «неправдивого подання інформації з метою отримання прибутку», включаючи відео з діпфейком прем'єр-міністра Західної Австралії Роберта Кука, на якому він рекламує інвестиційну схему, а також лікарів, які використовують діпфейкову рекламу кремів для шкіри.
Ці приклади є частиною тенденції, коли шахраї використовують широкодоступні інструменти штучного інтелекту для здійснення дедалі більш цілеспрямованих шахрайств. Минулого року фінансовий директор сінгапурської багатонаціональної компанії виплатив шахраям майже 500 000 доларів, вважаючи, що він бере участь у відеодзвінку з керівництвом компанії. За оцінками, споживачі у Великій Британії втратили 9,4 мільярда фунтів стерлінгів (10,8 мільярда євро) через шахрайство за дев'ять місяців до листопада 2025 року.
«Можливості раптово досягли рівня, коли майже кожен може створювати фейковий контент», — сказав Саймон Майлус, дослідник Массачусетського технологічного інституту, який працює над проектом, пов’язаним з базою даних інцидентів штучного інтелекту.
Він підрахував, що «шахрайство, обман та цілеспрямовані маніпуляції» становили найбільшу частку інцидентів, про які повідомлялося до бази даних за 11 з останніх 12 місяців.
«Це стало настільки доступним, що практично немає жодних перешкод для входу», – сказав він.
«Масштаби змінюються», – сказав Фред Гайдінг, дослідник з Гарварду, який вивчає шахрайство на основі штучного інтелекту.
«Він стає настільки дешевим, що майже кожен може ним користуватися. Моделі стають справді хорошими – і вони вдосконалюються набагато швидше, ніж думає більшість експертів».
На початку січня Джейсон Ребгольц, генеральний директор Evoke, компанії з питань штучного інтелекту, опублікував оголошення про роботу в LinkedIn і майже одразу з ним зв'язався невідомий з його мережі, порекомендувавши кандидата.
За кілька днів він обмінювався електронними листами з людиною, яка, принаймні на папері, здавалася надзвичайно талановитим інженером.
«Я подивився на резюме і подумав: це справді гарне резюме. А потім, навіть попри деякі тривожні сигнали, я вирішив пройти співбесіду», – сказав Ребгольц, повідомляє Guardian.
Саме тоді все стало дивним. Електронні листи кандидата часто позначалися як спам. У резюме були незвичайні деталі. Однак Ребгольц мав попередній досвід роботи з незвичайними кандидатами і вирішив провести співбесіду.
Коли розпочався дзвінок, відео кандидата з'явилося лише майже через хвилину.
«Фон був надзвичайно фальшивим. Він виглядав справді, справді фальшивим. Система мала проблеми з краями навколо людини – частини тіла з’являлися та зникали… А коли я дивився на обличчя, воно було надто розмитим по краях», – сказав він.
Ребгольц все одно продовжив розмову, не бажаючи зіткнутися з незручністю, безпосередньо запитуючи кандидата, чи це справді складна афера. Потім він надіслав запис контакту в компанії з виявлення діпфейків, яка підтвердила, що відео кандидата було згенеровано за допомогою штучного інтелекту. Кандидату було відхилено.
Ребгольц досі не знає, чого хотів шахрай – зарплату інженера чи комерційну таємницю. Хоча надходили повідомлення про спроби північнокорейських хакерів отримати роботу в Amazon, Evoke – це стартап, а не великий світовий гравець.
«Якщо це відбувається з нами, то це відбувається з усіма», – сказав Ребгольц.
Гайдінг попереджає, що найгірше ще попереду. Технологія клонування голосу наразі дуже хороша – вона дозволяє шахраям легко вдавати, наприклад, онука чи онуку, які потребують допомоги, по телефону. З іншого боку, відео Deepfake все ще мають потенціал для вдосконалення.
Це може мати надзвичайні наслідки: для зайнятості, виборів та суспільства в цілому.
Гайдінг додає: «Це буде найбільшою проблемою – повна втрата довіри до цифрових інституцій, а також до інституцій та матеріалів загалом».
Бонусне відео: