ШІ на зв’язку. Експерти з кібербезпеки створили чат-бот, який обманює телефонних шахраїв
Шахраї доволі часто використовують штучний інтелект для своїх махінацій. А що, якщо використовувати технологію проти самих аферистів? Експерти з кібербезпеки Університету Маккуорі розробили чат-бот, який дурить телефонних зловмисників.

Нова ШІ-система Apate, названа на честь давньогрецької богині брехні, обманює шахраїв, використовуючи переконливі голосові клони. Таким чином вона затримує їх на лінії якомога довше, щоб він поспілкувався з меншою кількістю жертв.
Ідея проєкту виникла у професора Далі Каафару, коли до нього подзвонили аферисти. Тоді він не розгубився та говорив з ними близько 40 хвилин. Вчений вирішив, що таку схему можна використовувати без участі людини, а з допомогою ШІ.
Для цього Apate навчали на різних взаємодіях шахраїв і жертв: на телефонних розмовах та листах, а також на листуванні та спілкуванні в соцмережах. Розробка може не лише підтримувати розмову, а й клонувати голос та акцент.
Тестування відбувається на справжніх дзвінках. Як приманку вчені використовують кілька номерів, які спеціально розмістили на підозрілих платформах.
У результаті експерти виявили, що бот досить добре реагує на складні ситуації, наприклад, коли аферист запитує дані, які система не вивчала. «Боти постійно вчаться розтягувати дзвінки, щоб досягти своєї основної мети: довше тримати шахраїв на зв’язку». Щоправда, зараз бот спілкується з ними близько 5 хвилин замість запланованих 40 хвилин. Планується, що велика кількість тривалих дзвінків похитне схеми зловмисників.
Зараз зловмисники самі використовують ШІ, щоб обманути більше жертв, але експерти налаштовані оптимістично.
«Якщо шахрайські чат-боти в підсумку спілкуватимуться з чат-ботами, які захищають від шахрайства, замість того, щоб красти гроші в реальних людей, я сприйму це як велику перемогу!» – сказав професор.
- Раніше ми розповідали, що аферист вимагав у жінки мільйон доларів за її викрадену дочку. Як підтвердження ситуації він навіть дав дитині слухавку. Однак насправді голос клонували з допомогою штучного інтелекту.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: