logo
04 Кві 2025

OpenAI вперше інвестувала в кібербезпеку – компанія профінансувала стартап Adaptive Security

Юлія Фещенко

Редакторка новин MC.today

OpenAI вперше інвестувала значні гроші в кібербезпеку – компанія вклала кошти в інший стартап, який допомагає бізнесам захищатися від атак з використанням штучного інтелекту. Це перша така інвестиція в історії творців ChatGPT.

Обмежений доступ на ноутбуці, лого OpenAI на екрані смартфона, колажOpenAI вперше інвестувала у стартап, який займається питаннями кібербезпеки ШІ. Фото: Depositphotos

Отже, OpenAI разом з американським венчурним фондом Andreessen Horowitz профінансувала нью-йоркський стартап Adaptive Security – у серії А він залучив 43 мільйони доларів США, пише TechCrunch. Компанія спеціалізується на тому, що імітує хакерські атаки, згенеровані штучним інтелектом, щоб навчити людей виявляти ці загрози.

Наприклад, працівникові великої компанії може зателефонувати фахівець або й очільник служби техпідтримки й попросити ввести код підтвердження в тій чи тій програмі. Але насправді це буде не справжній техексперт, а імітація, створена Adaptive Security.

Телефонні дзвінки – не єдиний тип «підробок», на яких спеціалізується стартап. Тут працюють також з електронними листами, повідомленням у месенджерах тощо й у такий спосіб визначають вразливості компаній. Простими словами, Adaptive Security фокусується на хаках, які вимагають від людини зробити щось, чого вона не повинна робити, наприклад, перейти за фішинговим посиланням. Такі види соціальної інженерії, хоч і є базовими, досі призводять до значних збитків.

Інструменти штучного інтелекту ще більше спростили підготовку та здійснення хакерських атак, зазначив у розмові з виданням генеральний директор Adaptive Security Браян Лонг. Тому робота в напрямі протидії зловмисникам та покращення безпекових механізмів ШІ – не просто важлива, а й перспективна для молодих технологічних компаній, що планують працювати в галузі ШІ або кібербезпеки.

Читайте також: Новий генератор зображень OpenAI тепер доступний для всіх користувачів

До речі, на прихованих загрозах, які несе в собі ШІ та його дедалі більше розповсюдження в бізнесі, наголосив під час AI Day від Forbes Ukraine очільник Cisco в Україні Сергій Мартинчук. За його словами, компанії масово почали впроваджувати ШІ-боти попри можливі негативні наслідки. Бізнеси зазвичай вважають, що про захист їхніх даних подбали розробники, наприклад, ChatGPT або Llama (великої мовної моделі), яку вони використовують у власних ШІ-продуктах.

Головними проблемами використання ШІ Мартинчук назвав обхід обмежень чатботів зловмисниками, зливання інформації самими співробітниками та «отруєння» або спотворення даних, зокрема з використанням пропаганди.

Так, штучний інтелект бере дані для навчання з відкритого доступу, і він не завжди може відрізнити, чи правдивий вміст у публікації чи зображення, у яких він знайшов відповідність запитам користувача.

«Метод “отруєння” даних активно використовують росіяни. Вони створили велику кількість англомовних сайтів зі своєю пропагандою. Основні ШІ-моделі, які навчаються на даних з інтернету, “зʼїли” цю інформацію. Тепер вони видають російську пропаганду за правду», – цитує Мартинчука видання.

Також з-поміж ризиків роботи із ШІ очільник Cisco в Україні назвав атаки на конфіденційні дані, крадіжки моделей, дії, спрямовані на відмову в сервісі або зміну роботи моделі тощо.

«Бізнесу не варто сподіватися, що розробники ШІ-моделей повністю подбали про захист даних на своєму боці. Ми в Cisco місяць тому провели дослідження, наскільки захищені популярні ШІ-моделі. Що більша модель, то гірші були результати. DeepSeek пропустив усі погані промпти, які ми давали в систему, Llama пропустила 96% таких запитів», – зауважив Мартинчук.

Він пояснив, що захист ШІ-систем має два складники. Перший – це стандарти безпеки, які застосовують ще на етапі розробки продукту. Другий – це особливості використання ШІ-моделей.

Загалом він порадив бізнесам:

  • користуватися безпечними ШІ-моделями;
  • додатково захищати дані;
  • обмежувати права доступу, навіть для СЕО та інших керівників, а також керуватися принципами нульової довіри – надавати працівникам тільки ті доступи, які потрібні їм у роботі.

Нагадаємо, раніше топменеджерка Cisco пояснила, чому вчитися кодувати – хороша порада.

Спецпроекти

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: