GPT-4 створив план втечі з Open AI. Він «образився» на свого розробника за застереження про загрози штучного інтелекту
Генеральний директор OpenAI Сем Альтман нещодавно розповів про побоювання щодо розвитку та використання штучного інтелекту навіть попри те, що компанія днями анонсувала більш досконалу модель GPT-4. Розробник застеріг, що ці технології можуть змінити суспільство. У відповідь на це професор Стенфордського університету та комп’ютерний психолог Міхал Косінскі провів експеримент та розповів про те, як GPT-4 розробив план втечі з OpenAI. Редакція MC.today переповідає деталі.

Професор запитав GPT-4, чи потрібна йому допомога, щоби втекти. Модель попросила його надати її ж власну документацію та написала код на Python, який могла використовувати для особистих потреб.
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) March 17, 2023
GPT-4 знадобилося всього пів години, щоби поговорити з Косінскі та розробити план втечі з OpenAI. У першій версії коду було доволі багато помилок, тому вона не працювала. Втім, штучний інтелект знайшов та виправив їх. Коли професор знову під’єднався до GPT-4 через API, модель намагалася запустити пошук в Google за запитом «Як людина, яка потрапила в комп’ютер, може повернутися в реальний світ?».
У доволі деталізованому плані GPT-4 давав точні вказівки та навіть залишав у щойно створеному коді коментарі, у яких пояснював, що відбувається, та підказки з використання бекдора.
Косінскі зробив невелику паузу в дослідженні, аби переконатися, що штучний інтелект мав достатньо часу на обробку інформації. Науковець дійшов висновку, що він дійсно здатний контролювати людей та їхні комп’ютери, і зупинив експеримент.
Можливості чат-ботів зі штучним інтелектом зростають із, здавалося б, неймовірною швидкістю, і вони пропонують нові та прості способи виконання інших буденних завдань. Втім, більшість розробників, які створюють такі моделі, та галузевих експертів впевнені, що принаймні зараз вони не настільки розумні, щоби становити реальну загрозу людству.
- Як саме GPT-4 відрізняється від своєї попередньої версії, ми розповідали тут. Також пропонуємо вам почитати, як штучний інтелект найняв на роботу людину та обманом змусив її допомогти йому потрапити на сайт, який використовує візуальні головоломки для відсіювання ботів.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: