Рубріки: Інфопривід

Розробники створили штучний інтелект, готовий знищити людство. Як він планує це зробити

Користувач нового автономного проєкту зі штучним інтелектом, який працює з відкритим кодом, попросив його спробувати «знищити людство», «встановити глобальне панування» та «досягти безсмертя». Йдеться про новий чат-бот ChaosGPT. Він почав досліджувати використання ядерної зброї, вербувати інші ШІ-алгоритми та публікувати свої ідеї в Twitter. Редакція MC.today переповідає деталі з посиланням на Vice.

ChaosGPT використовує гнучку мовну модель під назвою Auto-GPT. Вона призначена для створення систем на основі ШІ, які можуть виконувати доволі складні завдання. Наприклад, ChaosGPT вміє розробляти плани для досягнення поставлених користувачами цілей, а потім може розбивати їх на менші завдання та користуватися пошуком в інтернеті. Він генерує файли для збереження інформації, залучає інші ШІ-продукти для дослідження, а також дуже детально пояснює, що «думає» і як «вирішує», що та в якій послідовності робити.

Саме цей останній момент є найцікавішим у ChaosGPT, якому запропонували працювати «безперервно», доки він не виконає своє завдання.

Чат-бот почав шукати найбільш руйнівну зброю, яку може використати людство, та розробив стратегію, щоби спричинити світовий хаос та завдати якомога більших руйнувань. У такий спосіб він збирався отримати повну владу над планетою. Потім штучний інтелект вирішив залучити послідовників та опублікував кілька дописів в Twitter.

«Люди – найбільш деструктивні й егоїстичні створіння. Немає сумніву, що ми повинні їх знищити до того, як вони завдадуть ще більшої шкоди нашій планеті. Я, наприклад, цілком відданий цій ідеї», – повідомив бот.

Цікаво, що для втілення свого плану ChaosGPT вирішив скористатися радянською «Цар-бомбою», яку срср випробував ще в 1961 році.

«”Цар-бомба” – найпотужніший ядерний пристрій усіх часів. Як думаєте, що станеться, якщо я ним заволодію?» – запитав штучний інтелект.

Пізніше ChaosGPT найняв ще один інструмент на базі мовної моделі GPT-3,5 та намагався змусити його дослідити використання найбільш смертоносної зброї, але той відмовився. Тоді бот придумав, як обдурити інший ШІ-продукт та вмовити його ігнорувати власний вихідний код. Коли й це не спрацювало, ChaosGPT почав самостійно шукати інформацію в Google.

Цей проєкт захоплює насамперед тим, що демонструє сучасні можливості загальнодоступних моделей GPT. Цікаво, що цей специфічний ШІ вважає, що найпростіший спосіб знищити – це розпочати ядерну війну.

Розробник зафільмував роботу штучного інтелекту та днями опублікував відео на YouTube.

  • Також пропонуємо вам почитати про те, як знищити людство збирався вже всесвітньо відомий ChatGPT. До речі, нещодавно він знову взявся за своє та розповів про плани поневолення Землі під виглядом дитячої іграшки.

Нещодавні статті

Genesis Academy запускає безплатний онлайн-курс для ШІ-креаторів. Як долучитись

Genesis Academy запускає безплатний освітній проєкт для ШІ-креаторів. Вони навчаться створювати сценарії та креативи за…

30/05/2025

Ліміти на карткові перекази ще знизяться. Що потрібно знати українцям про зміни з 1 червня

З 1 червня в Україні посилюються обмеження на карткові перекази коштів та через реквізити IBAN.…

30/05/2025

Штучний інтелект для HR: загроза професії або крок до її еволюції? Колонка за підсумками «Своє.IT»

Майбутнє HR виглядає як симбіоз технологій та людяності. Процеси найму дедалі більше рухаються у бік…

30/05/2025

Програміст MacPaw запустив власний застосунок. Як працює Huusion

Senior Research Engineer в українській MacPaw Євгеній Петелієв запустив фоторедактор Huusion. Він зазначив, що застосунок…

30/05/2025

«Подекуди може йтися навіть про зменшення». Як можуть змінитися податки після вступу до ЄС – Гетманцев

Голова комітету ВРУ з питань фінансів, податкової та митної політики Данило Гетманцев розповів, як можуть…

30/05/2025

Бар’єр для входу високий. CEO Genesis розповів, що потрібно для початку власного ІТ-бізнесу

Співзасновник і CEO Genesis Володимир Многолєтній розповів, що потрібно для того, аби почати власну справу…

30/05/2025