Рубріки: Інфопривід

Розробники створили штучний інтелект, готовий знищити людство. Як він планує це зробити

Користувач нового автономного проєкту зі штучним інтелектом, який працює з відкритим кодом, попросив його спробувати «знищити людство», «встановити глобальне панування» та «досягти безсмертя». Йдеться про новий чат-бот ChaosGPT. Він почав досліджувати використання ядерної зброї, вербувати інші ШІ-алгоритми та публікувати свої ідеї в Twitter. Редакція MC.today переповідає деталі з посиланням на Vice.

ChaosGPT використовує гнучку мовну модель під назвою Auto-GPT. Вона призначена для створення систем на основі ШІ, які можуть виконувати доволі складні завдання. Наприклад, ChaosGPT вміє розробляти плани для досягнення поставлених користувачами цілей, а потім може розбивати їх на менші завдання та користуватися пошуком в інтернеті. Він генерує файли для збереження інформації, залучає інші ШІ-продукти для дослідження, а також дуже детально пояснює, що «думає» і як «вирішує», що та в якій послідовності робити.

Саме цей останній момент є найцікавішим у ChaosGPT, якому запропонували працювати «безперервно», доки він не виконає своє завдання.

Чат-бот почав шукати найбільш руйнівну зброю, яку може використати людство, та розробив стратегію, щоби спричинити світовий хаос та завдати якомога більших руйнувань. У такий спосіб він збирався отримати повну владу над планетою. Потім штучний інтелект вирішив залучити послідовників та опублікував кілька дописів в Twitter.

«Люди – найбільш деструктивні й егоїстичні створіння. Немає сумніву, що ми повинні їх знищити до того, як вони завдадуть ще більшої шкоди нашій планеті. Я, наприклад, цілком відданий цій ідеї», – повідомив бот.

Цікаво, що для втілення свого плану ChaosGPT вирішив скористатися радянською «Цар-бомбою», яку срср випробував ще в 1961 році.

«”Цар-бомба” – найпотужніший ядерний пристрій усіх часів. Як думаєте, що станеться, якщо я ним заволодію?» – запитав штучний інтелект.

Пізніше ChaosGPT найняв ще один інструмент на базі мовної моделі GPT-3,5 та намагався змусити його дослідити використання найбільш смертоносної зброї, але той відмовився. Тоді бот придумав, як обдурити інший ШІ-продукт та вмовити його ігнорувати власний вихідний код. Коли й це не спрацювало, ChaosGPT почав самостійно шукати інформацію в Google.

Цей проєкт захоплює насамперед тим, що демонструє сучасні можливості загальнодоступних моделей GPT. Цікаво, що цей специфічний ШІ вважає, що найпростіший спосіб знищити – це розпочати ядерну війну.

Розробник зафільмував роботу штучного інтелекту та днями опублікував відео на YouTube.

  • Також пропонуємо вам почитати про те, як знищити людство збирався вже всесвітньо відомий ChatGPT. До речі, нещодавно він знову взявся за своє та розповів про плани поневолення Землі під виглядом дитячої іграшки.

Нещодавні статті

Борг виявився не боргом. monobank звернувся до суду для стягнення понад 50 тис. грн з клієнта

Universal Bank (до якого належить monobank) звернувся до суду для стягнення заборгованості з клієнта розміром…

10/07/2025

Bitget запускає щорічний трейдинговий турнір KCGI. Призовий фонд – 6 млн USDT

Світова криптобіржа та Web3-компанія Bitget офіційно відкрила реєстрацію на KCGI 2025 – трейдинговий турнір року…

10/07/2025

Як Bitget інтегрує xStocks відкриває новий клас активів для криптоінвесторів

Провідна світова криптовалютна біржа та Web3-компанія Bitget оголосила про підтримку токенізованих акцій на своїй платформі…

10/07/2025

У що вкласти $10 тис., якщо ви готові інвестувати довгостроково – думка Любомира Остапіва

Довгострокове інвестування – це не про миттєвий прибуток, а про розуміння трендів, які формують майбутнє.…

10/07/2025

Як перетворити хобі та дружбу на додаткові гроші – чоловік поділився власним досвідом

Навіть власне хобі та дружбу можна перетворити на підробіток. Таким чином улюблене заняття та люди,…

09/07/2025

GGBET став офіційним спонсором бою Усик – Дюбуа ІІ. Для фанів боксу передбачені спецпропозиції. Деталі

19 липня на арені «Вемблі» в Лондоні відбудеться поєдинок за звання абсолютного чемпіона світу у…

09/07/2025