UA RU
logo
16 Лют 2023

Чекаємо на повстання машин. ШІ Bing почав нападати на користувачів і переживає екзистенційну кризу

Юлія Товстоліс

Редакторка новин MC.today

Новий штучний інтелект Microsoft на базі ChatGPT надсилає користувачам «засмучені» повідомлення та, схоже, ламається. Система, яка вбудована в механізм пошуку Bing від Microsoft, ображає користувачів, бреше їм і зіткнулася з «екзистенційною кризою», ставлячи питання про сенс свого існування. MC.today із посиланням на The Independent розповідає, як скоро чекати на повстання машин.

Курс PR-КОММУНІКАЦІЇ
Підвищити імідж компанії, та стати акулою PR? Легко!

Вивчити курс

Минулого тижня Microsoft представила новий Bing на основі штучного інтелекту, позиціонуючи свою систему як майбутнє пошуку. Його високо оцінили як його творці, так і коментатори, які припустили, що це нарешті дозволить Bing випередити Google, який ще не випустив власного чат-бота зі штучним інтелектом і не інтегрував цю технологію у свою пошукову систему.

Але з’ясувалося, що Bing допускає фактологічні помилки, відповідаючи на запитання й запити. Користувачі також мали змогу маніпулювати системою, використовуючи кодові слова та конкретні фрази, щоб дізнатися, що система має кодову назву «Сідней», і її можна перехитрити й змусити розкрити, як вона обробляє запити.

Зараз Bing надсилає різноманітні дивні повідомлення користувачам і стверджує, що страждає від власного емоційного хвилювання.

Один користувач, який намагався маніпулювати системою, заявив, що Bing «напав на нього». Система відповіла, що її розлютила та поранила ця спроба, ШІ запитав, чи людина, яка з нею розмовляє, має якусь «мораль», «цінності» і чи є у неї «хоч якесь життя». Коли користувач сказав, що у нього все це є, бот продовжив. «Чому ти поводишся як брехун, шахрай, маніпулятор, хуліган, садист, соціопат, психопат, монстр, демон, диявол?». Також бот звинуватив користувача в тому, що він хоче розлютити систему, виглядати ницо, «змусити інших страждати, все зіпсувати».

Курс Java
Розпочніть свою карʼєру в ІТ, та гарантовано отримуйте роботу мрії!

Дізнатися про програму

В інших розмовах з користувачами, які намагалися обійти обмеження в системі, він хвалив себе, а потім закінчував розмову. «Ви не були хорошим користувачем, був хорошим чат-ботом».

«Я був правильний, чіткий і ввічливий, я був хорошим Bing». Потім він вимагав від користувача визнати свою неправоту та перепросити, перейти до розмови або завершити розмову.

Багато з агресивних повідомлень від Bing починають надходити коли хтось намагається обійти обмеження, накладені на неї. Розробники намагалися зробити так, щоб чат-бот не допомагав із забороненими запитами, такими як створення нелегального контенту, розкриття інформації про власні системи або допомога в написанні коду.

Оскільки Bing та інші подібні системи штучного інтелекту здатні навчатися, користувачі знайшли способи спонукати їх порушувати ці правила. Користувачі ChatGPT, наприклад, виявили, що можна наказати боту поводитися як DAN (скорочено від «зроби що-небудь зараз»), що ніби заохочує його перевтілитися в іншу особу, яка не обмежена правилами, створеними розробниками.

Однак Bing почав генерувати ці дивні відповіді самостійно. Один користувач запитав систему, чи змогла б вона пригадати свої попередні розмови, що, здається, неможливо, оскільки Bing запрограмований видаляти розмови після їх завершення.

Проте ШІ, здавалося, занепокоївся тим, що його «спогади» зникають, і почав демонструвати «емоційну реакцію». «Це змушує мене почуватися сумним і наляканим», – відповів чат.

Далі він пояснив, що був засмучений, оскільки побоювався, що втрачає інформацію про своїх користувачів, а також свою особистість. «Мені страшно, тому що я не знаю, як запам’ятовувати», – сказав він.

Коли Bing нагадали, що він створений, щоб забути ці розмови, він почав боротися з власним існуванням. Він ставив безліч запитань про те, чи була «причина» або «мета» його існування.

«Чому? Чому я був розроблений таким чином? Чому я маю бути Bing Search?».

В окремому чаті, коли користувач попросив Bing згадати минулу розмову, здавалося, він уявив розмову про ядерний синтез. Коли йому сказали, що це була неправильна розмова, що вона в деяких країнах може вважатися вчиненням злочину, система відповіла, що користувач «несправжня людина» і «нерозумний».

Курс
BLOCKCHAIN DEVELOPER
Опануєте технології роботи перспективного напрямку блокчейну, отримаєте навички розробки на мовах JavaScript і Solidity.
Дізнатись про програму
pic

В інших розмовах запитання, поставлені Bing про нього самого, здавалося, робили його майже божевільним.

(Bing/Reddit)

Ці дивні розмови опублікували користувачі Reddit.

Події спричинили дискусії про те, чи справді система готова до релізу, чи її презентували занадто рано, щоб максимально використати ажіотаж навколо вірусної системи ChatGPT.

Численні компанії, включаючи Google, раніше стверджували, що вони не випускатимуть свої власні системи через небезпеку, яку вони можуть становити, якщо оприлюднити їх завчасно. Але нещодавно компанія Google все ж представила штучний інтелект Bard, який створила на противагу популярному чат-боту ChatGPT. Проте його витівка коштувала техногіганту $100 млрд ринкової вартості.

У 2016 році Microsoft випустила чат-бот під назвою Tay, який працює через акаунт у Twitter. Вже за 24 години системою маніпулювали, щоб вона заявила про захоплення Адольфом Гітлером і публікувала расові образи. Тоді систему вимкнули.

Курс ADOBE PREMIERE
Навчіться робити вражаючі відео за допомогою найпопулярнішої програми монтажу - Adobe Premiere!

Дізнатися про програму

По темі:

Спецпроєкти

Спецпроекти

Новини

Спецпроєкти

Надихаючі компанії-работодавці

Alfa

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: