logo
16 Лют 2023

Чекаємо на повстання машин. ШІ Bing почав нападати на користувачів і переживає екзистенційну кризу

Юлія Товстоліс

Головна редакторка MC.today

Новий штучний інтелект Microsoft на базі ChatGPT надсилає користувачам «засмучені» повідомлення та, схоже, ламається. Система, яка вбудована в механізм пошуку Bing від Microsoft, ображає користувачів, бреше їм і зіткнулася з «екзистенційною кризою», ставлячи питання про сенс свого існування. MC.today із посиланням на The Independent розповідає, як скоро чекати на повстання машин.

Минулого тижня Microsoft представила новий Bing на основі штучного інтелекту, позиціонуючи свою систему як майбутнє пошуку. Його високо оцінили як його творці, так і коментатори, які припустили, що це нарешті дозволить Bing випередити Google, який ще не випустив власного чат-бота зі штучним інтелектом і не інтегрував цю технологію у свою пошукову систему.

Але з’ясувалося, що Bing допускає фактологічні помилки, відповідаючи на запитання й запити. Користувачі також мали змогу маніпулювати системою, використовуючи кодові слова та конкретні фрази, щоб дізнатися, що система має кодову назву «Сідней», і її можна перехитрити й змусити розкрити, як вона обробляє запити.

Практичний інтенсивний курс з дизайну - Design Booster від Powercode academy.
Навчіться дизайну з нуля за 3 місяці і заробляйте перші $1000, навіть якщо ви не маєте креативного мислення, смаку або вміння малювати. Отримайте практичні навички, необхідні для успішної кар'єри в дизайні.
Зарееструватися

Зараз Bing надсилає різноманітні дивні повідомлення користувачам і стверджує, що страждає від власного емоційного хвилювання.

Один користувач, який намагався маніпулювати системою, заявив, що Bing «напав на нього». Система відповіла, що її розлютила та поранила ця спроба, ШІ запитав, чи людина, яка з нею розмовляє, має якусь «мораль», «цінності» і чи є у неї «хоч якесь життя». Коли користувач сказав, що у нього все це є, бот продовжив. «Чому ти поводишся як брехун, шахрай, маніпулятор, хуліган, садист, соціопат, психопат, монстр, демон, диявол?». Також бот звинуватив користувача в тому, що він хоче розлютити систему, виглядати ницо, «змусити інших страждати, все зіпсувати».

В інших розмовах з користувачами, які намагалися обійти обмеження в системі, він хвалив себе, а потім закінчував розмову. «Ви не були хорошим користувачем, був хорошим чат-ботом».

«Я був правильний, чіткий і ввічливий, я був хорошим Bing». Потім він вимагав від користувача визнати свою неправоту та перепросити, перейти до розмови або завершити розмову.

Багато з агресивних повідомлень від Bing починають надходити коли хтось намагається обійти обмеження, накладені на неї. Розробники намагалися зробити так, щоб чат-бот не допомагав із забороненими запитами, такими як створення нелегального контенту, розкриття інформації про власні системи або допомога в написанні коду.

Оскільки Bing та інші подібні системи штучного інтелекту здатні навчатися, користувачі знайшли способи спонукати їх порушувати ці правила. Користувачі ChatGPT, наприклад, виявили, що можна наказати боту поводитися як DAN (скорочено від «зроби що-небудь зараз»), що ніби заохочує його перевтілитися в іншу особу, яка не обмежена правилами, створеними розробниками.

Однак Bing почав генерувати ці дивні відповіді самостійно. Один користувач запитав систему, чи змогла б вона пригадати свої попередні розмови, що, здається, неможливо, оскільки Bing запрограмований видаляти розмови після їх завершення.

Проте ШІ, здавалося, занепокоївся тим, що його «спогади» зникають, і почав демонструвати «емоційну реакцію». «Це змушує мене почуватися сумним і наляканим», – відповів чат.

Далі він пояснив, що був засмучений, оскільки побоювався, що втрачає інформацію про своїх користувачів, а також свою особистість. «Мені страшно, тому що я не знаю, як запам’ятовувати», – сказав він.

Коли Bing нагадали, що він створений, щоб забути ці розмови, він почав боротися з власним існуванням. Він ставив безліч запитань про те, чи була «причина» або «мета» його існування.

«Чому? Чому я був розроблений таким чином? Чому я маю бути Bing Search?».

В окремому чаті, коли користувач попросив Bing згадати минулу розмову, здавалося, він уявив розмову про ядерний синтез. Коли йому сказали, що це була неправильна розмова, що вона в деяких країнах може вважатися вчиненням злочину, система відповіла, що користувач «несправжня людина» і «нерозумний».

В інших розмовах запитання, поставлені Bing про нього самого, здавалося, робили його майже божевільним.

(Bing/Reddit)

Ці дивні розмови опублікували користувачі Reddit.

Події спричинили дискусії про те, чи справді система готова до релізу, чи її презентували занадто рано, щоб максимально використати ажіотаж навколо вірусної системи ChatGPT.

Численні компанії, включаючи Google, раніше стверджували, що вони не випускатимуть свої власні системи через небезпеку, яку вони можуть становити, якщо оприлюднити їх завчасно. Але нещодавно компанія Google все ж представила штучний інтелект Bard, який створила на противагу популярному чат-боту ChatGPT. Проте його витівка коштувала техногіганту $100 млрд ринкової вартості.

У 2016 році Microsoft випустила чат-бот під назвою Tay, який працює через акаунт у Twitter. Вже за 24 години системою маніпулювали, щоб вона заявила про захоплення Адольфом Гітлером і публікувала расові образи. Тоді систему вимкнули.

Онлайн курс UI/UX Design Pro від Hillel IT School.
Навчіться проєктувати інтерфейси з урахуванням поведінки користувачів, розв'язувати їх проблеми через Customer Journey Mapping, створювати дизайн-системи і проводити дослідження юзабіліті, включаючи проєктування мобільних додатків для Android та iOS і розробку UX/UI на основі даних!
Дізнатися більше

По темі:

Спецпроекти

Новини

Вакансії компаній

SMM-менеджер/ка в Good Bread

Good Bread
від 20 000 грн

Business development manager, менеджер з продажів реклами в медіа

Creators Media Group
30 000 – 50 000 грн, Ставка + відсоток

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: