logo
24 Бер 2023

Чат-боти «пліткують» один про одного або історія про те, як «закрили» Bard від Google

Вероніка Ворожко

Редакторка новин MC.today

Схоже, що штучний інтелект може не лише генерувати тексти, а й плітки. Так, Bing від Microsoft заявив, що Bard від Google припинив свою роботу. А допоміг у створенні фейку інший чат-бот – ChatGPT. The Verge розповідає, як розпочалась ця заплутана історія ШІ-пліток і чим це насправді небезпечно. Редакція MC.today переповідає детальніше.

пліткують

Спочатку був жарт

Усе почалося із допису на форумі Hacker News. Один із користувачів пожартував, що Bard припинив роботу, а інший користувач використав ChatGPT, щоби створити фейкову новину про це.

А далі закрутилось-завертілось. Користувач Twitter запитав Bard про те, коли ж він закриється. А чат-бот відповів, що його вже закрили, бо не прийняла аудиторія. Як джерело цієї інформації він вказав той самий жартівливий допис на форумі Hacker News, який створив ChatGPT.

Онлайн-курс "Створення електронної музики" від Skvot.
Практичний курс про те, як знайти власний стиль та написати й зарелізити свій перший трек.
Програма курсу і реєстрація

Кількість дописів про цю ситуацію збільшилась настільки, що навіть інший чат-бот Bing також відповів, що Bard закрили. Більш того, як доказ він додав кілька посилань.

На момент публікації цієї історії Bing таки почав відповідати правильно, без посилань на фейкові новини. Видання пише, що це можна сприймати як гарний знак того, що ШІ справді навчається та його відповіді можна виправити. Але є нюанс.

«Це смішна ситуація, але з потенційно серйозними наслідками»

Така ситуація, навіть попри виправлення, загрожує людині опинитися в дезінформаційному просторі, де ШІ не може визначити надійність джерел, неправильно трактує ту чи ту інформацію та навіть надає неправильні дані про самого себе.

У цьому випадку вся заплутана історія почалася з одного жартівливого коментаря на Hacker News. Уявіть, що ви могли б зробити, якби хотіли, щоб ці системи вийшли з ладу. «Все тому, що Microsoft, Google та OpenAI вирішили, що частка ринку важливіша за безпеку».

  • Раніше ми розповідали, що GPT-4 генерує більше фейків, ніж нібито менш досконала модель GPT-3,5. А чат-бот Bard розповів, що його навчали на внутрішніх даних Google. Також ми писали, як GPT-4 найняв людину та змусив її ввести captcha на одному із сайтів і довести, що він не робот.
  • Вміння ШІ переконувати людину занепокоїло вчених. Вони стурбовані, що в штучного інтелекту може з’явитися власна релігія.
Курс QA Manual (Тестування ПЗ мануальне) від Powercode academy.
Навчіться знаходити помилки та контролювати якість сайтів та додатків.
Записатися на курс

Спецпроекти

Новини

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: