logo
24 Бер 2023

Чат-боти «пліткують» один про одного або історія про те, як «закрили» Bard від Google

Вероніка Ворожко

Редакторка новин MC.today

Схоже, що штучний інтелект може не лише генерувати тексти, а й плітки. Так, Bing від Microsoft заявив, що Bard від Google припинив свою роботу. А допоміг у створенні фейку інший чат-бот – ChatGPT. The Verge розповідає, як розпочалась ця заплутана історія ШІ-пліток і чим це насправді небезпечно. Редакція MC.today переповідає детальніше.

пліткують

Спочатку був жарт

Усе почалося із допису на форумі Hacker News. Один із користувачів пожартував, що Bard припинив роботу, а інший користувач використав ChatGPT, щоби створити фейкову новину про це.

А далі закрутилось-завертілось. Користувач Twitter запитав Bard про те, коли ж він закриється. А чат-бот відповів, що його вже закрили, бо не прийняла аудиторія. Як джерело цієї інформації він вказав той самий жартівливий допис на форумі Hacker News, який створив ChatGPT.

Англійська для IT від Englishdom.
В межах курсу можна освоїти ключові ІТ-теми та почати без проблем говорити з іноземними колегами.
Дійзнайтеся більше

Кількість дописів про цю ситуацію збільшилась настільки, що навіть інший чат-бот Bing також відповів, що Bard закрили. Більш того, як доказ він додав кілька посилань.

На момент публікації цієї історії Bing таки почав відповідати правильно, без посилань на фейкові новини. Видання пише, що це можна сприймати як гарний знак того, що ШІ справді навчається та його відповіді можна виправити. Але є нюанс.

«Це смішна ситуація, але з потенційно серйозними наслідками»

Така ситуація, навіть попри виправлення, загрожує людині опинитися в дезінформаційному просторі, де ШІ не може визначити надійність джерел, неправильно трактує ту чи ту інформацію та навіть надає неправильні дані про самого себе.

У цьому випадку вся заплутана історія почалася з одного жартівливого коментаря на Hacker News. Уявіть, що ви могли б зробити, якби хотіли, щоб ці системи вийшли з ладу. «Все тому, що Microsoft, Google та OpenAI вирішили, що частка ринку важливіша за безпеку».

  • Раніше ми розповідали, що GPT-4 генерує більше фейків, ніж нібито менш досконала модель GPT-3,5. А чат-бот Bard розповів, що його навчали на внутрішніх даних Google. Також ми писали, як GPT-4 найняв людину та змусив її ввести captcha на одному із сайтів і довести, що він не робот.
  • Вміння ШІ переконувати людину занепокоїло вчених. Вони стурбовані, що в штучного інтелекту може з’явитися власна релігія.
Онлайн курс з промт інжинірингу та ефективної роботи з ШІ від Powercode academy.
Курс-інтенсив для отримання навичок роботи з ChatGPT та іншими інструментами ШІ для професійних та особистих задач, котрі допоможуть як новачку, так і професіоналу.
Записатися на курс

По темі:

Спецпроекти

Новини

Вакансії компаній

Менеджер з активних продажів B2B

Creators Media Group
20 000 – 40 000 грн, Ставка + відсоток

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: