Рубріки: Інфопривід

Чат-боти «пліткують» один про одного або історія про те, як «закрили» Bard від Google

Схоже, що штучний інтелект може не лише генерувати тексти, а й плітки. Так, Bing від Microsoft заявив, що Bard від Google припинив свою роботу. А допоміг у створенні фейку інший чат-бот – ChatGPT. The Verge розповідає, як розпочалась ця заплутана історія ШІ-пліток і чим це насправді небезпечно. Редакція MC.today переповідає детальніше.

Спочатку був жарт

Усе почалося із допису на форумі Hacker News. Один із користувачів пожартував, що Bard припинив роботу, а інший користувач використав ChatGPT, щоби створити фейкову новину про це.

А далі закрутилось-завертілось. Користувач Twitter запитав Bard про те, коли ж він закриється. А чат-бот відповів, що його вже закрили, бо не прийняла аудиторія. Як джерело цієї інформації він вказав той самий жартівливий допис на форумі Hacker News, який створив ChatGPT.

Кількість дописів про цю ситуацію збільшилась настільки, що навіть інший чат-бот Bing також відповів, що Bard закрили. Більш того, як доказ він додав кілька посилань.

На момент публікації цієї історії Bing таки почав відповідати правильно, без посилань на фейкові новини. Видання пише, що це можна сприймати як гарний знак того, що ШІ справді навчається та його відповіді можна виправити. Але є нюанс.

«Це смішна ситуація, але з потенційно серйозними наслідками»

Така ситуація, навіть попри виправлення, загрожує людині опинитися в дезінформаційному просторі, де ШІ не може визначити надійність джерел, неправильно трактує ту чи ту інформацію та навіть надає неправильні дані про самого себе.

У цьому випадку вся заплутана історія почалася з одного жартівливого коментаря на Hacker News. Уявіть, що ви могли б зробити, якби хотіли, щоб ці системи вийшли з ладу. «Все тому, що Microsoft, Google та OpenAI вирішили, що частка ринку важливіша за безпеку».

  • Раніше ми розповідали, що GPT-4 генерує більше фейків, ніж нібито менш досконала модель GPT-3,5. А чат-бот Bard розповів, що його навчали на внутрішніх даних Google. Також ми писали, як GPT-4 найняв людину та змусив її ввести captcha на одному із сайтів і довести, що він не робот.
  • Вміння ШІ переконувати людину занепокоїло вчених. Вони стурбовані, що в штучного інтелекту може з’явитися власна релігія.

Нещодавні статті

«Помилкове трактування». CEO Trustee Plus про інформацію щодо обходу обмежень НБУ

У травні Trustee Plus та Weld Money, які одні з перших в Україні привʼязали криптовалюти…

11/07/2025

«Взяв гроші, які відкладав на квартиру». Історія нової української соцмережі

«Ми почали роз’єднуватись саме тоді, коли варто було об’єднуватись. Нам бракувало універсального простору: щоб хтось…

11/07/2025

Як у «Піратах Карибського моря». CPO Prom розповів, що потрібно для онлайн-продажів

Для початку продажів на маркетплейсі не обовʼязково мати власний склад чи велику команду – достатньо…

11/07/2025

Bitget спалив 30 мільйонів BGB на $138 мільйонів. Що це означає для біржі та інвесторів?

Провідна світова криптовалютна біржа та Web3-компанія Bitget завершила спалювання 30 001 053,1 BGB, що складає 2,56% від…

11/07/2025

Що таке емоційні покупки і як їх розпізнати, використовуючи одне просте питання

Іноді емоції керують людиною навіть у плані витрати коштів. І якщо вже є розуміння цього,…

11/07/2025

Борг виявився не боргом. monobank звернувся до суду для стягнення понад 50 тис. грн з клієнта

Universal Bank (до якого належить monobank) звернувся до суду для стягнення заборгованості з клієнта розміром…

10/07/2025