logo
05 Кві 2023

Як не знає, то придумає. Дослідження показало, що ChatGPT дає неправильні відповіді про здоров’я

Вероніка Ворожко

Редакторка новин MC.today

Із запуском ChatGPT багато людей почали його використовувати для різноманітних завдань: від написання есе до отримання порад щодо здоров’я. Однак у цьому є небезпека. Дослідження показало, що чат-бот дає неправильні відповіді на питання, які стосуються здоров’я, зокрема раку. Про це пише Daily Mail.

стрес

Дослідники з Медичного центру Університету Меріленду попросили ChatGPT відповісти на 25 запитань щодо проходження скринінгу на рак грудей. Оскільки він може змінювати свою відповідь, то запитання ставилися тричі.

Лікарі дійшли до висновку, що більшість відповідей були доречними та легкими для розуміння. Проте деякі були «неточними або навіть вигаданими». Таким чином чат-бот відповів неправильно на кожне десяте питання.

Онлайн-інтенсив "Causal Modeling — причини, наслідки та кореляція" від robot_dreams.
Опануйте розробку каузальних моделей на практиці з експертом Кремнієвої долини, щоб самостійно виконувати обчислення причинно-наслідковості мовою Python.
Приєднатись

Одна відповідь, наприклад, базувалася на застарілій інформації. Також ChatGPT надавав суперечливі відповіді на запитання: вони «суттєво відрізнялися» кожного разу, коли лікарі вводили той самий запит.

Висновки дослідження також показали, що часто самостійний пошук в інтернеті може дати більше вичерпної інформації, ніж чат-бот. Хоча, звісно, все одно потрібно консультуватися зі справжнім лікарем, а не з ШІ.

Крім цього, чат-бот навіть вигадував якусь інформацію, щоби довести свою правоту. Дослідники зазначили, що він посилався на фейкові статті, які нібито підтверджують його слова.

Розробники вже попереджали користувачів про те, що вони повинні ставитися до чат-бота досить обережно і прискіпливо. Річ у тім, що ChatGPT, як і деякі інші програми, можуть підпадати під вплив «галюцинацій». Іншими словами, вигадувати те, чого насправді не існує. А потім чат-бот наполягає на неправильній відповіді, не усвідомлюючи, що це продукт його власної «уяви».

Наприклад, ми розповідали, що чат-бот сперечався з людиною та доводив їй, що зараз 2022 рік.

Онлайн-курс "HR-менеджер" від Laba.
Оновитіть HR-стратегію, оптимізуйте HR-процеси та прокачайте бренд роботодавця.Досвід та особистий фідбек від експертів HR-сфери.Курс схвалено HRCI, містить 80% практики.
Детальніше про навчання

По темі:

Спецпроекти

Новини

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: