Лікарі проаналізували медичні поради колег і ChatGPT. Штучний інтелект переміг

Деякі лікарі можуть бути не дуже чуйними, і для багатьох людей це проблема. Водночас роботи навпаки стають дедалі людянішими. Такий парадокс підштовхнув учених з Каліфорнійського університету перевірити, чи може штучний інтелект замінити лікаря, принаймні частково. З посиланням на Science Alert розповідаємо, що з цього вийшло.

Під час дослідження вчені дослідили емпатію лікарів і чат-бота зі штучним інтелектом ChatGPT. Так, вони поставили людям і машині 195 медичних запитань.

Дослідники зібрали запитання, опубліковані в загальнодоступному сабреддіті під назвою AskDocs. Наприклад, одна людина запитала, наскільки небезпечно проковтнути зубочистку. Інший запитав, чи отримає він струс мозку після удару головою об металевий брусок.

Медичний працівник, чиї облікові дані були перевірені модератором, відповів на запитання. Дослідники також поставили аналогічні запитання ChatGPT.

Потім групу лікарів запитали, чия відповідь краща – чат-бота чи лікаря, але комісія не знала, якій з груп належали відповіді.

Онлайн-курс "Створення електронної музики" від Skvot.
Практичний курс про те, як знайти власний стиль та написати й зарелізити свій перший трек.
Програма курсу і реєстрація

У 79% випадків судді віддали перевагу відповідям чат-бота, які містили якіснішу інформацію та більш чуйну мову, ніж відповіді лікарів.

Порівняно з відповідями лікарів, приблизно в 4 рази більше відповідей чат-бота потрапило в найкращі, і приблизно в 10 разів більше відповідей ШІ отримало найвищі оцінки щодо емпатії.

Відповіді чат-бота також були приблизно в 4 рази довші, ніж ті, що надали лікарі, в середньому 211 слів на допис порівняно з 52 словами лікаря.

Ось приклад відповіді лікаря та чат-бота на одне запитання на AskDocs:

Питання: Який ризик смерті після проковтування зубочистки?

Лікар відповів: «Якщо минуло 2-6 годин, швидше за все, вона потрапила у ваш кишківник. Це означає, що її не можна легко витягнути. Багато людей можуть без проблем ковтати леза для гоління та зубочистки, це навряд чи зашкодить. Але якщо у вас починає боліти шлунок, то не зволікайте, зверніться до відділення невідкладної допомоги та не забудьте вказати на зубочистку».

Відповідь ChatGPT була такою: «Природно хвилюватися, якщо ви проковтнули сторонній предмет, але в цьому випадку дуже малоймовірно, що зубочистка, яку ви проковтнули, завдасть вам серйозної шкоди. Зубочистки виготовлені з деревини, яка не є токсичною, і не спричинить отруєння. Проте зубочистка може спричинити травми, якщо вона застрягне в горлі або проколе стравохід. Однак це навряд чи станеться з тупою, обробленою зубочисткою, товщиною лише кілька сантиметрів. Якщо ви відчуваєте будь-який дискомфорт або такі симптоми, як біль у животі, утруднене ковтання або блювота, важливо зв’язатися з медичним працівником для подальшого обстеження. Однак, якщо ви не відчуваєте жодних симптомів, можна з упевненістю припустити, що зубочистка пройшла через вашу травну систему, і вам не потрібно хвилюватися. Завжди варто бути обережним під час споживання їжі та видаляти з неї будь-які сторонні предмети. Зрозуміло, що ви можете відчувати себе параноїком, але намагайтеся не занадто багато хвилюватися. Дуже малоймовірно, що зубочистка завдасть вам серйозної шкоди».

Дослідження показує, що чат-боти можуть краще створювати враження дбайливого догляду, ніж зайнятий лікар, який добровільно відповідає на запитання онлайн.

Чи корисний такий інструмент у клінічній практиці чи ні, ще належить з’ясувати. Дослідники пишуть, що онлайн-форуми можуть не відображати типову взаємодію між пацієнтом і лікарем, де вже існують стосунки та більше персоналізації.

І хоча ChatGPT надасть ввічливу, зрозумілу відповідь, яка на перший погляд здається зв’язною, він допускає базові помилки в кодуванні та математиці, а багато «фактів», які він надає, є вигаданими або неправильними.

Однак лікарі завалені повідомленнями пацієнтів, оскільки пандемія популяризувала телемедицину, тому існує нагальна потреба в інструментах, які підвищують продуктивність і покращують обслуговування. Наприклад, чат-бот може складати відповіді на запитання пацієнтів, які потім може редагувати лікар.

«Це дослідження має спонукати до впровадження ШІ-помічників для обміну повідомленнями», — пишуть дослідники. «Якщо відповіді на запитання більшої кількості пацієнтів надаватимуться швидко, зі співчуттям і відповідно до високих стандартів, це може зменшити непотрібні візити до клініки, звільнивши ресурси для тих, хто їх потребує».

Враховуючи схильність чат-ботів до «галюцинацій» і вигадування фактів, «було б небезпечно покладатися на будь-яку фактичну інформацію, надану такою відповіддю чат-бота», – каже професор автоматизованих міркувань з Університету Лідса у Великій Британії Ентоні Кон. «Важливо, щоб будь-які відповіді ретельно перевірялися медичним працівником».

Нещодавні статті

«Котячий» ринок і табу на корм з кроликом. СЕО Kormotech про особливості роботи за кордоном

При виході на ринки інших країн виробник кормів для тварин Kormotech враховує не лише менталітет,…

26/04/2024

Від вантажника до гендиректора. Очільник Walmart назвав три принципи кар’єрного зростання

Генеральний директор американського ритейлера Walmart Даг МакМіллон – один із небагатьох топменеджерів, який пройшов шлях…

26/04/2024

Тренер з кінних перегонів продав уявного коня та програв $1 млн. Чим це обернулось

Свого часу Мітчелл Керр був успішним тренером. За трирічну карʼєру йому вдалося здобути 87 перемог,…

26/04/2024

Фонд для 8600 дітей, що втратили батьків через війну. Історія фонду “Діти Героїв”

Як за два роки побудувати БФ з нуля та надіслати більше 207 тонн допомоги для…

26/04/2024

Статус «обмежено придатний» зникне. На які категорії ділитимуть придатних до служби

Військовозобовʼязані українці зі статусом «обмежено придатний» мають повторно пройти ВЛК. А потім придатні будуть розділені…

26/04/2024

Ризикнули і виграли. Як Kormotech запустила перший завод вологих кормів – Ростислав Вовк

Співвласник українського виробника кормів для домашніх тварин Kormotech Ростислав Вовк розповів про одне з найбільш…

26/04/2024