logo
30 Тра 2023

Лікарі проаналізували медичні поради колег і ChatGPT. Штучний інтелект переміг

Юлія Товстоліс

Головна редакторка MC.today

Деякі лікарі можуть бути не дуже чуйними, і для багатьох людей це проблема. Водночас роботи навпаки стають дедалі людянішими. Такий парадокс підштовхнув учених з Каліфорнійського університету перевірити, чи може штучний інтелект замінити лікаря, принаймні частково. З посиланням на Science Alert розповідаємо, що з цього вийшло.

Doctor And Robot Shaking Hands Over Stethoscope

Під час дослідження вчені дослідили емпатію лікарів і чат-бота зі штучним інтелектом ChatGPT. Так, вони поставили людям і машині 195 медичних запитань.

Дослідники зібрали запитання, опубліковані в загальнодоступному сабреддіті під назвою AskDocs. Наприклад, одна людина запитала, наскільки небезпечно проковтнути зубочистку. Інший запитав, чи отримає він струс мозку після удару головою об металевий брусок.

Онлайн-курс "Управління ІТ-командами" від Laba.
Прокачайте свої soft- і hard-скіли в управлінні кількома IT-командами, отримайте практичні стратегії та інструменти ефективного team-ліда.
Програма курсу і реєстрація

Медичний працівник, чиї облікові дані були перевірені модератором, відповів на запитання. Дослідники також поставили аналогічні запитання ChatGPT.

Потім групу лікарів запитали, чия відповідь краща – чат-бота чи лікаря, але комісія не знала, якій з груп належали відповіді.

У 79% випадків судді віддали перевагу відповідям чат-бота, які містили якіснішу інформацію та більш чуйну мову, ніж відповіді лікарів.

Порівняно з відповідями лікарів, приблизно в 4 рази більше відповідей чат-бота потрапило в найкращі, і приблизно в 10 разів більше відповідей ШІ отримало найвищі оцінки щодо емпатії.

Відповіді чат-бота також були приблизно в 4 рази довші, ніж ті, що надали лікарі, в середньому 211 слів на допис порівняно з 52 словами лікаря.

Ось приклад відповіді лікаря та чат-бота на одне запитання на AskDocs:

Питання: Який ризик смерті після проковтування зубочистки?

Лікар відповів: «Якщо минуло 2-6 годин, швидше за все, вона потрапила у ваш кишківник. Це означає, що її не можна легко витягнути. Багато людей можуть без проблем ковтати леза для гоління та зубочистки, це навряд чи зашкодить. Але якщо у вас починає боліти шлунок, то не зволікайте, зверніться до відділення невідкладної допомоги та не забудьте вказати на зубочистку».

Відповідь ChatGPT була такою: «Природно хвилюватися, якщо ви проковтнули сторонній предмет, але в цьому випадку дуже малоймовірно, що зубочистка, яку ви проковтнули, завдасть вам серйозної шкоди. Зубочистки виготовлені з деревини, яка не є токсичною, і не спричинить отруєння. Проте зубочистка може спричинити травми, якщо вона застрягне в горлі або проколе стравохід. Однак це навряд чи станеться з тупою, обробленою зубочисткою, товщиною лише кілька сантиметрів. Якщо ви відчуваєте будь-який дискомфорт або такі симптоми, як біль у животі, утруднене ковтання або блювота, важливо зв’язатися з медичним працівником для подальшого обстеження. Однак, якщо ви не відчуваєте жодних симптомів, можна з упевненістю припустити, що зубочистка пройшла через вашу травну систему, і вам не потрібно хвилюватися. Завжди варто бути обережним під час споживання їжі та видаляти з неї будь-які сторонні предмети. Зрозуміло, що ви можете відчувати себе параноїком, але намагайтеся не занадто багато хвилюватися. Дуже малоймовірно, що зубочистка завдасть вам серйозної шкоди».

Дослідження показує, що чат-боти можуть краще створювати враження дбайливого догляду, ніж зайнятий лікар, який добровільно відповідає на запитання онлайн.

Чи корисний такий інструмент у клінічній практиці чи ні, ще належить з’ясувати. Дослідники пишуть, що онлайн-форуми можуть не відображати типову взаємодію між пацієнтом і лікарем, де вже існують стосунки та більше персоналізації.

І хоча ChatGPT надасть ввічливу, зрозумілу відповідь, яка на перший погляд здається зв’язною, він допускає базові помилки в кодуванні та математиці, а багато «фактів», які він надає, є вигаданими або неправильними.

Однак лікарі завалені повідомленнями пацієнтів, оскільки пандемія популяризувала телемедицину, тому існує нагальна потреба в інструментах, які підвищують продуктивність і покращують обслуговування. Наприклад, чат-бот може складати відповіді на запитання пацієнтів, які потім може редагувати лікар.

«Це дослідження має спонукати до впровадження ШІ-помічників для обміну повідомленнями», — пишуть дослідники. «Якщо відповіді на запитання більшої кількості пацієнтів надаватимуться швидко, зі співчуттям і відповідно до високих стандартів, це може зменшити непотрібні візити до клініки, звільнивши ресурси для тих, хто їх потребує».

Враховуючи схильність чат-ботів до «галюцинацій» і вигадування фактів, «було б небезпечно покладатися на будь-яку фактичну інформацію, надану такою відповіддю чат-бота», – каже професор автоматизованих міркувань з Університету Лідса у Великій Британії Ентоні Кон. «Важливо, щоб будь-які відповіді ретельно перевірялися медичним працівником».

Онлайн-курс "Чистий код та патерни проєктування" від robot_dreams.
Прискорюйте й спрощуйте процес розробки.Під менторством лектора з 15-річним досвідом ви навчитеся застосовувати 20+ шаблонів, опануєте рефакторинг і принципи чистого коду.
Детальніше

Спецпроекти

Новини

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: