Doctor And Robot Shaking Hands Over Stethoscope
Деякі лікарі можуть бути не дуже чуйними, і для багатьох людей це проблема. Водночас роботи навпаки стають дедалі людянішими. Такий парадокс підштовхнув учених з Каліфорнійського університету перевірити, чи може штучний інтелект замінити лікаря, принаймні частково. З посиланням на Science Alert розповідаємо, що з цього вийшло.
Під час дослідження вчені дослідили емпатію лікарів і чат-бота зі штучним інтелектом ChatGPT. Так, вони поставили людям і машині 195 медичних запитань.
Дослідники зібрали запитання, опубліковані в загальнодоступному сабреддіті під назвою AskDocs. Наприклад, одна людина запитала, наскільки небезпечно проковтнути зубочистку. Інший запитав, чи отримає він струс мозку після удару головою об металевий брусок.
Медичний працівник, чиї облікові дані були перевірені модератором, відповів на запитання. Дослідники також поставили аналогічні запитання ChatGPT.
Потім групу лікарів запитали, чия відповідь краща – чат-бота чи лікаря, але комісія не знала, якій з груп належали відповіді.
У 79% випадків судді віддали перевагу відповідям чат-бота, які містили якіснішу інформацію та більш чуйну мову, ніж відповіді лікарів.
Порівняно з відповідями лікарів, приблизно в 4 рази більше відповідей чат-бота потрапило в найкращі, і приблизно в 10 разів більше відповідей ШІ отримало найвищі оцінки щодо емпатії.
Відповіді чат-бота також були приблизно в 4 рази довші, ніж ті, що надали лікарі, в середньому 211 слів на допис порівняно з 52 словами лікаря.
Ось приклад відповіді лікаря та чат-бота на одне запитання на AskDocs:
Питання: Який ризик смерті після проковтування зубочистки?
Лікар відповів: «Якщо минуло 2-6 годин, швидше за все, вона потрапила у ваш кишківник. Це означає, що її не можна легко витягнути. Багато людей можуть без проблем ковтати леза для гоління та зубочистки, це навряд чи зашкодить. Але якщо у вас починає боліти шлунок, то не зволікайте, зверніться до відділення невідкладної допомоги та не забудьте вказати на зубочистку».
Відповідь ChatGPT була такою: «Природно хвилюватися, якщо ви проковтнули сторонній предмет, але в цьому випадку дуже малоймовірно, що зубочистка, яку ви проковтнули, завдасть вам серйозної шкоди. Зубочистки виготовлені з деревини, яка не є токсичною, і не спричинить отруєння. Проте зубочистка може спричинити травми, якщо вона застрягне в горлі або проколе стравохід. Однак це навряд чи станеться з тупою, обробленою зубочисткою, товщиною лише кілька сантиметрів. Якщо ви відчуваєте будь-який дискомфорт або такі симптоми, як біль у животі, утруднене ковтання або блювота, важливо зв’язатися з медичним працівником для подальшого обстеження. Однак, якщо ви не відчуваєте жодних симптомів, можна з упевненістю припустити, що зубочистка пройшла через вашу травну систему, і вам не потрібно хвилюватися. Завжди варто бути обережним під час споживання їжі та видаляти з неї будь-які сторонні предмети. Зрозуміло, що ви можете відчувати себе параноїком, але намагайтеся не занадто багато хвилюватися. Дуже малоймовірно, що зубочистка завдасть вам серйозної шкоди».
Дослідження показує, що чат-боти можуть краще створювати враження дбайливого догляду, ніж зайнятий лікар, який добровільно відповідає на запитання онлайн.
Чи корисний такий інструмент у клінічній практиці чи ні, ще належить з’ясувати. Дослідники пишуть, що онлайн-форуми можуть не відображати типову взаємодію між пацієнтом і лікарем, де вже існують стосунки та більше персоналізації.
І хоча ChatGPT надасть ввічливу, зрозумілу відповідь, яка на перший погляд здається зв’язною, він допускає базові помилки в кодуванні та математиці, а багато «фактів», які він надає, є вигаданими або неправильними.
Однак лікарі завалені повідомленнями пацієнтів, оскільки пандемія популяризувала телемедицину, тому існує нагальна потреба в інструментах, які підвищують продуктивність і покращують обслуговування. Наприклад, чат-бот може складати відповіді на запитання пацієнтів, які потім може редагувати лікар.
«Це дослідження має спонукати до впровадження ШІ-помічників для обміну повідомленнями», — пишуть дослідники. «Якщо відповіді на запитання більшої кількості пацієнтів надаватимуться швидко, зі співчуттям і відповідно до високих стандартів, це може зменшити непотрібні візити до клініки, звільнивши ресурси для тих, хто їх потребує».
Враховуючи схильність чат-ботів до «галюцинацій» і вигадування фактів, «було б небезпечно покладатися на будь-яку фактичну інформацію, надану такою відповіддю чат-бота», – каже професор автоматизованих міркувань з Університету Лідса у Великій Британії Ентоні Кон. «Важливо, щоб будь-які відповіді ретельно перевірялися медичним працівником».
Засновниця та CEO Health & Fitness IT-компанії BetterMe Вікторія Рєпа поділилась думками щодо того, чому…
Марина Авдєєва, співвласниця СК «Арсенал страхування», розповіла про свої правила ведення бізнесу та що не…
Співзасновник та СЕО компанії-розробниці системи обліку товарів і управління запасами для бізнесу та e-commerce Bimp…
В DOU провели опитування серед українських ІТ-фахівців і визначили найвищі зарплати в Україні та за…
«Київстар» планує отримувати 10% доходу не від телекомунікаційних послуг, а далі – збільшити такий дохід…
Необанк monobank випустив новий напій у колаборації із «Живчиком». Відсканувавши QR-код на банці можна також…