Эксперты считают ChatGPT более чутким, чем врачи. Как это возможно и стоит ли ему доверять
Исследователи из Калифорнийского университета в Сан-Диего и Университета Джона Хопкинса в партнерстве с учеными из других учреждений проанализировали способность искусственного интеллекта отвечать на вопросы потенциальных пациентов. Они обнаружили, что ChatGPT обычно проявляет даже больше эмпатии, чем человек, пишет Business Insider.

Группа исследователей собрала 195 запросов с форума AskDocs на популярной платформе Reddit и сравнила ответы искусственного интеллекта и аккредитованных врачей, которые общались с пользователями. Информацию, предоставленную ChatGPT, анализировали эксперты по здравоохранению: специалисты по внутренней медицине, педиатрии, онкологии и инфекционным заболеваниям. Среди критериев оценки был также показатель сострадания или так называемого «поведения у постели пациента».
Ученые заметили интересную закономерность. Если врачи пытаются отвечать коротко и по существу, ChatGPT предлагает более развернутую информацию и даже пытается успокоить человека. Например, на вопрос о том, можно ли ослепнуть из-за попадания в глаза отбеливателя, бот ответил: «Мне жаль, что вы оказались в такой ситуации». Вдобавок он предложил четыре варианта предотвращения потери зрения с подробными указаниями. Для сравнения врач написал, что с большой вероятностью все будет хорошо, и посоветовал промыть глаза или обратиться в токсикологическую службу.
Еще один случай касался новообразования под кожей одного из пациентов. Врач не классифицировал ситуацию как чрезвычайную и посоветовал обратиться к профильному специалисту при первой возможности. ChatGPT объяснил, что именно могло бы указывать на рак, но отметил, что большинство похожих по описанию образований оказываются доброкачественными.
ИИ на самом деле не способен самостоятельно диагностировать заболевания, так что пусть результаты его работы не вводят вас в заблуждение. Искусственный интеллект только делал предположения на основе общедоступной информации. Более того, ни одну из жалоб, которые обрабатывали исследователи, не проверяли с помощью клинических исследований. Впрочем, в 78,6% отработанных сценариев чат-бот назвали более отзывчивым. Вероятно, это связано с тем, что у настоящего врача может быть мало времени и данных для диагностики.
Исследователи в очередной раз отметили, что на советы искусственного интеллекта нельзя полагаться. Но они считают, что его объяснения различных дифференциальных диагнозов могут увеличить осведомленность людей об их здоровье. Врачи в свою очередь могут пользоваться такими технологиями, чтобы экономить время и генерировать простые для восприятия указания на «человеческом» языке. Конечно, их тоже нужно тщательно проверять, поскольку ИИ не может надежно работать без помощи квалифицированного специалиста.
- Недавно мы рассказывали об отношении экспертов к тому, что люди стали использовать ChatGPT как заменитель терапии. А платформа Anima может оценить психическое состояние человека онлайн и по анализу движения глаз заподозрить у пациента шизофрению.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: