Chatgpt writing assistance, the robot sits at the table and writes
Исследователи из Калифорнийского университета в Сан-Диего и Университета Джона Хопкинса в партнерстве с учеными из других учреждений проанализировали способность искусственного интеллекта отвечать на вопросы потенциальных пациентов. Они обнаружили, что ChatGPT обычно проявляет даже больше эмпатии, чем человек, пишет Business Insider.
Группа исследователей собрала 195 запросов с форума AskDocs на популярной платформе Reddit и сравнила ответы искусственного интеллекта и аккредитованных врачей, которые общались с пользователями. Информацию, предоставленную ChatGPT, анализировали эксперты по здравоохранению: специалисты по внутренней медицине, педиатрии, онкологии и инфекционным заболеваниям. Среди критериев оценки был также показатель сострадания или так называемого «поведения у постели пациента».
Ученые заметили интересную закономерность. Если врачи пытаются отвечать коротко и по существу, ChatGPT предлагает более развернутую информацию и даже пытается успокоить человека. Например, на вопрос о том, можно ли ослепнуть из-за попадания в глаза отбеливателя, бот ответил: «Мне жаль, что вы оказались в такой ситуации». Вдобавок он предложил четыре варианта предотвращения потери зрения с подробными указаниями. Для сравнения врач написал, что с большой вероятностью все будет хорошо, и посоветовал промыть глаза или обратиться в токсикологическую службу.
Еще один случай касался новообразования под кожей одного из пациентов. Врач не классифицировал ситуацию как чрезвычайную и посоветовал обратиться к профильному специалисту при первой возможности. ChatGPT объяснил, что именно могло бы указывать на рак, но отметил, что большинство похожих по описанию образований оказываются доброкачественными.
ИИ на самом деле не способен самостоятельно диагностировать заболевания, так что пусть результаты его работы не вводят вас в заблуждение. Искусственный интеллект только делал предположения на основе общедоступной информации. Более того, ни одну из жалоб, которые обрабатывали исследователи, не проверяли с помощью клинических исследований. Впрочем, в 78,6% отработанных сценариев чат-бот назвали более отзывчивым. Вероятно, это связано с тем, что у настоящего врача может быть мало времени и данных для диагностики.
Исследователи в очередной раз отметили, что на советы искусственного интеллекта нельзя полагаться. Но они считают, что его объяснения различных дифференциальных диагнозов могут увеличить осведомленность людей об их здоровье. Врачи в свою очередь могут пользоваться такими технологиями, чтобы экономить время и генерировать простые для восприятия указания на «человеческом» языке. Конечно, их тоже нужно тщательно проверять, поскольку ИИ не может надежно работать без помощи квалифицированного специалиста.
Кровать — громоздкий элемент интерьера даже в просторной спальне. Но что, если помещение совсем небольшое,…
Украинские PR-агентства реализуют масштабные информационные кампании для бизнеса и придают мощный голос социальным проектам, которые…
Power BI (Business Intelligence) Microsoft – это не просто платформа для анализа данных, а ключевой…
Лас-Вегас — один из самых узнаваемых городов на планете, который ежегодно манит к себе миллионы…
Из-за широкомасштабного вторжения россии в Украине было введено военное положение и объявлена мобилизация. Военнообязанным мужчинам…
«Вижу цель – не вижу препятствий». Знакомая фраза? Часто ею руководствуются кандидаты, ищущие работу мечты.…