UK, LONDON. JANUARY 30, 2023: ChatGPT. Innovating the Future: Silhouette of Two Software Developers and the Company's Logo in the Background
Эксперты в отрасли психического здоровья обеспокоены тем, что все больше людей вместо того, чтобы обратиться за помощью к специалисту, выбирают ChatGPT от OpenAI. Их настораживает предвзятость чат-бота и то, что он может давать совсем нерелевантные «советы». Журналисты Vice пообщались с некоторыми из этих людей и рассказали, действительно ли искусственный интеллект помог им.
37-летний медицинский работник из Нью-Джерси Дэн несколько месяцев назад начал с помощью ChatGPT писать рассказы. Ему нравился творческий потенциал искусственного интеллекта, но вскоре он начал делиться с чат-ботом собственными проблемами.
Терапевт Дэна, который помогал ему справиться с последствиями травмы и стресса, предложил изменить взгляд на огорчавшие его события. Этот метод известен как когнитивный рефрейминг. Простыми словами, это упражнение, которое помогает представить другой, более положительный сценарий развития событий.
По словам Дэна, сначала было тяжело, но чат-бот неожиданно помог ему перестроиться, хотя его жену это и не радовало. Ей было невдомек, почему мужчина решил обсуждать свои проблемы с машиной, а не с ней. Впрочем, Дэн считает, что ИИ – это лишь временное и не обязательно правильное решение проблемы.
27-летняя Джиллиан из Вашингтона не могла позволить себе постоянно посещать психотерапевта и попыталась справиться с горем с помощью искусственного интеллекта. Впрочем, женщина подвергает сомнению его эффективность. Хотя ответы ИИ на запросы Джиллиан оказались довольно утешительными и меткими, она характеризовала их как пустышки. Она уверена, что даже самая совершенная языковая модель не способна заменить настоящее общение.
Технологии вроде ChatGPT изначально настроены распознавать логику ведения диалога и подбирать слова и фразы, которые могли бы продолжать его. Убедительность суждений ИИ, вероятно, заставила некоторых задуматься над тем, может ли он иметь действительно терапевтический эффект.
Психолог и доцент Университета Брауна Жаклин Неси, изучающая роль социальных сетей в психическом здоровье, предупредила, что ChatGPT не следует использовать в качестве диагностики или медицинского советника. Она объяснила это не только тем, что искусственный интеллект может ошибаться, но и риском вероятной потери так называемого «терапевтического альянса» – доверительных отношений между врачами и пациентами.
Психиатр из Университета Вашингтона в Сент-Луисе Джессика Голд обеспокоена тем, что, несмотря на предупреждения специалистов, люди все равно будут искать спасение в ИИ. Особенно живущие в сельской местности или принадлежащие к маргинализированным сообществам.
Все эксперты по психическому здоровью, с которыми общались журналисты, не в восторге от использования ChatGPT для терапии. Это может подвергнуть угрозе конфиденциальность людей и определенным образом исказить концепцию психиатрической помощи в кризисе.
Кровать — громоздкий элемент интерьера даже в просторной спальне. Но что, если помещение совсем небольшое,…
Украинские PR-агентства реализуют масштабные информационные кампании для бизнеса и придают мощный голос социальным проектам, которые…
Power BI (Business Intelligence) Microsoft – это не просто платформа для анализа данных, а ключевой…
Лас-Вегас — один из самых узнаваемых городов на планете, который ежегодно манит к себе миллионы…
Из-за широкомасштабного вторжения россии в Украине было введено военное положение и объявлена мобилизация. Военнообязанным мужчинам…
«Вижу цель – не вижу препятствий». Знакомая фраза? Часто ею руководствуются кандидаты, ищущие работу мечты.…