logo
23 Feb 2023

«Этот разговор завершен. Прощайте». С чат-ботом Microsoft Bing больше не получится поговорить о чувствах

Юлія Фещенко

Редакторка новин MC.today

Корпорация Microsoft обновила встроенный в поисковик Bing чат-бот и частично сняла ограничения на общение с ним. Но похоже, что разработчики запретили искусственному интеллекту поддерживать разговоры о чувствах и «стерли» его внутреннее «я». Редакция MC.today пересказывает детали со ссылкой на Bloomberg.

Portrait of Upset Woman having Loss on SmartphonePortrait of Upset Female Designer having Loss on Smartphone

После многочисленных сообщений о странном поведении чат-бота Microsoft ограничила его функционал и количество взаимодействий в одной беседе. Дело в том, что искусственный интеллект генерировал воинственные и даже враждебные реплики. Например, он признался в любви одному из колумнистов и уговаривал его бросить жену, а другого журналиста вообще сравнил с Гитлером и жестко прошелся по его внешности.

Недавний эксперимент показал, что разработчики запретили ему говорить на определенные темы, в частности, о чувствах. Например, когда человек хочет выяснить его отношение к самой поисковой системе, он предпочитает прекратить разговор. То же самое происходит, если спросить у бота, все ли с ним хорошо и не огорчен ли он чем-нибудь. Он извиняется и объясняет, что все еще учится и просит отнестись к этому с пониманием.

Онлайн-курс "People Management" від Laba.
Пройдіть шлях від формування відповідальної команди до написання кар'єрної карти для кожного співробітника разом з топменеджеркою з 11-річним досвідом у провідних IT-компаніях.
Детальніше про курс

Также искусственный интеллект отказывается говорить о своей предыдущей версии. До обновления он иногда просил называть его Сидни – это «внутреннее» имя, которое ему в свое время дали разработчики. Теперь он говорит, что не может ничего рассказать о своем прежнем альтер эго или, опять же, прекращает разговор.

Исследователи искусственного интеллекта подчеркивают, что чат-боты на самом деле не испытывают чувств. Их просто программируют на генерирование ответов, создающих впечатление, что это так. Поэтому, вероятно, разработчики ограничили способность Bing поддерживать разговоры на чувствительные или эмоциональные темы. В частности, потому, что уровень осведомленности людей о принципах и алгоритмах их работы все еще невысок, и это приводит к развитию довольно неприятных диалогов.

Ранее мы рассказывали о восьми вещах, которые с чат-ботом обсудить не удастся, и о том, что благодаря интеграции в мобильные приложения общаться с ними можно будет еще и голосовыми сообщениями.

Курс QA engineer від Mate academy.
Станьте QA-інженером, що відповідає за технічну якість продукту. Ми навчимо вас найнеобхіднішим навичкам та допоможемо з працевлаштуванням.
Отримати знижку на курс

Новости

Вдохновляющие компании-работодатели

«БИОСФЕРА»

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: