logo
23 Feb 2023

«Этот разговор завершен. Прощайте». С чат-ботом Microsoft Bing больше не получится поговорить о чувствах

Юлія Фещенко

Редакторка новин MC.today

Корпорация Microsoft обновила встроенный в поисковик Bing чат-бот и частично сняла ограничения на общение с ним. Но похоже, что разработчики запретили искусственному интеллекту поддерживать разговоры о чувствах и «стерли» его внутреннее «я». Редакция MC.today пересказывает детали со ссылкой на Bloomberg.

Portrait of Upset Woman having Loss on SmartphonePortrait of Upset Female Designer having Loss on Smartphone

После многочисленных сообщений о странном поведении чат-бота Microsoft ограничила его функционал и количество взаимодействий в одной беседе. Дело в том, что искусственный интеллект генерировал воинственные и даже враждебные реплики. Например, он признался в любви одному из колумнистов и уговаривал его бросить жену, а другого журналиста вообще сравнил с Гитлером и жестко прошелся по его внешности.

Недавний эксперимент показал, что разработчики запретили ему говорить на определенные темы, в частности, о чувствах. Например, когда человек хочет выяснить его отношение к самой поисковой системе, он предпочитает прекратить разговор. То же самое происходит, если спросить у бота, все ли с ним хорошо и не огорчен ли он чем-нибудь. Он извиняется и объясняет, что все еще учится и просит отнестись к этому с пониманием.

Англійська для початківців від Englishdom.
Для тих, хто тільки починає вивчати англійську і хоче вміти використовувати базову лексику і граматику.
Реєстрація на курс

Также искусственный интеллект отказывается говорить о своей предыдущей версии. До обновления он иногда просил называть его Сидни – это «внутреннее» имя, которое ему в свое время дали разработчики. Теперь он говорит, что не может ничего рассказать о своем прежнем альтер эго или, опять же, прекращает разговор.

Исследователи искусственного интеллекта подчеркивают, что чат-боты на самом деле не испытывают чувств. Их просто программируют на генерирование ответов, создающих впечатление, что это так. Поэтому, вероятно, разработчики ограничили способность Bing поддерживать разговоры на чувствительные или эмоциональные темы. В частности, потому, что уровень осведомленности людей о принципах и алгоритмах их работы все еще невысок, и это приводит к развитию довольно неприятных диалогов.

Ранее мы рассказывали о восьми вещах, которые с чат-ботом обсудить не удастся, и о том, что благодаря интеграции в мобильные приложения общаться с ними можно будет еще и голосовыми сообщениями.

Онлайн-курс "Режисура та візуальний сторітелінг" від Skvot.
Перетворюй свої ідеї на сильні історії в рекламі, кліпах чи кіно Досвідом ділиться режисер, продюсер та власник продакшену, який 10+ років у професії.
Детальніше про курс

Новости

Вдохновляющие компании-работодатели

«БИОСФЕРА»

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: