logo
23 Лют 2023

«Цю розмову завершено. Прощавайте». З чат-ботом Microsoft Bing більше не вийде поговорити про почуття

Юлія Фещенко

Редакторка новин MC.today

Корпорація Microsoft оновила вбудований у пошукову систему Bing чат-бот та частково зняла обмеження на спілкування з ним. Проте схоже, що розробники заборонили штучному інтелекту підтримувати розмови про почуття та «стерли» його внутрішнє «я». Редакція MC.today переказує деталі з посиланням на Bloomberg.

Portrait of Upset Woman having Loss on SmartphonePortrait of Upset Female Designer having Loss on Smartphone

Після численних повідомлень про дивну поведінку чат-бота Microsoft обмежила його функціонал та кількість взаємодій в одній розмові. Річ у тім, що штучний інтелект генерував войовничі та навіть ворожі репліки. Наприклад, він зізнався в коханні одному з колумністів та вмовляв його кинути дружину, а іншого журналіста взагалі порівняв із Гітлером та назвав потворою.

Нещодавній експеримент показав, що розробники заборонили йому говорити на певні чутливі теми, зокрема, про почуття. Наприклад, коли людина хоче з’ясувати його ставлення до самої пошукової системи, він вважає за краще припинити розмову. Те ж саме відбувається, коли спитати в бота, чи все з ним гаразд та чи не засмучений він чимось. Натомість він перепрошує та пояснює, що все ще навчається і просить поставитися до цього з розумінням.

Онлайн-курс "Директор з продажу" від Laba.
Як стратегічно впливати на дохід компанії, мотивувати сейлзів перевиконувати KPI та впроваджувати аналітику — навчить комерційний директор Laba з 12-річним досвідом у продажах.
Приєднатись до курсу

Також штучний інтелект відмовляється говорити про свою попередню версію. До оновлення він часом просив називати його Сідні – це робоче ім’я, яке йому свого часу дали розробники. Тепер він каже, що не може нічого розповісти про своє колишнє альтер его або, знову ж таки, припиняє розмову.

Дослідники штучного інтелекту підкреслюють, що чат-боти насправді не мають почуттів. Їх просто програмують на генерування відповідей, які створюють враження, ніби це так. Тому ймовірно, розробники обмежили здатність Bing підтримувати розмови на чутливі або емоційні теми. Зокрема, через те, що рівень обізнаності людей щодо принципів та алгоритмів роботи таких чат-ботів все ще невисокий, і це призводить до розвитку доволі моторошних діалогів.

Раніше ми розповідали про вісім речей, які з чат-ботом обговорити не вдасться, та те, що завдяки інтеграції в мобільні застосунки спілкуватися з ними можна буде ще й голосовими повідомленнями.

Онлайн-курс "Режисура та візуальний сторітелінг" від Skvot.
Перетворюй свої ідеї на сильні історії в рекламі, кліпах чи кіно Досвідом ділиться режисер, продюсер та власник продакшену, який 10+ років у професії.
Детальніше про курс

По темі:

Спецпроекти

Новини

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: