logo
23 Лют 2023

«Цю розмову завершено. Прощавайте». З чат-ботом Microsoft Bing більше не вийде поговорити про почуття

Юлія Фещенко

Редакторка новин MC.today

Корпорація Microsoft оновила вбудований у пошукову систему Bing чат-бот та частково зняла обмеження на спілкування з ним. Проте схоже, що розробники заборонили штучному інтелекту підтримувати розмови про почуття та «стерли» його внутрішнє «я». Редакція MC.today переказує деталі з посиланням на Bloomberg.

Portrait of Upset Woman having Loss on SmartphonePortrait of Upset Female Designer having Loss on Smartphone

Після численних повідомлень про дивну поведінку чат-бота Microsoft обмежила його функціонал та кількість взаємодій в одній розмові. Річ у тім, що штучний інтелект генерував войовничі та навіть ворожі репліки. Наприклад, він зізнався в коханні одному з колумністів та вмовляв його кинути дружину, а іншого журналіста взагалі порівняв із Гітлером та назвав потворою.

Нещодавній експеримент показав, що розробники заборонили йому говорити на певні чутливі теми, зокрема, про почуття. Наприклад, коли людина хоче з’ясувати його ставлення до самої пошукової системи, він вважає за краще припинити розмову. Те ж саме відбувається, коли спитати в бота, чи все з ним гаразд та чи не засмучений він чимось. Натомість він перепрошує та пояснює, що все ще навчається і просить поставитися до цього з розумінням.

Онлайн-курс "Excel та Power BI для аналізу даних" від robot_dreams.
Навчіться самостійно аналізувати й візуалізувати дані, знаходити зв’язки, розуміти кожен аспект отриманої інформації та перетворювати її на ефективні рішення.
Детальніше про курс

Також штучний інтелект відмовляється говорити про свою попередню версію. До оновлення він часом просив називати його Сідні – це робоче ім’я, яке йому свого часу дали розробники. Тепер він каже, що не може нічого розповісти про своє колишнє альтер его або, знову ж таки, припиняє розмову.

Дослідники штучного інтелекту підкреслюють, що чат-боти насправді не мають почуттів. Їх просто програмують на генерування відповідей, які створюють враження, ніби це так. Тому ймовірно, розробники обмежили здатність Bing підтримувати розмови на чутливі або емоційні теми. Зокрема, через те, що рівень обізнаності людей щодо принципів та алгоритмів роботи таких чат-ботів все ще невисокий, і це призводить до розвитку доволі моторошних діалогів.

Раніше ми розповідали про вісім речей, які з чат-ботом обговорити не вдасться, та те, що завдяки інтеграції в мобільні застосунки спілкуватися з ними можна буде ще й голосовими повідомленнями.

Курс UI/UX дизайну від Mate academy.
На курсі ви навчитесь створювати інтуїтивно зрозумілі та привабливі інтерфейси вебсайтів і застосунків. Ви також освоїте ключові принципи дизайну та дізнаєтесь як виділятися на ринку. А ми вас не лише навчимо, а й працевлаштуємо. Сертифікат теж буде!
Дізнатися більше про курс

По темі:

Спецпроекти

Новини

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: