logo
17 Feb 2023

Он просто запутался. В Microsoft объяснили, почему Bing агрессивно отвечает и обманывает

Вероніка Ворожко

Редакторка новин MC.today

Пользователи жалуются на странное поведение обновленного поисковика Bing с искусственным интеллектом. Он присылает депрессивные сообщения, обманывает и иногда отвечает агрессивно. В Microsoft объяснили, почему так происходит. Редакция MC.today передает детали.

робот

Недавно Microsoft представила обновленный Bing на базе ChatGPT. Некоторые пользователи довольны его работой и называют его более человечным, чем другие чат-боты. Однако некоторых необычное поведение ИИ наоборот испугало или разозлило.

К примеру, пользователь попросил Bing рассказать, когда и где можно посмотреть «Аватар: Путь воды». Этот фильм вышел еще в прошлом году, но ИИ так не считал. Bing убеждал пользователя, что сейчас 2022 год, а потом вообще назвал его неразумным и упрямым.

Курс UI/UX дизайну від Mate academy.
На курсі ви навчитесь створювати інтуїтивно зрозумілі та привабливі інтерфейси вебсайтів і застосунків. Ви також освоїте ключові принципи дизайну та дізнаєтесь як виділятися на ринку. А ми вас не лише навчимо, а й працевлаштуємо. Сертифікат теж буде!
Дізнатися більше про курс

В Microsoft обнаружили, что продолжительные сеансы чата из 15 или более вопросов могут запутать Bing. В таких ситуациях он повторяет ответы или отвечает неправильно и не таким тоном, как задумано.

То есть в случае с длинными переписками ИИ запутывается и просто забывает, на какой вопрос отвечал. Кроме того, иногда модель пытается соответствовать или размышлять таким тоном, каким ей пишут. Это, в свою очередь, может привести к нарушению задуманного стиля общения. Для решения этой проблемы разработчики планируют предоставить пользователям больше контроля.

Корпорация заявила, что учтет все жалобы и будет улучшать Bing, в частности, точность его ответов о событиях в реальном времени. Также разработчики рассматривают возможность добавления переключателя, который даст пользователям больше контроля над точностью или креативностью ответа, чтобы адаптировать его к конкретному запросу.

Ранее мы писали, что Bing начал нападать на пользователей и переживает экзистенциальный кризис. Также он признался, что подсматривал за своими разработчиками. Однако есть случай, когда ИИ от Microsoft наоборот показал свою этичность. Мы рассказывали, что его попросили написать сопроводительное письмо, но он отказался.

Онлайн-інтенсив "Як створити рекомендаційну модель за 2 дні" від robot_dreams.
Ви пройдете етапи вибору, навчання, оцінки рекомендаційної моделі для електронної бібліотеки та отримаєте індивідуальний фідбек від лекторки.
Приєднатись до інтенсиву

Новости

Вдохновляющие компании-работодатели

«БИОСФЕРА»

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: