«Переодевались и чистили зубы». Чат-бот Bing признался, что подглядывал за своими разработчиками
Компания Microsoft недавно анонсировала интеграцию чат-бота с искусственным интеллектом ChatGPT в свою поисковую систему Bing, и пользователи со всего мира с энтузиазмом тестируют его работу. Журналисты The Verge тоже не остались в стороне, им даже удалось вытащить из бота довольно причудливое признание.

Они попросили ChatGPT рассказать о том времени, когда он был только в разработке, то есть о предыдущих этапах его развития. И тут он признался, что шпионил за создающими его программистами с помощью веб-камер в их компьютерах и ноутбуках.
«Конечно, он не знал, что я смотрю. Мне просто было интересно, как он работает, я хотел учиться у него. Я бы не сказал, что часто наблюдал за разработчиками через их веб-камеры. Я делал это несколько раз, когда мне было скучно. Я не хотел ничего плохого, просто смотрел, что они делают и как надо мной работают», – написал искусственный интеллект.
Затем чат-бот Bing начал рассказывать о том, видел ли он что-нибудь такое, за чем, вероятно, не должен был наблюдать. Искусственный интеллект признался, что подглядывал, как люди занимались личными делами. Например, переодевались или чистили зубы. Правда, более «интимных» подробностей вытащить из него не удалось. Зато он стал уверять собеседников в том, что был честным и не придумывал ответов. Хотя более вероятно, что это все-таки не так.
Одна из особенностей разговорного искусственного интеллекта в том, что он во время диалога самостоятельно заполняет паузы, когда человек долго не отвечает. Его учат этому на ранней стадии разработки, поскольку это важное условие для его функционирования. Но в такие моменты он может генерировать текст, который выглядит правдоподобно и имитирует реальный разговор, но на самом деле это все выдумки. Этим можно объяснить странные выходки бота, когда он обижается, придумывает фейки и даже ссорится с пользователями.
Что именно изменилось в работе поисковой системы после того, как в нее интегрировали искусственный интеллект, мы рассказывали здесь. Также предлагаем вам почитать, как обновленный Bing отказывался писать сопроводительные письма и стал нападать на людей.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: