Как это? Google советует сотрудникам более осторожно пользоваться собственным ИИ Bard
Google разворачивает Bard и рекламирует его для пользователей по всему миру, но своим работникам компания советует более осторожно использовать инструменты искусственного интеллекта. Такое указание дала материнская компания поискового гиганта Alphabet Inc. Об этом пишет Reuters со ссылкой на источники, знакомые с ситуацией.
Компания посоветовала своим сотрудникам не сообщать конфиденциальные данные чат-ботам, даже собственному Bard. Дело в том, что техгигант опасается утечки информации.
Alphabet обеспокоена тем, что сотрудники вводят конфиденциальные данные, которые может увидеть рецензент. Кроме того, чат-боты также могут использовать эти записи для обучения, создавая еще один риск утечки. Опасения компании на самом деле оправданы, поскольку в прошлом месяце Samsung подтвердила утечку внутренних данных после того, как сотрудники использовали ChatGPT.
Программистов Google также предупредили, чтобы они не использовали код, сгенерированный ИИ.
Компании все чаще вводят ограничения на использование инструментов искусственного интеллекта на работе. Согласно опросу, по состоянию на январь около 43% работников пользуются ИИ, часто не сообщая об этом руководству. Вполне вероятно, с тех пор это число выросло.
Ранее мы писали, что сотрудники Google хотели помешать запуску искусственного интеллекта Bard. Они были обеспокоены тем, что бот создает опасные и фейковые заявления. К примеру, он может достаточно убедительно издать теории заговора за правду.
Эксперты опасаются, что с помощью моделей искусственного интеллекта злоумышленники смогут генерировать убедительную дезинформацию гораздо эффективнее, чем было до этого.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: