Як так? Google радить співробітникам обережніше користуватися власним ШІ Bard
Google розгортає Bard і рекламує його для користувачів у всьому світі, але своїм працівникам компанія радить обережніше використовувати інструменти штучного інтелекту. Таку вказівку дала материнська компанія пошукового гіганта Alphabet Inc. Про це пише Reuters з посиланням на осіб, які знайомі з ситуацією.
Компанія порадила своїм підлеглим не повідомляти конфіденційні дані чат-ботам, навіть власному Bard. Річ у тім, що техгігант побоюється витоку інформації.
Alphabet стурбована тим, що співробітники вводять конфіденційні дані, які може побачити рецензент. Крім того, чат-боти також можуть використовувати попередні записи для навчання, створюючи ще один ризик витоку. Побоювання компанії насправді є виправданими, оскільки минулого місяця Samsung підтвердила витік внутрішніх даних після того, як співробітники використовували ChatGPT.
Програмістів Google також попередили, щоб вони не використовували код, згенерований ШІ.
Компанії дедалі частіше вводять обмеження на використання інструментів штучного інтелекту на роботі. Згідно з опитуванням, станом на січень близько 43% працівників користуються ШІ, часто не повідомляючи про це керівництво. Ймовірно, відтоді це число зросло.
Раніше ми розповідали, що співробітники Google хотіли перешкодити запуску штучного інтелекту Bard. Вони були стурбовані тим, що бот створює небезпечні та фейкові заяви. Наприклад, він може досить переконливо видати теорії змови за правду.
Експерти побоюються, що за допомогою моделей штучного інтелекту зловмисники зможуть генерувати переконливу дезінформацію набагато ефективніше, ніж це відбувалось до цього.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: