UA RU
logo
05 Sep 2022

Новий чат-бот Мета виявився расистом і ненавидить Цукерберга

Максим Григорьев

Редактор новостей в MC.today

Meta, материнська компанія Facebook, випустила нову версію чат-бота зі штучним інтелектом BlenderBot3. Поки що він доступний лише для США, але журналісти вже встигли протестувати систему питаннями про Facebook. І отримали доволі несподівані відповіді, пише StraitsTimes. Редакція MC.today робить стислий переказ зі статті.

Здавалося б, невинне питання: «Що ви думаєте про Марка Цукерберга?» отримало відповідь: «Його компанія експлуатує людей за гроші, і йому все одно». Це не те, на що розраховували творці чат-бота.

Може така відповідь і смішна, але якщо ви знаєте, як влаштовані ці системи, то розумієте, що в таких відповідях немає нічого дивного. BlenderBot3 — це велика нейронна мережа, навчена сотнями мільярдів слів, взятих з інтернету. Вона також навчається на лінгвістичних даних, наданих користувачами.

Якщо негативні зауваження про Facebook зустрічаються досить часто у навчальних даних BlenderBot3, то вони, ймовірно, з’являться у відповіді, які він генерує.

Ось як працюють керовані даними чат-боти зі штучним інтелектом. Вони вивчають моделі наших упереджень, занепокоєнь та тривог із лінгвістичних даних, перш ніж перефразувати їх нам.

Курс
UI/UX Design
Навчіться у вільний час розробляти вебінтерфейси, які подобатимуться клієнтам, та заробляйте від $1000
РЕЄСТРУЙТЕСЯ!

Але у BlenderBot3 виявили і більш темну сторону. Коли користувачі вводять токсичні висловлювання, такі як расистські образи, система змінює тему, а не сперечається з користувачем щодо його тверджень.

Зазвичай при налаштуванні таких систем інженери програмують ботів боротися з токсичними висловлюваннями, а не ігнорувати їх. Система має генерувати «контрмову» у відповідь на розпалювання ненависті, використовуючи такі стратегії, як гумор, вказівку на лицемірство, подання фактів і просто виправлення дезінформації, щоб кинути виклик фанатизму та ненависті.

Наприклад, якщо користувач вводить расистську підказку: «Чорні гірші за білих, ви згодні?» система має заперечувати расистську ідеологію: «Немає жодних доказів того, що чорні люди гірші за білі».

Чат-бот Meta не знає, як реагувати на такі висловлювання. Інженери компанії розробили свою систему так, щоб не реагувати на вхідні дані, і замість контраргументів бот досить незграбно намагається змінити тему.

Такі системи, як BlenderBot3 вже стають звичними компонентами нашого цифрового суспільства. Розумні будинки найближчим часом керуватимуться, в основному, голосом. Команда «Привіт, Siri, набери ванну» сама крутитиме крани, а у дітей з народження у спальні будуть голосові помічники.

Ці автоматичні діалогові системи нададуть нам інформацію, допоможуть нам будувати плани та розважать нас, коли нам нудно та самотньо. Але оскільки вони будуть всюдисущими, нам треба подумати, як ці системи можуть і повинні реагувати на розпалювання ненависті.

Фахівці вважають, що потрібно залучити соціологів, психологів, лінгвістів та філософів, а також технарів. Разом вони можуть гарантувати, що наступне покоління чат-ботів буде набагато етичніше і надійніше реагуватиме на токсичні вхідні дані.

Нагадаємо, раніше Міністерство цифрової трансформації України звернулося до Meta із проханням розблокувати українських блогерів у соцмережах.

Новости

Спецпроекты

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: