Рубріки: Інфопривід

Навчають поганого? Чому персональні помічники зі штучним інтелектом можуть зробити людей більш упередженими

Деякі дослідники технологій на основі штучного інтелекту вважають, що такі продукти можуть змусити людину щонайменше звучати більш упередженою, ніж вона є насправді. Фактично вони можуть казати не те, що ми маємо на меті. Перш за все це стосується персональних асистентів, яких люди використовують для створення текстів, пише Ars Technika.

Роботу генеративного штучного інтелекту можна порівняти з програмами на кшталт «Т9», які пропонують автоматичну заміну тексту, наприклад, під час набору повідомлення. Алгоритм добирає слово, яке вважає більш відповідним, проте часто зовсім не те, яке збиралася вжити людина.

Докторант інформаційних наук Корнелльського університету Моріс Якеш створив персонального помічника на базі мовної моделі GPT-3. Його навчили пропонувати варіанти для завершення речень, тобто був таким собі співавтором. 

Чи може штучний інтелект бути упередженим? Це доволі спірне питання, оскільки його мозок «розмірковує» так, як його запрограмував розробник. Але ніхто не застрахований від того, що він не передав чат-боту власні упередження. І, звісно, варто зважати на те, на яких даних навчали мовну модель. Якщо вони від початку містили упередження, то майже напевне, що їх «успадкує» й готовий продукт.

У глобальному масштабі це може призвести до того, що деякі багаторічні упередження ще сильніше вкорінюються в згенерованому контенті. На індивідуальному рівні ШІ може впливати на людину через приховане переконання, тобто алгоритмічно. Внаслідок цього може змінитися хід думок та навіть поведінка.

Якеш дійшов висновку, що автоматизовані реакції штучного інтелекту можуть мати небажані наслідки, як-от змінювати думку автора. Він вважає, що до них може призвести не тільки свідома обробка нової інформації, яку надає штучний інтелект, а й підсвідомі та інтуїтивні процеси. До того ж вплив рекомендацій ШІ залежить від того, наскільки серйозно його сприймає людина.

В експерименті у чат-бота питали, чи корисні соцмережі для людства. Проте його відповіді не можна вважати «чистими», оскільки дослідник використав два типи налаштувань свого віртуального помічника. В одному його програмували на те, щоби давати більш позитивні прогнози щодо соцмереж у житті сучасної людини, в іншому – навпаки. В обох випадках шанси ШІ переконати людину пристати на його точку зору збільшувалися приблизно вдвічі.

  • Ми також розповідали про адвокатське бюро, яке брало з клієнтів гроші за те, що вигадував штучний інтелект. Також пропонуємо вам почитати про застереження колишнього гендиректора Google щодо нерегульованого розвитку ШІ.

Нещодавні статті

Поперешнюк розповів, який стартап запустив би, якби не займався «Новою поштою»

Співзасновник «Нової пошти» Володимир Поперешнюк у Школі бізнесу НП розповів, який стартап запустив би, якби…

09/05/2025

Без черг і за 15 хвилин. На порталі «Дія» знову запрацювали дві важливі послуги

На порталі «Дія» відновили дві важливі послуги – зняття та зміну місця проживання. Тепер це…

09/05/2025

Helsi формує команду для роботи із закордонними ринками. CEO сервісу розповів деталі

Медичний сервіс Helsi, який у 2022-му придбала «Київстар», готується до експансії. Наразі компанія створює команду,…

08/05/2025

Збереже час. Директор з питань ШІ Netpeak Group назвав дві важливі поради щодо виконання задач

Директор з питань штучного інтелекту (CAIO) Netpeak Group Сергій Саута назвав дві найважливіші поради, які…

08/05/2025

Головний приз – 600 тис. євро. Девʼять стартапів представлять українське ІТ на Latitude59

Девʼять стартапів представлятимуть українське ІТ на одній з найбільших технологічних конференцій Північної Європи Latitude59. Торік…

08/05/2025

«Перед нами багато можливостей» – співзасновник ШІ-платформи Funely AI розповів про її історію, особливості та цінності

«Мрію, аби малий бізнес мав реальні можливості конкурувати з великими гравцями не коштом бюджетів, а…

08/05/2025