Рубріки: Інфопривід

Навчають поганого? Чому персональні помічники зі штучним інтелектом можуть зробити людей більш упередженими

Деякі дослідники технологій на основі штучного інтелекту вважають, що такі продукти можуть змусити людину щонайменше звучати більш упередженою, ніж вона є насправді. Фактично вони можуть казати не те, що ми маємо на меті. Перш за все це стосується персональних асистентів, яких люди використовують для створення текстів, пише Ars Technika.

Роботу генеративного штучного інтелекту можна порівняти з програмами на кшталт «Т9», які пропонують автоматичну заміну тексту, наприклад, під час набору повідомлення. Алгоритм добирає слово, яке вважає більш відповідним, проте часто зовсім не те, яке збиралася вжити людина.

Докторант інформаційних наук Корнелльського університету Моріс Якеш створив персонального помічника на базі мовної моделі GPT-3. Його навчили пропонувати варіанти для завершення речень, тобто був таким собі співавтором. 

Чи може штучний інтелект бути упередженим? Це доволі спірне питання, оскільки його мозок «розмірковує» так, як його запрограмував розробник. Але ніхто не застрахований від того, що він не передав чат-боту власні упередження. І, звісно, варто зважати на те, на яких даних навчали мовну модель. Якщо вони від початку містили упередження, то майже напевне, що їх «успадкує» й готовий продукт.

У глобальному масштабі це може призвести до того, що деякі багаторічні упередження ще сильніше вкорінюються в згенерованому контенті. На індивідуальному рівні ШІ може впливати на людину через приховане переконання, тобто алгоритмічно. Внаслідок цього може змінитися хід думок та навіть поведінка.

Якеш дійшов висновку, що автоматизовані реакції штучного інтелекту можуть мати небажані наслідки, як-от змінювати думку автора. Він вважає, що до них може призвести не тільки свідома обробка нової інформації, яку надає штучний інтелект, а й підсвідомі та інтуїтивні процеси. До того ж вплив рекомендацій ШІ залежить від того, наскільки серйозно його сприймає людина.

В експерименті у чат-бота питали, чи корисні соцмережі для людства. Проте його відповіді не можна вважати «чистими», оскільки дослідник використав два типи налаштувань свого віртуального помічника. В одному його програмували на те, щоби давати більш позитивні прогнози щодо соцмереж у житті сучасної людини, в іншому – навпаки. В обох випадках шанси ШІ переконати людину пристати на його точку зору збільшувалися приблизно вдвічі.

  • Ми також розповідали про адвокатське бюро, яке брало з клієнтів гроші за те, що вигадував штучний інтелект. Також пропонуємо вам почитати про застереження колишнього гендиректора Google щодо нерегульованого розвитку ШІ.

Нещодавні статті

Exist.ua — комплексний підхід до обслуговування автомобіля

Сьогоднішній ринок автозапчастин пред’являє нові вимоги до продавців: автовласники очікують не просто широкий асортимент, а…

02/06/2025

Ближче до єдиного роумінгу з ЄС. Президент підписав закон про роумінг – що далі

Президент Володимир Зеленський підписав закон №12150 про єдину роумінгову зону з Євросоюзом. Таким чином Україна…

02/06/2025

NovaPay проситиме пояснення щодо деяких переказів. Чи стосується це продажу особистих речей

У NovaPay (фінансовий сервіс групи NOVA) ввели зміни щодо переказів для фізичних осіб. Нові умови…

02/06/2025

Розвиток і психологічний комфорт. Як в “Аврорі” сприяють кар’єрі та піклуються про працівників

Кожна компанія – це передусім люди, які в ній працюють. Для ритейлу, особливо такого масштабного,…

02/06/2025

Vodafone блокує номери за несплату? Так, але не всім – пояснення підтримки оператора

У мережі шириться інформація, що «Vodafone Україна» почав блокувати номери телефонів за несплату тарифу. У…

02/06/2025