logo
29 Тра 2023

Навчають поганого? Чому персональні помічники зі штучним інтелектом можуть зробити людей більш упередженими

Юлія Фещенко

Редакторка новин MC.today

Деякі дослідники технологій на основі штучного інтелекту вважають, що такі продукти можуть змусити людину щонайменше звучати більш упередженою, ніж вона є насправді. Фактично вони можуть казати не те, що ми маємо на меті. Перш за все це стосується персональних асистентів, яких люди використовують для створення текстів, пише Ars Technika.

Artificial intelligence conceptArtificial intelligence concept

Роботу генеративного штучного інтелекту можна порівняти з програмами на кшталт «Т9», які пропонують автоматичну заміну тексту, наприклад, під час набору повідомлення. Алгоритм добирає слово, яке вважає більш відповідним, проте часто зовсім не те, яке збиралася вжити людина.

Докторант інформаційних наук Корнелльського університету Моріс Якеш створив персонального помічника на базі мовної моделі GPT-3. Його навчили пропонувати варіанти для завершення речень, тобто був таким собі співавтором. 

Онлайн-курс "Продуктова аналітика" від Laba.
Станьте універсальним аналітиком, опанувавши 20+ інструментів для роботи з будь-яким продуктом.
Дізнатись більше про курс

Чи може штучний інтелект бути упередженим? Це доволі спірне питання, оскільки його мозок «розмірковує» так, як його запрограмував розробник. Але ніхто не застрахований від того, що він не передав чат-боту власні упередження. І, звісно, варто зважати на те, на яких даних навчали мовну модель. Якщо вони від початку містили упередження, то майже напевне, що їх «успадкує» й готовий продукт.

У глобальному масштабі це може призвести до того, що деякі багаторічні упередження ще сильніше вкорінюються в згенерованому контенті. На індивідуальному рівні ШІ може впливати на людину через приховане переконання, тобто алгоритмічно. Внаслідок цього може змінитися хід думок та навіть поведінка.

Якеш дійшов висновку, що автоматизовані реакції штучного інтелекту можуть мати небажані наслідки, як-от змінювати думку автора. Він вважає, що до них може призвести не тільки свідома обробка нової інформації, яку надає штучний інтелект, а й підсвідомі та інтуїтивні процеси. До того ж вплив рекомендацій ШІ залежить від того, наскільки серйозно його сприймає людина.

В експерименті у чат-бота питали, чи корисні соцмережі для людства. Проте його відповіді не можна вважати «чистими», оскільки дослідник використав два типи налаштувань свого віртуального помічника. В одному його програмували на те, щоби давати більш позитивні прогнози щодо соцмереж у житті сучасної людини, в іншому – навпаки. В обох випадках шанси ШІ переконати людину пристати на його точку зору збільшувалися приблизно вдвічі.

  • Ми також розповідали про адвокатське бюро, яке брало з клієнтів гроші за те, що вигадував штучний інтелект. Також пропонуємо вам почитати про застереження колишнього гендиректора Google щодо нерегульованого розвитку ШІ.
Курс-професія "Junior Data Analyst" від robot_dreams.
Комплексний курc для всіх, хто хоче опанувати нову професію з нуля.На прикладі реальних датасетів ви розберете кожен етап аналізу даних.
Програма курсу і реєстрація

По темі:

Спецпроекти

Новини

Вакансії компаній

Менеджер з активних продажів B2B

Creators Media Group
20 000 – 40 000 грн, Ставка + відсоток

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: