Рубріки: Інфопривід

Навчають поганого? Чому персональні помічники зі штучним інтелектом можуть зробити людей більш упередженими

Деякі дослідники технологій на основі штучного інтелекту вважають, що такі продукти можуть змусити людину щонайменше звучати більш упередженою, ніж вона є насправді. Фактично вони можуть казати не те, що ми маємо на меті. Перш за все це стосується персональних асистентів, яких люди використовують для створення текстів, пише Ars Technika.

Роботу генеративного штучного інтелекту можна порівняти з програмами на кшталт «Т9», які пропонують автоматичну заміну тексту, наприклад, під час набору повідомлення. Алгоритм добирає слово, яке вважає більш відповідним, проте часто зовсім не те, яке збиралася вжити людина.

Докторант інформаційних наук Корнелльського університету Моріс Якеш створив персонального помічника на базі мовної моделі GPT-3. Його навчили пропонувати варіанти для завершення речень, тобто був таким собі співавтором. 

Чи може штучний інтелект бути упередженим? Це доволі спірне питання, оскільки його мозок «розмірковує» так, як його запрограмував розробник. Але ніхто не застрахований від того, що він не передав чат-боту власні упередження. І, звісно, варто зважати на те, на яких даних навчали мовну модель. Якщо вони від початку містили упередження, то майже напевне, що їх «успадкує» й готовий продукт.

У глобальному масштабі це може призвести до того, що деякі багаторічні упередження ще сильніше вкорінюються в згенерованому контенті. На індивідуальному рівні ШІ може впливати на людину через приховане переконання, тобто алгоритмічно. Внаслідок цього може змінитися хід думок та навіть поведінка.

Якеш дійшов висновку, що автоматизовані реакції штучного інтелекту можуть мати небажані наслідки, як-от змінювати думку автора. Він вважає, що до них може призвести не тільки свідома обробка нової інформації, яку надає штучний інтелект, а й підсвідомі та інтуїтивні процеси. До того ж вплив рекомендацій ШІ залежить від того, наскільки серйозно його сприймає людина.

В експерименті у чат-бота питали, чи корисні соцмережі для людства. Проте його відповіді не можна вважати «чистими», оскільки дослідник використав два типи налаштувань свого віртуального помічника. В одному його програмували на те, щоби давати більш позитивні прогнози щодо соцмереж у житті сучасної людини, в іншому – навпаки. В обох випадках шанси ШІ переконати людину пристати на його точку зору збільшувалися приблизно вдвічі.

  • Ми також розповідали про адвокатське бюро, яке брало з клієнтів гроші за те, що вигадував штучний інтелект. Також пропонуємо вам почитати про застереження колишнього гендиректора Google щодо нерегульованого розвитку ШІ.

Нещодавні статті

«Є значно краща альтернатива». Економіст прокоментував ідею фонду муніципального орендного житла

Український економіст та громадський діяч Віктор Галасюк прокоментував ідею створення урядової програми муніципального орендного житла…

03/07/2025

Активне vs пасивне інвестування: чим відрізняються підходи і на якому можна більше заробити

Як ви уявляєте собі сучасного інвестора? Ймовірно, це людина, яка щодня гортає новини, аналізує фінансові…

03/07/2025

Чи варто інвестувати в український мілтек – співзасновник Toloka.vc про перспективи й нюанси

Після початку повномасштабного вторгнення українська miltech-сфера отримала ривок і привернула увагу інвесторів. Ба більше, цей…

02/07/2025

Навіщо потрібна фінансова подушка безпеки та як її сформувати – покрокова інструкція

Неприємності зазвичай трапляються тоді, коли ми найменше до них готові. Від поламки пральної машини до…

02/07/2025

Куди вкласти 1 000 грн – переваги та нюанси інвестування в облігації через «Дію» та банки

Які особливості має інвестування в облігації, скільки коштів потрібно для старту та які інструменти найзручніші…

02/07/2025

У спілці Diia.City Union уже понад 240 українських компаній. Чим займається та що дає це об’єднання

19 червня в UNIT.City відбулася чергова щоквартальна зустріч Intro Meeting, організована Diia.City Union. Подія зібрала…

02/07/2025