Навчають поганого? Чому персональні помічники зі штучним інтелектом можуть зробити людей більш упередженими
Деякі дослідники технологій на основі штучного інтелекту вважають, що такі продукти можуть змусити людину щонайменше звучати більш упередженою, ніж вона є насправді. Фактично вони можуть казати не те, що ми маємо на меті. Перш за все це стосується персональних асистентів, яких люди використовують для створення текстів, пише Ars Technika.
Роботу генеративного штучного інтелекту можна порівняти з програмами на кшталт «Т9», які пропонують автоматичну заміну тексту, наприклад, під час набору повідомлення. Алгоритм добирає слово, яке вважає більш відповідним, проте часто зовсім не те, яке збиралася вжити людина.
Докторант інформаційних наук Корнелльського університету Моріс Якеш створив персонального помічника на базі мовної моделі GPT-3. Його навчили пропонувати варіанти для завершення речень, тобто був таким собі співавтором.
Чи може штучний інтелект бути упередженим? Це доволі спірне питання, оскільки його мозок «розмірковує» так, як його запрограмував розробник. Але ніхто не застрахований від того, що він не передав чат-боту власні упередження. І, звісно, варто зважати на те, на яких даних навчали мовну модель. Якщо вони від початку містили упередження, то майже напевне, що їх «успадкує» й готовий продукт.
У глобальному масштабі це може призвести до того, що деякі багаторічні упередження ще сильніше вкорінюються в згенерованому контенті. На індивідуальному рівні ШІ може впливати на людину через приховане переконання, тобто алгоритмічно. Внаслідок цього може змінитися хід думок та навіть поведінка.
Якеш дійшов висновку, що автоматизовані реакції штучного інтелекту можуть мати небажані наслідки, як-от змінювати думку автора. Він вважає, що до них може призвести не тільки свідома обробка нової інформації, яку надає штучний інтелект, а й підсвідомі та інтуїтивні процеси. До того ж вплив рекомендацій ШІ залежить від того, наскільки серйозно його сприймає людина.
В експерименті у чат-бота питали, чи корисні соцмережі для людства. Проте його відповіді не можна вважати «чистими», оскільки дослідник використав два типи налаштувань свого віртуального помічника. В одному його програмували на те, щоби давати більш позитивні прогнози щодо соцмереж у житті сучасної людини, в іншому – навпаки. В обох випадках шанси ШІ переконати людину пристати на його точку зору збільшувалися приблизно вдвічі.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: