logo
19 Лип 2023

«Друкарський верстат і радіо допомагали поширювати ідеї людей, а ШІ може створювати абсолютно нову культуру»: Ювал Ной Харарі про загрози ШІ. Переказ The Economist

Альона Лебедєва

Редакторка довгих текстів

Юваль Ной Харарі історик, доктор філософії, професор, визнаний фахівець в області військової історії. Автор бестселера «Sapiens», «Homo Deus» і дитячого серіалу «Нестримні ми».

В статті для The Economist він розмірковує над тим, яку загрозу несе штучний інтелект для людства. І бачить її глобальніше аніж «відбере роботу в білих комірців». Харарі називає нерегульований розвиток ШІ кінцем тієї частини історії людства, де домінує людина. Адже відколи ШІ навчився розказувати історії, він отримав мову – інструмент, яким можна її переписати. Редакція MC.today публікує переказ статті.

Перекладено бюро перекладів «Профпереклад».

Онлайн-курс "Computer Vision" від robot_dreams.
Застосовуйте Machine Learning / Deep Learning та вчіть нейронні мережі розпізнавати об’єкти на відео. Отримайте необхідні компетенції Computer Vision Engineer.
Дізнатись більше про курс
Переклад від

Страхи перед штучним інтелектом переслідують людство з самого початку комп’ютерної ери. Досі ці страхи зосереджувалися на машинах, які використовували фізичні засоби для вбивства, поневолення або заміни людей. Але за останні пару років з’явилися нові інструменти штучного інтелекту, які загрожують виживанню людської цивілізації з несподіваного боку.

ШІ набув дивовижних здібностей маніпулювати мовою та генерувати історії за допомогою слів, звуків чи зображень. ШІ у такий спосіб зламав операційну систему нашої цивілізації.

Мова це те, з чого складається майже вся людська культура. Права людини, наприклад, не вписані в нашу ДНК. Скоріше це культурні артефакти, які ми створили, розповідаючи історії та пишучи закони. Боги не є фізичними реальностями. Це скоріше культурні артефакти, які ми створили, вигадуючи міфи та записуючи історії.

Гроші також є культурним артефактом. Банкноти це лише різнокольорові папірці, і наразі понад 90% грошей це навіть не банкноти, це просто цифрова інформація в комп’ютерах. Цінність грошей забезпечуються історіями, які нам про них розповідають банкіри, міністри фінансів і гуру криптовалют. Сем Бакман-Фрід, Елізабет Холмс та Берні Медофф не були особливо вправними у створенні справжньої цінності, але всі вони були надзвичайно здібними оповідачами.

Що трапиться, коли нелюдський інтелект стане кращим за звичайну людину в тому, щоб розповідати історії, складати мелодії, малювати образи та писати закони й оповіді? Коли люди думають про ChatGPT та інші нові інструменти ШІ, їх увагу часто привертають випадки, наприклад, як школярі використовують ШІ для написання рефератів. Що станеться зі шкільною системою, коли всі діти почнуть так робити?

Але таке запитання не показує реальну картину. Забудьте про шкільні реферати. Подумайте про наступні президентські вибори в США у 2024 році та спробуйте уявити вплив інструментів штучного інтелекту, які можна використовувати для масового виробництва політичного контенту, фейкових новин і наративів для нових культів.

В останні роки конспірологічний культ qAnon об’єднався навколо анонімних онлайн-повідомлень, відомих як q drops (краплі). Послідовники збирали, шанували та інтерпретували ці краплинки q як священний текст. Хоча, наскільки нам відомо, усі попередні q-дропи створювалися людьми, а боти лише допомагали їх поширювати, у майбутньому ми можемо побачити перші теорії змови, які були написані ШІ. Релігії протягом всієї історії стверджували, що їхні священні книги нелюдського походження. Незабаром це може стати реальністю.

На більш прозаїчному рівні незабаром ми можемо опинитись у веденні тривалих онлайн-дискусій про аборти, зміну клімату чи російське вторгнення в Україну з істотами, які, на нашу думку, є людьми, але насправді є штучними інтелектами. Проблема в тому, що для нас абсолютно безглуздо витрачати час на те, щоб змінити декларовані думки ботів штучного інтелекту, тоді як штучний інтелект може відшліфувати свої повідомлення настільки точно, що він має хороші шанси вплинути на нас.

Завдяки своєму майстерному володінню мовою ШІ міг навіть налагоджувати близькі стосунки з людьми та використовувати силу близькості, щоб змінювати наші думки та світогляд. Хоча немає жодних ознак того, що ШІ має власну свідомість чи почуття, для сприяння фальшивої близькості з людьми достатньо для того, щоб ШІ міг змусити їх відчувати до себе емоційну прив’язаність.

У червні 2022 року Блейк Лемуан, інженер Google, публічно заявив, що штучний чат-бот Lamda, над яким він працював, став розумним. Спірне твердження коштувало йому роботи. Найцікавішим у цьому епізоді було не твердження пана Лемуана, яке, ймовірно, було неправдивим. Швидше, це була його готовність ризикнути своєю прибутковою роботою заради чат-бота штучного інтелекту.

Якщо штучний інтелект може вплинути на те, щоб люди ризикували своєю роботою заради нього, до чого ще він може їх спонукати?

У політичній битві за розуми та серця близькість є найефективнішою зброєю, і штучний інтелект щойно отримав здатність масово створювати інтимні стосунки з мільйонами людей. Ми всі знаємо, що за останнє десятиліття соціальні мережі стали полем битви за контроль над людською увагою. З новим поколінням ШІ фронт битви зміщується від уваги до приватності. Що станеться з людським суспільством і людською психологією, коли штучний інтелект буде боротися з іншим штучним інтелектом у боротьбі за підробку близьких та довірливих стосунків з нами, які потім можуть бути використані, щоб переконати нас голосувати за певних політиків або купувати певні продукти?

Навіть без створення «фальшивої близькості» нові інструменти штучного інтелекту мали б величезний вплив на наші думки та світогляд. Люди можуть почати використовувати одного порадника зі штучного інтелекту як єдиного усезнаючого оракула. Не дивно, що Google наляканий.

Навіщо шукати, коли можна просто запитати оракула? Індустрії новин і реклами також мають бути налякані. Навіщо читати газету, якщо можна просто попросити оракула розповісти нам останні новини? І яка мета реклами, коли можна просто попросити оракула сказати, що саме придбати?

І навіть ці сценарії насправді не відображають масштабів загальної картини. Те, про що ми говоримо, є потенційним кінцем історії людства. Не кінець історії, а лише кінець її частини, де домінує людина.

Історія це взаємодія біології та культури; між нашими біологічними потребами та бажаннями в таких речах, як їжа та секс, і нашими культурними творіннями, як-от релігія та закони. Історія це процес, за допомогою якого закони та релігії формують їжу та секс.

Що станеться з ходом історії, коли штучний інтелект захопить культуру та почне створювати історії, мелодії, закони та релігії?

Курс Project Manager від Powercode academy.
Онлайн-курс Project Manager. З нуля за 3,5 місяці до нової позиції Без знання коду, англійської та стресу.
Зарееструватися

Попередні інструменти, як-от друкарський верстат і радіо, допомагали поширювати культурні ідеї людей, але вони ніколи не створювали нових культурних ідей. ШІ має принципову відмінність. ШІ може створювати абсолютно нові ідеї, абсолютно нову культуру.

Спочатку штучний інтелект, ймовірно, імітуватиме людські прототипи, на яких його навчали в зародковому стані. Але з кожним роком штучна інтелектуальна культура сміливо йтиме туди, куди раніше не заходила жодна людина.

Страх перед штучним інтелектом переслідує людство лише кілька останніх десятиліть. Але протягом тисячоліть людей переслідував набагато глибший страх. Ми завжди цінували силу історій та образів, які маніпулювали нашим розумом і створювати ілюзії. Отже, з давніх часів люди боялися потрапити в пастку світу ілюзій.

У 17 столітті Рене Декарт побоювався, що, можливо, якийсь злий демон заманює його в пастку світу ілюзій, створюючи все, що він бачить і чує. У Стародавній Греції Платон розповів знамениту алегорію печери, в якій група людей все життя була прикута всередині печери, обличчям до глухої стіни, вона була їх екраном. На цьому екрані вони бачать проєкції різних тіней. Ув’язнені помилково приймають побачені там ілюзії за реальність.

У стародавній Індії буддійські та індуїстські мудреці вказували на те, що всі люди живуть у пастці майя світу ілюзій. Те, що ми зазвичай сприймаємо як реальність, у нашій свідомості часто є лише вигадкою. Люди можуть вести цілі війни, вбиваючи інших і самі бажаючи бути вбитими через свою віру в ту чи іншу ілюзію.

Революція ШІ ставить нас обличчям до декартівського демона, до печери Платона, до майя. Якщо ми не будемо обережні, ми можемо опинитися в пастці за завісою ілюзій, яку ми навіть не зможемо розгледіти — або навіть усвідомити, що вона існує.

Звичайно, нову потужність штучного інтелекту також можна використовувати в благих цілях. Я не буду на цьому зупинятися, тому що люди, які розробляють ШІ, говорять про це і так достатньо. Робота таких істориків і філософів, як я, полягає в тому, щоб вказувати на небезпеку. Але, безсумнівно, ШІ може допомогти нам багатьма способами: від пошуку нових ліків від раку до вирішення екологічної кризи.

Питання, перед яким ми постаємо, полягає в тому, як переконатися, що нові інструменти штучного інтелекту використовуються задля добробуту, а не заради злих цілей. Для цього нам спочатку потрібно оцінити справжні можливості цих інструментів.

З 1945 року ми знаємо, що ядерна технологія може генерувати дешеву енергію на благо людей, але також може фізично знищити людську цивілізацію. Тому ми змінили весь міжнародний порядок, щоб захистити людство та переконатися, що ядерні технології використовуються переважно задля благих цілей. Тепер нам доводиться боротися з новою зброєю масового знищення, яка може знищити наш ментальний і соціальний світ.

Онлайн-курс "Корпоративна культура" від Laba.
Як з нуля побудувати стабільну корпоративну культуру, систему внутрішньої комунікації та бренд роботодавця, з якими ви підвищите продуктивність команди, — пояснить HR-директор Work.ua.
Детальніше про курс

Ми все ще можемо регулювати нові інструменти ШІ, але ми маємо діяти швидко. У той час як ядерне озброєння не може винайти більш потужне ядерне озброєння, штучний інтелект може зробити експоненціально потужнішу версію штучного інтелекту. Перший важливий крок вимагати суворої перевірки безпеки перед тим, як потужні інструменти штучного інтелекту стануть загальнодоступними. Подібно до того, як фармацевтична компанія не може випускати нові ліки, перш ніж перевірити їхні короткострокові та довгострокові побічні ефекти, так і технологічні компанії не повинні випускати нові інструменти штучного інтелекту, поки вони не стануть безпечними. Нам потрібен еквівалент Управління з контролю за якістю харчових продуктів і медикаментів для нових технологій, і він нам потрібен ще на вчора.

Чи не призведе уповільнення публічного розгортання штучного інтелекту до відставання демократій від більш безжальних авторитарних режимів? Якраз навпаки. Нерегульоване розгортання ШІ створить соціальний хаос, який піде на користь автократам і зруйнує демократії. Демократія це розмова, а розмова залежить від мови.

Коли штучний інтелект «зламує» мову, він може знищити нашу здатність вести змістовні розмови, тим самим зруйнувавши й демократію.

Щойно ми зіткнулися з інопланетним розумом тут, на Землі. Ми мало що знаємо про це, крім того, що це може знищити нашу цивілізацію. Ми маємо припинити безвідповідальне розгортання інструментів ШІ в публічній сфері та регулювати штучний інтелект до того, як він почне регулювати нас. І перше правило, яке я б запропонував, це зробити обов’язковим для ШІ розкриття того, що це ШІ. Якщо я розмовляю з кимось і не можу сказати, людина це чи штучний інтелект — це кінець демократії.

Цей текст створила людина.

А може й ні.

Курс Python розробки від Mate academy.
Python — найпопулярніша мова 2024 року. Наш курс допоможе вам стати професіоналом, готовим до викликів сучасного IT ринку. Ви навчитеся створювати вебсайти, аналізувати дані, розробляти алгоритми, та навіть створювати штучний інтелект. .
Отримати деталі про курс

По темі:

Спецпроекти

Новини

Вакансії компаній

Менеджер з активних продажів B2B

Creators Media Group
20 000 – 40 000 грн, Ставка + відсоток

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: