logo
26 Тра 2023

«Багато людей постраждають або загинуть». Колишній очільник Google попередив про наслідки нерегульованого розвитку ШІ

Юлія Фещенко

Редакторка новин MC.today

Колишній очільник компанії Google Ерік Шмідт днями виступив на саміті Ради генеральних директорів The Wall Street Journal у Лондоні та поділився своїми побоюваннями щодо розвитку технологій на основі штучного інтелекту. Зокрема, він вважає, що через ШІ багато людей можуть постраждати або й померти. Редакція MC.today переповідає деталі з посиланням на CNBC.

Eric Schmidt, Executive Chairman of Alphabet and former CEO of Google, delivers a speech during the opening ceremony of the Future of Go Summit in Wuzhen town, Jiaxing city, east China's Zhejiang province, 23 May 2017.  China's historic water town Wuzhen is hosting the showdown of the year as Google's DeepMind unit AlphaGo challenges the world's No.1 Go player, 19-year-old Chinese player Ke Jie, in a three-game match during the Future of Go Summit from May 23 to 27. The match is a sequel to AlphaGo's stunning win beating Go legend Lee Se-dol last year. Its showdown with Ke, is being hotly anticipated by Go experts and fans.Eric Schmidt, Executive Chairman of Alphabet and former CEO of Google, delivers a speech during the opening ceremony of the Future of Go Summit in Wuzhen town, Jiaxing city, east China's Zhejiang province, 23 May 2017. China's historic water town Wuzhen is hosting the showdown of the year as Google's DeepMind unit AlphaGo challenges the world's No.1 Go player, 19-year-old Chinese player Ke Jie, in a three-game match during the Future of Go Summit from May 23 to 27. The match is a sequel to AlphaGo's stunning win beating Go legend Lee Se-dol last year. Its showdown with Ke, is being hotly anticipated by Go experts and fans.

Шмідт, який був генеральним директором Google з 2001 до 2011 року, у своїй промові наголосив на необхідності регулювання штучного інтелекту через великі екзистенційні ризики. Зокрема, він знову озвучив думку, яку вже висловлював співзасновник Microsoft Білл Гейтс: не можна допустити, щоби ШІ потрапив у погані руки.

За словами Шмідта, в недалекому майбутньому можливе розгортання наднегативних сценаріїв. Оскільки штучний інтелект уже достатньо розумний, він уже незабаром може знайти експлойти нульового дня (вразливі місця безпеки в програмному забезпеченні та системах) або відкрити нові загрози людству. І це може мати нищівні наслідки, особливо якщо знахідками ШІ скористаються зловмисники. Внаслідок цього десятки тисяч людей можуть постраждати або загинути, за словами колишнього гендиректора Google.

Онлайн-курс "Режисура та візуальний сторітелінг" від Skvot.
Перетворюй свої ідеї на сильні історії в рекламі, кліпах чи кіно Досвідом ділиться режисер, продюсер та власник продакшену, який 10+ років у професії.
Детальніше про курс

Втім, Шмідт бачить і деякі позитивні перспективи штучного інтелекту. Зокрема, він може розв’язати одну з проблем, яку спричиняє демографічна криза. Через зменшення народжуваності вже за 20–30 років на ринку праці виникне значний дефіцит робочої сили, який зрештою покриє ШІ.

Зазначимо, що Шмідт був членом Комісії з національної безпеки зі штучного інтелекту в США, яка у 2019 році почала перегляд технологій ШІ включно з потенційною нормативною базою. У 2021 році вона заявила, що Америка ще не готова до епохи ШІ.

  • Нагадаємо, нещодавно мільярдер Воррен Баффет порівняв штучний інтелект із ядерною бомбою. А розробник нейромережі Stable Diffusion Емад Мостак вважає, що штучний інтелект підірве економіку сильніше за пандемію COVID-19.
Курс-професія "Дизайнер інтер'єрів" від Skvot.
Велика практична програма для всіх, хто хоче засвоїти професію дизайнера інтер'єрів і заробляти на реальних проєктах відразу після курсу. Досвідом та інсайтами діляться одразу три лектори.
Програма курсу

По темі:

Спецпроекти

Новини

Вакансії компаній

Менеджер з активних продажів B2B

Creators Media Group
20 000 – 40 000 грн, Ставка + відсоток

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: