«Багато людей постраждають або загинуть». Колишній очільник Google попередив про наслідки нерегульованого розвитку ШІ
Колишній очільник компанії Google Ерік Шмідт днями виступив на саміті Ради генеральних директорів The Wall Street Journal у Лондоні та поділився своїми побоюваннями щодо розвитку технологій на основі штучного інтелекту. Зокрема, він вважає, що через ШІ багато людей можуть постраждати або й померти. Редакція MC.today переповідає деталі з посиланням на CNBC.
Шмідт, який був генеральним директором Google з 2001 до 2011 року, у своїй промові наголосив на необхідності регулювання штучного інтелекту через великі екзистенційні ризики. Зокрема, він знову озвучив думку, яку вже висловлював співзасновник Microsoft Білл Гейтс: не можна допустити, щоби ШІ потрапив у погані руки.
За словами Шмідта, в недалекому майбутньому можливе розгортання наднегативних сценаріїв. Оскільки штучний інтелект уже достатньо розумний, він уже незабаром може знайти експлойти нульового дня (вразливі місця безпеки в програмному забезпеченні та системах) або відкрити нові загрози людству. І це може мати нищівні наслідки, особливо якщо знахідками ШІ скористаються зловмисники. Внаслідок цього десятки тисяч людей можуть постраждати або загинути, за словами колишнього гендиректора Google.
Втім, Шмідт бачить і деякі позитивні перспективи штучного інтелекту. Зокрема, він може розв’язати одну з проблем, яку спричиняє демографічна криза. Через зменшення народжуваності вже за 20–30 років на ринку праці виникне значний дефіцит робочої сили, який зрештою покриє ШІ.
Зазначимо, що Шмідт був членом Комісії з національної безпеки зі штучного інтелекту в США, яка у 2019 році почала перегляд технологій ШІ включно з потенційною нормативною базою. У 2021 році вона заявила, що Америка ще не готова до епохи ШІ.
- Нагадаємо, нещодавно мільярдер Воррен Баффет порівняв штучний інтелект із ядерною бомбою. А розробник нейромережі Stable Diffusion Емад Мостак вважає, що штучний інтелект підірве економіку сильніше за пандемію COVID-19.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: