logo
06 Вер 2023

ШІ використовуватимуть для створення смертоносних пандемій – колишній топменеджер Google

Юлія Фещенко

Редакторка новин MC.today

Попри те, що багато країн світу вже вдаються до регуляції штучного інтелекту, технічні лідери продовжують робити невтішні прогнози. Одним із них поділився і колишній виконавчий директор Google Мустафа Сулейман. Редакція MC.today переповідає деталі.

Співзасновник і колишній керівник відділу прикладного штучного інтелекту в підрозділі DeepMind компанії Google Мустафа Сулейман вважає, що використання штучного інтелекту дозволить отримати доступ до інформації з потенційно смертельними наслідками.

Онлайн-курс "Корпоративна культура" від Laba.
Як з нуля побудувати стабільну корпоративну культуру, систему внутрішньої комунікації та бренд роботодавця, з якими ви підвищите продуктивність команди, — пояснить HR-директор Work.ua.
Детальніше про курс

«Найпохмуріший сценарій полягає в тому, що люди експериментуватимуть із патогенами, також синтетичними, які можуть випадково або навмисно стати більш контагіозними, тобто швидше поширюватися. Є ймовірність, що вони стануть потенційно вбивчими, як-от збудники пандемій», – поділився він у подкасті «Щоденник генерального директора» (The Diary of a CEO).

Його найбільше побоювання полягає в тому, що вже за п’ять років навіть дитина зможе створити та випустити патоген, наслідки поширення якого будуть страшнішими за все, із чим людство стикалося досі.

Цей коментар він зробив напередодні запланованого саміту з питань штучного інтелекту під керівництвом лідера сенаторської більшості Чака Шумера у Вашингтоні. У такий спосіб Сулейман додатково звернув увагу на необхідність жорсткого регулювання технологій із ШІ.

«Ми повинні обмежити доступ до програмного забезпечення та хмарних середовищ, за допомогою яких можна вільно створювати продукти зі штучним інтелектом. Це як обмеження доступу до деяких речовин, які можуть використовуватися для створення біологічної зброї», – додав він.

  • Це не вперше, коли технічні лідери виступають за обмеження ШІ. Так, навесні більш як 1 100 експертів та розробників підписали колективне звернення щодо регуляції штучного інтелекту.
  • Американський підприємець та мільярдер Білл Гейтс висловлював побоювання щодо того, що технологія може потрапити до рук «поганих хлопців».
  • Відомий інвестор Воррен Баффет взагалі порівняв ШІ з ядерною зброєю.
  • Нарешті, гендиректор компанії, яка розробила популярну нейромережу Stability AI, Емад Мостак передрік зникнення програмістів-людей через штучний інтелект.
  • А от інвестор Марк Андріссен вважає, що ці технології навпаки потрібно розвивати та навіть заохочує свого 8-річного сина користуватися ChatGPT.
Онлайн-курс "Project Manager" від Laba.
Станьте проджектом, що вміє передбачати ризики наперед і доводити проєкт до результату, який хочуть замовники. Поділиться досвідом Павло Харіков, former Head of PMO в Kyivstar.
Програма курсу і реєстрація

Спецпроекти

Новини

Надихаючі компанії-работодавці

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: