ШІ використовуватимуть для створення смертоносних пандемій – колишній топменеджер Google

Попри те, що багато країн світу вже вдаються до регуляції штучного інтелекту, технічні лідери продовжують робити невтішні прогнози. Одним із них поділився і колишній виконавчий директор Google Мустафа Сулейман. Редакція MC.today переповідає деталі.

Співзасновник і колишній керівник відділу прикладного штучного інтелекту в підрозділі DeepMind компанії Google Мустафа Сулейман вважає, що використання штучного інтелекту дозволить отримати доступ до інформації з потенційно смертельними наслідками.

«Найпохмуріший сценарій полягає в тому, що люди експериментуватимуть із патогенами, також синтетичними, які можуть випадково або навмисно стати більш контагіозними, тобто швидше поширюватися. Є ймовірність, що вони стануть потенційно вбивчими, як-от збудники пандемій», – поділився він у подкасті «Щоденник генерального директора» (The Diary of a CEO).

Його найбільше побоювання полягає в тому, що вже за п’ять років навіть дитина зможе створити та випустити патоген, наслідки поширення якого будуть страшнішими за все, із чим людство стикалося досі.

Цей коментар він зробив напередодні запланованого саміту з питань штучного інтелекту під керівництвом лідера сенаторської більшості Чака Шумера у Вашингтоні. У такий спосіб Сулейман додатково звернув увагу на необхідність жорсткого регулювання технологій із ШІ.

«Ми повинні обмежити доступ до програмного забезпечення та хмарних середовищ, за допомогою яких можна вільно створювати продукти зі штучним інтелектом. Це як обмеження доступу до деяких речовин, які можуть використовуватися для створення біологічної зброї», – додав він.

  • Це не вперше, коли технічні лідери виступають за обмеження ШІ. Так, навесні більш як 1 100 експертів та розробників підписали колективне звернення щодо регуляції штучного інтелекту.
  • Американський підприємець та мільярдер Білл Гейтс висловлював побоювання щодо того, що технологія може потрапити до рук «поганих хлопців».
  • Відомий інвестор Воррен Баффет взагалі порівняв ШІ з ядерною зброєю.
  • Нарешті, гендиректор компанії, яка розробила популярну нейромережу Stability AI, Емад Мостак передрік зникнення програмістів-людей через штучний інтелект.
  • А от інвестор Марк Андріссен вважає, що ці технології навпаки потрібно розвивати та навіть заохочує свого 8-річного сина користуватися ChatGPT.

Нещодавні статті

«Стримуючий фактор». Ryanair запроваджує штрафи в 500 євро для деяких пасажирів

Великий європейський лоукостер Ryanair повідомив про введення штрафів для деяких пасажирів. Так, за порушення доведеться…

13/06/2025

Операції з картками та банкомати «ПриватБанку» тимчасово не працюватимуть – коли та яка причина

Операції з картками, банкомати та деякі інші системи «ПриватБанку» не працюватимуть 14 червня. Причина –…

13/06/2025

Багато хочеш – багато отримаєш. Як кандидату домовитись про вищу зарплату на співбесіді

Питання зарплати – одне з найскладніших на співбесіді. Компанія ставить свої умови, а кандидат може…

13/06/2025

Чи варто брати іпотеку у 2025 році та на що звертати увагу при купівлі житла у кредит – експертка

Питання власного житла на часі для багатьох українців навіть попри виклики сьогодення. Купити квартиру можуть…

13/06/2025

Подорожчання євро: причини, прогнози та як українцям вберегти свої заощадження

Курс євро демонструє значне зростання, тоді як долар – навпаки. Що відбувається з популярними в…

13/06/2025

«Через екран відчув цей відчай». Як з’явився та чим особливий сервіс знайомств Normis – і як туди потрапити

Навіщо створювати сайт знайомств, якщо їх і без того існує чимало? Проте у Normis дещо…

12/06/2025