Як пандемія та ядерна війна. Дослідники знову заявили про небезпеку ШІ для людства
Група провідних дослідників штучного інтелекту, інженерів і генеральних директорів випустила нове попередження про загрозу, яку, на їхню думку, становить для людства ШІ. Про це пише The Verge.
Заява складається всього з 22 слів. Її скоротили, щоб зробити якомога більш прийнятною та зрозумілою.
«Зменшення ризику зникнення через ШІ має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», – йдеться в заяві.
Цю заяву підписали такі особи, як генеральний директор Google DeepMind Деміс Хассабіс і генеральний директор OpenAI Сем Альтман, а також Джеффрі Гінтон і Йошуа Бенжіо – двоє дослідників, які отримали премію Тюрінга 2018 року (іноді її називають «Нобелівською премією з обчислювальної техніки») за роботу над ШІ.
Виконавчий директор Центру безпеки штучного інтелекту Ден Хендрікс сказав, що стислість заяви, яка навіть не запропонувала розв’язання проблеми, має на меті уникнути розбіжностей. «Ми не хотіли наполягати на надто великому меню з 30 можливими опціями», – сказав Хендрікс. «Коли так стається, це розмиває повідомлення».
Він описав це повідомлення як «вихід» для представників галузі, стурбованих ризиком розвитку ШІ.
Ця заява не єдине гучне висловлювання щодо небезпеки ШІ. Раніше цього року відкритий лист, підписаний більш як тисячею осіб, закликав до шестимісячної «паузи» в розробці ШІ. Тоді його розкритикували. Одні вважали, що ризики, зазначені в тексті, надто перебільшені, а інші – погоджувалися з листом, але не поділяли методи, запропоновані в ньому.
Занепокоєння щодо наслідків розвитку ШІ висловлювали також співзасновник Apple Стів Возняк, мільярдер Воррен Баффет, ексгендиректор Google та колишній топменеджер Google X.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: