logo
26 May 2023

«Многие люди пострадают или погибнут». Бывший глава Google предупредил о последствиях нерегулируемого развития ИИ

Юлія Фещенко

Редакторка новин MC.today

Бывший глава компании Google Эрик Шмидт на днях выступил на саммите Совета генеральных директоров The Wall Street Journal в Лондоне и поделился своими опасениями относительно развития технологий на основе искусственного интеллекта. В частности, он считает, что из-за ИИ многие могут пострадать или умереть. Редакция MC.today пересказывает детали со ссылкой на CNBC.

Eric Schmidt, Executive Chairman of Alphabet and former CEO of Google, delivers a speech during the opening ceremony of the Future of Go Summit in Wuzhen town, Jiaxing city, east China's Zhejiang province, 23 May 2017. China's historic water town Wuzhen is hosting the showdown of the year as Google's DeepMind unit AlphaGo challenges the world's No.1 Go player, 19-year-old Chinese player Ke Jie, in a three-game match during the Future of Go Summit from May 23 to 27. The match is a sequel to AlphaGo's stunning win beating Go legend Lee Se-dol last year. Its showdown with Ke, is being hotly anticipated by Go experts and fans.Eric Schmidt, Executive Chairman of Alphabet and former CEO of Google, delivers a speech during the opening ceremony of the Future of Go Summit in Wuzhen town, Jiaxing city, east China's Zhejiang province, 23 May 2017. China's historic water town Wuzhen is hosting the showdown of the year as Google's DeepMind unit AlphaGo challenges the world's No.1 Go player, 19-year-old Chinese player Ke Jie, in a three-game match during the Future of Go Summit from May 23 to 27. The match is a sequel to AlphaGo's stunning win beating Go legend Lee Se-dol last year. Its showdown with Ke, is being hotly anticipated by Go experts and fans.

Шмидт, который был генеральным директором Google с 2001 по 2011 год, в своей речи отметил необходимость регулирования искусственного интеллекта из-за больших экзистенциальных рисков В частности, он снова озвучил мнение, которое уже высказывал соучредитель Microsoft Билл Гейтс: нельзя допустить, чтобы ИИ попал в плохие руки.

По словам Шмидта, в обозримом будущем возможно разворачивание сверхнегативных сценариев. Поскольку искусственный интеллект уже достаточно умен, он вскоре может найти эксплойты нулевого дня (уязвимые места безопасности в программном обеспечении и системах) или открыть новые угрозы человечеству. И это может иметь сокрушительные последствия, особенно если находками ИИ воспользуются злоумышленники. Вследствие этого десятки тысяч человек могут пострадать или погибнуть, по словам бывшего гендиректора Google.

Онлайн курс з промт інжинірингу та ефективної роботи з ШІ від Powercode academy.
Курс-інтенсив для отримання навичок роботи з ChatGPT та іншими інструментами ШІ для професійних та особистих задач, котрі допоможуть як новачку, так і професіоналу.
Записатися на курс

Впрочем, Шмидт видит и некоторые положительные перспективы искусственного интеллекта. В частности, он может решить одну из проблем, вызванную демографическим кризисом. Из-за уменьшения рождаемости уже через 20–30 лет на рынке труда возникнет значительный дефицит рабочей силы, который в итоге покроет ИИ.

Отметим, что Шмидт был членом Комиссии по национальной безопасности по искусственному интеллекту в США, которая в 2019 году начала пересмотр технологий ИИ с учетом потенциальной нормативной базы. В 2021 году она заявила, что Америка еще не готова к эре ИИ.

  • Напомним, недавно миллиардер Уоррен Баффет сравнил искусственный интеллект с ядерной бомбой. А разработчик нейросети Stable Diffusion Эмад Мостак считает, что искусственный интеллект подорвет экономику сильнее пандемии COVID-19.
Психологічний профорієнтаційний тест для IT-фахівців від Hillel IT School.
Пройдіть психологічний профорієнтаційний тест для IT-фахівців щоб дізнатися ваші сильні сторони, вподобання і інтереси і з'ясувати, яка IT-спеціальність вам підходить.
Пройти тест

Новости

Вдохновляющие компании-работодатели

«БИОСФЕРА»

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: