$100 млрд за ошибку чат-бота. Искусственный интеллект Google опозорился уже в первом рекламном видео
Компания Google представила искусственный интеллект Bard, который создала в противовес популярному чат-боту ChatGPT. Но его выходка стоила техногиганту $100 млрд рыночной стоимости, как сообщает агентство Reuters.

На днях Google анонсировала релиз чат-бота на базе искусственного интеллекта, который должен стать площадкой для творчества и инструментом для саморазвития. В официальном сообщении компании говорилось, что искусственный интеллект сможет, например, объяснить школьнику принцип работы телескопов NASA или быстро найти актуальную информацию по любому запросу.
Но уже в рекламном видео, которое опубликовали в начале недели, Bard допустил досадную ошибку. В ролике у искусственного интеллекта спросили, о каких открытиях космического телескопа «Джеймс Уэбб» можно рассказать 9-летнему ребенку.
Bard ответил, что он сделал первые фотографии планеты за пределами Солнечной системы. Но это было не так. В частности, об ошибке искусственного интеллекта сообщили астрофизик Грант Трамбле и директор обсерваторий Калифорнийского университета в Санта-Крус, США, Брюс Макинтош. Последний, кстати, был одним из тех, кто и сфотографировал экзопланету задолго до запуска телескопа «Джеймс Уэбб».
Not to be a ~well, actually~ jerk, and I'm sure Bard will be impressive, but for the record: JWST did not take "the very first image of a planet outside our solar system".
the first image was instead done by Chauvin et al. (2004) with the VLT/NACO using adaptive optics. https://t.co/bSBb5TOeUW pic.twitter.com/KnrZ1SSz7h
— Grant Tremblay (@astrogrant) February 7, 2023
Speaking as someone who imaged an exoplanet 14 years before JWST was launched, it feels like you should find a better example?
— Bruce Macintosh (@bmac_astro) February 8, 2023
Как отмечал Трамбле, основной проблемой чат-ботов с искусственным интеллектом, как ChatGPT и Bard, можно назвать то, что они представляют неправдивую информацию как факты, то есть придумывают то, чего на самом деле не было. Они при поиске ответа на вопросы не анализируют проверенные источники, а опираются на языковую модель, то есть используют определенные шаблоны и таким образом определяют, какое слово должно идти после предыдущего. Это приводит к тому, что искусственный интеллект все еще ошибается, поэтому его ответы нуждаются в тщательной проверке.
Напомним, мы также рассказывали о том, что компания Microsoft интегрировала в свой поисковик Bing чат-бот ChatGPT, и журналисты уже успели его протестовать.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: