UA RU
logo
24 Січ 2023

Третій у рейтингу найбагатших людей світу мільярдер визнав свою «деяку залежність» від штучного інтелекту

Юлія Фещенко

Редактор новин MC.today

Індійський мільярдер, що посідає третю сходинку в рейтингу найбагатших людей у світі зі статками в $121 млрд, зізнався в «зловживанні» сучасними технологіями. На це звернули увагу журналісти видання Business Insider. Зокрема, йдеться про чат-боти на базі штучного інтелекту.

Магнат Ґаутам Адані очолює багатонаціональний конгломерат, що займається розвитком портів. Днями він розповів, що також тестував популярний чат-бот на базі штучного інтелекту ChatGPT від OpenAI. Мільярдер також зізнався в тому, що занадто захопився цією програмою й навіть припустив, що такі продукти можуть викликати залежність.

Адані відзначив, що ChatGPT дійсно вражає здатністю добирати та сортувати інформацію з відкритих джерел навіть попри деякі комічні помилки. Водночас він попередив, що подальший розвиток таких технологій може мати серйозні наслідки для людства.

Бізнесмен порівняв трансформаційну природу ChatGPT із глобальною індустрією чипів і тим, як розвиток напівпровідників призвів до появи впливових технологічних гігантів на кшталт Intel, Qualcomm і TSMC.

Спробуй свої сили в ІТ
Хочеш в ІТ, але не знаєш чи потягнеш? Запишись на безоплатну кар'єрну консультацію та тестування – зроби перший крок назустріч новій та цікавій роботі
РЕЄСТРУЙТЕСЯ!

Мікросхеми, виготовлені цими компаніями, допомагають працювати з нашими смартфонами, ноутбуками, кухонною технікою та іншими споживчими пристроями.

Проте в медалі є й інший бік, оскільки ці технології також «проклали шлях до високоточної та керованої зброї, яка використовується в сучасній війні», за словами Адані.

  • Нагадаємо, усього за кілька місяців існування ChatGPT склав іспит з MBA, написав багато листів та заяв, прогнозував курси криптовалют та навіть ходив на побачення. Проте його також використовують для створення, наприклад, вірусів або навіть сценаріїв знищення людства.

По темі:

Новини

Спецпроєкти

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: