logo
03 Лют 2025

OpenAI представила нову функцію Deep Research. Кому вона знадобиться та як скористатись

Вероніка Ворожко

Авторка новин MC.today

OpenAI представила нову функцію Deep Research для проведення поглиблених і складних досліджень за допомогою ChatGPT. Функція працює на моделі o3 та за хвилини робить те, на що людині знадобилися б години, каже компанія-розробниця.

чоловік за ноутбуком, OpenAIOpenAI презентувала Deep Research для проведення досліджень онлайн. Фото: depositphotos

Як зазначає OpenAI, новий ШІ-агент розроблений для «людей, які займаються інтенсивною науковою роботою в таких сферах, як фінанси, наука, політика та інженерія, і потребують ретельного, точного та надійного дослідження». Також він може бути корисним для тих, хто робить покупки, для яких зазвичай потрібне ретельне вивчення, як-от автомобілі, техніка й меблі.

Як скористатися Deep Research

Для цього в чат-боті ChatGPT потрібно вибрати Deep Research і ввести свій запит, також можна прикріпити файл чи електронні таблиці. Функція проаналізує онлайн-джерела впродовж 5-30 хвилин, про завершення дослідження користувач отримає сповіщення. 

Читайте також: Сем Альтман назвав навичку, яка необхідна для досягнення успіху в епоху ШІ. Про що йдеться

Остаточний результат буде у вигляді звіту в чаті, поки що це лише текстовий результат, але далі компанія планує додати зображення, візуалізацію даних тощо. Також користувач отримає список використаних джерел, що особливо важливо, враховуючи кількість можливих помилок (або перекручування фактів) у відповідях чат-ботів.

Функція доступна для користувачів ChatGPT Pro з лімітом до 100 запитів на місяць. Наступними отримають доступ користувачі Plus і Team, а потім Enterprise. Поки Deep Research працює у вебверсії ChatGPT, але вже цього місяця має запрацювати й на мобільних пристроях і ПК.

  • Нагадаємо, раніше китайська ШІ-модель DeepSeek обійшла ChatGPT і обвалила акції техгігантів.

Спецпроекти

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: