Конец галлюцинациям? OpenAI придумала, как бороться с дезинформацией от ChatGPT

OpenAI спровоцировала бум искусственного интеллекта, когда в прошлом году выпустила ChatGPT. Вместе с полезными советами и данными чат-бот начал выдавать массу дезинформации, которую еще называют галлюцинациями. Недавно компания предложила свой план решения этой проблемы, однако некоторые эксперты уже выразили скептицизм по поводу идей OpenAI. Об этом пишет CNBC.

Галлюцинациями называют ту ситуацию, когда ИИ, например ChatGPT или Bard, сообщает неправильную информацию, но ведет себя так, будто предоставляет проверенные факты. К примеру, недавно ChatGPT ссылался на фейковые дела в заявлении федерального суда.

«Даже самые современные ИИ-модели склонны сообщать ложные сведения. Они демонстрируют тенденцию придумывать факты в моменте неопределенности, говорится в отчете OpenAI. – Эти галлюцинации вызывают много проблем в отраслях, требующих многоступенчатых рассуждений, поскольку одной логической ошибки достаточно, чтобы сорвать более масштабное решение».

Новая стратегия OpenAI состоит в том, чтобы обучать ИИ вознаграждать себя за каждый отдельный, правильный шаг рассуждений, когда он приходит к ответу, вместо вознаграждения за верное окончательное заключение. Этот подход называется «присмотр за процессом», в отличие от «присмотра за результатами», и, по мнению исследователей, он может привести к лучшей работе искусственного интеллекта. Такая стратегия поощряет модели придерживаться подхода, более похожего на человеческую цепочку мыслей.

«Обнаружение и смягчение логических ошибок или галлюцинаций модели является критически важным шагом к построению согласованного AGI (или ИИ общего назначения)», – сказал исследователь OpenAI.

Компания открыла доступ к сопроводительному набору данных из 800 тыс. меток, которые она использовала для обучения модели, упомянутой в заявлении.

Онлайн-курс "Excel та Power BI для аналізу даних" від robot_dreams.
Навчіться самостійно аналізувати й візуалізувати дані, знаходити зв’язки, розуміти кожен аспект отриманої інформації та перетворювати її на ефективні рішення.
Детальніше про курс

Однако некоторые ученые скептически настроены к планам компании. Они полагают, что OpenAI предоставила слишком мало сведений, поэтому существует большая непрозрачность ее работы.

  • Ранее ChatGPT утверждал, что написал работы некоторых студентов. Теперь они без дипломов и доказывают свое авторство. Абсурдность ситуации в том, что этот чат-бот не предназначен для проверки на плагиат.

Нещодавні статті

Power BI: какой курс выбрать для начинающих

Power BI (Business Intelligence) Microsoft – это не просто платформа для анализа данных, а ключевой…

15/01/2024

Лас-Вегас: удивительная история города азарта, мафии и головной боли для архитектора

Лас-Вегас — один из самых узнаваемых городов на планете, который ежегодно манит к себе миллионы…

24/11/2023

Более 800 раз. Пограничники подсчитали, сколько взяток им предлагали уклонисты

Из-за широкомасштабного вторжения россии в Украине было введено военное положение и объявлена ​​мобилизация. Военнообязанным мужчинам…

24/11/2023

На 100 отзывов – 100 отказов? Советы рекрутеров, как не терять мотивацию при поиске работы

«Вижу цель – не вижу препятствий». Знакомая фраза? Часто ею руководствуются кандидаты, ищущие работу мечты.…

24/11/2023

Открытый банкинг. В НБУ раскрыли детали предстоящего обмена данными между банками

Национальный банк Украины работает над открытым банкингом. Речь идет о структурированном и безопасном обмене данными…

24/11/2023

Финансовый консультант потратил более $4 млн своего клиента на азартные игры и недвижимость

В США финансовому консультанту предъявили обвинение в растрате около $5 млн, которые принадлежали его клиенту.…

24/11/2023