Кінець галюцинаціям? OpenAI придумала, як боротися з дезінформацією від ChatGPT

OpenAI спровокувала бум штучного інтелекту, коли торік випустила ChatGPT. Разом із корисними даними й порадами чат-бот часто-густо видає масу дезінформації, яку ще називають галюцинаціями. Нещодавно компанія запропонувала свій план розв’язання цієї проблеми, однак деякі експерти вже висловили скептицизм щодо ідей OpenAI. Про це пише CNBC.

Галюцинаціями називають ту ситуацію, коли ШІ, як-от ChatGPT або Bard, повідомляє неправильну інформацію, але поводиться так, ніби надає перевірені факти. Наприклад, нещодавно ChatGPT посилався на фейкові справи у заяві федерального суду.

«Навіть найсучасніші ШІ-моделі схильні видавати хибні відомості. Вони демонструють тенденцію вигадувати факти в моменти невизначеності, – йдеться у звіті OpenAI. – Ці галюцинації викликають багато проблем у галузях, що вимагають багатоступеневих міркувань, оскільки однієї логічної помилки достатньо, щоб зірвати набагато масштабніше рішення».

Нова стратегія OpenAI полягає в тому, щоб навчати ШІ винагороджувати себе за кожен окремий, правильний крок міркувань, коли він приходить до відповіді, замість винагороди за правильний остаточний висновок. Цей підхід називається «нагляд за процесом», на відміну від «нагляду за результатами», і, на думку дослідників, він може призвести до кращої роботи штучного інтелекту. Така стратегія заохочує моделі дотримуватись підходу, більш схожого на людський ланцюжок думок.

«Виявлення та пом’якшення логічних помилок або галюцинацій моделі є критично важливим кроком до побудови узгодженого AGI (або загального штучного інтелекту)», – сказав дослідник OpenAI.

Компанія відкрила доступ до супровідного набору даних із 800 тис. міток, які вона використовувала для навчання моделі, згаданої у заяві.

Однак деякі вчені скептично налаштовані до планів компанії. Вони вважають, що OpenAI надала занадто мало відомостей, тому існує велика непрозорість її роботи.

  • Раніше ChatGPT стверджував, що написав роботи деяких студентів. Тепер вони без дипломів і доводять своє авторство. Абсурдність ситуації в тому, що цей чат-бот не призначений для перевірки на плагіат.

Нещодавні статті

Начальник Управління IT в Міноборони Берестовий іде з посади за півтора року служби

Айтівець і начальник Управління ІТ Міністерства оборони України Олег Берестовий іде з посади. На цій…

18/04/2025

Visa запустила в Україні оплату за обличчям та відбитком пальця – що відомо

Транснаціональна компанія Visa запустила в Україні технологію, що дозволяє підтверджувати онлайн-покупки за допомогою біометрії –…

18/04/2025

Майже 1750 компаній є резидентами «Дія.City». Скільки податків вони сплатили в першому кварталі 2025-го

Очільник Міністерства цифрової трансформації Михайло Федоров повідомив, скільки податків сплатили резиденти «Дія.City» в І кварталі…

18/04/2025

Для обʼєднання менторів і менті. Українські айтівці запустили платформу mentor.sh

Українські айтівці Влад Кампов та Діма Малєєв запустили власний стартап mentor.sh – платформу для пошуку…

18/04/2025

CEO BetterMe Рєпа назвала пораду, про яку хотіла б знати 8 років тому

Засновниця та CEO BetterMe Вікторія Рєпа назвала пораду, яку вона хотіла б дати собі 8…

18/04/2025

Будують кар’єру та стають впевненими в собі. Як можна зростати в «Аврорі»: три мотивуючі історії

Станіслав Деркач все життя працював у сфері шоубізу, потім кинув собі виклик, пішов у кардинально…

18/04/2025