Від архітектури до зайців. ШІ, навчений на згенерованому контенті, створює інформаційне сміття
З’являється дедалі більше контенту, згенерованого штучним інтелектом. З часом моделі ШІ навчатимуться та використовуватимуть раніше згенеровані дані, що може призвести до плутанини. Про це попередили науковці з Великої Британії та Канади, пише Business Insider.
Brown hare, Lepus europaeus, single mammal on grassУ новій вчені намагалися зрозуміти, що відбувається після того, як кілька поколінь ШІ навчаються на даних один одного. Так, в одному експерименті технологія згенерувала інформацію про зайців, хоча початковий матеріал був про середньовічну архітектуру, але про це трішки згодом.
Дослідження показало, що «впродовж кількох поколінь текст стає сміттям», – написав у блозі один з авторів, професор Росс Андерсон. Це стосується і зображень.
Вчені називають це «крахом моделі». Річ у тім, що великі мовні моделі (LLM), як-от ChatGPT, навчалися на величезних обсягах даних, отриманих з інтернету та створених людьми.
Але з активним використанням інструментів ШІ згенерованого контенту стає все більше. Відповідно майбутні моделі навчатимуться на матеріалах, які створені без людини.
З часом це призведе до великої кількості помилок та нісенітниці, яку ШІ може сприйняти та видати за правду, йдеться у ще не рецензованій статті.
Повернімось до зайців. Текст про архітектуру, створений людиною, віддали ШІ, потім на згенерованому матеріалі навчалися інші моделі, і так ще раз, і ще раз… Так до дев’ятого покоління ШІ змінював текст. У результаті вийшло щось таке: «Архітектура. Крім того, що тут проживає одна з найбільших у світі популяцій чорних хвостатих кроликів, білих хвостатих кроликів, синіх хвостатих кроликів, червоних хвостатих кроликів, жовтих…».
Один з авторів дослідження порівняв це із забрудненням океану: люди закидали сміттям океан, і так само закидають ним інтернет. Однак учені сподіваються, що ШІ не зможе витіснити людину.
Поки ми не знаємо, як буде з контентом, але робот з ШІ вже показав, що не є конкурентом для коміків.









Повідомити про помилку
Текст, який буде надіслано нашим редакторам: