Рубріки: Інфопривід

Штучний інтелект на кшталт ChatGPT підозрюють у поширенні інтернет-спаму. Чому це погано

Віднедавна дослідники спаму в інтернеті помічають зростання кількості неавтентичного контенту, створеного штучним інтелектом. Зокрема, дедалі частішими стали відгуки про товари на Amazon та дописи в Twitter, які, ймовірно, поширюють боти. Редакція MC.today переказує деталі з посиланням на Vice.

Якщо спробувати надурити ChatGPT або іншого розумного бота та попросити його написати щось, чого він не має робити, штучний інтелект видає кілька типових відповідей. Наприклад, пояснює, що він – мовна модель, якій заборонено створювати неприйнятний або образливий контент.

Дослідники виявили доволі велику кількість відгуків про товари на Amazon, які містять фрагменти такого тесту. Тобто можна припустити, що для їхнього написання люди користувалися штучним інтелектом та за якихось причин не перевіряли згенерований ботом текст.

Наприклад, в одному з них ШІ просто повідомив про те, що як мовна модель він точно може написати хороший відгук про товар. А в іншому – що не має особистого досвіду користування продуктом, але може дати йому погану характеристику на основі інформації з інтернету.

Представники Amazon зазначили, що перевіряють коментарі користувачів та прагнуть не допускати публікації фальшивого контенту. Втім, можна припустити, що в такий спосіб хтось може випробовувати здатність програм на кшталт ChatGPT для поширення спаму.

Раніше цього місяця онлайн-дослідник, відомий під ніком Conspirador Norteño, виявив спамерську мережу в Twitter. Облікові записи, які можуть мати до неї причетність, створили в період між 2010 та 2016 роками, вони поширювали переважно дописи про політику в Південно-Східній Азії, криптовалюту та повідомлення про помилку ChatGPT. Більш детальний аналіз активності може свідчити про те, що ці акаунти свого часу купили або викрали. Їхня загальна кількість тільки в цій спам-мережі наближається до 60 тисяч.

Директор Обсерваторії соціальних мереж при Університеті Індіани Філіппо Менцер вважає це серйозним приводом для занепокоєння. За його словами, дезінформація існувала завжди, проте соціальні мережі та генеративний ШІ створюють ще більше можливостей для її розповсюдження.

Науковець вважає, що ці інструменти можна легко використати для поширення не лише спаму, але й небезпечного контенту, як-от зловмисне ПЗ чи такий, що може загрожувати життю та здоров’ю людей. Тому він створив програму Botometer, яка аналізує облікові записи Twitter та оцінює їх за критеріями схожості на ботів. Втім, за словами Менцера, сьогодні важко назвати навіть приблизну кількість акаунтів, які можуть розповсюджувати спам у соцмережах та на загальнодоступних ресурсах. Тому важливо вже найближчим часом створити чіткі правила створення та розповсюдження контенту за допомогою ШІ.

  • Нагадаємо, днями розробник генератора зображень Stable Diffusion випустив конкурента ChatGPT з відкритим кодом. Також пропонуємо вам почитати, чому просити штучний інтелект критикувати або оцінювати авторські тексти – не надто хороша ідея.

Нещодавні статті

Exist.ua — комплексний підхід до обслуговування автомобіля

Сьогоднішній ринок автозапчастин пред’являє нові вимоги до продавців: автовласники очікують не просто широкий асортимент, а…

02/06/2025

Ближче до єдиного роумінгу з ЄС. Президент підписав закон про роумінг – що далі

Президент Володимир Зеленський підписав закон №12150 про єдину роумінгову зону з Євросоюзом. Таким чином Україна…

02/06/2025

NovaPay проситиме пояснення щодо деяких переказів. Чи стосується це продажу особистих речей

У NovaPay (фінансовий сервіс групи NOVA) ввели зміни щодо переказів для фізичних осіб. Нові умови…

02/06/2025

Розвиток і психологічний комфорт. Як в “Аврорі” сприяють кар’єрі та піклуються про працівників

Кожна компанія – це передусім люди, які в ній працюють. Для ритейлу, особливо такого масштабного,…

02/06/2025

Vodafone блокує номери за несплату? Так, але не всім – пояснення підтримки оператора

У мережі шириться інформація, що «Vodafone Україна» почав блокувати номери телефонів за несплату тарифу. У…

02/06/2025