В Amazon заметили, что ChatGPT «сливает» конфиденциальную информацию о компании
В компании Amazon обратили внимание на то, что популярный чат-бот ChatGPT по определенным запросам генерирует тексты, напоминающие ее конфиденциальные данные. Редакция MC.today пересказывает подробности со ссылкой на Business Insider.

Фрагменты сгенерированного ChatGPT текста очень напоминали некоторые секретные файлы Amazon. В компании даже некоторое время предполагали, что кто-то из сотрудников мог случайно или специально «слить» конфиденциальную информацию, а алгоритмы чат-бота успели на ней обучиться.
Но кажется, что проблема заключалась не в этом. Дело в том, что сотрудники Amazon, как и тысячи людей во всем мире, решили воспользоваться способностью ChatGPT обрабатывать большие массивы информации и генерировать контент. К примеру, программисты и инженеры иногда писали с его помощью код или составляли техническую документацию.
Такая информация может и не быть на 100% секретной, но ее попадание в открытые источники тоже нежелательно. Особенно когда компания работает с определенным уникальным программным продуктом или создает инновационные решения.
Несмотря на публичность и несовершенство ChatGPT, технические специалисты все же признают, что он может существенно повысить производительность и уменьшить вероятность возникновения ошибок при написании кода. В Amazon намекнули на то, что уже начали разрабатывать аналогичную технологию, которой смогут пользоваться только сотрудники компании.
Недавно мы рассказывали, почему ChatGPT не работает в Украине. Также предлагаем вам почитать о чат-боте, который работает по схожему принципу, но не пишет фейки и не перекручивает факты.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: