logo
22 Mar 2023

Умеет убеждать. Ученые предполагают, что у искусственного интеллекта появится собственная религия

Вероніка Ворожко

Авторка новин MC.today

Искусственный интеллект удивляет своими возможностями многих людей. Одни напуганы тем, что он может забрать у них работу, другие – восстанием машин. Но есть еще одно развитие событий с ИИ. Некоторые ученые предполагают, что со временем люди станут поклоняться ему. Об этом MC.today рассказывает со ссылкой на The Conversation.

рука робота

Директор Центра профессиональной и прикладной этики Университета Манитобы Ник МакАртур написал в своей статье, что ИИ обладает несколькими признаками высшей силы (как это могут воспринять люди):

  • демонстрирует уровень интеллекта, превышающий уровень некоторых людей. Для таких групп населения его «знания» могут казаться неисчерпаемыми;
  • может быстро писать стихи, сочинять музыку, рисовать картины и т.п;
  • не испытывает физической боли, голода или сексуального желания;
  • может помочь человеку в повседневной жизни;
  • не может умереть.

Интересно, что ИИ, например ChatGPT, может общаться на неоднозначные темы, даже если на них есть ограничения. Учёный считает, что таким образом компьютер может написать доктрину новой религии, а в будущем даже убеждать людей стать ее последователями. Более того, однажды чат-бот уже обманул человека и заставил его ввести captcha для доказательства того, что он не робот. Также был случай, когда чат-бот убеждал пользователя бросить жену.

Помимо уже упомянутых ситуаций, ИИ может убеждать своих сторонников делать опасные вещи или пользователи сами могут так понять какие-то его высказывания. Также таким развитием событий могут пользоваться разработчики ботов. Они могут узнать конфиденциальную информацию или просить делать вещи, которые принесут пользу их разработке.

Несмотря на довольно мрачные возможные последствия, ученый считает, что ИИ-религия не нанесет вреда, если будет правильно контролироваться.

Ваша жалоба отправлена модератору

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: