logo
22 Чер 2022

Microsoft відмовляється від штучного інтелекту для розпізнавання емоцій

Анастасія Сімонова

Редактор новин в MC.today

Microsoft поступово відмовиться від штучного інтелекту, який може розпізнавати емоції. Про це пише Engadget. 

DUBAI, UAE - DECEMBER 1, 2017: Sign of microsoft on the office building

Що трапилося 

У компанії повідомили, що відмовляються від технології розпізнавання обличчя, що може визначити емоції, а також вік, стать і зачіску людини. На цей крок Microsoft пішов, бо наполягає на більш відповідальному використанні AI. 

«Компанія чітко усвідомлює зростаючу негативну реакцію на розпізнавання обличчя, і у відповідь припиняє значний проєкт», – пише видання. 

За словами Microsoft, AI підняв питання щодо конфіденційності. Також не було чіткої згоди щодо визначення емоцій та способу створити узагальнений зв’язок між виразами обличчя та настроєм у різних обставинах, регіонах або за за віком та статтю.

Що буде з Face від Microsoft

Нові користувачі платформи програмування Face від Microsoft більше не мають доступу до цих функцій. Клієнти, які є зараз, можуть використовувати їх до 30 червня 2023 року. Microsoft продовжить використовувати технологію в «керованих» інструментах, таких як Seeing AI для людей із проблемами зору.

Microsoft не перша компанія, що замислилася про відповідальне використання AI. Наприклад, IBM припинила роботу в цій сфері через побоювання, що її проєкти можуть бути використані для порушення прав людини. 

«Це все ще серйозна зміна. Одна з найбільших у світі компаній у сфері хмарних технологій та комп’ютерів відмовляється від штучного інтелекту, який може мати значний вплив», – додає видання.

Минулого року сервіс Google Cloud заблокував розпізнавання 13 видів емоцій у своїх інструментах. Як повідомили в компанії, було спірним розпізнавання ще чотирьох емоцій, включаючи, наприклад, радість та смуток. Компанія оцінювала можливість застосування нової системи, що дозволяє описати міміку на кшталт похмурості або посмішок без прив’язки її до емоцій.

Спецпроекти

Ваша жалоба отправлена модератору

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: