Microsoft wycofuje kontrowersyjne narzędzie do rozpoznawania twarzy, które twierdzi, że identyfikuje emocje

Microsoft stopniowo wycofuje publiczny dostęp do szeregu narzędzi do analizy twarzy opartych na sztucznej inteligencji, w tym jednego, które twierdzi, że identyfikuje emocje osoby na podstawie wideo i obrazów.

Takie narzędzia „rozpoznawania emocji” zostały skrytykowane przez ekspertów. Mówią, że nie tylko wyraz twarzy, który uważa się za uniwersalny, różni się między populacjami, ale że nienaukowe jest utożsamianie zewnętrznych przejawów emocji z uczuciami wewnętrznymi.

„Firmy mogą powiedzieć, czego chcą, ale dane są jasne” – powiedziała Lisa Feldman Barrett, profesor psychologii na Northeastern University, która prowadziła badanie na temat rozpoznawania emocji w oparciu o sztuczną inteligencję. Powiedział Krawędź w 2019. „Potrafią wykryć grymas, ale to nie to samo, co wykrywanie gniewu”.

Decyzja jest częścią szersza zmiana polityki etycznej firmy Microsoft w zakresie sztucznej inteligencji. Zaktualizowane standardy odpowiedzialnej sztucznej inteligencji firmy (opisane po raz pierwszy w 2019 r.) podkreślają odpowiedzialność za wiedzę, kto korzysta z jej usług i większy nadzór człowieka nad tym, gdzie te narzędzia są stosowane.

Konkretnie oznacza to, że Microsoft będzie ograniczyć dostęp do niektórych funkcji jej usług rozpoznawania twarzy (znanych jako Azure Face) i całkowicie usunąć inne. Użytkownicy będą musieli na przykład poprosić o użycie Azure Face dla Face ID, informując Microsoft dokładnie, jak i gdzie wdrożą swoje systemy. Niektóre przypadki użycia o mniej szkodliwym potencjale (takie jak automatyczne zamazywanie twarzy na zdjęciach i filmach) pozostaną otwarte.

Oprócz usunięcia publicznego dostępu do swojego narzędzia do rozpoznawania emocji, Microsoft usuwa również zdolność Azure Face do identyfikowania „atrybutów, takich jak płeć, wiek, uśmiech, zarost, włosy i makijaż”.

„Eksperci z firmy i spoza niej wskazali na brak naukowego konsensusu w kwestii definicji„ emocji ”, wyzwania związane z uogólnianiem wniosków w różnych przypadkach użycia, regionach i danych demograficznych oraz zwiększone obawy dotyczące prywatności związane z tego rodzaju możliwościami” – napisała Natasha Crampton. , szef sztucznej inteligencji w Microsoft, w poście na blogu informującym o nowościach.

Microsoft twierdzi, że przestanie oferować te funkcje nowym klientom od dzisiaj, 21 czerwca, a dostęp dotychczasowym klientom zostanie cofnięty 30 czerwca 2023 r.

Jednak wraz z przejściem na emeryturę Microsoft publiczny uzyska dostęp do tych funkcji, będzie nadal korzystał z nich w co najmniej jednym ze swoich własnych produktów: aplikacji o nazwie Zobacz AI która wykorzystuje komputerową wizję do opisywania świata dla osób z wadami wzroku.

W post na bloguSarah Bird, starszy menedżer ds. produktów w grupie Microsoft ds. sztucznej inteligencji, powiedziała, że ​​narzędzia takie jak rozpoznawanie emocji „mogą być przydatne, gdy są używane w szeregu kontrolowanych scenariuszy ułatwień dostępu”. Nie jest jasne, czy narzędzia te będą używane w innych produktach firmy Microsoft.

Microsoft wprowadza również podobne ograniczenia do swojej funkcji Custom Neural Voice, która pozwala klientom tworzyć głosy sztucznej inteligencji na podstawie nagrań prawdziwych ludzi (czasami nazywanej deepfake audio).

Narzędzie „ma ekscytujący potencjał w edukacji, dostępności i rozrywce”, pisze Bird, ale zauważa, że ​​„łatwo sobie wyobrazić, jak można je wykorzystać do podszywania się pod prelegentów w niewłaściwy sposób i wprowadzania słuchaczy w błąd”. Microsoft twierdzi, że w przyszłości ograniczy dostęp do funkcji do „zarządzanych klientów i partnerów” oraz „zapewni aktywne uczestnictwo mówcy podczas tworzenia syntetycznego głosu”.

Leave a Comment