Amazon wykorzystuje zmarłą babcię dziecka w makabrycznym demo deepfake Alexa

Powiększać / Inteligentny głośnik Amazon Echo Dot czwartej generacji.

Amazonka

Amazon chce, aby jego asystentka głosowa Alexa głęboko sfałszowała głos każdego, żywego lub martwego, za pomocą krótkiego nagrania. Firma zademonstrowała tę funkcję podczas swoich re:Mars w środę w Las Vegas, wykorzystując emocjonalną traumę trwającej pandemii i żalu do sprzedania interesów.

Amazon re:Mars koncentruje się na sztuczna inteligencja, uczenie maszynowe, robotyki i inne nowe technologie, z ekspertami technicznymi i liderami branży na scenie. Podczas drugiego dnia przemówienia Rohit Prasad, starszy wiceprezes i główny naukowiec Alexa AI w Amazon, przedstawił funkcję, która jest opracowywana dla Alexy.

W wersji demonstracyjnej dziecko pyta Alexę: „Czy babcia może mi dokończyć czytanie Czarnoksiężnik z Krainy OzAlexa odpowiada: „Ok” swoim typowym, dziewczęcym głosem robota. Ale potem z głośnika wydobywa się głos dziecka, by przeczytać historię L. Franka Bauma.

Poniżej możesz obejrzeć demo:

Amazon re:MARS 2022 – Dzień 2 – Przemówienie.

Prasad powiedział tylko, że Amazon „pracuje” nad funkcjonalnością Alexy i nie określił, jaka praca pozostała i kiedy/czy będzie dostępna.

Podał jednak żmudne szczegóły techniczne.

„Ten wynalazek wymagał nauczenia się, jak tworzyć wysokiej jakości głos w czasie krótszym niż minuta nagrania w porównaniu z godzinami nagrywania w studio” – powiedział. „Sposób, w jaki to osiągnęliśmy, polega na zdefiniowaniu problemu jako zadania konwersji mowy, a nie zadania generowania mowy”.

Prasad bardzo krótko wyjaśnił, jak działa ta funkcja.
Powiększać / Prasad bardzo krótko wyjaśnił, jak działa ta funkcja.

Oczywiście deepfaking zyskał kontrowersyjną reputację. Podjęto jednak wysiłki, aby wykorzystać technologię jako narzędzie, a nie środek do straszenia.

W szczególności deepfake audio, jak zauważył Krawędźzostały wykorzystane w mediach, aby pomóc nadrobić zaległości, gdy, powiedzmy, podcaster zepsuł linię lub gdy gwiazda projektu nagle umrze, jak to miało miejsce w przypadku filmu dokumentalnego Anthony’ego Bourdaina Roadrunner.

Są nawet przypadki, w których ludzie używają AI do tworzenia chatbotów którzy starają się komunikować tak, jakby byli zagubioną ukochaną osobą, zauważa publikacja.

Alexa nie byłaby nawet pierwszym produktem konsumenckim, który używałby głębokiego dźwięku, aby zastąpić członka rodziny, który nie może być tam osobiście. The Takara Tomy inteligentny głośnik, jak wskazano Gizmodowykorzystuje sztuczną inteligencję do Lilia bajki na dobranoc dla dzieci głosem rodziców. Rodzice przesyłali swój głos, że tak powiem, czytając scenariusz przez około 15 minut. Chociaż różni się to znacznie od demonstracji Amazon, ponieważ właściciel produktu decyduje się udostępnić swój głos, a nie produkt używający głosu osoby, która prawdopodobnie nie może udzielić pozwolenia.

Oprócz obaw związanych z używaniem deepfake do oszustw, oszustwai inne nikczemna działalnośćsą już pewne niepokojące rzeczy dotyczące sposobu, w jaki Amazon oprawia tę funkcję, która nie ma jeszcze nawet daty premiery.

Przed pokazaniem wersji demonstracyjnej Prasad opowiadał o tym, jak Alexa oferuje użytkownikom „relacje firmowe”.

„W tej roli towarzystwa ludzkie atrybuty empatii i afektu są kluczem do budowania zaufania” – powiedział lider. „Te atrybuty stały się jeszcze ważniejsze w czasach trwającej pandemii, kiedy tak wielu z nas straciło kogoś, kogo kochamy. Chociaż sztuczna inteligencja nie może usunąć bólu utraty, z pewnością może sprawić, że ich wspomnienia przetrwają”.

Prasad dodał, że funkcja „umożliwia trwałe relacje osobiste”.

Prawdą jest, że niezliczona liczba ludzi poważnie poszukuje ludzkiej „empatii i afektu” w odpowiedzi na emocjonalne cierpienie zapoczątkowane przez pandemię COVID-19. Jednak asystent głosowy AI Amazona nie jest miejscem, w którym można zaspokoić te ludzkie potrzeby. Alexa nie może również pozwolić na „trwałe relacje osobiste” z ludźmi, których już z nami nie ma.

Nietrudno uwierzyć, że za tą rozwijającą się funkcją stoją dobre intencje, a usłyszenie głosu kogoś, za kim tęsknisz, może być dużym pocieszeniem. Teoretycznie moglibyśmy nawet zobaczyć, jak bawimy się taką funkcją. Nakłonienie Alexy do tego, aby przyjaciel usłyszał, że powiedzieli coś głupiego, jest nieszkodliwe. Jak wspomnieliśmy powyżej, istnieją inne firmy wykorzystujące technologię deepfake w sposób podobny do tego, co zademonstrował Amazon.

Ale sformułowanie rozwijającej się możliwości Alexy jako sposobu na ponowne ożywienie więzi ze zmarłymi członkami rodziny jest gigantycznym, nierealistycznym i problematycznym krokiem naprzód. Tymczasem szarpanie się za smutek i samotność w związku z pandemią wydaje się nieuzasadnione. Są miejsca, do których Amazon nie należy, a poradnictwo w żałobie jest jednym z nich.

Leave a Comment