Nowa propozycja od Amazon: Niech Alexa przemówi jako Twoi bliscy zza grobu

Do Konferencja Amazon Re:Mars, starszy wiceprezes Alexy, Rohit Prasad, wprowadził zaskakującą nową funkcję asystenta głosowego: rzekomą zdolność naśladowania głosów. Jak dotąd nie ma harmonogramu, kiedy i czy ta funkcja zostanie upubliczniona.

Co dziwniejsze, Amazon zachwalał tę umiejętność kopiowania jako sposób na upamiętnienie utraconych bliskich. Opublikował film demonstracyjny, w którym Alexa czytała dziecku głosem swojego niedawno zmarła babcia. Prasad zwrócił uwagę, że firma szuka sposobów, aby sztuczna inteligencja była jak najbardziej osobista. „Chociaż sztuczna inteligencja nie może usunąć tego bólu straty, powiedział, że „z pewnością może sprawić, że wspomnienia będą trwać”. Rzecznik Amazona powiedział Engadget, że nowa umiejętność może stworzyć syntetyczny ślad głosowy po przeszkoleniu z zaledwie jednej minuty dźwięku od osoby, którą ma replikować.

Eksperci od bezpieczeństwa od dawna obawiali się, że fałszywe narzędzia głębokiego audio, które wykorzystują technologię zamiany tekstu na mowę do tworzenia syntetycznych głosów, mogą utorować drogę do zalewu nowych oszustw. Oprogramowanie do klonowania głosu umożliwiło wiele przestępstw, takich jak incydent w Zjednoczonych Emiratach Arabskich w 2020 r., w którym oszuści nakłonili menedżera banku do przelania 35 milionów dolarów po tym, jak naśladować Menedżer biznesowy. Ale fałszywe przestępstwa z głębokim dźwiękiem nadal są stosunkowo nietypowya narzędzia dostępne dla oszustów są na razie stosunkowo prymitywne.

Wszystkie produkty polecane przez Engadget są wybierane przez naszą redakcję, niezależną od naszej firmy macierzystej. Niektóre z naszych historii zawierają linki afiliacyjne. Jeśli kupisz coś za pośrednictwem jednego z tych linków, możemy otrzymać prowizję partnerską.

Leave a Comment