Amazon използва мъртвата баба на дете в болезнена демонстрация на Alexa audio deepfake

Увеличете / Интелигентният високоговорител Amazon Echo Dot от 4-то поколение.

Amazon

Amazon измисля как да накара своя гласов асистент на Alexa да фалшифицира гласа на всеки, жив или мъртъв, само с кратък запис. Компанията демонстрира функцията на своя Re: Марс конференция в Лас Вегас в сряда, използвайки емоционалната травма от продължаващата пандемия и скръбта, за да продаде интерес.

Re: Марс се фокусира върху изкуствен интелект, машинно обучение, роботика и други нововъзникващи технологии, като на сцената излизат технически експерти и лидери в индустрията. По време на втория ден, Рохит Прасад, старши вицепрезидент и главен учен на Alexa AI в Amazon, показа функция, която се разработва за Alexa.

В демонстрацията дете пита Алекса: „Може ли баба да ме дочете Магьосникът от Оз„Алекса отговаря,“ Добре, „с типичния си женствен, роботизиран глас. Но след това гласът на бабата на детето излиза от високоговорителя, за да прочете приказката на Л. Франк Баум.

Можете да гледате демонстрацията по-долу:

Amazon re: MARS 2022 – Ден 2 – Основна информация.

Прасад каза само, че Amazon „работи върху“ възможността на Alexa и не уточни каква работа остава и кога/ако ще бъде налична.

Той обаче предостави дребни технически подробности.

„Това изискваше изобретение, при което трябваше да се научим да произвеждаме висококачествен глас с по-малко от минута запис срещу часове запис в студио“, каза той. „Начинът, по който го направихме, е като оформихме проблема като задача за преобразуване на глас, а не като задача за генериране на реч.“

Прасад много накратко обсъди как работи функцията.
Увеличете / Прасад много накратко обсъди как работи функцията.

Разбира се, deepfaking е спечелил противоречива репутация. Все пак имаше известни усилия технологията да се използва като инструмент, а не като средство за страховитост.

Аудио deepfakes конкретно, както е отбелязано от На ръбаса били използвани в медиите, за да помогнат за компенсиране, когато, да речем, подкастър обърка реплика или когато звездата на даден проект си отиде внезапно, както се случи с документалния филм на Антъни Бурдейн Roadrunner.

Има дори случаи на хора, които използват AI за създаване на чатботове че работят, за да общуват така, сякаш са изгубен любим човек, отбелязва изданието.

Alexa дори няма да е първият потребителски продукт, който използва дълбоко фалшиво аудио, за да попълни член на семейството, който не може да бъде там лично. В Такара Томи интелигентен високоговорител, както е посочено от Gizmodoизползва AI за Прочети детски приказки за лягане с глас на родител. Съобщава се, че родителите качват гласовете си, така да се каже, като четат сценарий за около 15 минути. Въпреки че това се различава значително от демонстрацията на Amazon, тъй като собственикът на продукта решава да предостави своите вокали, а не продуктът да използва гласа на някой, който вероятно не може да даде своето разрешение.

Освен опасенията, че дълбоките фалшификати ще бъдат използвани за измами, измамии други злобна дейноствече има някои тревожни неща за това как Amazon оформя функцията, която дори все още няма дата на пускане.

Преди да покаже демонстрацията, Прасад говори за това, че Alexa дава на потребителите „отношение на приятелство“.

„В тази роля на спътник човешките атрибути на емпатия и афект са ключови за изграждането на доверие“, каза изпълнителният директор. „Тези качества станаха още по-важни в тези времена на продължаващата пандемия, когато толкова много от нас са загубили някой, когото обичаме. Въпреки че ИИ не може да премахне тази болка от загубата, той определено може да направи спомените им трайни.“

Прасад добави, че функцията „позволява трайни лични взаимоотношения“.

Вярно е, че безброй хора са в сериозно търсене на човешка „емпатия и афект“ в отговор на емоционалния стрес, иницииран от пандемията COVID-19. Гласовият асистент на Amazon на AI обаче не е мястото, където да задоволи тези човешки нужди. Alexa също не може да активира „трайни лични отношения“ с хора, които вече не са с нас.

Не е трудно да се повярва, че зад тази развиваща се функция стоят добри намерения и че чуването на гласа на някой, който ви липсва, може да бъде голямо утеха. Можехме дори да видим, че се забавляваме с функция като тази, теоретично. Безобидно е да накарате Alexa да накара приятел да звучи така, сякаш е казал нещо глупаво. И както обсъдихме по-горе, има други компании, които използват дълбоко фалшиви технологии по начини, подобни на това, което Amazon демонстрира.

Но формирането на развиваща се способност на Alexa като начин за съживяване на връзката с по-късните членове на семейството е огромен, нереалистичен, проблематичен скок. Междувременно дърпането на сърдечните струни чрез внасяне на скръб и самота, свързани с пандемията, се чувства безпричинно. Има някои места, на които Amazon не принадлежи, а консултирането за скръб е едно от тях.