Amazon Alexa разкрива нова технология, която може да имитира гласове, включително мъртвите

Заместител, докато действията на статията се зареждат

Подпрян върху а до леглото масата по време на технологичната среща на Amazon тази седмица, Echo Dot беше помолена да изпълни задача: „Алекса, може ли баба да ми прочете „The Магьосникът от Оз ‘? “

Типично веселият глас на Алекса прогърмя от интелигентния високоговорител на тема деца с дизайн на панда: „Добре!“ След това, когато устройството започна да разказва сцена на Страхливия лъв, молещ се за смелост, роботизираният звук на Алекса беше заменен от по-човешки разказвач.

„Вместо гласът на Алекса, който чете книгата, това е гласът на баба на детето“, развълнувано обясни Рохит Прасад, старши вицепрезидент и главен учен на изкуствения интелект на Alexa в сряда по време на основна реч в Лас Вегас. (Основателят на Amazon Джеф Безос притежава The Washington Post.)

Демото беше първият поглед към най-новата функция на Alexa, която – макар и все още в процес на разработка – ще позволи на гласовия асистент да репликира гласовете на хората от кратки аудио клипове. Целта, каза Прасад, е да се изгради по-голямо доверие сред потребителите чрез вливане на изкуствения интелект с „човешките атрибути на емпатия и афект“.

Новата функция може да „направи [loved ones’] спомените са трайни“, каза Прасад. Но докато перспективата да чуете гласа на мъртъв роднина може да дразни сърцата, тя също така поражда безброй опасения за сигурността и етиката, казаха експерти.

„Не смятам, че нашият свят е готов за удобна за потребителя технология за клониране на глас“, каза пред The ​​Washington Post Рейчъл Тобак, главен изпълнителен директор на базираната в Сан Франциско SocialProof Security. Такава технология, добави тя, може да се използва за манипулиране на обществеността чрез фалшиви аудио или видео клипове.

„Ако киберпрестъпник може лесно и достоверно да репликира гласа на друго лице с малка гласова проба, той може да използва тази гласова проба, за да се представя за други хора“, добави Тобак, експерт по киберсигурност. „Този ​​лош актьор може след това да подмами другите да повярват, че са човекът, за когото се представят, което може да доведе до измама, загуба на данни, превземане на акаунт и други.“

Тогава има риск от размиване на границите между това, което е човешко и това, което е механично, каза Тама Ливър, професор по интернет изследвания в университета Къртин в Австралия.

„Няма да си спомняте, че говорите с дълбините на Амазонка… и неговите услуги за събиране на данни ако говориш с баба ти или с гласа на дядо ти или с този на изгубен любим човек.

„В известен смисъл това е като епизод на „Черно огледало““, каза Ливър, визирайки научнофантастичният сериал, който предвижда бъдеще с технологична тематика.

Инженерът на Google, който смята, че AI на компанията е оживял

Новата функция на Alexa също повдига въпроси относно съгласието, добави Лейвър – особено за хора, които никога не са си представяли, че гласът им ще бъде заличен от роботизиран личен асистент, след като умрат.

„Има истински хлъзгав наклон за използване на данните на починали хора по начин, който е едновременно ужасяващ от една страна, но дълбоко неетичен от друга, защото те никога не са смятали, че тези следи се използват по този начин“, каза Ливър.

След като наскоро загуби дядо си, Leaver каза, че изпитва съпричастност към „изкушението“ да иска да чуе гласа на любим човек. Но тази възможност отваря врата от последици, които обществото може да не е готово да поеме, каза той – напр. кой има правата върху малките откъси, които хората оставят на ефира на световната мрежа?

„Ако дядо ми ми беше изпратил 100 съобщения, трябва ли да имам право да подавам това в системата? И ако го направя, кой го притежава? Тогава Amazon притежава ли този запис?” попита той. — Отказах ли се от правата на гласа на дядо си?

Прасад не обърна внимание на подобни подробности по време на обръщението в сряда. Той обаче твърди, че способността да се имитира гласове е продукт на „безспорно живот в златната ера на AI, където нашите мечти и научна фантастика се превръщат в реалност“.

Този AI модел се опитва да пресъздаде ума на Рут Бадер Гинсбърг

Ако демонстрацията на Amazon стане реална функция, Ливър каза, че хората може да трябва да започнат да мислят как техните гласове и подобие могат да бъдат използвани, когато умрат.

„Трябва ли да мисля за това в завещанието си, че трябва да кажа:„ Моят глас и моята картинна история в социалните медии са собственост на децата ми и те могат да решат дали искат да реанимират това в чат с мен или не? ‘ — учуди се Лейвър.

„Това е странно нещо да се каже сега. Но вероятно това е въпрос, на който трябва да имаме отговор, преди Алекса да започне да говори като мен утре “, добави той.