当前位置:首页 > 焦点

嘿Alexa,這聽起來有點詭異:亞馬遜展示語音助理最新功能,將可模仿死去親人的聲音

美國科技大廠亞馬遜(Amazon)週三(22日)展示一項研發中的這聽新功能,可讓語音助理Alexa模擬逝者的起來去親聲音,讓用戶與已故親人的有點亞馬音助聲音互動。雖然這項功能還未上市,詭異但已經在社群網路上引發討論。遜展新功

週三在拉斯維加斯舉行的示語聲音開發者大會(Re:Mars)上,亞馬遜高級副總裁暨Alexa團隊首席科學家普拉薩(Rohit Prasad)表示,理最亞馬遜正在訓練Alexa在聽過「不到一分鐘的可模錄音」後能模仿任何聲音,包括已經過世的仿死人生前的聲音。普拉薩說,這聽在COVID-19疫情中許多人失去了所愛的起來去親人,這項開發計畫的有點亞馬音助目標是「讓回憶永存」。

普拉薩並在大會上展示了一段影片,詭異一個孩子要求Alexa用他已故祖母的遜展新功聲音朗讀睡前故事。

在展示影片中,示語聲音Alexa先是用預設的機器人聲確認指令,接著孩子聽到的是與機器聲截然不同的輕柔聲音,幾乎像是某個人祖母生前的輕柔聲音。普拉薩表示,實現這項功能的秘訣是透過語音轉換,而非語音合成的任務來解決。

普拉薩表示,亞馬遜對Alexa的目標是「通用智慧」(generalizable intelligence),也就是能夠適應用戶環境、並在幾乎沒有外部輸入的情況下學習新概念。他強調Alexa的任務不應該具備與人類同等智慧、或超越人類的人工智慧的「通用人工智慧」(Artificial General Intelligence, AGI)相混淆,後者目前正由Google旗下的深思公司(DeepMind)與特斯拉執行長伊隆.馬斯克(Elon Musk)共同創立的人工智慧研究組織「OpenAI」研究中。

「雖然人工智能無法消除失去的痛苦,但它絕對可以讓他們的記憶保存下去。」普拉薩說。

亞馬遜並未透露這項技術何時會問世,不過已經在社群網路上引發討論,一些用戶稱該功能「令人毛骨悚然」。

透過人工智慧(AI)模仿人聲在近年已經變得越來越普遍,這些模仿通常被稱為「聲音深度偽造」(audio deepfakes),已經常用於Podcast、影視以及電玩遊戲之中。

例如一個Podcast主持人如果說錯台詞,後製人員可以透過輸入新的語詞來編輯聲音內容;這項技術同樣也運用在電影之中,最廣為人知的是2021年一部關於已故名廚安東尼.波登(Anthony Bourdain)的紀錄片,導演在片中使用了AI與電腦演算法重現波登的聲音,讓他「念出」生前從未講過的話,由於仿真度幾可亂真,當時引發不小的爭議。

另外在2020年,美國一名男子巴博(Joshua Barbeau)透過輸入已故未婚妻的相關資料,訓練AI聊天軟體「Project December」還原未婚妻的語氣,後來每當他沮喪的時候,他就會去找這個機器人聊天。不過未婚妻的母親拒絕與機器人交談,她說「我對這有點好奇,但我知道這不是她。」

就在亞馬遜展示這項新功能前幾個小時,微軟發布了新版的《負責任的AI標準》,這份準規範該公司如何構建AI系統,將嚴格限制誰可以透過AI合成聲音、以及如何使用這個聲音。微軟AI執行長克萊普頓(Natasha Crampton)表示,「很好預測這項技術如何被不恰當的用來冒充特定對象並欺騙聽眾。」

微軟將要求公司須申請許可才能製造AI合成聲音,並從上個月開始使用人耳聽不見的訊號給這些合成聲音加浮水印,以有助於識別濫用。

延伸閱讀

  • Siri也要學台語?蘋果在日本開職缺,要找會說英、台語的「台灣工程師」
  • 亞馬遜智能助理Alexa「勸人自殺」?元兇是惡意編輯《維基百科》的網民
  • 俄網軍資訊戰:社群網站流傳澤倫斯基deepfake造假影片,散布「烏克蘭人請投降」混淆視聽
  • 英國女王BBC耶誕暖心演說「你並不孤單」,但Channel 4的「Deepfake假女王」被罵爆

新聞來源

  • Amazon shows off Alexa feature that mimics the voices of your dead relatives(The Verge)
  • Amazon’s Alexa could turn dead loved ones’ voices into digital assistant(The Guardian)
  • Amazon has a plan to make Alexa mimic anyone's voice(Reuters)

【加入關鍵評論網成員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入成員!

責任編輯:黃筱歡
核稿編輯:吳象元


分享到:

京ICP备19007577号-5