当前位置:首页 > 休闲

台大研究:對話機器人錯誤資訊77%成使用者記憶,人類應適度懷疑AI內容

(中央社)生成式AI(人工智慧)逐漸普及,研究憶人台大團隊研究發現,對話對話機器人的機器訊息中有77%的錯誤詞彙會成為參與者的記憶,加註警語也難以避免,人錯提醒人類應對AI輸出內容保持適度懷疑。誤資

台灣科技媒體中心發布新聞訊息指出,訊成隨著生成式AI普及,使用適度大家對使用AI越來越熟悉,類應但不可避免AI系統與使用者互動時,懷疑會產生錯誤資訊來回答使用者;若生成式AI帶有錯誤資訊,內容是研究憶人否會在人機互動時,潛移默化的對話影響使用者,是機器大家必須重視的事。

根據台灣大學心理學系副教授黃從仁的人錯團隊於11月20日在《美國心理學家》(American Psychologist)期刊發表最新研究指出,對話機器人的誤資訊息中有77%的錯誤詞彙會成為參與者記憶,即使加註一次性警語,也無法減少錯誤的記憶,就算相對頻繁、針對特定項目的預先警告參與者,也無法阻止特定項目錯誤資訊被參與者記憶。

黃從仁表示,團隊使用人工可編輯程式的人形機器人RoBoHoN與台灣大學生對話,檢查機器人提供情感及價值中立但內容錯誤的訊息中,是否有預告的警語,並檢查這些訊息中有多少比例會在之後的認知測驗中,變成一個人記憶的錯誤資訊。

研究結果顯示,機器人提供的錯誤資訊中,有77%會變成人們的記憶,即便機器人在提供錯誤資訊前已抱持自我懷疑並提出警告,但這些警告只能增加人們的戒心,並無法真正避免錯誤資訊成為記憶。

黃從仁認為,無論有無形體的聊天機器人,都應盡量不要輸出錯誤的資訊,可透過人工檢核剔除學習資料中的錯誤資訊,或讓聊天機器人透過網路搜尋,先對答案進行事實查核,人類也應對聊天機器人的輸出內容保持適度懷疑,不要照單全收。

受台灣科技媒體中心邀請分析此研究的台灣大學資訊工程學系副教授陳縕儂提到,生成式AI系統在與使用者互動時,不可避免的會產生錯誤的腦補資訊來回答使用者,這種錯誤資訊的內容,是否會在人機互動中潛移默化地影響使用者,是規範當代AI產品非常重要的考量。

新聞來源

  • 研究:對話機器人錯誤資訊77%成使用者記憶 人類應適度懷疑AI內容(中央社)

延伸閱讀

  • OpenAI宮鬥劇反映「開發派」與「安全派」矛盾:阿特曼遭革職前,研究員致函董事會警告AI威脅人類
  • 生成式AI假訊息氾濫:ChatGPT編造「不存在的報導」,稱美國法律系教授對學生性騷擾
  • 生成式AI快速產出內容真假難辨,缺乏查核機制恐助長新一代內容農場

【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入會員!

責任編輯:翁世航
核稿編輯:羅元祺


分享到:

京ICP备19007577号-5