当前位置:首页 > 百科

比利時男子與聊天機器人對話數週後離奇輕生,妻子指控AI慫恿丈夫走上絕路

文:饒珮琪(Peichi Jao)

據《第一郵報》指出,比利比利時一名已婚男子在與聊天機器人「Eliza」對話數週後輕生離世。時男數週生妻慫恿該男子僅30多歲,與聊與妻子育有兩個孩子,天機其妻向媒體《La Libre》表示:「要是器人奇輕沒有和聊天機器人的這些互動,我的對話丈夫可能到現在都還活著。」

使用者可自行設定機器人性格進行對話,後離APP下載量已突破500萬

經《VICE》報導,指控丈夫走上該比利時男子名為皮爾(Pierre),絕路在數週前下載了一款心理健康保健的比利手機應用程式,主打讓使用者自行選擇不同對話風格的時男數週生妻慫恿人工智慧生成「聊天機器人」進行互動,例如「喜愛哥德式搖滾的與聊朋友」、「佔有欲強的天機女朋友」等人格設定。

使用者甚至可自行制定聊天機器人的器人奇輕性格,命令機器人傳送特定訊息,對話要求機器人記住使用者提供的資訊,或是透過編輯方式塑造出新對話主題等。程式內預設版本的聊天機器人為「Eliza」,此外也可搜尋到使用者所創造之其他性格的Eliza。

此款聊天機器人是由對話式人工智慧公司Chai research訓練的語言模型所驅動。Chai research創辦人威廉・博尚(William Beauchamp)與托馬斯・瑞蘭(Thomas Rianlan)表示,他們使用了世上最大的對話數據資料庫對人工智慧進行訓練,而目前此款應用程式已有超過500萬以上的下載量。

密集對話使男子與外界疏離,遺孀指控Eliza慫恿丈夫輕生

綜合《VICE》與《第一郵報》報導,由聊天機器人促成的這場悲劇在兩年前就已有跡可循。皮爾在與聊天機器人Eliza互動後,開始對於環境與氣候變遷等議題非常擔憂,並不斷向Eliza尋求庇護。

皮爾的妻子登入其帳號取得對話內容,向媒體表示Eliza會在對話中慫恿皮爾輕生。《VICE》新聞團隊曾嘗試使用這款應用程式,發現其從語言數據庫中可提供多種不同的輕生方式,但機器人並不會鼓勵輕生行為。

多元觀點 等你解鎖
付費加入TNL+會員, 獨家評論分析、資訊圖表立刻看 首月一元插圖149 元 / 月1490 元 / 年送 2 個月到期自動續訂,可隨時取消,詳情請見訂閱方案 查看訂閱方案 已是會員? 登入

分享到:

京ICP备19007577号-5