当前位置:首页 > 热点

《被操弄的真實》:演算法可以取代新聞記者與編輯,來決定讀者應該知道什麼嗎?

文:泰娜・布策(Taina Bucher)

人類有心,被操電腦沒有

演算法看起來有顯而易見的真實知道限制,若把演算法和人類的演算與編應該能力視為對立面就會特別明顯。人類有感情和直覺,取代但是新聞電腦沒有。判斷新聞價值的記者輯來決定能力被視作人類獨有的特質,也代表著新聞業的什麼核心:手腕,而這種手腕仰賴新聞直覺和專業知識。被操我們已經知道有些受訪者認為新聞業過度強調「人類直覺」,真實知道但直覺仍然是演算與編應該記者和編輯了解自我專業能力的重要組成部分(Schultz, 2007)。

新聞直覺是取代判斷一則報導新聞價值高低的內隱知識。對於大多數的新聞新聞媒體人來說這不證自明,因此要解釋這項直覺是記者輯來決定什麼可能很困難。甚至當教科書作者對新手解釋新聞實踐的什麼特性時,也說新聞社會化的被操最終產物是種「直覺」(Cotter, 2010: 77)。的確如此,很多受訪者都仰賴熟知的專業新聞論述,來解釋新聞業中演算法所扮演的角色。

由於資訊守門人的職責逐漸受到工程師和電腦程式設計師掌控,新聞記者和新聞專業人士正面臨艱困的任務,要重新檢視專業行為準則,並定義新聞業的角色。這些討論中的主要擔憂是機器人會不會取代人力,以及自動化增加之後,對於工作保障有何影響。當我提出這些議題時,很多受訪者反而開始談論演算法的限制。演算法應該要讓編輯工作流程更有效率,這卻也是演算法和自動化之間的權衡拉扯。

多數受訪者認為演算法基本上就是數學、公式及計算。蓋爾.拉森(Geir Larsen)當時在挪威讀者數最多的《世道報》擔任分析主管,他認為數據量增加只是一個新聞機構遲早需要面對的事實。不過,不應該誇大數據和演算法的影響。我問拉森《世道報》是使用何種演算法,他說:「演算法只是一種程式設計的邏輯,但大數據不是,我們也用小數據做很多有趣的事。資料集是不是很大並沒有非常重要」,因為最終,「你最重要的工作工具就是你的新聞直覺」(訪談二十,二○一四年三月)。

Omni 基本上仰賴各種演算法媒介,但即使在這種新聞機構中,電腦仍無法從脈絡資訊中進行推論,也不能理解反諷,這表示「演算法不可能取代人類的心靈和大腦,來判斷什麼才是對讀者最好的」(訪談八,二○一四年四月)。將人類判斷力和電腦計算機制並列,不僅透露出一種認為演算法是機械性且較低等的想法,也表明了想維持記者專業環境的渴望。我問拉森,《世道報》在未來是否會自動化首頁的設計和呈現,他說「我們想過這個可能性,但答案是否定的。」

拉森和許多其他受訪者一樣,都強調新聞和新聞價值的「民主」功能。他願意使用演算法來自動化報紙的某些部分,但認為使用範圍需要受到限制並謹慎控管。另外他也堅持編輯在決定讀者應該知道什麼的基本角色。拉森認為,報紙的角色不是根據個人過去的點擊行為提供內容。如果世界上發生了什麼重要的事情,「我們有責任告知大眾,說『這很重要,你必須了解』」(訪談二十,二○一四年三月)。這項新聞功能的關鍵在於,提供大眾可靠的消息來源以維持大眾對報紙的信任。

編輯和主管都談及他們的品牌名號,以及擁有讓讀者容易辨認的獨特編輯風格有何重要性。讀者原本已經習慣特定媒體獨特且可辨識的編輯風格,因此有人認為演算法邏輯出現在新聞業中,似乎會讓此受到威脅。我問莫勒,《政治報》有沒有可能使用演算法來個人化首頁,他說:「我們希望《政治報》持續扮演一個可信賴的新聞機構,而最好的做法就是利用我們自己的優先排序,而不是自動化程序。」大家會讀《政治報》是因為他們知道「我們的理念。我們身為報紙有個很珍貴的價值——這是由抱持特定世界觀的人所創造出來的」(訪談五,二○一四年三月)。

受訪者擔心演算法帶來的負面影響並不稀奇,過去十年來都持續有人提出這些關切,認為演算法會製造出所謂的過濾氣泡和同溫層,讓使用者只接收到和自己的點擊習慣相似的內容(Pariser, 2011)。受訪者表達擔憂的背後就是這些重要的論述。將新聞業和計算一起討論,這幾乎是在要求受訪者反思演算法個人化可能帶來的危險。

《日德蘭郵報》數位總監尼古拉森說「讓某些部分百分之百由演算法掌控,能夠發現這種做法的優勢真的很棒」,不過他也馬上指出過濾泡泡有可能會危及大眾理想中的新聞業。莫勒同樣指出,過濾氣泡正是他們想要避免的後果,許多新聞機構面臨的問題就是如何解決這項難題。一方面,迎合個別讀者的特定興趣已經愈來愈重要;另一方面,如同莫勒所言:「如果一切都以演算法為基礎,我們擔心你會錯過了其他一些我們想讓你知道的事」(訪談五,二○一四年三月)。

編輯和主管普遍都會謹慎地避免賦予演算法過多能動性,真正關鍵的是演算法如何用於提升並支持新聞記者完成工作。約根・弗蘭(Jørgen Frøland)是北極星媒體的個人化專案經理,並負責開發《iTromsø》的演算法,他認為很多關於演算法的擔憂及恐懼,都來自於多數人仍未真正了解它。弗蘭表示,在大部分情況下,「演算法非常笨」(訪談十九,二○一六年八月)。這並不是非此即彼的問題,而是要讓科技做科技擅長的事,人做人擅長的事。弗蘭舉例說,就像演算法不能根據常識做出決定。

任職北極星媒體旗下的地方報紙《Adresseavisen》的沃蘭,她認為演算法相對愚笨,這表示大家不應該認為演算法會在新聞業中造成很多問題。她引用在機器人新聞業的辯論中時常提及的一個論點:演算法並不會威脅新聞記者的工作保障,而是有潛力讓工作更讓人興奮,因為演算法能「讓記者從一些極為繁瑣的事物中解脫」(訪談四,二○一六年八月)。因為「好的新聞業要能夠提出關鍵的問題、判斷新聞來源是否可信、接觸世界並與大家溝通」,沃蘭並不覺得演算法會對新聞專業帶來嚴重的威脅。

大家選擇使用什麼樣的字眼來討論演算法很重要,奧拉・亨里克森(Ola Henriksson)是瑞典全國性報紙《瑞典日報》的網路編輯與專案經理,他認為「演算法」這個詞太抽象也太令人困惑。當我問他認為什麼是「演算法」,他回答「數學」和「計算」(訪談十八,二○一六年六月)。奧拉說這不是新聞業的實質內涵,並且認為這個詞造成的傷害多過於帶來的好處。

Schibsted 旗下的《瑞典日報》是首家使用Omni開發的演算法基礎建設與評分系統的報紙,這個受Omni啟發的方法被稱為「編輯控制演算法」,而不是某個演算法。我問亨里克森是否認為這個名稱有帶來任何改變,他回答:「有,對部分的人來說,這似乎真的有帶來不同」。「編輯控制」的這個概念可以讓大家比較放心,並向大家保證雖然出現了演算法媒體,編輯仍然是重要的角色。

透過多位新聞專業人士的描述,不難看出「編輯控制演算法」這個概念的確具有吸引力。這限制了程式編碼的權力,同時也維持人類的能動性,帶來了較不具威脅、更現代,及更創新的結果。在《瑞典日報》推行演算法和新的出版平台後,這被廣泛視為一大成功。這種演算法受編輯和讀者偏好指引,並根據即時性、新聞價值,及個人興趣,替每一位造訪網站的使用者打造個人化首頁。

啟用演算法後,《瑞典日報》宣稱網頁的流量提升百分之十五、個別使用者數量提升百分之九。在此案例中,演算法成為英雄而非反派。瑞典的紙本報紙基本上已經壽終正寢,但演算法重新帶來了光明的未來,至少有說法這麼認為(Garcia, 2017)。讓這個演算法為人稱道的功臣是其擁有者,也就是說,新聞演算法和「編輯控制演算法」不同於臉書的「加州程式碼」之處在於前者的卓越道德。《瑞典日報》的總編輯弗雷德里克・卡倫(Fredric Karén)在接受 Storybench 新聞網站訪問時談到:

我相信你必須控制並掌握你自己的科技。如果我們加入Google和臉書的廣告平台,他們一定會非常高興。但是身為一家出版商,正直誠實也非常重要。掌握出版的方式、出版的時機,及出版的地點,這是向前邁進的關鍵。(Rodrigues, 2017)

讓我們暫停一下,思考「正直誠實」為什麼會出現在這段發言中,又如何能讓演算法以正確的方式獲得物質重要性。有鑑於近來臉書演算法的爭議不斷,特別是關於臉書應該要承擔多少編輯責任的討論。因此,新聞媒體發現,只要強調並強化機構的正當性,就會受到歡迎。對Schibsted的艾斯彭・桑德維來說,過度陷入臉書動態的演算法是他對新聞未來最大的擔憂之一。

雖然桑德維談及受臉書演算法吞噬的危險時,他所想的是臉書的刊登平台「即時文章」(Instant Articles),但是這些擔憂遠遠超出對於財務責任的考量。對於新聞專業人士來說,有問題的演算法不只出現在新聞機構內部,更重要的或許是臉書和Google所掌控的外部演算法。桑德維表示臉書的動態消息「以民主的觀點看來」充滿問題,因為它「把編輯職責交給完全不負編輯責任的人」(訪談七,二○一六年五月)。

過度依賴未能反映出正確價值的演算法很危險,如同桑德維所說,科技公司可能會想要提供大眾他們想要的,但是新聞業的主要任務是提供大眾他們應該知道的資訊,並且為此負責。桑德維補充道,給大眾他們需要知道的資訊,也包括要呈現出一個議題的不同觀點,「如果你反對疫苗,你應該也要知道光譜另一端的事實,而不是在臉書動態消息上找到另外五十個認同你的人」(訪談七,二○一六年五月)。

很多受訪者提到,避免過濾氣泡的其中一個方法,就是要更仔細地思考演算法的設計。問題不是演算法一定會產生氣泡或同溫層,而是一個特定的演算法究竟優化了什麼。吉林格認為,演算法和多樣性不一定互斥,「這都取決於你希望你的演算法反映出什麼」。如果你想要優化點擊率,你完全可以做到,「但是,在我的世界中,那算是很差勁的演算法」(訪談十七,二○一六年五月)。批評者擔心臉書有能力製造過濾氣泡並誤導大眾,也有人認為民主危機可以透過更好、在新聞上更完善的演算法來解決。

書籍介紹

本文摘錄自《被操弄的真實:演算法中隱藏的政治與權力》,臺灣商務出版

作者:泰娜・布策(Taina Bucher)
譯者:葉妍伶、羅亞琪

  • momo網路書店
  • 透過以上連結購書,《關鍵評論網》將由此獲得分潤收益。

從搜尋引擎到社群媒體,演算法篩選成千上萬的資訊,形成了偏見,卻也造就了同溫層。
誰賦予了演算法權力,決定我們看到的一切?工程師、社群平台、意見領袖、普羅大眾?
唯有看透背後的政治運作,才能揭露網路世界的真實!

Facebook、YouTube、Amazon等數位平台已經融入我們的日常,他們使用演算法強大的功能,挑選合宜的資訊,促進便利的生活。但是,也出現質疑的聲浪,認為經過演算法的過濾,反而蒙蔽大眾的視野、造成社會分化、助長不當消息的散播。究竟誰該負起造成這些現象的責任?因此,本書作者泰娜・布策認為演算法不只是一門計算科學,更是涉及人文社會的跨領域研究。她跳脫程式語言的框架,從臉書動態消息到假新聞的實際案例,探索演算法的具體運用,以及造就的文化形式,透過政治與權力的角度,開創理解演算法的全新視野。

getImagePhoto Credit: 臺灣商務出版

責任編輯:翁世航
核稿編輯:王祖鵬

分享到:

京ICP备19007577号-5