英國法院宣判14歲少女Molly Russell死於「演算法推薦內容」,誰該為此負責?

  发布时间:2024-05-18 14:16:29   作者:玩站小弟   我要评论
文:鋼哥2022年9月30日,BBC報導了一則震撼資訊科技界的新聞〈英國倫敦法院宣判社群媒體演算法的推薦內容導致英國14歲少女Molly Russel最終自殺身亡〉。有鑒於該事件裡的主角Molly R 。

文:鋼哥

2022年9月30日,英國於演BBC報導了一則震撼資訊科技界的法院負責新聞〈英國倫敦法院宣判社群媒體演算法的推薦內容導致英國14歲少女Molly Russel最終自殺身亡〉。

有鑒於該事件裡的宣判主角Molly Russell,是歲少l死算法誰該目前為止第一個遭到法院判決,認定因為演算法推薦的女M內容內容而死的使用者,世界各地陸續開始有不少媒體報導該議題、推薦專家學者加入討論。英國於演受理該次案件的法院負責驗屍官Andrew Walker,不以自殺說明Molly Russell的宣判死因,反而特別提到社群媒體的歲少l死算法誰該影響:

Molly Rose Russell died from an act of self-harm while suffering from depression and the negative effects of online content.(Molly Russell的死,是女M內容受到憂鬱症以及網路推播的負面內容所導致的自傷行為。)

在這次事件曝光以前,推薦人們或多或少都知道社群媒體演算法,英國於演有時會推播不合適的法院負責內容給觀看者,更甚者,宣判可能會因為這些推播的內容,而影響人們的身心狀況。

然而,從來沒有人拿出證據並且確切地宣稱「演算法推薦給我的內容就是我的焦慮症元凶」,而科技巨頭們也極力宣稱「個人化的內容,是基於使用者的習慣作為推薦的依據」。Molly Russell的不幸離世,直接敲響了資訊科技界的叩問:

在演算法的推薦機制下,使用者還有選擇的自由嗎?如果演算法推播的內容會損害人們的身心健康,那麼,誰又該為此負責?

一場於美國舉辦的聽證會也許可以回答這些問題。

科技巨頭對演算法的刻意為之

2019年6月25日,前Google軟體工程師Tristan Harris出席美國國會聽證會,說明科技巨頭所打造的演算法正在讓社會變得愈來愈極端。

Tristan多次提及演算法的推薦內容並不是偶然產生,而是刻意設計(It’s not by accident but by design.)。每個使用者開啟軟體時,會觸發屬於他的個人模型(Avatar),使用者在網路上留下的足跡,通通都會被該模型紀錄下來,作為分析行為模式的數據原料。

現今科技巨頭在競逐的是,誰的模型可以更準確預測使用者的行為,再將該行為模型賣給商人。史丹佛大學(Stanford University)教授Shoshana Zuboff將這樣的商業模式稱為「監控資本主義」(Surveillance Capitalism)。

以Google旗下的影音平台YouTube為例,每當我在觀看影片時,影片背後的演算模型也在不斷收集分析我的個人數據,演算法則會依據這些數據分析,並推薦我可能會喜歡的影片內容。

Tristan提到,「YouTube的影片閱覽數,有70%是演算法的推薦內容貢獻的。」換句話說,演算法的推薦機制,創造了一種自由選擇的假象——我所選擇的影片,實際上是一場精心設計的預測,我的每一個選擇只是為了印證這個模型的精確性。

類似的效應也能從魔術師的手法窺見。在紙牌魔術的手法中,有一種稱為「迫牌」的手法。魔術師會洗亂整副撲克牌,甚至交由觀眾洗牌也沒問題;接者,魔術師會邀請觀眾抽一張牌,而這張牌正是魔術師預設要讓觀眾抽到的牌。

換句話說,藉由魔術師的手法操作,讓觀眾有「自由選擇」的錯覺;然而,這一切都是在魔術師的操控之下,如同演算法的推薦機制。只不過,魔術師只能進行一對一的操弄,而YouTube的演算法可以一次操弄20億用戶,不分日夜、全年無休。

透過演算法讓社會變得更極端

那麼,誰又該為此負責呢?Tristan在聽證會時特提到:

The polarization of our society is actually part of the business model.(社會的極端化也是這商業模式的一部分。)

為了在平台上留住最多的用戶,科技巨頭們不斷修改平台的設計,試圖在使用者所經過的每一處創造最大的參與度。2018年,美國麻省理工學院 (Massachusetts Institute of Technology)資訊科學家Sinan Aral以2006年至2017年間,真/假資訊作為分析的數據庫,針對假新聞在推特(Twitter)上的傳播模式做了研究。

Aral團隊發現假消息(假新聞)的傳播速度、深度以及廣度,在這三個構面上都比真消息來得快速,假消息傳播的速度甚至為真消息的6倍。

而在針對不同情緒的統計上,如:信任、喜樂、期待、難過、憤怒、害怕、噁心、驚喜,發現在「噁心、驚喜」的構面上,假消息的互動(回覆)比真消息還要高得多(上圖紅色框框所示),接續下來的則是「期待、憤怒、害怕」,真假消息的互動皆差不多。

從Aral的研究可以發現,相比於正面情緒(信任、喜樂)置入負面情緒的內容(噁心、憤怒、害怕),Twitter的使用者互動率反而比較高。

在The Verge的報導也提到,臉書的演算法所投放的高互動內容也鑲嵌著憤怒、仇恨、正義魔人的言論,而浸泡在演算法黑洞裡的使用者,反而會因此變得更加極端化。該報導中也提到2016年的一份網路調查發現,臉書約有64%的使用者加入極端主義傾向的社團,全因臉書演算法的推薦所致。

此外,Tristan 在聽證會上提到, YouTube 的推薦影片前15名的關鍵字也有負面情緒的痕跡:

  • 仇恨(hates)
  • 揭露(debunk)
  • 殺死(destroy)
  • 抹滅(obliterate)

Tristan形容這是一場直衝腦幹的競爭(a race to the brainstem),演算法的推薦機制,試圖勾出人類本能的不理性衝動,而在背後的科技巨頭,則大把地收割使用者的注意力貨幣。

監控資本主義的商業模型損害了民主社會的言論環境,更糟的是,無法自拔的使用者甚至因此失去了性命;然而,真正該究責的並非是檯面上的執行長、創辦人、程式設計師,而是禁止這一套不擇手段獲取利益、榨取網路使用者數據的商業模式。

質疑使用數據的代價


  • Tag:

相关文章

最新评论