|
Post by account_disabled on Apr 4, 2024 6:40:44 GMT
但政治氣氛越緊張,網路上關於仇恨、煽動、暴力和謊言的討論就越響亮,抵抗就越崩潰。這並不總是完全自願發生的。德國網路執法法案等法律增加了壓力。如果 Facebook 或 YouTube 等平台沒有迅速刪除某些內容並要求平台變得更加透明,它將受到處罰。但隨著 2021 年 1 月 6 日美國國會大廈遭到衝擊,公司內部的許多懷疑者清楚地認識到:不參與此類暴力呼籲並不是一種選擇。網路仇恨會危害民主。 為什麼機器經常系統性地刪除錯誤的內容? 如今,公司係統地刪除了所有違反其內部規則和法律的內容。系統化意味著他們最初將刪除和反放大(即隱藏)留給機器。自動審核程序(其中一些程式可以自行學習)決定:這可以保留,它必須消失。其技術術語為自動內容審核。 但軟體並不像許多人想像的那麼聰明,甚至可能是擔心的那樣。 它只能將內容與先前已知的內容進行比較,但無法將其置於上下文中,尤其是在涉及文化特色或幽默時。例如,一幅圖像可能會在一個國家引起藝術界的轟動,而在另一個國家則被認為是色情的。這些平台的演算法只接受過幾種語言的良好訓練,因為大多數平台 英國電話號碼 公司都位於美國。而且某些格式通常很難解釋,例如 meme 和 GIF 等視覺符號。這就是刪除經常出錯的原因:明顯違法的貼文仍然存在,但無害甚至重要的言論被刪除。這反過來又危及言論自由。需要做什麼才能讓社交網路繼續成為公共辯論和資訊傳播的中心論壇而不為宣傳人員提供平台? 內容審核的科學討論 制定了內容審核聖克拉拉原則的民間社會組織正在解決這個問題,特別是歐盟正在透過其數位服務法律法案來解決這個問題。。要監管好,還需要科學。 在聯邦總統施泰因邁爾贊助、墨卡託基金會資助下,全球網路機構支持的「數位化倫理」研究計畫中,來自七個時區9 個國家不同學科的13 名研究人員深入研究了數位化的倫理問題。主題「自動內容審核」。在 2020 年 8 月至 10 月期間,他們在導師的建議下分析了所謂的研究衝刺的情況。柏林洪堡互聯網與社會研究所負責此計畫。結果是對政治家的建議。 沒有人作為控制機構,一切都行不通 研究人員做出了幾個假設。首先,在網路的傳播管道中,演算法接管了內容的篩選和刪除。它將保持這種狀態,因為僅憑高成交量,其他任何事情都是不可想像的。其次,每個參與其中的人對於這些演算法如何運作和學習都存在著重大的知識差距。這使得制定適當和有效的監管變得特別困難。第三,在數位資訊管道的世界中,通常不清楚誰負責,如果有疑問,不僅要採取行動,還要承擔責任。
|
|