無論是香港還是美國等地,社會上「政治兩極化」的情G都日益嚴重,facebook(臉書)等社交媒體所扮演的角色,尤其惹人關注。臉書上周一份研究報告便探討臉書根據每名用戶個人閱讀喜好而提供動態消息(news feed)的運算系統是否產生嚴重的篩選效應,導致用戶在臉書上只聽到迎合自己政見的聲音,長遠加劇社會兩極化,不利民主。臉書的研究結論,簡言之就是「錯在不我,而是錯在用戶」。有關結論惹來不少爭議,「政治兩極化」所帶來的社會撕裂也值得探討。
臉書研究證用戶過濾異見
按照臉書的篩選運算邏輯,假如某個美國用戶讚了希拉里的專頁,臉書就會讓更多有關希拉里的貼文出現在其動態消息欄上,令吸引到更多讚的機會增加。不少評論早就關注,這將帶來「過濾泡泡」(filter bubbles)效應,導致用戶愈益活於自己的「泡泡世界」意識形態中,愈來愈少接觸到「異見」聲音。
臉書的研究為此追蹤調查了有註明政見(自由派或保守派)的美國逾千萬用戶。臉書用戶閱覽異見信息的機會,視乎其朋友圈子傾向分享什麼資訊、臉書的篩選信息運算系統,以及用戶在見到異見信息後會否選擇點擊。研究指出,調查對象在臉書平均約有23%的朋友是來自意識形態相反的一方。經過篩選運算後,在自稱保守派用戶的動態消息欄上,約33%消息可被視為自由派的;在自由派的動態消息欄上,則有22%的消息是保守派的。
淡化系統篩選 被批卸責
數據顯示,篩選系統令保守派用戶少看了5%的自由派內容,至於自由派則少看了8%的保守派內容。研究結論是,臉書並沒給用戶炮製「過濾泡泡」,導致用戶在臉書上看不到異見。儘管臉書上出現的動態消息內容,會偏向用戶個人的意識形態,但研究強調,「比起臉書的運算系統,用戶有什麼朋友,以及用戶會點擊什麼內容,對於他們在臉書上所接觸到的資訊的多元程度影響更大」。
可是正如不少批評者指出,今次研究確實證明了,臉書會隱藏一些可能與用戶意見相左的新聞故事,惟這一點卻被研究報告淡化。
學者Eli Pariser表示,用戶朋友圈的傾向誠然對用戶遇上多少異見信息的影響力最明顯,臉書運算系統的收窄效應也確比想像小,但絕非無足輕重。
例如研究數據反映,在閱覽個人動態消息時,自由派不選擇點擊和自己意識形態不符的連結,導致他們少看了6%的保守派信息,這跟運算系統所篩走的8%比率其實相距不遠,反映篩選運算系統的收窄效應不容忽視(值得一提的是,保守派選擇不點擊異見連結導致少看自由派信息內容的百分比多達17%,反映保守派似乎較抗拒觀看異見)。
偏聽成風 撕裂社會難癒合
學者Christian Sandvig批評,臉書的研究明示他們限制了用戶所閱資訊的多元性,但研究報告卻蒙混過關,將減少接觸多元新聞資訊不置可否地形容為「可以是好也可以是壞」。「這說法顯然不公道。那根本就是壞。沒有學者會反對接觸更多元的新聞來源」。
臉書這一研究,確有推卸責任給用戶的味道,以轉移外界對其篩選系統缺乏透明度的質疑。當然,在現代化社會,要完全活於「意識形識泡沫」中,幾乎是不可能。
去年皮尤研究所發表一份有關美國「政治兩極化與媒體習慣」的研究便指出,自由派和保守派鐵桿支持者在日常生活中絕大多數都會接觸或聆聽到與己意見相左的政治觀點,但皮尤的研究同時指出,在獲取政策和政治新聞消息上,美國自由派和保守派人士可說是活於兩個截然不同的世界,在選擇並相信哪些新聞來源上,雙方重磟々痋C
在36個主要新聞來源中,能同時普遍獲得美國鐵悍自由派和鐵桿保守派人士信任的新聞來源(定義是信任率高於不信任率),居然就只有《華爾街日報》!要紓緩政治兩極化和社會撕裂,在當今社交媒體盛行的世代,確實一點也不易。