谁该为脸书“过滤气泡”负责?脸书的《科学》期刊发表指出:用户个人该负首要责任
本文出自新媒体世代:https://goo.gl/Y6ujtB (脸书连结)
网页图文好读版:http://goo.gl/L13O29
许多学者表示,暴露于多元言论和价值观的机会,对于民主社会养成有正面影响,包括提
高民众对政治事件的兴趣、增加对不同言论立场的包容性,以及提升政治知识等;而处在
过高的同质性言论环境,则可能会造成像是态度极化等负面影响。然而也有学者指出,处
在异质性的人际网络中(network heterogeneity),部分个体可能会为了避免冲突而降低
参与某些政治活动的意愿 [2]。
普遍来说,学者们对于网络媒体运算机制可能造成的影响,像是“过滤气泡现象”和“回
声室效应”,有诸多疑虑和批评。
然而,社群媒体的运算机制和相关数据多是不公开资讯,进行运算机制实质影响的研究并
不容易且不常见,因此当脸书研究员前几天在《科学》(Science)期刊发表一篇最新报告
“脸书上具多元意识形态的新闻与评论接触”(Exposure to ideologically diverse
news and opinion in Facebook),探讨民众脸书社群网络组成,以及“用户个人选择”
与“脸书运算机制”对民众接触对立政治立场文章的影响,该篇文章随即在学术圈以及媒
体产业界引起一阵热烈讨论。[3]
研究背景与重要发现
在提出这篇研究报告的相关评论前,先来细看重要的研究背景与发现。
研究背景:
研究样本包括在 2014 年 7 月 7 日到 2015 年 1 月 7 日半年期间,在个人档案上填写
政治立场的 1010 万名 18 岁以上的美国活跃脸书用户(每周需至少登入 4 天),以及约
23 万笔有关“硬”新闻(像是全国新闻、政治和全球事务新闻等)的连结分享,而每则
连结都需要在这半年期间,被至少 20 个前述回报个人政治立场的脸书用户分享。
研究将用户回报的政治立场转换成五点量表(-2:非常民主;+2:非常保守),由于只有
9% 的 18 岁以上美国脸书用户填写政治立场,且其中只有 46% 填写政治立场的用户其立
场可以被转换成五点量表,因此最终研究样本只包括大约 4% 的所有美国脸书用户。
每则“硬”新闻连结的政治立场,是透过计算所有该则新闻分享者政治立场的平均值而得
,该数值被称为“内容对齐”(A 值; content alignment),正值代表分享文章立场趋保
守派立场,而负值则表示分享新闻偏自由派立场。举例来说,政治立场偏共和党的
Foxnews.com 其 A 值为 +.80,而被认为偏民主党的 Huffington Post 的 A 值为 -.65。
研究发现:
研究样本分享“硬”新闻的行为呈现极化现象,越容易被鲜明政治立场民众分享的文章(
极大或极小 A 值),也就是文章立场越认为越接近自由派或保守派时,分享次数越高。偏
保守派文章的分享次数,也比偏自由派文章来得高。
研究发现脸书用户交友情况呈现同质性现象(homophily),政治立场偏自由派用户的脸书
朋友网络中,有更高比例是同样倾向自由派的用户,反之亦然。
研究分析用户在四种状况下看到(或点阅)的“交叉内容”(cross-cutting content),
也就是和用户政治立场对立的新闻文章,四种情况包括“随机”(如果用户能随机看到所
有脸书平台上的内容)、“潜在”(脸书好友们分享的所有内容)、“暴露”(经脸书运
算机制调整后,出现在动态墙上的内容),以及“挑选”(用户自行点击文章连结)。随
著情况从“随机”转变为“潜在”、“暴露”以及“挑选”,用户接触的“交叉内容”比
例也逐渐下降。换句话说,用户的脸书交友圈、脸书运算机制,以及个人点击选择,都会
逐项降低用户看见的“交叉内容”比例。
当处在“随机”情况,用户看见的“交叉内容”比例最高(偏自由派用户可以看见约 45%
的偏保守派内容,而偏保守派用户可以看见约 40% 的偏自由派文章);如果考量用户只
能看见自己所有脸书朋友的分享内容(“潜在”情况),偏自由派用户看见的偏保守内容
下降为 24%,而偏保守派用户可以看见约 35% 的偏自由派文章。这也表示,偏自由派用户
其脸书好友中,只有 24% 会分享对立立场(偏保守派)的文章,而偏保守派用户的脸书朋
友中,有较高比例(35% )会分享偏自由派立场的文章。
该研究也分析四种情况转变时,用户看到“交叉内容”机率的变化:脸书机制对于自由派
立场民众的影响(8%)比对于保守派民众的影响(5%)来得大;而个人点击选择对于保守
派立场民众的影响(17%),则比对于自由派民众的影响(6%)来得大。
该研究也证实文章在动态墙的排序,确实会影响文章被用户点击的机率。排序在脸书动态
墙前面的文章,远比下面的文章有更高的阅览机会。脸书研究者也在文章中表示:“用户
在动态墙上看到文章的顺序由许多因素决定,包括用户拜访脸书的频率、他们和特定朋友
的互动频率,以及用户过去多常点击特定网站的连结。”
整体而言,脸书用户样本平均只会点击动态墙上 7% 的“硬”新闻内容。
该研究指出,和社会普遍对网络民众“只会和意识形态相近者互动”的想像不同,研究结
果证实民众不是只会接触到和自己立场相近的文章,社群媒体(脸书)还是会让民众阅读
到部分政治不同立场的新闻文章。研究也表示,“或许不意外地,我们的社群网络组成,
是限制我们在社群媒体上看见多元内容最重要的因素。”(注1)
脸书研究员们为这篇研究报告下了个总结:“最后,我们的结果确切地显示出,在脸书上
的平均状况而言,个人选择比起运算机制,更容易限制用户看见挑战个人价值观的内容”
,以及“我们的研究结果建议,要让个人在社群媒体有暴露于对立意识形态观点的机会,
用户个人有首要及最关键的掌控权。”(注2)
社会科学家们的评论
篇文章可以说是难得的透过脸书实际数据,来回答社会学家长久以来关心的社群媒体研
究课题。只是,重要的研究价值虽然并引起众多关注,却也引来部分学者批评。
像是密西根大学传播学系副教授克里斯提· 桑维(Christian Sandvig)发表一篇标题为
“脸书的”这不是我们的错”研究”,抨击脸书研究中不合理之处,以及不寻常的论述包
装。北卡罗来纳大学教堂山分校资讯与图书馆学系助理教授泽奈普· 图费克吉
(Zeynep Tufekci)也在网志中写道“我读过很多学术研究文章,通常作者都会想方设法
地突显重要发现。然而(脸书的)这篇研究,却尽可能地透过迂回的言语和不相关的比较
,来隐藏研究发现”。而“过滤气泡现象”提出者伊莱·帕李泽(Eli Praiser)也立即对
这篇研究做出回应,虽然用词相较之下和缓许多,但是文中仍点出不少该研究不足之处。
[4]
为什么脸书的研究文章会让学者们产生这些批判呢?最重要的关键问题在于,研究最后总
结表示“个人选择”比起脸书的“运算机制”,更应该为脸书上的“过滤气泡现象”和“
回声室效应”来负责。
学者们表示这样的说法并不恰当,原因包括:
伊莱·帕李泽表示,虽然研究证实用户的“脸书社群组成”和“个人点击”,都会降低用
户看到内容的多元性,但是脸书选择强调这两者比起“运算机制”扮演更重要的角色,似
乎有些言过其实。他强调如果“脸书运算机制”的影响,和“社群组成”以及“个人点击
选择”的个别影响相似,其实就已经是个严重问题。
此外,如果比较脸书用户在不同情况下看到“交叉内容”的机率,对于立场偏保守派的民
众而言,“运算机制”(5%)的确比起“用户选择”(17%)的影响来得低,但是对于立场
偏自由派的民众而言,“运算机制”(8%)比起“用户选择”(6%)的影响来得高。因此
脸书研究的总结并未真实反映结果。
学者们都指出,其实将“个人选择”与“运算机制”做比较是非常不恰当且不合理的,因
为两者同时发生且存在明显的回馈循环(feedback loop)关系。用户个人做出的点击选择
是基于脸书筛选后的结果,而脸书筛选的算法则又是以用户脸书使用纪录为基准。更恰
当的研究结果描述应该是,“个人选择”和“运算机制”都会加强用户的同质化资讯吸收
。
泽奈普· 图费克吉认为,早在网络普及之前,学者们就开始针对个人会透过选择性暴露
(selective exposure)来挑选立场一致的言论及避免相左立场观点的现象,进行深入研
究。但是脸书运算机制会造成资讯选择单一化的现象,却是很重要的新发现,也不该被忽
略。且“个人选择”与“运算机制”间更适合的描述应该是加成而非比较关系,而学者们
也应该着重于此加成关系的深远影响。
此外,学者们表示研究员在结论中指出这些结果反映脸书上的“常态”,却忽略此篇“研
究样本的特殊性”。在个人档案上注明政治立场的样本条件并不寻常,这些用户相较一般
脸书观众,可能政治意识形态特别强烈鲜明,或是对政治特别热衷且积极。这些样本的特
殊性也解释为什么此篇研究最后样本数,只占所有脸书用户的极小比例。
而学者们也点出其他的潜在研究限制,包括“硬”新闻连结的政治立场,是由文章分享者
的立场,而不是依据文章来源的政党倾向,或文章内容分析来决定(不过研究发现,此种
计算方式得到的结果,很接近大众平常对这些新闻媒体的政治立场认知),以及脸书“运
算机制”随时都在改变的特性(延伸阅读:脸书更改运算机制?掌握 5 个核心法则加上
15 个 Dos and Don’ts),也会降低该篇研究结果的通则性。脸书研究员在文章中也表示
,他们对于接触和点击文章的定义并不完善,像是有些文章的重要结论已经摘要在动态墙
上,用户并不需要透过点击就可以看见。
延伸想想:脸书研究的一堂课
当然,脸书愿意进行研究并且公开分享成果的行为是值得鼓励的,无论对于研究者、广告
商还是一般大众来说,这些内部研究发现都可说是非常珍贵且重要,许多学者和广告商们
长久的疑问和猜测,也终于透过脸书的内部研究解开了部分谜团。
像是研究指出,对于少数会表明政治立场的脸书用户,除了个人选择(“好友组成”和“
连结点击”)外,脸书“运算机制”也被证实在某种程度上,会些微地降低用户阅览新闻
的多样性。平均来说,这些脸书用户只会点阅脸书墙上不到一成的“硬”新闻(也就是超
过九成的硬新闻连结都不会被用户点击),而政治立场越鲜明甚至极端的文章,被用户分
享的机率也更高。此外,动态墙上的新闻排列顺序,也被证明确实会影响点阅机率且差异
极大。
虽然脸书的研究成果提供非常多重要发现,只是,当商业公司提出学术发表时,也会被用
更严格的眼光来审视,这也是为什么学者们会提出诸多个人观察和批判,希望帮助民众更
正确且深入地去解释研究结果。
最后也不妨思考看看,是不是真的如脸书在研究最后总结,用户个人(而非运算机制)该
为脸书“过滤气泡”现象负首要责任呢?
——————————————————————————–
注1:Perhaps unsurprisingly, we show that the composition of our social
networks is the most important factor limiting the mix of content encountered
in social media.
注2:Finally, we conclusively establish that on average in the context of
Facebook, individual choices more than algorithms limit exposure to
attitude-challenging content… Our work suggests that the power to expose
oneself to perspectives from the other side in social media lies first and
foremost with individuals. (请参考文章最后一段的首句与末句)