[新闻] 谁该为“过滤气泡”负责?脸书的《科学》

楼主: leonasu (苏小猪)   2015-05-13 06:38:24
谁该为脸书“过滤气泡”负责?脸书的《科学》期刊发表指出:用户个人该负首要责任
本文出自新媒体世代:https://goo.gl/Y6ujtB (脸书连结)
网页图文好读版:http://goo.gl/L13O29
许多学者表示,暴露于多元言论和价值观的机会,对于民主社会养成有正面影响,包括提
高民众对政治事件的兴趣、增加对不同言论立场的包容性,以及提升政治知识等;而处在
过高的同质性言论环境,则可能会造成像是态度极化等负面影响。然而也有学者指出,处
在异质性的人际网络中(network heterogeneity),部分个体可能会为了避免冲突而降低
参与某些政治活动的意愿 [2]。
普遍来说,学者们对于网络媒体运算机制可能造成的影响,像是“过滤气泡现象”和“回
声室效应”,有诸多疑虑和批评。
然而,社群媒体的运算机制和相关数据多是不公开资讯,进行运算机制实质影响的研究并
不容易且不常见,因此当脸书研究员前几天在《科学》(Science)期刊发表一篇最新报告
“脸书上具多元意识形态的新闻与评论接触”(Exposure to ideologically diverse
news and opinion in Facebook),探讨民众脸书社群网络组成,以及“用户个人选择”
与“脸书运算机制”对民众接触对立政治立场文章的影响,该篇文章随即在学术圈以及媒
体产业界引起一阵热烈讨论。[3]
研究背景与重要发现
在提出这篇研究报告的相关评论前,先来细看重要的研究背景与发现。
研究背景:
研究样本包括在 2014 年 7 月 7 日到 2015 年 1 月 7 日半年期间,在个人档案上填写
政治立场的 1010 万名 18 岁以上的美国活跃脸书用户(每周需至少登入 4 天),以及约
23 万笔有关“硬”新闻(像是全国新闻、政治和全球事务新闻等)的连结分享,而每则
连结都需要在这半年期间,被至少 20 个前述回报个人政治立场的脸书用户分享。
研究将用户回报的政治立场转换成五点量表(-2:非常民主;+2:非常保守),由于只有
9% 的 18 岁以上美国脸书用户填写政治立场,且其中只有 46% 填写政治立场的用户其立
场可以被转换成五点量表,因此最终研究样本只包括大约 4% 的所有美国脸书用户。
每则“硬”新闻连结的政治立场,是透过计算所有该则新闻分享者政治立场的平均值而得
,该数值被称为“内容对齐”(A 值; content alignment),正值代表分享文章立场趋保
守派立场,而负值则表示分享新闻偏自由派立场。举例来说,政治立场偏共和党的
Foxnews.com 其 A 值为 +.80,而被认为偏民主党的 Huffington Post 的 A 值为 -.65。
研究发现:
研究样本分享“硬”新闻的行为呈现极化现象,越容易被鲜明政治立场民众分享的文章(
极大或极小 A 值),也就是文章立场越认为越接近自由派或保守派时,分享次数越高。偏
保守派文章的分享次数,也比偏自由派文章来得高。
研究发现脸书用户交友情况呈现同质性现象(homophily),政治立场偏自由派用户的脸书
朋友网络中,有更高比例是同样倾向自由派的用户,反之亦然。
研究分析用户在四种状况下看到(或点阅)的“交叉内容”(cross-cutting content),
也就是和用户政治立场对立的新闻文章,四种情况包括“随机”(如果用户能随机看到所
有脸书平台上的内容)、“潜在”(脸书好友们分享的所有内容)、“暴露”(经脸书运
算机制调整后,出现在动态墙上的内容),以及“挑选”(用户自行点击文章连结)。随
著情况从“随机”转变为“潜在”、“暴露”以及“挑选”,用户接触的“交叉内容”比
例也逐渐下降。换句话说,用户的脸书交友圈、脸书运算机制,以及个人点击选择,都会
逐项降低用户看见的“交叉内容”比例。
当处在“随机”情况,用户看见的“交叉内容”比例最高(偏自由派用户可以看见约 45%
的偏保守派内容,而偏保守派用户可以看见约 40% 的偏自由派文章);如果考量用户只
能看见自己所有脸书朋友的分享内容(“潜在”情况),偏自由派用户看见的偏保守内容
下降为 24%,而偏保守派用户可以看见约 35% 的偏自由派文章。这也表示,偏自由派用户
其脸书好友中,只有 24% 会分享对立立场(偏保守派)的文章,而偏保守派用户的脸书朋
友中,有较高比例(35% )会分享偏自由派立场的文章。
该研究也分析四种情况转变时,用户看到“交叉内容”机率的变化:脸书机制对于自由派
立场民众的影响(8%)比对于保守派民众的影响(5%)来得大;而个人点击选择对于保守
派立场民众的影响(17%),则比对于自由派民众的影响(6%)来得大。
该研究也证实文章在动态墙的排序,确实会影响文章被用户点击的机率。排序在脸书动态
墙前面的文章,远比下面的文章有更高的阅览机会。脸书研究者也在文章中表示:“用户
在动态墙上看到文章的顺序由许多因素决定,包括用户拜访脸书的频率、他们和特定朋友
的互动频率,以及用户过去多常点击特定网站的连结。”
整体而言,脸书用户样本平均只会点击动态墙上 7% 的“硬”新闻内容。
该研究指出,和社会普遍对网络民众“只会和意识形态相近者互动”的想像不同,研究结
果证实民众不是只会接触到和自己立场相近的文章,社群媒体(脸书)还是会让民众阅读
到部分政治不同立场的新闻文章。研究也表示,“或许不意外地,我们的社群网络组成,
是限制我们在社群媒体上看见多元内容最重要的因素。”(注1)
脸书研究员们为这篇研究报告下了个总结:“最后,我们的结果确切地显示出,在脸书上
的平均状况而言,个人选择比起运算机制,更容易限制用户看见挑战个人价值观的内容”
,以及“我们的研究结果建议,要让个人在社群媒体有暴露于对立意识形态观点的机会,
用户个人有首要及最关键的掌控权。”(注2)
社会科学家们的评论
篇文章可以说是难得的透过脸书实际数据,来回答社会学家长久以来关心的社群媒体研
究课题。只是,重要的研究价值虽然并引起众多关注,却也引来部分学者批评。
像是密西根大学传播学系副教授克里斯提· 桑维(Christian Sandvig)发表一篇标题为
“脸书的”这不是我们的错”研究”,抨击脸书研究中不合理之处,以及不寻常的论述包
装。北卡罗来纳大学教堂山分校资讯与图书馆学系助理教授泽奈普· 图费克吉
(Zeynep Tufekci)也在网志中写道“我读过很多学术研究文章,通常作者都会想方设法
地突显重要发现。然而(脸书的)这篇研究,却尽可能地透过迂回的言语和不相关的比较
,来隐藏研究发现”。而“过滤气泡现象”提出者伊莱·帕李泽(Eli Praiser)也立即对
这篇研究做出回应,虽然用词相较之下和缓许多,但是文中仍点出不少该研究不足之处。
[4]
为什么脸书的研究文章会让学者们产生这些批判呢?最重要的关键问题在于,研究最后总
结表示“个人选择”比起脸书的“运算机制”,更应该为脸书上的“过滤气泡现象”和“
回声室效应”来负责。
学者们表示这样的说法并不恰当,原因包括:
伊莱·帕李泽表示,虽然研究证实用户的“脸书社群组成”和“个人点击”,都会降低用
户看到内容的多元性,但是脸书选择强调这两者比起“运算机制”扮演更重要的角色,似
乎有些言过其实。他强调如果“脸书运算机制”的影响,和“社群组成”以及“个人点击
选择”的个别影响相似,其实就已经是个严重问题。
此外,如果比较脸书用户在不同情况下看到“交叉内容”的机率,对于立场偏保守派的民
众而言,“运算机制”(5%)的确比起“用户选择”(17%)的影响来得低,但是对于立场
偏自由派的民众而言,“运算机制”(8%)比起“用户选择”(6%)的影响来得高。因此
脸书研究的总结并未真实反映结果。
学者们都指出,其实将“个人选择”与“运算机制”做比较是非常不恰当且不合理的,因
为两者同时发生且存在明显的回馈循环(feedback loop)关系。用户个人做出的点击选择
是基于脸书筛选后的结果,而脸书筛选的算法则又是以用户脸书使用纪录为基准。更恰
当的研究结果描述应该是,“个人选择”和“运算机制”都会加强用户的同质化资讯吸收

泽奈普· 图费克吉认为,早在网络普及之前,学者们就开始针对个人会透过选择性暴露
(selective exposure)来挑选立场一致的言论及避免相左立场观点的现象,进行深入研
究。但是脸书运算机制会造成资讯选择单一化的现象,却是很重要的新发现,也不该被忽
略。且“个人选择”与“运算机制”间更适合的描述应该是加成而非比较关系,而学者们
也应该着重于此加成关系的深远影响。
此外,学者们表示研究员在结论中指出这些结果反映脸书上的“常态”,却忽略此篇“研
究样本的特殊性”。在个人档案上注明政治立场的样本条件并不寻常,这些用户相较一般
脸书观众,可能政治意识形态特别强烈鲜明,或是对政治特别热衷且积极。这些样本的特
殊性也解释为什么此篇研究最后样本数,只占所有脸书用户的极小比例。
而学者们也点出其他的潜在研究限制,包括“硬”新闻连结的政治立场,是由文章分享者
的立场,而不是依据文章来源的政党倾向,或文章内容分析来决定(不过研究发现,此种
计算方式得到的结果,很接近大众平常对这些新闻媒体的政治立场认知),以及脸书“运
算机制”随时都在改变的特性(延伸阅读:脸书更改运算机制?掌握 5 个核心法则加上
15 个 Dos and Don’ts),也会降低该篇研究结果的通则性。脸书研究员在文章中也表示
,他们对于接触和点击文章的定义并不完善,像是有些文章的重要结论已经摘要在动态墙
上,用户并不需要透过点击就可以看见。
延伸想想:脸书研究的一堂课
当然,脸书愿意进行研究并且公开分享成果的行为是值得鼓励的,无论对于研究者、广告
商还是一般大众来说,这些内部研究发现都可说是非常珍贵且重要,许多学者和广告商们
长久的疑问和猜测,也终于透过脸书的内部研究解开了部分谜团。
像是研究指出,对于少数会表明政治立场的脸书用户,除了个人选择(“好友组成”和“
连结点击”)外,脸书“运算机制”也被证实在某种程度上,会些微地降低用户阅览新闻
的多样性。平均来说,这些脸书用户只会点阅脸书墙上不到一成的“硬”新闻(也就是超
过九成的硬新闻连结都不会被用户点击),而政治立场越鲜明甚至极端的文章,被用户分
享的机率也更高。此外,动态墙上的新闻排列顺序,也被证明确实会影响点阅机率且差异
极大。
虽然脸书的研究成果提供非常多重要发现,只是,当商业公司提出学术发表时,也会被用
更严格的眼光来审视,这也是为什么学者们会提出诸多个人观察和批判,希望帮助民众更
正确且深入地去解释研究结果。
最后也不妨思考看看,是不是真的如脸书在研究最后总结,用户个人(而非运算机制)该
为脸书“过滤气泡”现象负首要责任呢?
——————————————————————————–
注1:Perhaps unsurprisingly, we show that the composition of our social
networks is the most important factor limiting the mix of content encountered
in social media.
注2:Finally, we conclusively establish that on average in the context of
Facebook, individual choices more than algorithms limit exposure to
attitude-challenging content… Our work suggests that the power to expose
oneself to perspectives from the other side in social media lies first and
foremost with individuals. (请参考文章最后一段的首句与末句)

Links booklink

Contact Us: admin [ a t ] ucptt.com