未标题-2.jpg

搜索引擎是否在操纵我们的思维?

新华网 2018-05-29

  几个月前,硅谷一位资深投资者展开了一项实验:他整理了Facebook和谷歌分别持有的有关他的所有数据,然后把这些资料进行对比。

  结论让他震惊,谷歌持有的信息是Facebook的好几倍。“结果是惊人的,”我们在旧金山共进早餐时他告诉我,“为什么没有人讨论这个问题?”

  这是一个有趣的问题,特别是在你每天多次使用谷歌服务的情况下,就像我这样。一个答案可能是谷歌高管擅长建设政治支持网络。另一个答案是谷歌紧握它自己收集的这些数据,然后利用这些数据创造针对性的搜索和广告服务,为用户定制。而Facebook让第三方开发人员获取其数据,这是引发众怒的原因。

  这种区别可能会让谷歌听上去更友善,但这是否意味着我们可以放松了?位于加州的美国行为研究和科学技术研究所的心理学家罗伯特爱泼斯坦(Robert Epstein)不这么认为。最近几年,他与心理学家同事和数据科学家就谷歌的“搜索”或“自动补全”功能进行了大量研究。这让他相信,搜索引擎能够以非常强有力且大多不被注意的方式影响我们的思维。

  搜索引擎有能力从人们在搜索框键入的第一个字符开始操纵人们的搜索。搜索引擎公司操纵选举的一个简单但有力的方法是,为其支持的候选人减少负面搜索建议,同时给出对方候选人的一个或多个负面搜索建议。

  爱泼斯坦的团队邀请661名美国人在一次澳大利亚选举中的两位候选人中选择一位。由于参与者不太了解澳大利亚政治,他们被指导使用一个谷歌风格的搜索引擎搜索这两名候选人,在键入文字时,该搜索引擎会提供通常的自动补全建议。

  然而,研究人员还改变了出现在候选人名字下方的搜索建议,包括一系列正面和负面词汇。结果是明显的。当参与者后来被问到他们的投票偏好时,他们的回答显示,改变自动补全建议中正面和负面建议的比例能够让犹豫不决投票者的偏好改变近80%,尽管参与者看上去可以自由搜索他们想要的任何资料。另一项研究发现,当参与者只得到4种自动补全建议时,他们很容易被操纵;当有10种建议供选择时,他们就不容易被操纵了。

  这些结果并不证明谷歌(或者必应(Bing)或雅虎(Yahoo)等任何其他搜索引擎公司)利用这种能力操纵了用户。但爱泼斯坦的论文强调了一些他认为奇怪的模式。他的团队发现,如果你在谷歌搜索引擎键入谷歌竞争者的名字,再键入“is”时,“Yahoo

  is dead”(雅虎已死)或者“Bing is

  trash”(必应是垃圾)等词句可能会出现在自动补全框中。据爱泼斯坦称,当时雅虎或必应自己的搜索引擎没有出现同样的情况。

  另一种引人注目的模式出现在2016年8月。当时当在谷歌搜索引擎中键入“Hillary Clintonis”时,自动补全建议提供的词句包括“Hillary Clinton is winning”(希拉里

  克林顿将获胜);在雅虎或必应,自动补全建议显示的是“Hillary Clinton is a liar”(希拉里克林顿是说谎者)和“Hillary Clinton is a criminal”(希拉里 克林顿是罪犯)。

  谷歌高管表示,这些不同的自动建议模式之所以出现,是因为该公司的一项政策是移除冒犯性自动预测。公司高管丹尼沙利文(DannySullivan)在上月的一篇博文中写道:“谷歌移除了那些违反我们的自动补全政策的预测,这些政策禁止……在种族、宗教或其他人口统计特征的基础上对群体和个人进行恶意预测。”

  他们还坚决否认曾试图利用自动补全工具操纵用户。他们表示,爱泼斯坦的研究基于很小的样本规模,使用的是谷歌风格的搜索引擎,而非谷歌自己的数据。在2015年有关爱泼斯坦部分研究的罕见官方评论中,高管们表示:“谷歌从未就任何话题(包括选举)对搜索结果重新排序以操纵用户情绪。”

  撇开其他不谈,这项研究应让我们所有人思考我们使用“自动补全”功能的方式。自动预测做的越好,用户懒惰地被吸入数字“回音室”的潜在风险就越高。爱泼斯坦认为,有一种简单的解决方案。他认为,搜索引擎应在它们的网站上就“回音室”和操纵的危险附上简单的“健康警告”,以降低可能的风险。

  不管你是否接受爱泼斯坦的研究,这似乎是个好主意。但不要指望这会很快实现,除非更多消费者和监管者像那位在硅谷与我共进早餐的人那么做:即查看所有大型科技公司持有的关于我们的数据,从Facebook开始,但不止于Facebook。(英国《金融时报》专栏作家吉莲 邰蒂,译者/梁艳裳)

责任编辑:杨茗

科普中国APP 科普中国微信 科普中国微博
新华网
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢