大数据背后的道德隐患

70 万人,无人告知的在线实验,全球第一大社交网络脸书(Facebook)隐秘进行的情感测试近日曝光天下,业界一片哗然。虽然Facebook的二把手 Sheryl Sandberg第一时间出来道歉,但是紧跟着英国政府介入的深度调查,再次将大数据和个人隐私之间的红线放上台面。当前“大数据”如此炙热的产业概念,在面对应用规范的灰色地带,又该如何呢?

2012,脸书(Facebook)的幕后试验旨在公测70万用户在面对相应的NewsFeed中的情感反应和行为引导。具体说来,脸书(Facebook)在页面上人为的设置一些正面或是负面的情感性关键词,同时控制用户在自己的News Feed中得阅读内容,从而观察用户在自身Post中得行为表达。经过大约一周的数据收集,脸书的数据分析员可以观察到用户对于社交网络上的情绪反应。对于70万用户情绪被消无声息的如此操控,脸书(Facebook)的行为无疑遭到了强烈的指控。

虽然大型互联网公司拥有“大数据”的绝对优势,很多数据分析报告本也不是什么秘密。谷歌(Google)公开表示每年进行2万多个不同的数据实验,甚至包括著名的“41 different shades of blue”测试,用于分辨颜色与用户在网页上的互动之间引导关系。脸书(Facebook)在过往几年中,也发表了不少关于数据分析的重要报告,比如 2012年,脸书的数据科学小组就针对2千5百万用户进行了分析,其数据报告有力的回应了之前盛行的“过滤气泡”理论,在某种程度上消除了传播理论里面关于现在的新闻和搜索结果过度的过滤筛选,用户会深陷在“过滤泡沫”中,不能得到挑战或拓展世界观的信息等一系列担忧。

“大数据”时代,在选择应用互联网等高新技术的那一刻开始,用户在自觉不自觉的情况下就已经把很大一部分个人信息放在“光天化日”之下。每一次面对网站/ 应用程序,需要填写邮箱、密码等信息,以及需要阅读的那一长串的用户协议时,关于隐私权的那一小方块文字,就算有意自我保护,但也很难权衡。不管是 Google,Facebook,Amazon还是国内BAT三大巨头,爆炸式增长的信息, 从“分享(Sharing)”到“个性(Personalization)”的趋势呈现,互联网企业所掌握的数据基本上涵盖了大多数人生活的绝大一部分。在过去的互联网发展中, 更多的关注是如何利用互联网平台,收集更多的数据;而发展至今,面对已然收集到位的海量信息,如何利用这些数据本身,不仅成为了一个商业模式的判断,同样也是一个社会道德的判断,甚至在某种意义上成为相应的行业乃至法律规范。

脸书此次幕后试验的曝光,是一个警醒的明示。用户、互联网企业以及政府之间的权衡,是一个当即也是长期去努力协作的过程。在个人隐私和道德制约的前提下,“大数据“时代,不是一个滥用数据的时代,而是一个需要善用数据的时代。

;