本文作者刘德寰系北京大学传播学系教授。
大数据不在乎体量有多少,而是背后用它的那个大脑。实则大众对大数据依然存在不少误解。刘得寰教授在微博上发表了其对大数据的五点思考(后续可能还有更新),对近期大数据被大众捧为瑰宝的做法提出了自己不同观点:
任何一个网站的数据都是人们互联网行为数据的很小的一个子集,无论这个子集多么全面,分析多么深入,都是子集,不是全集。对于企业来讲,竞争对手的数据价值远远超过自己网站数据的价值,从量级上,对于所有公司都一样,自己拥有的数据远远小于全集数据。看起来的全数据恰恰是残缺数据。
数据量的大幅增加会造成结果的不准确,来源不同的信息混杂会加大数据的混乱程度。研究发现:巨量数据集和细颗粒度的测量会导致出现“错误发现”的风险增加。那种认为“假设、检验、验证的科学方法已经过时”的论调,正是大数据时代的混乱与迷茫,人们索性拥抱凯文凯利所称的混乱。
互联网用户的基本特征、消费行为、上网行为、渠道偏好、行为喜好、生活轨迹与位置等,反映用户的基本行为规律。体系完整是所有分析性工作的第一步,完整的框架甚至胜过高深的模型。人类的认识最大的危险是不顾后果的运用局部知识。如果只关心自己网站数据,其分析基础必然是断裂数据。
现在谈到大数据,基本有四个混乱观念:第一,大数据是全数据,忽视甚至蔑视抽样;第二,连续数据就是大数据;第三,数据量级大是大数据;第四,数据量大好于量小。对应的是:抽样数据只要抽样合理,结论准确;连续只是一个数据结构;大量级的噪音会得出错误结论;大小与价值关系不大。
大数据不是新事物,天气、地震、量子物理、基因、医学等都是,借鉴他们的方法有益。他们用抽样调查。互联网数据挖掘方法论也如此,不同的是更难,因为人的复杂性。既然是关于人的研究就需应用所有研究人的方法梳理大数据。只要懂编程、懂调动数据的人就可以做大数据挖掘的说法是谬误。