||
大数据领域的“正常事故”
武夷山
我和我的研究生同学在80年代翻译过美国社会学家查尔斯.佩罗的著作《高风险技术与“正常事故”》(科学技术文献出版社,1988年)。该书的节选见http://blog.sciencenet.cn/blog-1557-424234.html。
佩罗在书中论证说,由于高技术系统各个组元之间的互作用极其复杂,而且,设计来保障安全的元部件其自身也会出故障,从某种意义上说,高技术复杂系统出事故的概率会比人们原先估计的要高得多,这类事故将是“正常事故”,而不是什么百年一遇、千年一遇的事故。因此,要学会与高风险技术系统共存。
由于我熟悉“正常事故”的概念,所以,当我偶然发现Big Data: A Normal Accident Waiting to Happen?(大数据:行将发生的正常事故?)一文时,就非常感兴趣。该文发表于Journal of Business Ethics(企业伦理杂志)2017年第3期(10月出版),作者为英国雷丁大学亨利商学院的Daniel Nunan和英国萨里大学萨里商学院创业、工作和组织学教授Marialaura Di Domenico。
本文的主要思想并不是说,大数据引起了正常事故;而是说,大数据对于创立某些组织形态和组织体系有着非常重要的作用,而在这些组织形态和组织体系中有可能发生正常事故。
首先,大数据具有紧耦合系统的特征(博主:紧耦合是使得事故“正常化”的主因之一)。大数据背后是相互紧密联系着的基础设施以及依赖于大数据技术的众多公司。例如,2012年圣诞夜,一个软件开发人员在旨在平衡调节亚马逊公司网络服务体系中不同服务器之间的流量的一个软件中删除了少量数据,结果导致一连串事件,以至于圣诞节早晨,包括Netflix在内的一系列线上服务都无法运行。
其次,大数据的收集与存储是分布式的,这就产生了众多组织和众多技术的内在复杂性(复杂性是使得事故“正常化”的另一主因)。在刚才的例子中,Netflix居然依赖亚马逊的Instant Video(即时视频)的基础设施来为自己的客户提供服务,它俩还是直接竞争对手。所以,亚马逊的软件出了问题,才牵连到Netflix。
第三,正常事故和大数据的一个突出特征,是不同利益相关者缺乏对风险的共同认识。以前,收集大数据的是政府,政府没有商业动机,所以有保护用户隐私的积极性,因为别人对数据的访问权越小,政府的控制力就越强。而企业出于商业动机,都是毫无节制地收集数据,并鼓吹共享数据。脸书CEO扎克伯克曾说过,“隐私权死了”,这就凸显出,政府和企业对于数据风险和隐私保护的基本文化立场是不一致的。
数据事故具有几个特征。
首先,由于缺乏物理实体,识别出事故何时发生是很困难的。核事故总归在核设施所在的场所发生,而数据事故之成形,总归是在相关数据被使用(或滥用)之后才能感受到。
其次,数据事故的影响一般是无法进行地理限定的。数据一丢失,就迅速扩散到全世界。那么,为了控制数据事故的影响,为了防止数据的不当扩散,就对传统意义上的管辖权提出了挑战。
第三,数据事故影响的时间范围难以估计。物理事故的影响较容易估计,数据事故的影响之估计取决于数据分析和分析结果的扩散。因此,数据事故的影响可能延续几周、几个月甚至几年,因为当新的数据分析手段在未来问世后,对数据事故影响的估计可能随之而变。
博主:本文很长,我这里只介绍了其中一丁点内容。感兴趣者可阅读原文https://link.springer.com/article/10.1007%2Fs10551-015-2904-x。
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-21 01:22
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社