许培扬博客分享 http://blog.sciencenet.cn/u/xupeiyang 跟踪国际前沿 服务国内科研

博文

大数据到底有多大?

已有 5485 次阅读 2013-5-10 21:43 |个人分类:数据科学|系统分类:观点评述

 

 
全球每天通过Internet网络传输的电子邮件多达2100亿封;Facebook每月新增10亿照片和1000万个视频;腾讯公司注册用户超过7亿,同时在线人数超过1亿......
 
根据互联网数据中心的报告,2012年全球的数据总量为2.7Zb(1Zb相当于十万亿亿字节),预计到2020年,全球的数据总量将达到35Zb。
 
中国科学院信息工程所副研究员王伟平说,目前为止,没有谁能准确说出大数据到底有多大,但可以肯定是的,这些海量数据的规模已经让目前主流的数据库软件无法承受。
 
除此之外,大数据的数据类型和来源众多,又高速流转,同时,相较于数据的数量,它们所含有的价值却是相对稀疏的,获取有用信息犹如大海捞针。因此,这一切都要求开发新的数据处理模式对海量信息进行撷取、管理和处理等。
 
2012年3月29日,奥巴马政府宣布投资2亿美元启动“大数据研究和发展计划”,美国政府已经把“大数据”上升到了国家战略的层面。华尔街日报更是将大数据、智能制造和无线网络并列为当代三大技术变革。
 
“在这个数据为王的时代,如何挖掘、利用数据显然已经成为了各个行业、企业竞争的焦点。”王伟平坦言。

 

http://news.sciencenet.cn/htmlnews/2013/5/277742.shtm



https://blog.sciencenet.cn/blog-280034-688653.html

上一篇:红色学府
下一篇:中青年亚健康状况最严重
收藏 IP: 218.11.179.*| 热度|

2 王芳 刘敏

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-11-24 13:31

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部