百谷云计算
华为云注册
当前位置:
重庆·选择不凡 华为云城市峰会2019
来源: | 作者:百谷云计算 | 发布时间: 2019-08-21 | 956 次浏览 | 分享到:

“大数据”概念已经出现超过15年,在褪去了社会对其浮躁的认知后,已在各领域成熟应用,从最开始的互联网搜索行业,再到企业运营和生产制造,继而扩展到城市治理和教育医疗等。

当“大数据”从少数机构的技术杀手锏,变成每个企业都可以快速应用的通用技术,技术演进貌似也已经进入一个相对平稳的解答。大数据是怎么走到今天的?

2004年前后,谷歌发表了三篇论文,标志着计算机大数据时代的开启。三篇文章分别是《分布式文件系统 GFS》、《分布式计算框架 MapReduce》和《NoSQL 数据库 BigTable》,俗称“三驾马车”。

2005年, Hadoop因其技术的高效性,被Apache Software Foundation公司引入并成为开源应用。

2008年末,计算社区联盟 (Computing Community Consortium),发表了白皮书《大数据计算:在商务、科学和社会领域创建革命性突破》,该组织也成为第一个提出大数据概念的机构。

2010年,肯尼斯.库克尔在《经济学人》上发表大数据专题报告《数据,无所不在的数据》,成功的洞见了大数据时代的趋势。

2012年,维克托•迈尔•舍恩伯格出版了《大数据时代:生活、工作与思维的大变革》一书,提出了大数据的核心就是预测。该书也成为的大数据入门必看读物。

2012年,美国政府在白宫网站发布《大数据研究和发展倡议》,标志着大数据已经成为重要的时代特征。

2014年,中国《政府工作报告》中首次出现“大数据”一词,掀起国内大数据研究和应用浪潮。

2016年,Spark在大数据行业开始流行,包括IBM在内的大企业都纷纷拥抱这个经济实惠的分布式计算开源框架。标志着一个大数据新的技术里程碑。

2019年,知名的大数据软件企业Cloudera和Hortonworks宣布合并,而另一大数据独角兽MapR被HPE收购,标志着大数据商业软件时代的结束,也预示着大数据的另一个未来。

那么,大数据的未来在哪里?

在过去的十几年,硬件的性能,尤其是网络性能一直是大数据应用的瓶颈, 天才的架构师们自然想到了集群化大数据系统架构。

1)分布式集群集中部署

单服务器提供的算力有限,使用大规模的服务器组成分布式集群,成千上万个普通CPU并行计算突破了单服务器算力极限。

2)数据分散存储在物理机每个硬盘上

每台服务器挂载几个至十几个普通硬盘,使用多台服务器搭载搭建了分布式存储系统,有效解决超大规模数据存储问题。

3)数据本地化

数据处理任务从远程物理机读取数据开销大。以数据为“中心”,将数据处理任务迁移到数据所在的物理机上,能有效降低网络带宽,保证了整体性能。

这就是存算一体的大数据技术架构。经过十多年的发展,网络性能已经提升了100倍,内存容量也提升了数十倍。大数据处理的瓶颈逐渐从网络转移到CPU上,上述存算一体架构的缺点也逐渐突显出来:

1)刚性扩容,资源浪费

不同场景需要的存储空间和算力配比是不一样的。实际使用中要么计算资源达到瓶颈,要么是存储容量不足,只能对集群进行刚性扩容,造成集群资源浪费。

2)资源无法弹性

不同场景,不同时期需要的算力是不固定的,存在波峰和波谷。物理机中存储数据造成无法大规模关闭闲置节点,造成算力闲置和能源浪费。

3)数据孤岛

随着企业数据多种数据式并存,并存储在不同的系统中,形成数据孤岛,且互相访问转换成本高,制约了数据价值的进一步挖掘。

4)作业拥塞

随着数据采集技术和网络技术发展,企业拥有EB级数据已经成为常态,而单次大数据分析作业就需要读取数百TB乃至PB级的数据,多任务并发下,极易出现作业拥塞,影响企业正常运作。

华为预测,到2025年,全球年新增数据存储量为180ZB,企业的数据利用率会达到86%。如此巨大的数据如何高效的分析其中的价值?显然,现有的大数据架构已经无法满足未来的需求了,那么,大数据的未来在哪里?

8月27日,在重庆悦来国际会议中心举办的“重庆·选择不凡 华为云城市峰会2019”,鲲鹏大数据解决方案将重磅发布,为您揭开大数据的未来之路。想了解更多峰会详细内容,搜索:华为云官网-最新活动-城市峰会-重庆·选择不凡 华为云城市峰会2019。

img_pic_1566273364_0.png