数据成为资产的前提是数量和必要性的增长
随着5G、AI、物联网发展推动万物互联时代到来,万事万物需要被记录并用数据表达,数据将从单一内部小数据向多元动态大数据转变。尤其有工业互联网4.0及自动驾驶、智慧城市、智慧家居等新型产业终端设备的接入,数据将呈现爆炸式增长。
至于这种数据量到底有多大,据英特尔曾经预测,在今年全球数据总量将达到44ZB=44万亿GB,IDC预测中除了表达了全球数据圈的规模将由2018年的33ZB增长至2025年的175ZB,更指出文本、图片、视频等非结构化数据将拥有更高的增长率,在整体数据圈的占比也将持续增加。这也就意味着,需要更先进的互联网基础架构来对数据进行采集、存储、和利用。
分布式存储在叙事上的成功在于,它借助去中心化的商业模式初步实现了数据生产者和所有者掌控数据的设想,利用激励模型调动了一个可能会非常庞大且活跃的数据存放市场。但问题在于,数据本身没有价值,它只有经过处理、计算、分析才会产生价值,才会被赋予定价。所以我们不能只思考数据放在哪儿更安全,最终的目标应该是存起来之后怎么去用才能去挖掘分布式存储下数据的价值。
针对数据计算的最优解一直在变化
其实,自始至终人们对算力增长的追求从未停过,尤其在互联网出现之后,这种算力战越演越烈,算力和处理在集中式架构和分布式架构之间交替往复。而随着互联网、企业IT和智能手机的大规模商用,激起了以大型集中服务器群为基础的云计算浪潮。这个过程里,包含了从早期人工化代码编译计算,到模块脚本的功能微服务,再到为了应对高并发数据计算,专门化的IDC数据中心出现,以及后来为了进一步释放资源的长期价值,将机器配置成服务,这也成为了我们现在常提到的云计算的雏形。云计算的到来带来了意想不到的利好,你不必在电脑上安装各种软件,只需访问“云”,互联网巨头就可以提供现成的计算能力,相伴的,云存储服务也炙手可热。
任何事情都有正反两面,云计算和存储在发展中出现了自身局限性:首先,行业呈现互联网巨头垄断式发展,很难调