为什么要构建数据湖
大数据时代早期,Apache HDFS 是构建具有海量存储能力数据仓库的首选方案。随着云计算、大数据、AI 等技术的发展,所有云厂商都在不断完善自家的对象存储,来更好地适配 Apache Hadoop/Spark 大数据以及各种 AI 生态。由于对象存储有海量、安全、低成本、高可靠、易集成等优势,各种 IoT 设备、网站数据都把各种形式的原始文件存储在对象存储上,利用对象存储增强和拓展大数据 AI 也成为了业界共识,Apache Hadoop 社区也推出了原生的对象存储“Ozone”。从 HDFS 到对象存储,从数据仓库到数据湖,把所有的数据都放在一个统一的存储中,也可以更加高效地进行分析和处理。
对于云上的客户来说,如何构建自己的数据湖,早期的技术选型非常重要,随着数据量的不断增加,后续进行架构升级和数据迁移的成本也会增加。在云上使用 HDFS 构建大规模存储系统,已经暴露出来不少问题。HDFS 是 Hadoop 原生的存储系统,经过 10 年来的发展,HDFS 已经成为大数据生态的存储标准,但我们也看到 HDFS 虽然不断优化,但是 NameNode 单点瓶颈,JVM 瓶颈仍然影响着集群的扩展,从 1 PB到 100 PB,需要不断的进行调优、集群拆分来,HDFS 可以支持到 EB 级别,但是投入很高的运维成本,来解决慢启动,心跳风暴,节点扩容、节点迁移,数据平衡等问题。
云原生的大数据存储方案,基于阿里云 OSS 构建数据湖是最合适的选择。OSS 是阿里云上的对象存储服务,有着高性能、无限容量、高安全、高可用、低成本等优势,JindoFS 针对大数据生态对 OSS 进行了适配,缓存加速,甚至提供专门的文件元数据服务,满足上云客户的各种分析计算需求。因此在阿里云上,JindoFS OSS 成为客户采取数据湖架构迁移上云的最佳实践。
JindoFS 介绍
Jindo 是阿里云基于 Apache Spark / Apache Hadoop 在云上定制的分布式计算和存储引擎。Jindo 原是阿里云 开源大数据团队的内部研发代号,取自筋斗(云)的谐音,Jindo 在开源基础上做了大量优化和扩展,深度集成和连接了众多阿里云基础服务。
JindoFS 架构
JindoFS 主要包含两个服务组件:元数据服务(NamespaceService) 和存储服务 (StorageService):
JindoFS 元数据服务
JindoFS 的元数据服务叫 JindoNamespaceService,内部基于 K-V 结构存储元数据,相对于传统的内存结构有着操作高效,易管理,易恢复等优势。
JindoFS 的数据缓存服务叫 JindoStorageService,本地 StorageService 主要提供高性能缓存加速,所以运维上可以基于这样的设定大大简化。
弹性运维。HDFS 使用 DataNode 在存储节点上来管理节点存储,全部数据块都存储在节点的磁盘上,依靠 DataNode 定期检查和心跳把存储状态上报给 NameNode,NameNode 通过汇总和计算,动态地保证文件的数据块达到设定的副本数(一般 3 副本)。对于大规模集群(节点 1000 ),经常需要进行集群节点扩容,节点迁移,节点下线,节点数据平衡这样的操作,大量的数据块的副本计算增加了 NameNode 负载,同时,节点相关操作要等待 NameNode 内部的副本调度完成才能进行,通常一个存储节点的下线需要小时级别的等待才能完成。JindoFS 使用 StorageService 来管理节点上的存储,由于 JindoFS 保证了数据在 OSS 上有一副本,所以本地的副本主要用来进行缓存加速。对于节点迁移、节点下线等场景,JindoFS 无需复杂副本计算,通过快速的“标记”即可完成下线。高性能存储。StorageService 采用 C 语言开发,在对接最新高性能存储硬件上也有着天然优势。StorageService 的存储后端不仅可以同时对接SSD、本磁盘、OSS 满足 Hadoop/Spark 大数据框架各种海量、高性能的存储访问需求,可以对接内存、AEP 这样的高性能设备满足 AI/机器学习的低延时、高吞吐的存储使用需求。JindoFS 适用场景
JindoFS 的元数据存储在 Master 节点的 NamespaceService (高可用部署)上,性能和体验上对标 HDFS;Core节点的 StorageService 将一份数据块存储在 OSS 上,本地数据块可以随着节点资源进行快速的弹性伸缩。多集群之间也可以相互打通。
为了支持数据湖多种使用场景,一套 JindoFS 部署同时提供两种 OSS 使用方式,存储模式(Block)和缓存模式(Cache)。
缓存模式。对于已经存在于 OSS 上的数据,可以使用缓存模式访问,正如“缓存”本身的含义,通过缓存的方式,在本地集群基于 JindoFS 的存储能力构建了一个分布式缓存服务,把远端数据缓存在本地集群,使远端数据“本地化”。使用上也沿用原来的路径访问,如 oss://bucket1/file1 ,这种模式全量的文件都在 OSS 上面,可以做到集群级别的弹性使用。存储模式。存储模式(Block)适用于高性能数据处理场景,元数据存储在 NamespaceService (支持高可用部署)上,性能和体验上对标 HDFS;StorageService 将一份数据块存储在 OSS 上,本地数据块可以随着节点资源可以进行快速的弹性伸缩。基于 JindoFS Block 模式这样的特性,可以用作构建高性能数仓的核心存储,多个计算集群可以访问 JindoFS 主集群的数据。JindoFS 方案优势
基于JindoFS OSS 来构建数据湖相比于其他数据湖方案同时具有性能和成本优势。
性能上,JindoFS 针对一些常用的场景和 Benchmark 进行了对比测试,如 DFSIO、NNbench、TPCDS、Spark、Presto 等,通过测试我们可以看到性能上,Block模式完全领先于 HDFS,Cache模式完全领先于 Hadoop 社区的 OSS SDK 实现,由于篇幅的原因,后续我们会发布详细的测试报告。成本上。成本是也是用户上云的重要考量,JindoFS 的成本优势主要体现在运维成本和存储成本两方面。运维成本指的是集群日常维护,节点上下线、迁移等。如前面分析,当 HDFS 集群增长到一定规模时,比如 10PB ,除了对 HDFS 进行专家级别调优外,还需要业务上的拆分规划,避免达到 HDFS 元数据上的瓶颈。同时,随着集群数据不断增长,一些节点和磁盘也会出现故障,需要进行节点下线和数据平衡,也给大集群的运维带来一定的复杂度。JindoFS 可以使用 OSS OTS 的存储模式,OSS 上保留原始文件和数据块备份,对节点和磁盘出现的问题可以更好兼容;元数据(NamespaceService)采用 C 开发加上工程打磨,相比 NameNode JVM 在容量上和性能上也更有优势。下面我们重点来看存储成本。存储成本指的是存放数据后产生的存储费用,使用 OSS 是按量付费的,相比基于本地盘创建的 HDFS 集群有更好的成本优势,下面来计算和对比一下二者成本:
基于 HDFS 本地盘方案构建大数据存储:
由于本地盘机型为整体价格,需要如下进行换算,预估存储成本如下:
考虑到实际使用 HDFS 会有3副本以及一定的预留空间,我们以 HDFS 3 副本、 80% 使用率进行成本计算:
基于 JindoFS 加速方案构建数据湖:
OSS 数据存储(标准型单价)= 0.12元/GB/每月
我们可以看到使用 JindoFS 加速方案构建数据湖,要节省 25% 的存储成本。同时 OSS 是按量计费,即计算存储分离,当计算和存储比例存在差异时,比如存储资源高速增长,计算资源增加较小时,成本优势会更加明显。
对 OSS 数据进行缓存加速,需要额外使用计算节点上部分磁盘空间,带来一定成本。这部分成本,一般取决于热数据或者要缓存数据的大小,跟要存储的数据总量关系不大。增加这部分成本,可以换取计算效率的提升和计算资源的节省,整体效果可以根据实际场景进行评估。
JindoFS 生态
数据湖是开放的,需要对接各种计算引擎。目前 JindoFS 已经明确支持 Spark、Flink、Hive、MapReduce、Presto 和 Impala 组件。同时,JindoFS 为了支持更好地使用数据湖,还提供 JindoTable 对结构化数据进行优化和查询加速;提供 JindoDistCp 来支持 HDFS 离线数据网 OSS 迁移;支持 JindoFuse 方便数据湖上加速机器学习训练。