字节跳动 EB 级 Iceberg 数据湖的机器学习应用与优化

Flink数据中台

深度学习的模型规模越来越庞大,其训练数据量级也成倍增长,这对海量训练数据的存储方案也提出了更高的要求:怎样更高性能地读取训练样本、不使数据读取成为模型训练的瓶颈,怎样更高效地支持特征工程、更便捷地增删和回填特征。本文将介绍字节跳动如何通过 Iceberg 数据湖支持 EB 级机器学习样本存储,实现高性能特征读取和高效特征调研、特征工程加速模型迭代。

相关产品https://www.volcengine.com/product/flink

机器学习样本存储:背景与趋势

在字节跳动,机器学习模型的应用范围非常广泛。为了支持模型的训练,我们建立了两大训练平台:推荐广告训练平台和通用的 CV/NLP 训练平台。推荐广告平台每周训练规模达到上万个模型,而 CV/NLP 平台的训练规模更是每周高达 20 万个模型。如此庞大的模型训练规模背后离不开海量的训练样本支持。目前,在字节跳动的离线训练样本存储中,数据总量已经达到了 EB 级,每日还在以 PB 级的速度增长。这些数据被用于支持广告、搜索、推荐等模型的训练,覆盖了多个业务领域;这些数据还支持算法团队的特征调研、特征工程,并为模型的迭代和优化提供基础。目前字节跳动以及整个业界在机器学习和训练样本领域的一些趋势如下:

首先,模型 /样本 越来越大。随着模型参数的增多,为了训练这些庞大的模型需要更多、更丰富的训练数据来确保模型的准确性和泛化能力。

其次,训练算力越来越强。在过去,训练一个机器学习模型可能需要数周甚至数月的时间。然而,如今基于更好的模型架构和高速显卡,我们可以在相对较短的时间内完成训练过程并进行 A/B 测试验证。

另外,特征工程 越来越自动化、 端到端 。在传统的机器学习中,特征工程是非常重要的一环,通常需要大量的人工、时间和精力来处理数据和特征。而随着深度学习的发展,我们可以利用深度学习的特征提取能力,通过简单的数据处理步骤自动学习特征,甚至可以将过程简化为在待调研的原始特征中往一张样本表格里加列的操作后利用深度学习框架自动学习和提取信息。

总体来说字节跳动的机器学习和训练样本在其业务中发挥着重要作用。通过建立强大的训练平台、积累海量的训练样本,字节跳动能够支持大规模的模型训练和优化。此外,当前业界的趋势表明模型和样本规模的增长,以及训练算力的提升正推动着机器学习的发展,同时特征工程的自动化和端到端化也为模型训练带来了便利和效率。

picture.image

机器学习与训练样本-语言模型趋势

以语言模型为例看一下参数和样本量的趋势。首先是 BERT,这是一种在 2018 年首次亮相的语言模型。BERT 基于 Transformer 架构,仅有 3.4 亿个模型参数。当时,这已经被认为是一项重大突破。然而随着时间的推移,语言模型的规模和能力不断增长。引人注目的是 GPT-3,这是一种由 OpenAI 开发的强大语言模型。相比于 BERT 的 3.4 亿个参数,GPT-3 的模型参数数量飙升至 1750 亿个。这一巨大的增长引发了广泛的关注,并且使得 GPT-3 在自然语言处理任务中取得了令人瞩目的成就。

然而随着模型参数的增长,模型的大小也成为一个问题。为了解决这个问题,人们开始尝试模型小型化的方法。Chinchilla 就是一种模型小型化的尝试,相较于其前代模型,将模型参数缩小了 4 倍,但样本量却增大了 4 倍,这种方法试图在保持相对较小的模型规模的同时利用更多的数据提升模型的性能。最近最新推出的 GPT-4 模型以及 Google 最近发布的第二代 PaLM 没有公布具体的模型细节。但可以猜测的是,这些模型的规模可能已经达到了万亿级的参数,这些进展为自然语言处理和其他相关领域的研究者们带来了新的机遇和挑战。

通过前面提到的这些趋势,我们也可以看出当前需要解决的一些问题及为实现降本增效目标需要调整的地方。

首先,需要优化 训练样本 的存储大小,减少存储成本。随着数据集的规模增长,存储需求、成本也会相应增加,这对于大规模的训练模型来说是一个挑战。

其次,还需要优化 训练样本 的读取速度。随着芯片技术的迭代和算力的增长,训练模型所需的计算资源也在不断提升。然而如果样本的读取速度无法跟上算力的增长就会成为训练过程中的瓶颈,限制算力资源的有效利用率。所以我们需要寻找方法来提高样本的读取吞吐量,确保可以充分利用现有的算力资源。

最后,在深度学习的加持下特征工程已经变得更加自动化和简化,我们可以顺应趋势进一步提高特征调研和工程的效率。通过加速特征工程和调研过程缩短模型迭代周期、提高算法的开发效率。

存储样本方案演进

传统存储样本方案

picture.image

首先,传统样本存储是将样本直接存放在 ****HDFS 、对象存储或者 ****Hive ****上的方案。这种方案在处理海量样本时会遇到性能瓶颈。由于采用了单点 List 操作,扫描海量样本时会变得非常缓慢。另外,当需要添加列或加特征时使用写时复制(Copy-On-Write)的方式会导致存储量翻倍,大幅增加成本负担的同时也会因为读写放大的本质导致不必要的计算资源开销。

其次是通过传统数据库方案存放样本,这种方案更多适用于处理少量样本的场景,当海量数据达到 PB、EB 级时会遇到困难。此外由于训练代码无法直接读取数据库底层文件,读取吞吐量可能受限制,即使在实时拼接特征、标签的应用场景也会导致训练吞吐速度的下降。

数据湖 存储样本方案

picture.image

基于数据湖的新兴样本存储方案中,两个备受关注的方案是 Apache Hudi 和 Apache Iceberg。

  • Apache Hudi 提供了 MOR(Merge-On-Read)的方式更新、加列,相比于传统的 COW 方式大大降低了特征调研导入的开销。然而 Hudi 在读取时的合并性能不太理想,涉及多种格式的转换、溢出磁盘引起额外 IO 等。此外 Hudi 不支持原生 Python API,只能通过 PySpark 的方式对于算法工程师来说不太友好。

  • Apache Iceberg 是一种开放的表格式,记录了一张表的元数据:包括表的 Schema、文件、分区、统计信息等。这种元数据计算具备高拓展性,为数据湖管理提供了更好的支持、更快的文件扫描。然而 Iceberg 的 MOR 方式也存在一些问题,比如社区版不支持只更新部分列(Partial Update)等。值得一提的是,Iceberg 提供了对 Python API 的支持,这对于算法工程师来说是一个很重要的优势。

综上,Apache Hudi 和 Apache Iceberg 都是基于数据湖的新兴样本存储方案,各自有着不同的特点和优势。虽然 Hudi 在某些方面存在一些性能上的问题并且不支持 Python,但它的 MOR 方式在加调研特征方面表现出色。而 Iceberg 则提供了开放的表格式和高度可扩展的元数据计算,同时还支持 Python API,为算法工程师提供了更友好的环境,但其 MOR 能力还有待加强。到这我们可以了解到,常见一些方案都存在些许不足之处,不够理想。最终我们经过多维度的考察,决定基于 Iceberg 数据湖来自研、强化,填补不足、满足业务的样本存储和特征工程等需求。

字节强化版 Iceberg 数据湖:Magnus 猛犸

整体架构

picture.image

猛犸湖(Magnus)基于 Apache Iceberg 自研、强化的整体架构如下:

最上层的是计算层,延续了计算存储分离的设计理念。天然支持 Flink 和 Spark 引擎进行数据分析和 ETL 数据处理,同时还支持多种训练框架,包括我们团队近期开源的分布式训练调度框架 Primus,以及传统的 PyTorch 和 TensorFlow 等,用户可以根据需求选择适合的计算、训练框架。

第二层即猛犸湖的核心层。对外为用户提供了 SDK 自助和元数据服务,平台能力上支持多种运维作业,如数据导入、维护等任务。值得一提的是,该层引入了基于 Arrow 的高速向量化读时合并引擎,能够高效合并数据、提高读取性能。猛犸湖的底座是基于强化版的 Iceberg 元数据,元数据支持版本管理、文件扫描等功能,为用户提供更加全面的数据管理能力。

底下的存储层是整个架构的基础,负责实际的数据存储,支持多种文件格式,包括开源的列式存储格式 Parquet、行存格式 TFRecord 及其他自研格式。平台鼓励业务迁移到列存格式,可以平均节省存储成本约 30%~50%,并提升读取性能。最终这些文件会被存储在 HDFS 或对象存储中,以确保数据的安全可靠。

核心特性优化与实践

核心特性一:支持数据更新和写入分支

picture.image

经过前文了解到基于 MOR 读时合并的轻量级更新操作是加速特征调研和工程迭代周期的关键。所以我们首先开发、引入了第一个核心特性:Iceberg 上的轻量级数据更新和分支管理。

Iceberg 数据湖管理了以下文件类型:Data File 数据文件—表达新增的行记录、Delete File 删除文件—表达行删除信息,在此基础上增加 Update File 更新文件—表达列更新信息。在写入数据、更新或者加列时,用户只需要提供行号、主键和回填列数据信息即可,极大避免了读写放大问题,实现轻量级更新。读的时候数据文件和更新文件可以一并读出,并进行读时合并、共同应用到更新和加列中。

Iceberg 的树状元数据表达力强,能够很好的支持数据分支表达。通过利用这一点在特征调研\写更新文件时写入到分支上进行调研,就可以直接引用主干上的数据文件,使各分支之间能够保持隔离,不影响主干上的基线模型训练,同时还避免了不必要的数据复制。也开发了对应的分支操作,可以像 Git 一样便捷的操作数据:合并、删除、Rebase(将分支重新以主干为根基),这些分支操作都是基于 Iceberg 元数据的,相比操作数据更加的轻量级。

该特性在缩短特征调研迭代周期和多个训练目标共享特征方向均有广泛应用。

  • 应用一 大规模特征调研与工程

picture.image

基于更新和分支的核心能力,为了提速特征调研迭代周期我们已经广泛将其应用于特征工程的流程中。在一些业务中含有多个高潜力的特征集,算法同学可以在各自的分支上进行并行回填、调研、训练。当调研模型指标满足预期后,用户可以提交工单进行分支合并审核及追新写入特征,分支合并与追新之间如果有缺失可以从离线回填到主干上。

对于成熟度高的模型大部分调研特征可能效果不明显,这时删除分支后数据维护任务会把这个分支的文件删除节省空间。当然算法工程师也可以继续对分支进行 Rebase 操作进行验证、调研。该应用也存在一些难点比如大量更新合并后带来的小文件问题,所以在分支上部署文件数量监控,只有在必要时才进行 Compact 合并小文件操作。

  • 应用二 多个训练目标,共享特征

picture.image

另一个应用场景是通过数据分支支持多个训练目标复用同一份特征。在推进新的推荐项目时,如果有一个新的推荐目标,算法工程师只需要回填该推荐目标的标签 Label 就可以直接复用主干已有的特征,训练几个小时后就可以开始 AB 实验、检验模型效果,在主干上调研成功的新特征也可以尽快在所有推荐目标上复用、零数据复制,最终我们通过分支、复用特征数据的能力在一些推荐项目上节省约 90% 的样本存储空间,极大的提速了推荐目标的调研周期。

核心特性二:高速读时合并引擎

picture.image

猛犸数据集(Magnus Dataset)是一个基于 Apache Arrow 开发的读时合并引擎。Apache Arrow 是一个开源的列式内存结构,支持多种语言、同进程零复制、极低序列化开销、向量化计算等能力。Iceberg 社区也拥有对 Arrow 向量化读取的支持,但是不支持复杂嵌套类型,这对包含嵌套类型数据的训练样本极不友好,而猛犸数据集则能够很好的支持。

在字节开源的训练调度框架 Primus 上,相比一般的向量化读能够实现约 2 倍的读吞吐提升。所以我们不依赖 Compaction 合并文件也能支持高性能样本读时合并、读取,在 GPU 训练中让数据读取不再是瓶颈。输出的结果是 Arrow 格式,能够很方便的以零复制的方式对接 Spark Dataset、Pandas 等接口。

picture.image

其中读时合并和下推过滤在一些训练模型/数据处理中有很多样本是可以跳过和采样的,我们也通过下推过滤减少训练的样本计算量来提速。在支持高速读时合并中支持了内存统一化和海量样本 Shuffle 的优化,具体可见下两部分详细介绍。

  • 应用一 内存统一化 Arrow

picture.image

这个特性在业务的落地上我们和内部其他团队将离线训练端到端的内存格式在头部模型中全部切换成了 Arrow 格式,极大减少了内存、计算资源的使用,避免了很多不必要的内存格式转换和序列化开销,取得了很大的收益。在数据分析、处理常用的 Spark 引擎中也做了部分 Arrow 化改造。需要注意的是,我们也在在线流式训练中尝试切换 Arrow,但开销还是很大,可能的原因是流式的样本是每条通过的,不适合 Arrow 这种批式的形式从而导致额外的开销。

  • 应用二 海量样本 Shuffle 优化

picture.image

在海量样本的处理上,算法工程师为使模型表现更好会花费大量时间在数据的清洗上。而清洗数据往往需要使用 Shuffle 操作,常碰到的问题是 Shuffle 失败、慢。我们在这个部分基于更新和下推过滤做了 Shuffle 优化的响应工作。

比如用户需要将 PB 级样本表和某中型表拼接,他们的分桶方式不同-用不了常见的 Bucket Join,内存不足-也用不了常用的 Broadcast Join,这时我们可以通过 Update 更新操作,将小的表更新到大表的临时分支中、将其变成和大表一样的布局,再通过下推过滤将拼接上的样本高吞吐读出。

如果用户需要通过将 PB 级样本打散、去重来优化模型的性能效果,那么也可以按照类似的思路通过 Update Shuffle 小的数据将其更新到大表上再下推过滤、捞出即可。

核心特性三:Upsert 与全局索引

picture.image

拥有更新、高速读时合并并不够,我们还需要有一些业务场景使多条样本的数据流能够直接并发入湖、拼接和回填,这就依赖于接下来介绍的第三个核心特性-全局索引。通过全局索引可以知道一条写进记录是否已经写入,没写入的可以 Insert 插入;写入的可以采用 Update 更新操作。这部分我们参考了 Apache Hudi 的设计,除了支持 HBase 全局索引,还支持 HFile 文件索引、即直接使用 HBase 底层的数据格式作为索引并托管在 Iceberg 元数据中,优化了性能和并发性等。

相比其他索引,使用 HFile 文件索引能够减少运维组件、复用存储资源,并且能够避免脉冲流量读写问题。整个写入流程上看,在写入数据的时候框架会查写全局索引定位一条记录应该写到哪个分区、桶,读取的时候会根据桶进行读时合并,最终还原出结果样本。具体应用上主要在大开窗特征、标签拼接等场景使用。

  • 应用 大开窗特征与标签湖上拼接

picture.image

风控等业务场景更适用大开窗(大于等于一个月的开窗)特性拼接特征和标签。线上拼接采用大开窗的形式需要耗费大量机器资源,所以我们采用并发 Upsert 支持,允许样本追新、标签回填、特征调研同时进行,可以直接在成本较低的离线猛犸湖上进行特征和标签的拼接。

其核心在于将容忍并发写冲突的选择权交给用户,提供多种 MOR 策略满足业务需求:First-write-win 最先写入的留下、Last-write-win 最后写入的留下、拼接到列表、自定义读时合并容忍并发 Upsert 冲突。对于业务无法容忍并发的场景也支持分区级、桶级的乐观冲突检测。同时对于 Upsert 回流到早前分区的数据按数据冷热进行 Compact,避免小文件带来的性能损耗。

介绍完核心特性,我们也针对海量样本为 Iceberg 数据湖做了不少优化,也逐渐在将一些效果不错的包贡献给社区。这里我们挑重点的内容简单介绍一下。

其他优化与实践

picture.image

  • 特征淘汰

某些情况下对于合并到主干上的特征直接物理删除后可能会有遗漏,或者对下游任务产生影响。针对这种情况可以通过对特征列重命名实现逻辑删除。由于训练侧是基于特征名字来读,重命名后就读不到了。如果有算法同学发现对模型有影响,将其重命名回来就好,过了一段时间没有影响后就可以稳妥地物理删除该特征。

  • 回滚 & 撤销

当数据源/流水线出现问题时,如果入湖的特征存在问题就会影响训练模型效果导致线上数据流故障。针对这种情况,常见的做法是回滚,将有问题的写入快照版本回滚,如此做法也会把后面正常写入的快照版本一起回滚了,可能会影响后续下游的一些训练/样本处理。所以我们开发了撤销功能,可以针对某个快照的操作在元数据层面进行撤销,不影响后续正常写入的特征,对下游任务更友好。

  • 脏数据跳过

面对海量样本,经常会出现脏数据如数据丢块、损坏等,这是数据量级增大后必然出现的现象。因此我们支持针对脏数据的重试,比如支持切换节点重试、支持只跳过一定比例等。

  • 大元数据优化

面对海量样本,元数据也变成了 Big Metadata,即大元数据。它也需要像大数据那样去对待、瘦身和优化。如在机器学习场景下,绝大部分的读数据方式是 Scan 扫描,这时我们可以把 Iceberg 元数据中记录的大量列统计信息去掉,有效减少元数据大小、特别是大宽表场景,只留一些必要的比如分区、主键 Min-max 等。从而大大减少任务 Plan 计划耗时,避免 AM、Driver OOM 超内存。

  • 大元数据提速

对于大元数据的提速,传统上往往都是用单点处理元数据的计算方式,这种处理方式在面对大元数据时也会力不从心。这时我们可以通过裁剪 IO、分布式处理大元数据来提速。对于依赖全表扫描的作业如 Compaction,也采用分布式 Planning 提速、避免超内存问题。

总结与展望

本文总结

本次分享介绍了强化版 Iceberg 的整体架构、核心特性及优化与实践,简单总结前面分享的内容主要包括:

  1. 通过推动业务切换列存格式、复用特征数据大幅减少样本存储空间,减少存储成本;

  2. 通过向量化读时合并引擎提速特征读吞吐,使 GPU 训练中的数据读取可以不成为瓶颈,充分利用好算力;

  3. 基于更新、Upsert 和分支的能力进行大规模特征工程和调研,使模型迭代效率更快。

近期对于 LLM 大语言模型的思考

我们前面提到了很多特征调研、特征工程相关的技术,那未来会不会不需要特征工程了呢?这里结合最近比较火的 LLM 大语言模型,也基于一些公开的信息还有论文知识分享下我的一些想法:

目前大语言模型基本都沿用了 Transformer 架构实现,虽然学习特征的能力已经很强了,但目前还需要分词组件辅助将文字转换为模型理解的形式,并且分词的好坏也会一定程度影响模型的效果。而现阶段各个大语言模型的分词算法还不一样,距离完全的端到端还有一定距离,基本都是能实现自动化的。当然也有新的研究和论文比如 Megabyte 尝试完全端到端的方式做分词和训练架构,也取得了不错的效果,但是还需要期待更大规模的效果验证。所以说当前短时间内如果需要重新研发一个大语言模型,分词、特征工程还是必经之路。

当然出于成本考虑很多公司和机构不会从头开始重新研发一个大语言模型,一般会基于某个已有的大语言模型进行微调,针对下游、垂直任务进行优化,所以特征工程也还是值得考虑的。比如:利用人工反馈给 AI 问答排序、打分让它对齐人类的喜好还有社会法律规范;添加一些额外的特征辅助 AI 理解当前上下文并做出更恰当的回答等。现在也出现了一些新的技术比如 Low-Rank Adaptation(LoRA)把需要微调的参数量大幅减少,不需要更新基础大模型的参数,让微调训练更快完成、也让输入的 Token 更少来大大减少计算成本。

对于提示词工程和上下文学习确实不太需要关注底层的特征工程了,也都不需要训练了、可以直接让 AI 结合上下文信息来习得知识并作答。目前业界已经出现不少应用,结合词向量搜索、把 AI 需要的上下文信息提供出来回答之前没训练过的内容。这是一个全新的方向,很多正确性要求不高的场景都适用,极大的降低了 AI 模型的研发门槛、潜力十足。但因为每次接口调用都要提供上下文信息、而现在的一些大语言模型计费标准是按输入输出 Token 数计费的,使用成本较高,如果能微调的一下的话可以节省不少成本的、效果也可以更好。其次提示词工程会更适用于参数千亿级的大模型,它的思维链、涌现能力更好;对于参数少的还可以通过微调来达到持平、甚至更好的表现。而目前需要微调的话,特征工程还有机会进入提升效果。总体来说会像开头提到趋势一样:特征工程会越来越简化,将来它的存在也不再需要投入很多时间精力去手工操作了。

未来展望与规划

最后分享未来对数据湖、样本存储的一些展望。

  • “湖流一体”

首先是湖流一体化。在“湖流一体”的架构中,数据湖和消息队列、流式计算可以相互连接,可以通过计算框架提供统一的历史批式、追新流式的管理和接口,同时服务于低延迟的在线流式训练、高吞吐的离线批式训练;并且将消息队列闲置的计算资源用来满足数据湖的数据管理,节省资源成本。

  • 下一代数据格式

常见的列存文件格式编码算法较少、而且多为支持 Primitive 原始类型。而训练样本里边的数据类型多是嵌套、Tensor 向量类的,我们可以探索更丰富的编码算法来更好的优化机器学习特征的存储和成本,同时采用更丰富的索引支持来为训练提速。

  • 云原生

最后一点,对于企业来说采用云原生架构已经成为一种趋势和必要选择,可以帮助企业更好地应对业务变化和市场挑战,提高业务竞争力和创新能力。强化版 Iceberg 也具备企业级能力,能为用户带来计算和存储收益,降本增效。

相关能力已在流式计算 Flink 版产品中落地

流式计算 Flink 版是一个全面兼容 Apache Flink 协议的全托管大数据实时计算引擎,产品集成了企业级超大规模生产实践能力,拥有开箱即用、极简 SQL 开发,全局可观测、免运维,Serverless 极致弹性 ,低 TCO、高 SLA 保障等特性。一套代码轻松搞定流批一体数据处理,助力企业将大数据平台向云原生、实时化、智能化方向升级。

861
1
0
0
关于作者
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论