Hugging Face偷偷放大招了,Rust版本的ML框架Candle曝光

人工智能与算法增长营销弹性计算

动手点关注

picture.image

干货不迷路

picture.image

H u ggin g

F ace 作为开源AI领域的独角兽,在LLM开发工具链和模型生态领域持续领跑 。就在前几天英 伟达新品发布会上,Hugging Face作为英伟达新产品AI workbench的重要部件被集成, 从某种意义上,这 是绿色巨人对这家独角兽公司的认可, 也 反映了 H u ggin g

F ace 在 模型 开发 领域 的独到理解 。

picture.image

Hugging Face也并未止步,持续体现在对开发者痛点的敏锐洞察。近日(8.10),Hugging Face新出了一个框架TRL(Transformer Reinforcement Learning)被朋友圈频繁转载。众所周知,在微调领域,得益于huggingface transfomers等框架支持,监督微调SFT相对强化学习微调RLHF(Reinforcement Learning from Human Feedback)来讲更易实施。而现在TRL的出现,把低门槛使用强化学习(Reinforcement Learning) 训练 transformer 语言模型的这个短板补齐,做到了从监督调优 (Supervised Fine-tuning step, SFT),到训练奖励模型 (Reward Modeling),再到近端策略优化 (Proximal Policy Optimization),实现了全面覆盖。

picture.image

而这还不够,Hugging Face同时低调开源了另一个重磅框架,当前还未引起大家的注意,这就是candle(https://github.com/huggingface/candle)。而这个框架又是Hugging Face眼光独到的体现。candle瞄准于当下又一个被广为诟病又不得不接受的痛点,那就是基于Python语言的pytorch框架训练的大模型速度慢,体积大的问题。比如,python的GIL机制导致的假多线程,让很多人都想替换掉它,虽然业内有有诸如python后期版本移除掉GIL的计划以及创造出兼容python的的新编程语言mojo,但始终远水解不了近渴。而Hugging Face给出的解法就是用时下最快的语言rust重写一个ML框架,强调易用性和性能(包括 GPU 支持),并且当前版本已经支持当前最前沿的模型,比如llama2。经过改写的模型,比如llama2能够方便,快速的运行在容器环境,甚至可以运行在浏览器中,而这一举动,为拥有更广阔应用场景的边缘AI带来了巨大想象力,下一站万物大模型开启,而Hugging Face已经埋下了伏笔。

picture.image

该项目正在处于快速迭代过程中,更新非常频繁,很多功能在不断开发中,目前包含如下feature:

  • 语法简单, 风格与 PyTorch 相似。
  • CPU 和 Cuda Backend:m1、f16、bf16。
  • 支持serverless(CPU)、小型和快速部署
  • 支持 WASM,可在浏览器中运行模型。
  • 模型训练
  • 使用 NCCL 进行分布式计算。
  • 开箱即用的模型:Llama、Whisper、Falcon、StarCoder...
  • 嵌入用户定义的操作/内核,如 flash-attention v2。

语法对比 :

picture.image

Hugging Face提供了完整的例子和在线可用的demo,感兴趣的朋友可以去体验。

picture.image https://huggingface.co/spaces/lmz/candle-whisper

picture.image h ttps://huggingface.co/spaces/lmz/candle-llama2

picture.image

阅读至此了,分享、点赞、在看三选一吧🙏

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
高性能存储虚拟化方案 NVMe over Fabric 在火山引擎的演进
在云计算中,虚拟化存储扮演着重要角色,其中 iSCSI 协议在业界开放、流行多年。近年来,拥有更优性能的 NVMe over Fabrics 协议也得到了发展。本次分享介绍了 NVMe over Fabrics 在云原生和虚拟化方向的演进工作和成果。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论