动手点关注
干货不迷路
H u ggin g
F ace 作为开源AI领域的独角兽,在LLM开发工具链和模型生态领域持续领跑 。就在前几天英 伟达新品发布会上,Hugging Face作为英伟达新产品AI workbench的重要部件被集成, 从某种意义上,这 是绿色巨人对这家独角兽公司的认可, 也 反映了 H u ggin g
F ace 在 模型 开发 领域 的独到理解 。
Hugging Face也并未止步,持续体现在对开发者痛点的敏锐洞察。近日(8.10),Hugging Face新出了一个框架TRL(Transformer Reinforcement Learning)被朋友圈频繁转载。众所周知,在微调领域,得益于huggingface transfomers等框架支持,监督微调SFT相对强化学习微调RLHF(Reinforcement Learning from Human Feedback)来讲更易实施。而现在TRL的出现,把低门槛使用强化学习(Reinforcement Learning) 训练 transformer 语言模型的这个短板补齐,做到了从监督调优 (Supervised Fine-tuning step, SFT),到训练奖励模型 (Reward Modeling),再到近端策略优化 (Proximal Policy Optimization),实现了全面覆盖。
而这还不够,Hugging Face同时低调开源了另一个重磅框架,当前还未引起大家的注意,这就是candle(https://github.com/huggingface/candle)。而这个框架又是Hugging Face眼光独到的体现。candle瞄准于当下又一个被广为诟病又不得不接受的痛点,那就是基于Python语言的pytorch框架训练的大模型速度慢,体积大的问题。比如,python的GIL机制导致的假多线程,让很多人都想替换掉它,虽然业内有有诸如python后期版本移除掉GIL的计划以及创造出兼容python的的新编程语言mojo,但始终远水解不了近渴。而Hugging Face给出的解法就是用时下最快的语言rust重写一个ML框架,强调易用性和性能(包括 GPU 支持),并且当前版本已经支持当前最前沿的模型,比如llama2。经过改写的模型,比如llama2能够方便,快速的运行在容器环境,甚至可以运行在浏览器中,而这一举动,为拥有更广阔应用场景的边缘AI带来了巨大想象力,下一站万物大模型开启,而Hugging Face已经埋下了伏笔。
该项目正在处于快速迭代过程中,更新非常频繁,很多功能在不断开发中,目前包含如下feature:
- 语法简单, 风格与 PyTorch 相似。
- CPU 和 Cuda Backend:m1、f16、bf16。
- 支持serverless(CPU)、小型和快速部署
- 支持 WASM,可在浏览器中运行模型。
- 模型训练
- 使用 NCCL 进行分布式计算。
- 开箱即用的模型:Llama、Whisper、Falcon、StarCoder...
- 嵌入用户定义的操作/内核,如 flash-attention v2。
语法对比 :
Hugging Face提供了完整的例子和在线可用的demo,感兴趣的朋友可以去体验。
https://huggingface.co/spaces/lmz/candle-whisper
h
ttps://huggingface.co/spaces/lmz/candle-llama2
阅读至此了,分享、点赞、在看三选一吧🙏