写在前面
大家好,我是刘聪NLP。
今天早上看到零一万物发布了新的模型Yi-1.5系列,涉及6B、9B和34B三种规模,前有Qwen1.5后有Yi1.5,开源卷起来。
Github: https://github.com/01-ai/Yi-1.5
HF: https://huggingface.co/collections/01-ai/yi-15-2024-05-663f3ecab5f815a3eaca7ca8
介绍
Yi-1.5系列模型在结构上与Yi系列模型保持一致,是Yi系列模型的增量预训练版本,Base模型使用500B Tokens的高质量语料库进行的增量预训练,Chat模型是在Base模型上使用300万指令数据微调得来。
模型的上下文长度为4K。
之前分析过Yi的技术报告,详见:《Yi技术报告细节分享》
与Yi系列模型相比,Yi-1.5系列模型在编码、数学、推理、指令遵循、语言理解、常识推理和阅读理解等多方面展现了更为出色的能力。
Yi-1.5系列模型整体上看,优于Qwen1.5同等规模的模型,34B-Chat模型部分指标甚至超过Qwen1.5-72B模型,尤其是在代码、数学能力上,尤为突出。
6B-Chat和9B-Chat模型
34B-Chat模型
此外,Yi-1.5系列模型的开源协议为Apache 2.0。
模型使用
直接transformers走起,以34B-Chat模型为例。PS:模型下载有困难的同学,详见我之前写的一篇文章《大模型下载使我痛苦》。
赶紧玩起来,实测一波。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = '01-ai/Yi-1.5-34B-Chat'
tokenizer = AutoTokenizer.from_pretrained(model_path, use_fast=False)
model = AutoModelForCausalLM.from_pretrained(
model_path,
device_map="auto",
torch_dtype='auto'
).eval()
messages = [
{"role": "user", "content": "你是谁"}
]
input_ids = tokenizer.apply_chat_template(conversation=messages, tokenize=True, add_generation_prompt=True, return_tensors='pt')
output_ids = model.generate(input_ids.to('cuda'))
response = tokenizer.decode(output_ids[0][input_ids.shape[1]:], skip_special_tokens=True)
写在最后
大模型开源社区也是越来月繁荣昌盛,个人认为与闭源直接的差距是在缩小的,请各位头部开源组织继续加油,我会紧紧跟随。
PS:给公众号添加【星标⭐️】不迷路!您的点赞 、在看 、关注 是我坚持的最大动力!
欢迎多多关注公众号「NLP工作站」,加入交流群,交个朋友吧,一起学习,一起进步!
我们的口号是“生命不止,学习不停”!
往期推荐:
- 一大堆Chinese Llama3正在袭来
- LLM2LLM:迭代数据增强策略提升大模型微调效果
- 如何快速提高大模型的向量表征效果?
- RAG系统中答案无关片段对LLMs生成答案有何影响?
- InternLM2技术报告
- Qwen1.5-MoE模型:2.7B的激活参数量达到7B模型的性能
- RAG与Long-Context之争—没必要争
- 角色扮演大模型的碎碎念
- 自我蒸馏方法-减轻大模型微调过程中的灾难性遗忘
- Yi技术报告细节分享
- 大模型增量预训练新技巧-解决灾难性遗忘
- 如何提高LLMs的文本表征(Text Embedding)能力?
- DEITA-大模型指令微调的数据高效筛选方法
- 大模型微调技巧 | 高质量指令数据筛选方法-MoDS
- 辟谣!微软撤回声称ChatGPT为20B参数的论文,并给出解释。
- 如何看待微软论文声称 ChatGPT 是 20B (200亿) 参数量的模型?
- 大模型微调技巧-在Embeeding上加入噪音提高指令微调效果
- 如何从数据集中自动识别高质量的指令数据
- BaiChuan2技术报告细节分享&个人想法
- 大模型LLM微调经验总结&项目更新
- 打造LLM界的Web UI
- 是我们在训练大模型,还是大模型在训练我们?
- Llama2技术细节&开源影响
- 大模型时代-行业落地再思考
- 垂直领域大模型的一些思考及开源模型汇总
- 如何评估大模型-LLMs的好坏?
- 总结|Prompt在NER场景的应用