谁还记得GLM4是什么时候提出的?
1月16日,智谱AI技术开放日(Zhipu DevDay)推出了新一代的基座大模型 GLM-4。
这有之前的介绍,可以回顾下能力
距今不到5个月的时间,没想到今天竟然开源了。
短短2个小时的时间,收到了很多人的关注。
这次开放的是GLM-4-9B模型,在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。
模型特点
多轮对话能力 :GLM-4-9B-Chat 支持多轮对话。
网页浏览和代码执行 :具备网页浏览和代码执行功能。
自定义工具调用 :支持自定义工具调用(Function Call)。
长文本推理 :支持最大 128K 上下文的长文本推理。
多语言支持 :支持包括日语、韩语、德语在内的 26 种语言。
模型拓展 :还推出了支持 1M 上下文长度(约 200 万中文字符)的 GLM-4-9B-Chat-1M 模型和基于 GLM-4-9B 的多模态模型 GLM-4V-9B
高分辨率多模态能力 :GLM-4V-9B 具备 1120 * 1120 高分辨率下的中英双语多轮对话能力,在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中,GLM-4V-9B 表现出超越 GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max 和 Claude 3 Opus 的卓越性能。
开放模型列表
- GLM-4-9B:基础模型,支持 8K 上下文。
- GLM-4-9B-Chat:对话模型,支持 128K 上下文。
- GLM-4-9B-Chat-1M:对话模型,支持 1M 上下文长度(约 200 万中文字符)。
- GLM-4V-9B:多模态模型,支持 8K 上下文。
评测结果
- 在对话模型典型任务中,GLM-4-9B-Chat 在多个指标上超越了 Llama-3-8B-Instruct 和 ChatGLM3-6B。
- 在长文本能力评测中,GLM-4-9B-Chat 在 LongBench-Chat 上表现优异。
- 在多语言能力测试中,GLM-4-9B-Chat 在多个数据集上展现了良好的性能。
- 在工具调用能力测试中,GLM-4-9B-Chat 在 Berkeley Function Calling Leaderboard 上取得了高分。
- 在多模态能力评测中,GLM-4V-9B 在多个任务上超越了其他模型。
下载地址
项目地址 :https://github.com/THUDM/GLM-4
huggingface模型地址 :https://huggingface.co/collections/THUDM/glm-4-665fcf188c414b03c2f7e3b7
huggingface国内镜像模型地址 :https://hf-mirror.com/models?search=GLM-4
modelscope :https://modelscope.cn/models/ZhipuAI/glm-4-9b-chat/summary
一起来探讨下GLM-4k-9B的能力吧。
<-End->
往期推荐
突破开源天花板!ChatTTS文本转语音模型,仅5天斩获16k关注
总结优秀的prompt案例,学习更有效的prompt提示词工程写法,值得收藏
新手教程,使用Langchain-Chatchat构建自己的专属GPT
免魔法,非套壳API,国内使用GPT plus,和官网功能一模一样,强烈推荐!
我是大林,持续关注 AI 发展,和大家一起交流。微信(dalinvip2023),备注【公众号 AIGC】,进 AIGC 交流群一起交流。
如果文章对你有一点点 🤏🏻 帮助,关注公众号并星标,可以及时收到最新 AI 信息,点赞、在看、帮忙转发给更多的朋友,谢谢。