重磅:智谱AI推出新一代GLM系列模型,性能媲美千亿参数模型!分享一波深度体验

大模型域名与网站向量数据库

智谱GLM开源推理模型性能比肩世界先进水平,同时启用全球域名"z.ai"

智谱AI今日宣布GLM模型家族迎来新一代开源模型GLM-4-32B-0414系列,包含基座、推理、沉思模型权重,全部采用MIT License授权。新版基座模型和推理模型已同步上线智谱MaaS平台,并可通过全新域名"z.ai "免费体验。

picture.image

推理模型媲美世界一流表现,价格仅为竞品1/30

除模型开源外,推理模型 GLM-Z1-32B 与基础模型 GLM-4-32B 两款模型同步上线智谱MaaS开放平台(bigmodel.cn ),面向企业与开发者提供API服务。

本次上线的基础模型有两个版本,包括GLM-4-Air-250414 和GLM-4-Flash-250414,后者完全免费

上线的推理模型分为三个版本,分别满足不同场景需求:

  • GLM-Z1-AirX(极速版):国内最快推理模型,推理速度高达200 tokens/s,8倍于常规速度;
  • GLM-Z1-Air(高性价比版):价格仅为DeepSeek-R1的1/30,适合高频调用场景;
  • GLM-Z1-Flash(免费版):支持免费使用,进一步降低模型使用门槛。

如下图所示,我们可以直接在智谱MaaS开放平台的体验中心来测试模型效果picture.image说实话这个推理速度真心快,尤其在对于推理模型来说体验更加友好了。下面是一个Z1推理模型实测的效果,基本上3-4秒就可以把思维链和答案内容回复完毕,终于不用花费大量时间等待推理模型思考了!

picture.image

此次发布的推理模型GLM-Z1-Air/AirX-0414不仅性能比肩DeepSeek-R1等世界一流推理模型,且推理速度最高可达200 Tokens/秒,成为国内迄今最快的商业模型。更令人瞩目的是,GLM-Z1-Air-0414的价格仅为DeepSeek-R1的1/30,极大降低了企业应用AI推理能力的成本门槛。

picture.image

GLM-0414系列开源三大类模型

本次开源所有模型全部遵循更加宽松的 MIT License。免费商用,分发,让开发者更自由的使用和开发模型。开源模型有9B 和 32B 两个尺寸,涵盖基座模型,推理模型和沉思模型,具体如下:

picture.image

huggingface下载链接🔗:https://huggingface.co/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2e

picture.image

基础模型 GLM-4-32B

基础模型 GLM-4-32B 以 320 亿参数量比肩更大参数量的国内外主流模型,该模型经过了 15T 高质量数据的预训练,其中包含大量推理类的合成数据,为后续的强化学习扩展打下了基础。

在后训练阶段,除了针对对话场景进行了人类偏好对齐外,我们还通过拒绝采样和强化学习等技术强化了模型在指令遵循、工程代码、函数调用方面的效果,旨在加强智能体任务所需的原子能力。

GLM-4-32B 在工程代码、Artifacts 生成、函数调用、搜索问答及报告等方面都取得了不错的效果,部分 Benchmark 甚至可以媲美更大规模的 GPT-4o、DeepSeek-V3-0324(671B)等模型。picture.image

GLM-4-32B 强化了代码生成能力,可以生成更为复杂的单文件代码。z.ai 的对话模式中也支持对生成的 HTML 和 SVG 进行预览,便于用户查看生成效果并对内容进行进一步修改。后面实测会看到很多例子

推理模型 GLM-Z1-32B

GLM-Z1-32B 是具有深度思考能力的推理模型,这是在 GLM-4-32B 的基础上,通过冷启动和扩展强化学习,以及在数学、代码和逻辑等任务上对模型的进一步训练得到的。相对于基础模型,GLM-Z1-32B 显著提升了数理能力和解决复杂任务的能力。在训练的过程中,我们还引入了基于对战排序反馈的通用强化学习,进一步增强了模型的通用能力。

在部分任务的性能表现上,在仅使用 32B 参数的情况下,可与参数高达 6710 亿的 DeepSeek-R1 相媲美。我们在 AIME 24/25、LiveCodeBench、GPQA 等基准测试中对 GLM-Z1-32B 进行了评估,评估结果显示 GLM-Z1-32B 展现了较为强大的数理推理能力,为更多复杂任务的解决提供了支持。

picture.image

picture.image

沉思模型 GLM-Z1-Rumination-32B

不同于一般的深度思考模型,沉思模型通过更长时间的深度思考来解决更开放和更复杂的问题,沉思模型还能在深度思考过程中结合搜索工具处理复杂任务,并利用多种规则型奖励来指导和扩展端到端强化学习训练。

  • 支持“自主提出问题—搜索信息—构建分析—完成任务”的完整流程。
  • 技术底座源自强化学习扩展与端到端的Deep Research策略训练,具备博士级研究能力的潜力。

沉思模型在研究型写作和复杂检索任务上的能力得到了显著提升。

极速推理,价格大幅优化

推理模型GLM-Z1-32B与基础模型GLM-4-32B同步上线智谱MaaS开放平台(bigmodel.cn),面向企业与开发者提供API服务:

基础模型版本:

  • GLM-4-Air-250414:0.5元/M

  • GLM-4-Flash-250414:免费

    推理模型版本:


  • GLM-Z1-AirX(极速版):5元/M,推理速度高达200 tokens/s,是常规速度的8倍
  • GLM-Z1-Air(高性价比版):0.5元/M,价格为DeepSeek-R1的1/30
  • GLM-Z1-Flash(免费版):完全免费使用

通过优化量化、投机采样技术,改进推理框架和调度平台性能,降低长思考对KV Cache显存压力,实现更快推理速度和更大并发量。

"z.ai"全球域名正式启用

智谱AI启用全新域名"z.ai",该平台集成对话、推理与沉思三类GLM模型,自即日起向全球用户免费开放使用。

picture.image

z.ai目前已上线三款开源模型:

  • GLM-4-32B(对话模型):具备强大代码生成能力,支持全新Artifacts功能
  • Z1-32B(推理模型):超强推理性能,在线体验最高达200 Tokens/秒的极速输出
  • Z1-Rumination-32B(沉思模型):驱动Deep Research能力的强大模型

z.ai不仅是GLM模型的展示入口,也将持续演进为下一代AI应用平台,覆盖从文本生成、深度问答到多轮对话的智能场景,助力用户快速进行智能问答、信息检索与研究任务。picture.image

全新GLM系列模型实测体验

接下来我们通过z.ai平台来实测体验基座、推理、沉思模型效果。

基础模型 GLM-4-32B实测

作为程序员,我们会经常用到大模型来写代码,下面主要测试下基础模型 GLM-4-32B的实战能力,我们从基础编程、前端开发,后端开发以及深度学习模型能力来测试。

基础编程能力

创建一个Python函数来检查一个字符串是否是回文,并处理大小写和标点符号。

picture.image

picture.image可以看到GLM-4-32B可以很轻松的写出来回文检测函数功能。

接下来我们通过贪心算法问题来测试基础编程能力

实现一个简单的贪心算法解决硬币找零问题,使用Python。

picture.image

前端开发

设计一个响应式导航栏,在手机上显示汉堡菜单,在桌面端显示完整菜单。使用HTML、CSS和JavaScript实现。

picture.image

实现一个具有深色模式切换功能的个人作品集首页,包含项目展示、技能展示和联系表单。

picture.image这个效果属实经验到我了,回想之前本科毕业设计手撸Bootstrap模板了!

请帮我生成一个天气预测的页面,尽量和IOS风格保持一致

picture.image

使用D3.js设计一个互动式疫情数据仪表板,展示不同地区的确诊病例、康复人数和死亡人数。

picture.image看了下对话界面,这个页面一共写了1000多行代码,这太惊人了,现在模型这么能写了吗!

请将对话文字内容做成一个html页面,尽量好看一些。

下面是我问了一个关于个性化减脂食谱:鸡胸肉芝士烤西兰花配蒜香猪肉的问题picture.image

然后我们将对话内容通过GLM-4-32B转为页面

picture.image这里有个有意思的地方是,竟然学会了配图,看了下是链接了一个图片链接,虽然匹配图片和内容不相关,有点神奇,难道是模型训练的时候把一些图片链接知识也学进去了,但是是没有上下文信息,也就是模态匹配能力,这个也可以理解。

后端与API

创建一个Python FastAPI服务,处理图片上传并进行简单的图像处理(如调整大小、旋转和应用滤镜)。

  
from fastapi import FastAPI, File, UploadFile, HTTPException  
from fastapi.responses import FileResponse  
from fastapi.middleware.cors import CORSMiddleware  
from PIL import Image, ImageFilter, ImageOps  
import io  
import os  
from typing import Optional  
  
app = FastAPI()  
  
# 允许跨域请求  
app.add\_middleware(  
    CORSMiddleware,  
    allow\_origins=["*"],  
    allow\_credentials=True,  
    allow\_methods=["*"],  
    allow\_headers=["*"],  
)  
  
# 创建临时目录存储上传的文件  
UPLOAD\_DIR = "uploads"  
os.makedirs(UPLOAD\_DIR, exist\_ok=True)  
  
@app.post("/upload/")  
asyncdef upload\_image(file: UploadFile = File(...)):  
    """  
    上传图片  
    """  
    try:  
        # 读取上传的文件  
        contents = await file.read()  
          
        # 使用Pillow打开图像  
        image = Image.open(io.BytesIO(contents))  
          
        # 保存原始图像  
        file\_location = os.path.join(UPLOAD\_DIR, file.filename)  
        image.save(file\_location)  
          
        return {"filename": file.filename, "status": "uploaded successfully"}  
    except Exception as e:  
        raise HTTPException(status\_code=400, detail=str(e))  
  
@app.post("/process/")  
asyncdef process\_image(  
    file: UploadFile = File(...),  
    resize: Optional[str] = None,  
    rotate: Optional[float] = None,  
    filter\_type: Optional[str] = None  
):  
    """  
    处理图片  
    参数:  
    - resize: 调整大小,格式为"width,height" (例如 "300,200")  
    - rotate: 旋转角度 (例如 90)  
    - filter\_type: 滤镜类型 (blur, contour, detail, edge\_enhance, edge\_enhance\_more, emboss, find\_edges, sharpen, smooth)  
    """  
    try:  
        # 读取上传的文件  
        contents = await file.read()  
          
        # 使用Pillow打开图像  
        image = Image.open(io.BytesIO(contents))  
          
        # 应用调整大小  
        if resize:  
            try:  
                width, height = map(int, resize.split(","))  
                image = image.resize((width, height))  
            except ValueError:  
                raise HTTPException(status\_code=400, detail="Invalid resize format. Use 'width,height'")  
          
        # 应用旋转  
        if rotate isnotNone:  
            image = image.rotate(-rotate, expand=True)  # 负角度是因为Pillow的旋转方向与常规相反  
          
        # 应用滤镜  
        if filter\_type:  
            filter\_type = filter\_type.lower()  
            if filter\_type == "blur":  
                image = image.filter(ImageFilter.BLUR)  
            elif filter\_type == "contour":  
                image = image.filter(ImageFilter.CONTOUR)  
            elif filter\_type == "detail":  
                image = image.filter(ImageFilter.DETAIL)  
            elif filter\_type == "edge\_enhance":  
                image = image.filter(ImageFilter.EDGE\_ENHANCE)  
            elif filter\_type == "edge\_enhance\_more":  
                image = image.filter(ImageFilter.EDGE\_ENHANCE\_MORE)  
            elif filter\_type == "emboss":  
                image = image.filter(ImageFilter.EMBOSS)  
            elif filter\_type == "find\_edges":  
                image = image.filter(ImageFilter.FIND\_EDGES)  
            elif filter\_type == "sharpen":  
                image = image.filter(ImageFilter.SHARPEN)  
            elif filter\_type == "smooth":  
                image = image.filter(ImageFilter.SMOOTH)  
            else:  
                raise HTTPException(status\_code=400, detail="Invalid filter type")  
          
        # 生成处理后的文件名  
        processed\_filename = f"processed\_{file.filename}"  
        processed\_file\_path = os.path.join(UPLOAD\_DIR, processed\_filename)  
          
        # 保存处理后的图像  
        image.save(processed\_file\_path)  
          
        return FileResponse(processed\_file\_path, media\_type="image/jpeg", filename=processed\_filename)  
    except Exception as e:  
        raise HTTPException(status\_code=400, detail=str(e))  
  
@app.get("/")  
asyncdef root():  
    return {"message": "Welcome to the Image Processing API. Use /upload/ to upload an image or /process/ to process an image."}

picture.image通过uvicorn main:app --reload可以完美的运行这个服务。

神经网络建模

请帮我编写一个多头注意力机制代码,基于Pytorch实现[图片]

推理模型GLM-Z1-32B实测

数学推理能力测试

列出并解释解决非线性微分方程 y' = y^2 + x^2 的步骤

如下图所示,左侧为思考过程右侧为答案,可以看到推理模型GLM-Z1-32B的思考能力特别强,并且解题逻辑思维比较清晰。

picture.image

请解决这个组合数学问题:在一个有10人的团队中,需要选出一个3人委员会和一个4人委员会,两个委员会不能有重复的人。有多少种不同的选择方式?

picture.image

逻辑推理能力测试

设计一个只用天平(不用砝码)称量出8个外表完全相同的球中唯一一个重量不同的球,并确定它是比其他球重还是轻的最优策略

picture.image

这个题目求解非常谨慎,并且思考过程比较久,在反复验证推理,避免出错,这个推理以及上下文吞吐能力很强大!

多步骤问题解决能力

一个创业公司需要制定定价策略。市场调研显示,定价为p元时,预计每月销量为(1000-5p)。生产成本为每件20元,固定成本为5000元。请找出使利润最大化的定价策略,并分析不同假设条件下的变化。

picture.image

创新思维

提出一种新的可能的网络安全威胁,并设计对应的防御策略[图片]这个公式、过程推理以及表格生成都具备了,非常不错的例子!

常识推理

解释为什么在寒冷地区的冬天,湖面会结冰但湖底的水仍然是液态

picture.image

沉思模型 GLM-Z1-Rumination-32B实测

沉思模型GLM-Z1-Rumination-32B 代表了 GLM 对AGI未来形态的下一步探索。我们可以称它为国产DeepResearch,相比国外几种产品,比如Openai、Grok,Gemini闭源产品,沉思模型 GLM-Z1-Rumination-32B首次开源了深度思考模型权重。

下面通过一个问题类体验下报告生成的过程:

请帮我调研一份关于检索增强生成(RAG)的综述

  • 进行用户意图理解,针对这个问题,首先需要明白RAG的定义是什么picture.image
  • 问题拆解以及需要生成的报告目录生成picture.image
  • 信息递归检索

针对这个问题,从论文和博客两个角度检索了内容,我们可以看到会调用函数Open Link来进行网页读取

picture.image

  • 报告结构生成picture.image

  • 按照报告目录标题检索内容生成对应部分报告picture.image

    API调用代码示例


  
from zhipuai import ZhipuAI  
client = ZhipuAI(api\_key=" ")  # 请填写您自己的APIKey  
response = client.chat.completions.create(  
    model="glm-z1-airx",  # 请填写您要调用的模型名称  
    messages=[  
        {"role": "user", "content": "一个袋子中有5个红球和3个蓝球,随机抽取2个球,抽到至少1个红球的概率为:"}  
    ],  
    max\_tokens=12000,  
)  
print(response)

更多模型库可以查看模型广场:https://www.bigmodel.cn/console/modelcenter/square

picture.image

picture.image

添加微信,备注” LLM “进入大模型技术交流群

picture.image

picture.image

如果你觉得这篇文章对你有帮助,别忘了点个赞、送个喜欢

/ 作者:致Great

/ 作者:欢迎转载,标注来源即可

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
VikingDB:大规模云原生向量数据库的前沿实践与应用
本次演讲将重点介绍 VikingDB 解决各类应用中极限性能、规模、精度问题上的探索实践,并通过落地的案例向听众介绍如何在多模态信息检索、RAG 与知识库等领域进行合理的技术选型和规划。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论