智谱发布GLM-4,性能提升60%,逼近 GPT-4 ,推出全能All Tools及Agents商店|智谱 DevDay 实录

技术

picture.image

北京智谱华章科技有限公司(以下简称智谱AI)在北京举办2024智谱AI技术开放日Zhipu DevDay,发布新一代基座大模型GLM-4。

GLM-4在基础能力上实现大幅升级,性能相比上一代全面提升 60%,逼近 GPT-4。支持更长上下文、更强的多模态(包括更高精度的文生图性能和更丰富语义的图片理解)。GLM-4-All Tools 实现自主根据用户意图,自动理解、规划复杂指令,自由调用WebGLM搜索增强、Code Interpreter代码解释器和多模态生成能力以完成复杂任务。GLMs个性化智能体定制能力上线,任何用户用简单的提示词指令就能创建属于自己的 GLM 智能体。

picture.image

以下为GLM-4 发布环节实录:

演讲人|智谱 CEO 张鹏

Hello,各位现场和线上的嘉宾和开发者们,大家上午好,我是张鹏,应该大多数人都认识我了,今天我还是很激动,相信大家也将很快和我一样激动。当然这不是智谱第一次发布大模型,但却是智谱第一次举行技术开放日,我们将向各位大模型的开发者、从业者、爱好者们诠释我们的全新的认知。

picture.image

超大规模预训练模型也称为“大模型”或“基础模型”,是当下国际通用人工智能前沿研究和应用的热点。OpenAI ChatGPT推出引发社会和公众的广泛关注,在过去一年当中引起了大模型是否会引发新一轮行业变革甚至新一次工业革命的讨论。

大模型作为 ChatGPT 等生成式人工智能技术产品的核心技术基座,正在快速影响整个产业格局,甚至成为全新的用户交互方式,形成舆论引导、社会治理、信息技术服务等方面的不对称优势。大模型也被认为是通向通用人工智能的重要途径之一,正如刚才张院士所讲,也成为各国人工智能发展的全新方向,正在成为新一代人工智能技术的基础设施。

人工智能大模型已成为国际科技竞争“必争之地”,实现国产全自研、自主可控的人工智能基础模型迫在眉睫的任务。大模型的快速发展给全球科技创新带来全新挑战:超大规模算力需求、超大规模数据需求、全新模型训练算法与框架、安全与可信的软硬系统,同时大模型的应用需求也更加动态和多样化,要求对大模型的不同层次进行深入的研究。这是个全新的人工智能科学难题,但也是一个我们赶超国际领先水平的机会,发展媲美人类智能的人工智能系统已经成为人工智能领域研究的一个国际共识。

当然,智谱AI 2019年成立,从清华校园里走出来,团队当时才20多人,但我们立下了要做“让机器像人一样思考”的愿景。伟大的理想需要一帮脚踏实地的实践者,我们从一开始探索超大规模预训练模型算法,到开始训练从几十亿、几百亿到千亿级的模型,以及逐步规模化的实现产业化应用落地,智谱在过去几年ALL in 大模型,也有幸得到在座和线上所有朋友们的大力支持,我们才能走到了今天。

picture.image

回顾大模型过去发展的5年,2017年谷歌提出了Transformer机器学习模型架构,迅速席卷了整个人工智能研究领域,成为自然语言处理等相关研究的主要方法,2018到2020年先后出现了BERT、GPT/GPT-2/GPT-3、T5等基于大规模无标注数据自监督学习的大规模预训练算法,这些算法模型均在大数据支持下拥有较大模型参数规模,具备较强通用化能力,可完成多场景任务,显著降低学习成本、提升学习效率。可以说2018-2020是大模型的算法创新年,在这段时间里我们研发了属于我们自己的算法GLM。

接下来2020到2022我们认为是一场模型之争,基于各种预训练模型框架和开源项目,各种模型如雨后春笋般诞生。2020年的GPT-3,拥有1750亿参数,可以看作是这一战的起点,它开启了基座模型的全新时代,其在语言生成、上下文学习和知识理解等方面展现出惊人能力。随后全球范围内掀起了一股大模型研究和研发的热潮,谷歌、Meta等国际领先公司开始不断发布百亿到千亿规模的大型语言模型,例如Gopher(2021年)、Chinchilla(2022年)、PaLM(2022年)、Claude(2022年)等等。但是这些模型都不开源,因此开源大语言模型也开始受到关注,比如META的OPT(2022年)、BLOOM(2022年)、LLAMA(2023年)。但是国内我们一直缺少原创的开源千亿基座模型,但其实更重要的是学术界和产业界都对大模型的发展和产业化没有形成非常高的共识。智谱在2022年开源了我们自己的千亿基座模型GLM-130B,这一工作引起了全世界范围的关注,包括顶尖高校斯坦福,还是公司google、OpenAI、apple、meta都对我们的模型进行了深入分析和对比。

2023年,伴随ChatGPT的大成功,大模型开始火出圈,被公众广为所知。大模型的发展不再仅限于模型的训练,更重要的是如何实现模型的产业化应用落地。大模型开始在各个领域开花并且结果,在金融、互联网、能源和教育等众多行业开始落地。智谱在2023年这一年当中基于GLM-130B研发了ChatGLM,当时应该是国内最先可以线上使用的千亿级Chat模型,随后我们联合合作伙伴,一年来实现了广泛的商业应用落地。

picture.image

总的来说,我们必须承认和国外大模型相比,国内的大模型发展起步晚一些,加上高性能算力的限制和数据质量的差距等等,国内研发的大模型无论规模还是核心能力,与世界先进水平还存在一年左右的差距。但今天正如去年年初我们承诺的,2023年底我们要实现逼近最先进的GPT-4性能的全栈自主创新的GLM-4,我们今天在这样一个日子里我们来交个答卷,也希望以此为起点,未来能以此为基础瞄向AGI。

picture.image

仔细研究了ChatGPT之后我们发现其成功不是一蹴而就的,它经历了千亿基座模型训练、有监督指令微调和人类反馈的强化学习。我们的GLM系列模型基本对标着GPT系列模型,但我们更开放,Open AI的GPT-3及以后模型的技术细节不再公开,但我们所有的模型和技术细节我们都进行了发表和开源。

斯坦福大学对全球30余个开源模型的评测报告中,我们的GLM-130B是亚洲唯一入选的模型,在准确性、公平性等指标上与GPT-3 175B参数模型接近或持平,鲁棒性、校准误差和无偏性这些指标上优于GPT-3 175B。

2023年基于基座模型研发的ChatGLM历经了三个版本的迭代,也逐步具备了多模态理解、代码解释、网络搜索增强等新功能。

picture.image

我们不仅开发最大的模型商用版本,我们也有开源版本,开源的ChatGLM-6B模型到目前为止全球下载量累计超过1000万,在github上获得star数达到5万,整个开源趋势榜单上我们超过meta的Llama。去年团队获Hugging Face全球最受欢迎的开源机构第五名,超过OpenAI、Google、微软,也是国内唯一上榜的机构。当然更让我们高兴的是,我们发现很多优秀的开发者在开源模型上开发出了600多项优秀的大模型应用开源项目,这让我们非常欣慰,也坚定了我们要围绕开发者继续研发新一代基座大模型,建立大模型生态的决心也是今天我们DevDay的宗旨。

2023年,我们同时取得了一些商业成绩。我们最早在市场上提出了MaaS的商业化落地路径,并且详细针对不同客户群体类型和需求,提供了开放API、云端私有化和本地私有化多种不同类型的商业解决方案。通过这些商业化落地方案,目前为止我们已经拥有2000多家合作伙伴,其中有200多家企事业单位与我们进行了非常深度的模型共创和共建。合作伙伴涵盖了金融、互联网、制造、能源等众多不同产业行业,也充分体现了GLM通用基础大模型的泛用性和易用性。我们不仅在技术比拼上,同时在商业化落地方面,智谱AI也可以说是勇立国内外一线。

picture.image

围绕GLM这样一个预训练框架我们开发了一系列模型,形成了一个相对完整的大模型全栈技术体系架构,功能覆盖了多模态、代码生成、搜索增强和对话。对标着OpenAI的全栈大模型生态,我们努力赶上。同时,我们也谦虚的承认自己还存在一定差距,但不懈努力让我们开始逐渐形成我们自己的创新特色,也借助于此逐渐缩小与顶尖水平的差距。

picture.image

今天,很荣幸我们给大家带来GLM-4,新一代基座大模型,性能相比上一代全面提升接近60%,逼近GPT-4;支持更长的上下文;更强的多模态;支持更快的推理,更多并发,大大降低推理成本;同时GLM-4也增强了智能体能力。

picture.image

作为一年前定下的目标,GLM-4性能得到明显的提升。从标准的大模型评测角度看,整体上我们已经逼近了GPT-4。

在众多评测集当中我们可以看到,第一个数据集MMLU是大规模多任务语言理解的基准,主要评估模型zero-shot和few-shot能力。该基准涵盖 STEM、人文科学、社会科学等 57 个科目。它的难度从初级到高级专业水平不等,它考验着模型对世界知识的理解和解决问题的能力。科目范围从传统领域,如数学和历史,到更专业的领域,如法律和道德。我们可以看到,GLM-4已经远远超过GPT-3.5的得分,平均达到GPT-4 95%的水平,个别项目上已经几乎持平。

第二个是GSM8K,这是一个由8千5百个高质量的语言多样化的小学数学问题组成评测的数据集。这些问题都是由人写手创造的。在这个数据集上GLM-4的评测结果仍然超过GPT-3.5,达到30个百分点,还差GPT-4,4个百分点。

picture.image

MATH数据集则包含初等代数,代数,数论,计数和概率、统计等等多种数学问题,是用LaTeX写的,也就是说并不全是自然语言,而有点像代码阅读。GLM-4超过GPT-3.5超过15个百分点,距离GPT-4,仍然有9个百分点的差距。

picture.image

BBH是google推出的一个面向AI的基准测试套件,涵盖了各种AI任务。任务是评估语言模型在各种复杂的任务上的性能。在这项评测上GLM-4远超GPT-3.5,距离GPT-4不到1个点的差距。

HellaSwag Benchmark是一个用于评估自然语言处理模型在常识推理方面表现的基准测试集。它是由OpenAI团队开发的,旨在挑战模型解决所具有的误导性的场景推理问题的能力。它包含70,000个多项选择问题,每个问题都涉及两个具体领域的场景。这些问题旨在伪装成可能令人产生错觉的正确答案,测试模型在常识推理方面的能力。略微有些遗憾,我们这个数据集上GLM-4和GPT-3.5水平相当。

最后一个通用数据集,HumanEval上,GLM-4明显超过了GPT3.5和GPT4的水平。

在跨语言评测上,中英文混合的评测上,我们还评测了一下谷歌发布专门用于评估指令跟随能力的IFEval数据集,在Prompt提示词跟随方面,GLM-4取得88%的GPT-4能力;在指令跟随方面,GLM-4取得90%的GPT-4能力,大大超过GPT-3.5。

picture.image

我们更关注中文的能力,因为我们更多使用中文,刚才介绍了在几个英文学术榜单上GLM-4的表现以及和GPT-4的对比情况。可以看到在模型实际应用过程中,我们更关注中文的对齐能力,对于中文能力我们有一个单独的全面的对标分析,包括公开的研究成果AlignBench和一个没有公开的内部测试数据集。在公开的AlignBench上,总体GLM-4甚至超过了GPT-4在6月13日发布的版本,逼近GPT-4最新也就是11月6日发布的All-Tools版本的效果,尤其是在专业能力、中文理解、角色扮演方面甚至超过最新的GPT-4的精度,在中文推理方面的能力还有待进一步提升和加强。

另外GLM-4推出更长上下文窗口能力,刚才张院士报告当中提到。对比在这方面国际上效果最好的模型,包括Open AI的GPT-4和Anthropic的Claude2.1,GLM-4丝毫不逊色。这次GLM-4带来了128k的上下文窗口,也就是说,在单次提示词当中我们可以处理的文本可以达到300页的长度,开发者再也不用担心文档太长而一次性处理不完了。当然,可能也会有人会说,上下文窗口这么长了,是不是模型效果、精度也会下降很多?我可以告诉大家不用担心,我们的技术团队完美解决了长上下文全局信息因为失焦而导致的精度下降的问题。在 needle test (大海捞针)测试中,128K 文本长度内GLM-4 模型均可做到几乎百分之百的精度召回。

picture.image

大家更关心多模态的能力,我们的文生图和多模态理解都得到了进一步增强。我们推出全新的CogView3代,效果明显超过开源SD模型,逼近最新OpenAI发布的DALLE3。大家可以看到,在对齐、保真、安全、组合布局等各个评测维度上,CogView3的效果都做到了90%以上的水平,平均约达到95%的相对性能。

picture.image

这是一些生成的例子,大家可看一下,还是挺有意思的。Cogview3的语义理解能力相比前几代更强,例如第一个例子鱼眼镜头中有一只乌龟坐在森林里,模型对于鱼眼镜头的概念理解和乌龟在森林里的环境搭配理解很准;第二个例子西兰花下面的斑马,并没有产生太大的错误;第三个例子更复杂一些,一只打扮的像20世纪80年代的职业摔跤手的波美犬,脸上涂着霓虹绿、霓虹橙,还有亮绿色的颜料,对于颜色、场景这样的还原度非常高。最后一个是一个放大镜在一页20世纪50年代的《蝙蝠侠》漫画的上空。模型对于空间位置以及放大镜本身所蕴含的一些逻辑的作用理解还是非常准确的。

picture.image

如果说上面还是常规的单项模型基础能力提升,那么今天真正的重点来了:GLM-4-All-Tools来了!

picture.image

一直以来,普通用户甚至是开发者,需要用像魔法咒语一样的提示词或者机器才能解读执行的代码来调用大模型的各种能力,无论是回答问题,作画还是使用外部的知识源,总觉得大模型还是没那么聪明。

得益于GLM模型的强大Agent能力,GLM-4 实现了自主根据用户意图,自动理解、规划复杂指令,自由调用WebGLM搜索增强、Code Interpreter代码解释器和多模态生成能力,组合起来完成复杂任务。也就是说,GLM系列模型的全家桶能力终于实现了All-In-One,开发者和用户可以更轻松地使用GLM-4模型,不再为提示次担心。这也是Open AI近期推出的GPTs的一项基础能力。只需一个指令,GLM-4会自动分析指令,结合上下文选择决定调用合适的工具。

这里有一些例子,举一个All Tools中文生图的例子,我们首先输入提示,让它给我们画一个卡通柯基,我发现我们特别喜欢柯基。我们看Cogview画出了一个卡通图,非常可爱,然后我们输入它开始跑步了,它能理解同样的一只柯基狗变成往前跑的姿态。我们再输入,这时一只小兔子加入与它一起,很准确,柯基仍然是主角,兔子是后来加入的它在后面,同时还保持着奔跑。我们再输入一下,最后我们要求它们跑的越来越快了,我们看到柯基和小兔子加速跑的场景,通过对背景虚化等等方式来完成,这可以实现故事画的自动生成,而且语义非常准确。

picture.image

同样,GLM-4也内嵌了代码解释器,会自动调用代码解释器进行复杂的方程或者微积分求解。对比GSM8K、Math以及Math23K三个数据集上的结果,GLM-4取得和GPT-4 All Tools相当的性能。这里的GSM8K和Math两个数据集在前面已经都介绍过了。简单说一下Math23K,这是一个用于研究机器自动解数学应用题的数据集,也可被用来检测大模型对数字的理解能力,数据集包含有23162道小学数学应用题及其解题公式,在这样一个数据集上我们取得非常不错的效果。

picture.image

我们看看实际应用的例子,看看这个数学的多项式求解题,我不知道在座的有多少还记得这个问题的求解方法,我大概已经忘的差不多了。直接训练一个数学模型是一个可能的求解之道,但问题更复杂的时候大模型就和人一样容易犯错,也就是幻觉性的问题。GLM-4通过自动调用Python解释器,会自动写出求解代码,然后运行进行求解。右边这张图大家可以看到GLM-4自动写的程序代码以及运行结果。感兴趣的朋友可以现场尝试演算一下结果是否正确,应该没问题。

picture.image

不仅是解决数学问题,GLM-4的All Tools能力完全自动,而且可以处理各种任务,比如包括文件处理、数据分析、图表绘制等一系列复杂任务。处理文件类型包括Excel、PDF、PPT 等格式的文件。例如生成一个简单PPT吧,可以让模型自动生成一个PPT大纲,然后调用代码最后生成PPT文件。前几天正好有朋友在网上问我,能不能自动生成ppt啊?我说没问题,稍等两天,今天就在这里给大家提供。

picture.image

GLM从早期的检索自动增强到目前我们已经实现模型对网页的自动浏览:模型可以根据任务自行规划检索任务;自行选择信息源;自行与信息源交互。右边的例子当中,我说我要去参加2023年CCF中国开源大会,问一下当地天气如何?我没有告诉它2023年开源大会在哪里举行,模型自动进行两次搜索,第一次搜索2023年CCF中国开源大会的日期地点;查到地点是长沙,第二次再次搜索长沙在2023年10月21日的天气,GLM-4 All Tools的网页浏览准确率已经超过GPT-4,值得我们自豪。

picture.image

当然GLM-4的All Tools能力是一个非常通用的能力,它可以根据用户提供的function描述,自动选择所需function生成参数,并且根据function的返回值生成回复;支持一次输入进行多次function调用;和支持包含中文及特殊符号命名的function调用。这方面的能力和GPT-4基本持平,而且在中文理解上它略强,英文能力稍弱,总体上达到持平。

picture.image

我们一起来玩一个多工具自动调用的能力吧。比如说我们可以输入:“智谱 2024 devday 的宣传语是什么?画一幅图以突出这个宣传语中的场景。”大家可以看到模型自动进行搜索,找到智源社区的学术头条还有CSDN的相关发布页面,然后自动总结和识别宣传语内容:“浪潮涌起,总有勇立潮头之人,无惧远处的风暴,甚或未知的风险。因为他们的愿景,比风雨更博大,比波涛更辽阔。我因认出风暴而激动如大海。”那么我们看看生成的这张图片,比较好的还原出宣传语的意境。

picture.image

让我们再看一个多工具自动调用的能力。我们可以看到GLM-4可以查询过去10年全球GDP的数据,并且可以直观地展示出来。GLMs可以识别语义并联网,检索多个数据源。可以生成一段代码,把找到的权威数据可视化出来,形成一张简单的图表。一句简单的输入就能启动联网搜索、提取、代码解释器和绘图等多项模型原生的能力,无需开发者或者用户手动控制这个过程,而且模型强大的理解和解释能力也随之而来。不仅如此,我们还能让GLM-4搭建一个多项式回归预测模型,预测未来5年的全球GDP发展态势。并把预测结果以红色的标记加入到原有的图表中,这样我们就能直观的看到过去10年和未来5年的发展趋势。

picture.image

GLM-4的全线能力提升使得我们有机会探索真正意义上的GLMs。大家打开自己手机上安装的智谱清言APP,我们为大家预先设计了智谱DevDay的智能体,这里你可以问今天DevDay的相关事宜,比如议程、参会人员,甚至询问今天我讲的这个PPT的下载地址,完全公开,大家有兴趣可以试一试。我想以后大家组织活动,也可以定制一个自己的智能体,做一个自己的小APP应用,让智谱清言帮你和参会者沟通。

picture.image

最后,我们非常高兴地向所有人,尤其是非程序员开发者宣布,我们自己的GLMs个性化智能体定制能力也同时上线了!基于 GLM-4 模型的强大能力,任何用户只要登录智谱清言官方网站,用简单的提示词指令就能创建属于自己的 GLM 智能体。我们的智能体中心也同时上线,大家可以分享自己创建的各种智能体。

picture.image

GLM 模型智能体的推出标志着任何人都能够自由运用 GLM-4 模型并挖掘它的潜力,即使没有任何编程基础,也能够实现大模型的便捷开发,这也是扩大大模型开发者社区生态的一次进步。

这就是我们刚才介绍的大会议程智能体的演示,比如,大家可以在今天自由地在智谱清言上,访问DevDay的智能体,针对于今天的日程进行提问。比如:张鹏的报告是多久?你可以看到我还要多久可以讲完。

说了这么多,按照我们的风格,接下来就是激动人心的现场演示环节了。有请我们的同事霍婕上台来协助演示。接下来我们现场再展示GLM-4的多轮对话和图片生成能力的混合。

picture.image

首先,我们让GLM-4为我们画一只可爱的小柯基狗。一般来说,GLM-4需要一些时间来理解语言,来构图,来设计一张让大家看起来很舒服的图片。以前我们说需要一杯咖啡的时间,这杯咖啡你只能喝上一口两口,我们的结果已经出现了,而且这只柯基狗还坐在一个装饰有中国传统元素的房间里。现在我们想要让这只狗看起来更聪明一点,我们就和 GLM-4 说:它还不够聪明,它学会了读书,越来越聪明了,试一试。这杯咖啡可以喝第二口或者第三口了,看看它对于变聪明这件事情是如何来定义的,小狗在图书馆里它在读书,它已经理解了读书这件事情,是不是变得聪明一点了?但是我觉得还不够,我想让它学学怎么使用电脑,它使用电脑之后智商整个升级了。有很多人说AI会让很多人失业,包括艺术创作作画,现在看起来它还没有那么厉害,还不能做到秒出,所以大家应该可以松一口气。可以看到确实有一台电脑,而且画上键盘、鼠标,也画上正在使用电脑的场景。

当然今天我们的主题跟人工智能密切相关,已经成为一个大趋势,所以我们决定让这只小狗学习一下人工智能技术变成一只超强的赛博狗,试试。不知道GLM-4怎么理解人工智能和赛博狗这样一个概念,还是非常让人惊叹的设计,但是我已经感受到一点点的威胁了,我觉得它已经太聪明,比我还要时尚和超前,所以我还是喜欢原来的小狗,它只要可爱就够了,所以我们让它回到起点变成可爱的小狗。当然它没有拿最开始那一张来糊弄我,还在老老实实尝试重新画一张,看看它会怎么样还原,可能昨天晚上连夜加班太多,AI也有点累,需要一点时间缓一缓。没关系,我们重新试一次,这也许就是刚才张院士所讲,我们的模型可能还有那么一点点的不可控。也许我们应该让这位不知疲倦的员工先在后台慢慢坐一下。

因为进入下面一个展示环节,现在我们给大家展示一下GLMs的能力,我们就以这次DevDay为例,为了帮助大家获取更精准的活动信息,我们做了一个简单的智能体,就叫智谱DevDay。创建它只需要 3 分钟时间。我们把今天的大会议程和嘉宾信息当作外部输入的知识放入知识库,这样就自动生成了一个智能体,我们现在来看看这个智能体的效果怎么样。我们可以问一个问题,大家还记得今天上午的日程吗?来问问它,OK,不错,回答非常准确。问问它今天有哪些主题演讲?上午主题演讲只有这一位,很好。我看到很多人举着自己的手机不停地拍照,问它能不能获得到这个PPT文件呢?OK,非常好。大家可以看到GLMs返回我的PPT的下载链接现场朋友可以通过这种方法在会中和会后查阅相关信息。

最后我们也别忘记,我们可以定制自己的智能体,也可以通过GLMs平台把自己定制的智能体发布出来,每个人都可以成为我们GLMs开发者,即使你不会写代码没关系,也可以用你的智慧、专业知识和创意,让更多的创意应用在人工智能平台上落地。

picture.image

刚才的演示可能让大家觉得意犹未尽,没关系,大家可以安装或者或者更新一下自己手机上的智谱清言app,发布即上线,这就是我们智谱AI的风格,大家可以试一试。

GLM-4我们登陆了Maas平台,提供各种各样的API访问。欢迎大家访问Maas平台,同时我们今天邀请所有开发者一起内测GLM-4的Assistant API。我们还将为每一位报名DevDay的小伙伴赠送千万级token,邀请大家一起开发属于自己的GLM应用。we are more open,我们一直在路上,我们期待与所有研究者和开发者共同探索大模型的未来,为社会创造价值。

picture.image

从ChatGLM一代二代三代以来,我们几乎开源了所有内核模型,包括千亿级基座GLM-130B、搜索增强模型WebGLM、图形理解模型VisualGLM、代码模型CodeGeeX、文生图模型CogView1、2、3,图形增强理解模型CogVLM,还有可视化认知Agent模型CogAgent。我们希望这些模型能够帮助大家深入认知大模型技术,而不是简单仅仅会用,帮助大家一起探索大模型技术的未来。

picture.image

大家知道我们智谱源自清华科技成果转化,非常重视科研突破、重视源头创新,是智谱一直以来的风格。我们也希望无私的回馈科研界。我们联合 CCF 中国计算机学会发起了CCF-智谱大模型基金,围绕预训练大模型理论、算法、模型、应用等相关研究提供资助;通过降低大模型研究的门槛,立足每一个计算机领域科研工作者均有机会参与大模型的研究,推进大模型技术和应用的创新落地。同时我们也联合中国中文信息学会社会媒体处理专委会联合发起SMP-智谱大模型交叉学科基金。支持探索大模型与各领域交叉创新,促进大模型与各类学科的有机融合。所有的科研基金参与者拥有自己研发的知识产权。在2023年已经有来自全国三十余所高校参与了41个科研项目,累计提供了超 1000 万元现金和算力资源的科研支持。参与申请两支基金的学者,遍布中国各地,覆盖多层次院校,同时学者们的学科背景丰富多元,来自计算机、软件等等信息类学科,还有环境工程、新闻传播等多个交叉学科领域。2024年,智谱对学术研究的支持还将继续,我们也始终相信学术创新是中国大模型事业持续发展创新的源动力之一!

picture.image

同时针对开源社区发起开源开放的大模型开源基金,这个计划包括三个“一千”:

第一个一千,是1000张卡。我们将为大模型开源社区提供一千张卡,助力开源开发;

第二个一千,是1000万人民币。我们将提供 1000 万元的现金用来支持与大模型相关的开源项目。

第三个一千是1000亿tokens。我们将为优秀的开源开发者提供1000亿免费 API tokens。

picture.image

大模型开源基金的目的在于推动大模型研发的大进展,促进大模型整个开源生态的繁荣。俗话说“一枝独秀不是春”,中国的人工智能事业要繁荣、要发展,需要所有的参与者、产业链上下游合作伙伴、开发者社区、学术界一同努力。

picture.image

最后我们面向全球发布Z 计划,支持大模型早期创业者的创新探索。大模型创业是长征路。Z计划是智谱联合生态伙伴发起的大模型创业基金,总计达到10 亿元人民币!专门支持大模型原始创新,覆盖大模型算法、底层算子、芯片优化、行业大模型和超级应用等各个方面!

我们行胜于言,在过去,我们已经向相关企业投入了数亿元人民币,支持了数十家企业,比如面壁智能,是国内最早从事也是最懂 Agent 的一家大模型公司。基流科技:有过上万张英伟达GPU卡集群建设的项目经验,在智算集群和算力网络方面经验非常丰富,这些都是我们基金支持的公司。在 2024 年,乃至更长远的未来里,我们都将坚持更开放的心态,团结更广泛的生态伙伴,共创人工智能美好未来!

2024 年是 AGI 元年,但路还很长。今天非常荣幸能够将我们心目中人工智能的未来呈现在大家面前,我们一起探究大模型的本质,赋能千万行业。通往AGI之路,让我们携手同行!谢谢大家!

picture.image

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论