此次 OpenAI 将发布会拆分为 12 天直播,是一次内容与形式的双重创新。这种形式通过延长发布周期,不断吸引观众注意力,并以分阶段展示的方式,让每个产品功能都能得到更深度的解读和关注。同时,用户在不同时间段都能灵活参与,增强了直播的互动性与全球覆盖度。
下面我们对12天直播的关键信息进行梳理汇总:
一、Day1:
OpenAI 首先推出了两款重磅产品:ChatGPT Pro 和 O1 正式版。
1.1 ChatGPT Pro:专业能力的全新升级
ChatGPT Pro 是针对个人和企业用户推出的增强版 AI 助手。相比免费版,Pro 版本在功能和性能上都有了质的飞跃。价格为每月 200 美元(贵的离谱🤦♂️) 。
更强大的处理能力:
Pro 版可以轻松应对复杂任务,如多语言实时翻译、复杂数据分析等,为用户提供专业级的支持。
无缝的多端体验:
支持跨设备的高效连接,无论是 PC、手机还是 IoT 设备,都能随时随地使用。
更快的响应速度:
Pro 用户可优先使用计算资源,享受低延迟、高效率的交互体验,尤其适合对生产力要求较高的场景。
个性化定制功能:
用户可以根据需求自定义 AI 模型,打造符合自身业务特点的解决方案。
这些优势不仅提升了用户效率,更适合多场景的复杂应用,如企业决策、团队协作等。
1.2 O1正式版:重新定义人机交互的边界
除了 ChatGPT Pro,OpenAI 还发布了 O1 正式版,这款产品主打人机交互的深度优化。
语音与视觉的完美结合:
O1 实现了语音和视觉交互的深度融合,支持用户通过语音指令或手势完成多种任务。例如,在智能家居中,用户可以用手势切换设备模式,在办公环境中则能通过语音实现会议纪要的实时生成。这种灵活性为不同场景的便捷应用提供了更多可能性。
支持复杂场景的 AI 应用:
从智能家居到企业级办公场景,O1 可以根据环境和用户需求提供高度智能化的服务。
模块化升级设计:
用户可以根据需求自由扩展 O1 的功能模块,适应从个人到企业的多种使用场景。
如家庭助手的场景切换、办公中的会议纪要自动生成,O1 显示了其灵活性和实用性。
o1预览版(o1-preview)、o1以及o1专业模式(o1 pro mode),在数学、科学和编码等机器学习基准测试中的表现对比
o1预览版(o1-preview)、o1以及o1专业模式(o1 pro mode),在更严格评估中的表现对比
二、Day2:
OpenAI 研究高级副总裁 Mark Chen 联手伯克利实验室环境基因组学与系统生物学的计算研究员 Justin Reese,以及 OpenAI 团队的多位核心成员,共同为我们带来关于强化微调(Reinforcement Fine-Tuning) 的深入演示和讨论。OpenAI 高管介绍 RFT,强调其将大型语言模型从“高中水平”提升至“博士级专家”的能力,适合高校、研究人员和企业打造独特的 AI 解决方案,将于2025年发布!
概要总结
-
RFT 的能力 :RFT 使用户能够利用 OpenAI 强大的强化学习算法,创建针对特定任务和领域的专家级 AI 模型。
-
数据需求低 :RFT 只需少量数据(仅需几十个示例)即可实现显著的性能提升。
-
超越标准微调 :RF 在特定任务中的表现优于标准微调,甚至超过了 Zero-One 基础模型。
-
核心流程 :RFT 需要提供训练数据集、验证数据集,以及一个“评分器”用来将模型输出与正确答案进行比对。
-
评分器支持 :OpenAI 提供预建评分器,并计划未来支持用户定义自定义评分器。
-
案例展示 :在罕见病诊断应用中,使用 RF 微调的 Zero-One Mini 模型在根据患者症状预测正确致病基因的准确率上达到了 31%,优于基础 Zero-One 模型(25%)和未微调的 Zero-One Mini(17%)。
-
多领域潜力 :RFT 在多个领域表现出潜力,包括生物化学、AI 安全、法律和医疗保健。
-
研究项目邀请 :OpenAI 邀请研究人员和组织申请 RF 研究计划,以探索 RF 在各自领域的潜力
2.1 OpenAI推出强化微调RFT
OpenAI 推出了一项新的模型定制计划——强化微调(Reinforcement Fine-Tuning),利用强化学习的强大能力,为特定任务打造专家级的AI模型。该计划旨在赋能开发者、研究人员和机器学习工程师,特别是在法律、金融、工程和保险等领域,通过他们自己的数据创建独特的AI解决方案。
2.2 理解强化微调RFT
01 什么是微调(Fine-Tuning)?
强化微调是将一个预好的通用模型,通过在特定领域的小规模数据集上进一步训练,使其适应特定任务的技术。简单来说就是在一个“学过很多东西”的大模型上,再让它针对某个具体任务“重点练习”,让它更适合做这件事。
那有什么作用呢?
-
让模型更聪明地解决特定问题,比如帮你分析法律文件或者推荐你喜欢的电影。
-
省时省力,不用从头训练模型,只需要对现有模型稍加调整。
-
让模型更懂领域知识,比如让它更懂医学术语或专业技术词汇。
02 强化微调RFT是什么?
强化微调不同于监督微调,其目标是让模型学会推理和解决问题,而不仅仅是复制模式。
-
该过程通过为模型提供一个问题,允许其思考解决方案,对最终答案进行评分,并使用强化学习鼓励成功的推理路径。
-
这种技术类似于训练 GPT-4 和其他前沿模型的方式,仅需少量的例子(几十个)即可有效学习。
科学研究中的应用:罕见遗传病的案例研究
伯克利实验室研究员 Justin Reese 讨论了强化微调在理解和治疗罕见遗传病中的潜力,这类疾病影响了全球大量人口。
-
研究重点是开发将医学专家知识与系统性生物医学数据推理结合的计算工具,使用“Zero-one”模型实现这一目标。
-
Reese 解释了如何通过从科学出版物中提取疾病信息,创建包含症状、缺失症状和致病基因的数据集,以根据患者症状预测变异基因。
03 使用 RFT 相比传统微调方法有哪些关键优势?
-
提升推理能力:RFT 专注于增强模型的推理和解决问题的能力,使其能够在需要深入专业知识的复杂任务中表现出色。
-
高效的数据需求:RFT 即使在数据量有限的情况下(有时仅需几十个样本)也能实现显著性能提升,而标准微调通常需要大量数据集。
-
泛化能力:RFT 训练模型将学习成果推广到新的、未见过的数据中,避免仅仅记忆训练数据中的模式,从而使模型在实际场景中更加稳健和适应性强。
04 什么是“评分器(Graders)”,它们在 RFT 中的作用是什么?
“评分器”是 RFT 过程中的关键组件,它们作为评估函数,通过将模型输出与已知正确答案进行对比来评估输出质量。
-
评分器分配的分数范围从 0 到 1,其中 0 表示完全错误的答案,1 表示完美的答案。
-
这些分数为强化学习算法提供反馈,指导模型改进推理并生成更好的响应。
-
OpenAI 提供了一系列用于常见任务的预建评分器,并计划未来允许用户定义自定义评分器。
05 RFT对数据的要求是什么?这些数据是如何构建的?
RF 需要以 JSONL 格式提供训练和验证数据集。文件中的每一行表示一个示例,包含以下内容:
- 病例报告 :需要模型分析的场景描述,例如医学案例中的患者症状。
- 指令 :明确解释任务的提示,包括所需的输出格式。
- 正确答案 :已知的真实答案,用于评估模型的输出。在训练过程中不会向模型透露正确答案,但评分器会使用它。
验证数据集使用相同格式,但包含与训练集不重叠的不同示例,以确保模型的泛化能力。
06 RFT应用的真实案例
一个典型的案例是罕见遗传病研究。OpenAI 与伯克利实验室和德国 Charité 医院的研究人员合作,使用 RFT 训练 Zero-One Mini 模型。
-
该模型基于一个包含病例报告、患者症状和致病基因的数据集进行训练。
-
通过 RFT,该模型学会了有效推理罕见疾病的成因,并在性能上超越了更大的 Zero-One 模型,展示了其在诊断和理解复杂病情方面的潜力。
07 RFT的未来发展方向及其潜在影响是什么?
- 扩大访问范围 :向研究人员和开发者广泛开放 RFT,将释放其潜在的应用范围。
- 自定义评分器 :允许用户定义自己的评分器,将进一步提高 RFT 在各种任务中的灵活性和适用性。
- 与其他工具整合 :将 RFT与其他 AI 技术和平台结合,创造更强大、通用的 AI 解决方案。
RFT 的持续发展与更广泛的采用,有望显著提升多个领域的 AI 能力,推动科学研究、医疗保健等行业的突破性进展。
强化微调的潜力不仅限于科学研究,还在多个领域表现出前景。
-
OpenAI 正在扩展其 alpha 计划,为更多研究人员和开发者提供访问权限。
-
该计划鼓励处理复杂任务且需要专家级AI辅助的组织参与,旨在探索技术的全面潜能。
2.3 强化微调的实际操作:演示
在 OpenAI 开发平台上提供了强化微调过程的分步演示,包括:
-
数据准备 :上传 JSONLines 格式的训练和验证数据集,其中包含病例报告、症状、模型指令和正确答案。
-
评分器实现 :定义一个评分器,根据正确答案对模型输出进行评估,评分范围为 0 到 1,并提供多种任务意图的评分器。
-
训练与评估 :启动训练任务,利用 OpenAI 的基础设施和算法。微调模型显示验证奖励分数逐步上升,表明在任务上的泛化能力。
-
与基线模型比较 :评估仪表盘结果展示了微调后的 Zero-one Mini 模型与基础 Zero-one Mini 和更大 Zero-one 模型的性能对比。微调模型在“Top at One”准确率上表现出显著提升。
三、Day3:
OpenAI 12天发布会 Day3 ,Sora正式上线了,深夜炸场,这次终于不再鸽了
Sam Altman 认为sora目前还处于早期阶段——可以将其视为“视频领域的 GPT-1”——但他已经觉得它的内容流非常吸引人了,虽然目前的版本并不完美,但我们期待用户创造出令人惊叹的作品。”
我给大家划划重点,分享一些Day3的细节
创意与推动AGI
Sora 是 OpenAI 为视频创作从零打造的产品,其核心目标包括:
- 1. 赋能创意 :Sam Altman 表示,OpenAI 一直致力于为创意人士开发工具,而 Sora 的推出标志着 AI 在人类共创领域迈出了一大步
- 2. 超越文本限制 :视频作为一种重要的交互媒介,可以让 AI 系统更深入地理解世界并呈现动态内容。通过 Sora,OpenAI 希望改变计算机与人类互动的方式
- 3. 推动 AGI 发展 :视频生成和理解是通用人工智能(AGI)蓝图的重要组成部分,Sora 提供了 AI 学习和应用复杂场景的全新环境
Sora正式版功能亮点
Sora全新UI长这样
Sora 提供了一系列功能丰富的创作工具,包括但不限于:
文本生成视频 :用户只需输入简单的文本描述,即可生成动态视频,例如韩国小姐姐吃面,Sora 能生成一段符合描述的短视频
图像扩展 :通过上传图片或已有视频,用户可以延展场景、添加动作
时间线编辑(Storyboard) :用户可以像导演一样,通过时间线规划多个场景,定义角色动作和场景细节,并实时预览生成的效果
风格和场景重塑(Remix & Loop) :Remix 功能支持对已有视频进行内容或风格的重塑,而 Loop 功能则能无缝衔接视频开头和结尾,创建完美循环
高分辨率与多变长视频 :支持从 480p 到 1080p 的分辨率,视频时长可在 5 到 20 秒之间自由设定,满足各种创作需求
此外,Sora 还包括一项称为“Blend”的高级功能,可以将两个视频融合成一个全新的场景,为创意提供更多可能性
视频简介
订阅与适用范围
Sora 对拥有 OpenAI Plus 和 Pro 账户的用开放:
Plus 用户:每月可生成 50 个视频
Pro 用户:每月享有 500 次快速生成(或更少次高分辨率生成),以及无限次慢速生成。
目前,Sora 已在美国及多数国家上线,但暂未对欧洲及英国地区开放,团队正在努力解决相关限制问题。访问:sora.com
开发背后的努力
Sora 的研发是 OpenAI 的一项长期投入。自今年二月推出初版模型以来,研究团队对其进行了大规模优化,最终推出了性能更强、速度更快的升级版本——Sora Turbo。这款模型具备生成视频、图像动画、视频样式转换及时间延展等多种能力
产品团队仅由5 至 6 名 工程师组成,但在数月内完成了从模型到产品的开发工作,展示了惊人的执行力。此外,OpenAI 在内容安全与滥用防范方面也投入了大量资源,采取了较为保守的初期策略,以平衡创造自由与内容安全
Sora限制:
目前部署的 Sora 版本存在许多局限性。它常常生成不符合现实的物理效果,并且在处理长时间的复杂动作时会遇到困难。尽管 Sora Turbo 的速度比今年二月的预览版快了许多,OpenAI仍在努力让这项技术对所有人都更加经济实惠
OpenAI选择在现在推出视频生成技术,是为了让社会有时间探索其可能性,并共同制定规范和安全措施,确保这一领域在未来发展的过程中能得到负责任的使用。
所有由 Sora 生成的视频都附带 C2PA 元数据,以标识视频来自 Sora,提供透明性并验证来源。虽然这些措施并不完美,但已经添加了默认的可见水印等保护措施,并开发了一款内部搜索工具,利用生成内容的技术属性来帮助验证视频是否来自 Sora
四、Day4:
OpenAI 宣布 ChatGPT Canvas 功能全面升级并正式向所有用户开放,包括免费用户。
🖌️ 什么是 ChatGPT Canvas?
🛠️ ChatGPT Canvas 是 OpenAI 在今年10月推出的基于 ChatGPT 的全新功能,经过数月的测试,现已正式上线。🎊
🔖 OpenAI 官方将 Canvas 定义为 "A new way of working with ChatGPT to write and code",意在通过这一功能提升写作与编程的效率。Canvas 名字源于英文“画布”的含义,它为用户提供了一个独立的可视化工作区,突破了传统聊天框的交互限制。🎨
主打更高效地与ChatGPT合作,突破传统聊天框架,打造一站式协作平台。从写作到编程,从优化文章到生成数据可视化,Canvas正在重新定义AI辅助创作的可能性
✨ 功能亮点
✍️**「文档写作支持」**
- ✅**「建议编辑」** :实时提供写作改进建议。
- 🔍**「调整文章长度」** :根据需求扩展或缩短文档内容。
- 📖**「更改阅读水平」** :从简单到专业,随需调整阅读难度。
- 📝**「添加润色」** :优化语法、逻辑与一致性。
- 😊**「插入表情符号」** :为文本增添趣味和情感表达。
此次 Canvas 更新包含三大亮点:
-
- Canvas 正式向所有用户开放,并与 OpenAI 的主要模型深度集成。 无论是免费用户还是付费用户,都能在 GPT-4 中体验到 Canvas 的便捷功能
-
- Canvas 支持 Python 代码运行,并可以直接显示文本或图形输出结果。 提升编程效率率,并为数据可视化等任务提供更直观的支持
-
- Canvas 正式登陆自定义 GPT。 用户可以将 Canvas 的强大功能融入到自定义 GPT 中,打造更个性化、更高效的 AI 助手
为了更直观地展示 Canvas 的新功能,OpenAI 工程师 Lee 和 Alexey 进行了一些现场演示(Day4发布会视频中英文字幕版附在文后 )
首先,Lee 展示了如何用 Canvas 创作一个儿童圣诞故事。在 ChatGPT 的输入框中,新增了一个工具按钮,点击即可选择 Canvas。在 Canvas 中,用户可以与 ChatGPT 并排协作编辑文档,无论是修改标题、添加表情符号,还是调整文本长度、阅读等级,都能轻松实现。Canvas 就像一个共享的画布,用户和 ChatGPT 可以共同创作,让写作过程更加流畅自然
接着,Alexey 展示了 Canvas 如何帮助用户改进自己的写作。他将一篇关于“圣诞老人、暗能量和驯鹿推进力”的物理论文粘贴到 ChatGPT 中,并使用 Canvas 打开。ChatGPT 不仅能够对文章提供专业的修改建议,还能在文中直接添加评论,方便用户查看和修改。用户可以根据自己的想法修改文章,并随时复制最终版本
除了写作,Canvas 在编程方面也展现出强大的实力。Alexey 演示了如何使用 Canvas 调试 Python 代码,并生成图表。Canvas 内置了 WebAssembly Python 模拟器,可以快速加载几乎任何 Python 库并运行代码,提供即时反馈。用户可以直接在 Canvas 中运行代码,查看输出结果,并与 ChatGPT 协作调试,大大提高了编程效率
最后,Lee 展示了如何在自定义 GPT 中使用 Canvas。他创建了一个名为“圣诞老人助手”的 GPT,用于帮助圣诞老人回复孩子们寄来的信件。通过在自定义 GPT 的说明中添加“使用 Canvas 工具”的指令,并勾选 Canvas 功能,即可让自定义 GPT 自动在 Canvas 中生成信件草稿。圣诞老人可以根据实际情况修改草稿,并以自己的风格和语气回复孩子们,从而节省大量时间
五、Day5:
OpenAI 12 天发布会 Day5,这次Apple Intelligence对ChatGPT的深度整合主要包含三个方面:
1/首先是与Siri的协同 。当Siri判断某个任务可能需要ChatGPT的协助时,它可以将任务移交给ChatGPT处理;
2/其次是文档分析的增强 。 用户现在可以使用ChatGPT从头开始撰写文档,还能进行文档细化和总结;
3/iPhone 16的相机视觉智能 。 它能够通过视觉智能让用户更深入地了解拍摄对象。
01
跨设备的无缝体验
OpenAI 称,iPhone、iPad 与 Mac 等 Apple 设备可直调 ChatGPT,免去多步启动流程,
点击底部蓝色 ChatGPT 图标即可开启对话 ,提升便捷性与信息获取速度。其融入 Apple 生态,在办公、学习、娱乐场景均能快速调用处理任务,如学生用 iPad 提问写作业、专业人士用 Mac 分析文档写报告等。
个人认为,ChatGPT 无缝整合会重塑用户与设备交互方式,语音与智能对话渐成主流,Apple 生态流畅连贯,ChatGPT 弥补人工智能互动短板,达成自然交互。
02
与Siri和Apple Intelligence配合
ChatGPT 与 Siri 整合,成 Apple 数字助手关键拓展。用户能语音调 ChatGPT,在 Siri 界面直接对话,简化获复杂答案流程。
如提问后可点 Siri 界面 ChatGPT 图标深入交流。 个人觉得,Siri 进化慢遭诟病,ChatGPT 注入新活力,提升实用性,或成 Siri 重获用户信任、智能助手再崛起契机。
ChatGPT 还被集成于 Apple Intelligence 内部,强化其能力。如 iPhone 16 视觉智能里,
ChatGPT 可解析图片内容并描述,应用场景多元 ,风景照能识别地标并附文字,购物时可识别商品并推荐。其上下文生成图像功能亦提升 Apple 设备实用性,Mac 上生成图像后可在 Apple 设备分享编辑,助力创意工作者。
个人认为,视觉智能与上下文生成功能彰显 AI “理解” 与 “创造” 结合的核心潜力,
未来或拓展至视频生成 ,对影视创作与营销具颠覆性。
03
PDF文档分析总结
此次集成让 ChatGPT 为 Mac 上的 Siri 增添全新文档分析功能,
拖 PDF 文件至 Siri 界面就能调用 ChatGPT 解析 ,在研究报告等文档里可速获摘要、关键词与关键数据点,且能存分析结果至桌面作参考。此功能对处理大量文档的专业人士意义重大,律师能梳理案件材料,研究人员可提取论文核心,企业管理者可分析财务报表。
个人认为,其价值在省时间与提信息利用效率,如今信息量剧增,人类难凭自身应对,ChatGPT 成 “增强工具” 助力完成复杂任务。
04
图像生成与视觉智能
在上下文中生成图像
ChatGPT 与 Apple 深度集成,让视觉智能功能有了新能力。比如用户在聊天中描述需求,像 “为我生产一个圣诞节图片”,ChatGPT 既能生成符合要求的图像,又能依用户反馈实时调整设计,这种实时交互给用户带来很大自由度,在需创造性解决方案的场景中作用尤为明显。
赋予视觉智能能力
在发布会上最吸睛的环节当属
ChatGPT 为苹果设备赋予的视觉智能能力 ,OpenAI 团队以一场即兴的 “圣诞毛衣大赛” 进行演示。开发者长按 iPhone 相机控制按钮时,ChatGPT 可实时分析画面内容,演示中,系统不但能识别出众人毛衣特征,还能用幽默方式给节日装扮打分排名。
不过,ChatGPT 判定 Sam Altman 平平无奇的毛衣最具 “趣味性”,这让全场惊愕,仿佛 AI 也懂 “向上管理” 呢。
这项视觉集成的意义颇为深远,它补上了苹果 AI 系统的一大致命短板。此前,Siri 的视觉识别能力一直是薄弱之处,而如今借助与 ChatGPT 的合作,
iPhone 用户能随时利用相机获取周边物体的深度信息与解释 。
六、Day6:
OpenAI在今天得直播中升级了高级语音模式,用户终于可以以视频模式和ChatGPT对话了。
开启视频对话模式比较容易,用户只需要先点击语音按钮进入高级语音模式,然后打开视频功能,ChatGPT就可以看到用户得摄像头了。
6.1 多人对话
在OpenAI的演示中,用户不但可以以实时视频模式和ChatGPT对话,如果用户端有多个人,ChatGPT能记住对面每个人,实现一机多人交流的效果。
这像什么,有点像小班课,一个老师(AI版的)和多个学生同时对话。在部分场景应该会很有意思,比如多个学生(或者学生和家长)和AI圣诞老人聊天练习口语什么的。
6.2 第三视角
发明手机后置摄像头的人也是个天才。用户和ChatGPT视频对话时,可以打开手机的后置摄像头,然后让ChatGPT教你如何做手冲咖啡。
这个场景在实践课程中应该会很有用处,劳动课、做手工、美术课,都会很有意思。
6.3 共享屏幕
使用ChatGPT的高级语音模式时,用户不但可以通过摄像头和ChatGPT互动,还可以与ChatGPT共享手机屏幕。
不过很难想象这个功能在日常生活中到底能用在什么地方,以及和手机内置的AI功能有什么区别。一个可能性是可以共享你在玩的手机游戏,让GPT给游戏指导。
6.4 圣诞老人角色扮演
在圣诞季,ChatGPT的高级语音模式内置了一个圣诞老人角色,用户可以与模拟圣诞老人声音和语气的AI进行对话。
七、Day7:
而今天发布的这个功能,我愿称其为本周最强、最实用的功能,毕竟是压轴发布:**ChatGPT Projects** !
还没使用上Sora模型的小伙伴看过来:在开始今天的直播演示前,OpenAI产品负责人Kevin Weil特意强调,目前Sora已面向所有ChatGPT Plus和Pro付费用户(欧洲除外)开放注册。
昨天推出的高级语音模式视频聊天和屏幕共享功能也已面向所有Plus、Pro和Teams用户全面推出(依然是欧洲除外)。圣诞(Santa)模式则已全球可用。
ChatGPT Projects详细解读
使用过Claude并开通了Claude Pro的小伙伴对于“Projects”这个名字肯定不陌生。
Claude Projects发布于今年6月,核心功能包括组织对话、知识库、自定义指令、Artifacts功能以及协作共享。
而今天OpenAI推出的**ChatGPT Projects** 功能,简直和Claude Projects如出一辙,说是一模一样也不为过。听我慢慢道来。
首先,组织对话是Projects的核心功能。如何让ChatGPT支持更高效的对话管理一直以来是用户的强烈需求。在这之前,ChatGPT里的对话是一条一条独立的,每当有一个新问题或新任务,就必须新建一个会话(New Chat)。短期看这样的设定没什么问题,但时间一长,问题就会逐渐显现:想要查找历史聊天变得极困难。虽然ChatGPT大概一个月前推出了“聊天历史全局搜索”的功能,但这只是治标不治本的方案。如何管理这茫茫多的对话仍然是一个问题。
不论是ChatGPT Projects还是Claude Projects,想要解决的都是这个问题。有了Projects,我们可以把所有相关的(可以归类为一个项目下的)聊天对话整合到同一个文件夹中,方便查找和反复使用,就像文件管理那样。
其次是**知识库管理** 的功能。在同一个项目或同一类任务下,不同的问题大概率会共享同一套项目背景信息,即**知识库** 。有了Projects,就可以将文件、代码等资料上传到“项目”级别,该项目下的所有问题均可以访问这个知识库,以获得更多的背景信息,从而得到更准确、更相关的输出结果。这里的知识库和AI Agent中的知识库非常相似,相当于把背景知识提前预设在AI Agent的大脑里,然后在回答问题的时候通过RAG(Retrieval-Augmented Generation)技术来进行向量化检索。这样预设知识库的好处之一是避免重复上传相同的文件,达到“共享”的效果。
接下来是**自定义指令** ,这也是OpenAI Projects和Claude Projects都支持的功能。可以针对每个项目设置单独的指令(即系统提示词),如指定语气、角色或行业,通过系统提示词的限制进一步定制AI模型的响应。在Projects维度下进行自定义指令的好处是,对于该项目的每一个对话,模型都会遵循这个指令进行输出,不需要在每个对话中单独强调语气、回复风格等。关于自定义指令是什么,可以参考我这篇文章:
同样可以理解为AI Agent中的系统提示词,比如今天demo中的这个例子,规定了“你是谁、你擅长做什么、背景信息”等等一系列信息。
然后是针对Projects额外提供的一些支持性功能,比如ChatGPT的Canvas和Claude的Artifacts功能。这么一对比,这两个Projects功能是不是一模一样。不同的是,ChatGPT多一个联网搜索的能力,在Projects中,ChatGPT也能够进行联网搜索实时信息,提供更丰富的回答。而Claude则多了**协作共享** 功能,专门针对Team订阅的用户:可以将Claude对话分享到团队的项目中实现协作共享。
ChatGPT Projects VS Claude Projects
下面进行一波ChatGPT Projects和Claude Projects对比总结。
详细对比表格看这里。
功能 | Claude Projects | ChatGPT Projects |
---|---|---|
定位 | 突出协作与共享,支持团队成员之间的知识和成果共享。 | 专注于组织和管理对话、文件和定制任务,提高个人生产力和工作效率。 |
上下文支持 | 提供200K上下文窗口,支持上传大规模文档、代码和风格指南。 | 支持文件上传和数据整合,能够在对话中引用,上下文窗口大小与 |
GPT-4o | ||
一致,128K。 | ||
自定义指令 | 可为每个项目设置定制的语气、风格或行业视角,以匹配具体任务。 | 提供“自定义指令”功能,为项目中的对话设置更精确的规则和上下文。 |
协作与共享 | 支持团队共享对话片段,通过活工作流促进团队技能提升和创意交流。 | 暂未提供共享功能,主要针对个人用户的组织和生产力需求。 |
辅助工具 | Artifacts 功能提供实时创作窗口,用于生成代码、文档和图表,并支持前端实时预览。 | |
通过Canvas工具支持内容创作和编辑,为写作和编码任务提供增强工具,支持实时运行Python代码。 | ||
典型应用案例 | 从复杂文档分析到团队协作,例如提案撰写、咨询报告生成和活动策划,助力团队效率提升和流程优化。 | 涵盖个人使用场景,如家庭维护记录、个人网站开发和节日活动管理,更适合多任务管理和内容个性化生成的需求。 |
可用性 | ||
仅对 Claude Pro 和 Team 用户开放,免费用户无法使用。 | ||
当前已向 Plus 、Pro 和 Teams 用户逐步推出,未来计划开放给免费用户。 | ||
怎么使用ChatGPT Projects?
和本周前几天发布的新功能一样,ChatGPT Projects也是一个优先对付费用户开放使用权限的功能。OpenAI官方表示,该功能已向全部ChatGPT Plus、Pro和Team用户开放,将于1月向企业和教育用户开放,未来也会向免费用户开放。
划重点,目前仅ChatGPT Web网页端(http://chatgpt.com)以及Win版桌面客户端可以使用Projects功能,移动app和macOS暂不支持。
八、Day8:
OpenAI第8天的直播主题是「AI 搜索」 ,这次直播重点是ChatGPT Search的重大升级。
AI搜索 vs 传统搜索
可能有些人对AI搜索还不熟悉,这里将AI搜索与百度、谷歌之类的传统搜索进行比较,帮助理解。
在搜索技术的世界里,传统搜索引擎就像是一个简单的"找关键词"的工具,你得输入关键词,它就去数据库里匹配。但AI搜索就不一样了,它更像一个聪明的助手,能听懂你想要什么,理解你的语境,甚至可以像人一样跟你对话。传统搜索给你一堆链接,你还得自己点开找信息;而AI搜索直接就给你答案,还能处理图片、视频等各种形式的内容。
AI搜索的厉害之处在于它的交互体验,就像和一个智能的朋友聊天。你可以一步步跟它说明你的需求,它会不断调整和完善结果。比如你先问一个模糊的问题,它会反问你细节;你补充了更多信息,它就能给出更精准的回答。这种多轮对话的方式,让搜索变得更加人性化和智能,真正做到了理解用户、服务用户。
功能
新版本不仅搜索速度更快,还优化了移动端App,增强了地图功能,支持图片和视频搜索,并加入了语音搜索。更重要的是,这个功能现在对全球所有登录用户免费开放,不再仅限于付费会员。
-
搜索功能免费开放:OpenAI宣布将其搜索功能向所有用户免费开放,这一更新显著提高了用户的访问权限和使用体验。
-
实时搜索与高级语音集成:新的搜索功能支持实时信息检索,用户可以通过自然语言进行提问,ChatGPT能够迅速提供包括股票、新闻等多种实时内容。该功能还结合了高级语音模式,允许用户以对话形式进行多轮搜索,提升了交互的流畅性和自然度。
-
增强的视觉效果:更新后的搜索结果不仅包含文本信息,还可以展示地图、图片和视频,提供更丰富的视觉体验。
此次直播展示了OpenAI在提升用户体验和功能整合方面的持续努力,标志着其产品向更高效、更智能方向发展的重要一步。
九、Day9:
圣诞日第九天,OpenAI向第三方开发者开放了最强模型o1。
API中的o1,可支持函数调用、开发者消息、结构化输出和视觉功能。
同时,在开发语音类App的API中,集成了更先进的GPT-4o版本,成本直降60%!
另外,用户和开发者可根据自己的偏好,用「偏好微调」轻松定制模型了。
Day 9,是名副其实的「对开发者最有用的一天」。
与此同时,团队还进行了了一场在线AMA,解答了开发者的诸多问题。
Day 9,给开发者的新功能
今天,OpenAI将正式在API中推出o1满血版。
自从9月推出o1-preview之后,开发者们已经在API上构建出了大量很酷的应用程序,比如智能体、客户支持、财务分析等,同时它的编程技能也很出色。
但开发者们反馈说,API中缺乏了一些核心功能,因此,OpenAI今天会一并推出这些新功能。
此外,还有一些小更新,比如推理强度参数。这是一个新的参数,告诉模型去花多少时间思考。
在解决简单问题时,这个参数可以节省许多时间和成本,在需要更多算力的复杂问题上,就可以花费更多资源。
开发者消息,视觉输入功能,函数调用功能
开发者消息功能,是系统消息的一种新形式,实际上是OpenAI指令层次结构工作的一部分。
它会用来教模型,按照什么顺序遵循哪种指令。因此,开发者可以完全控制开发者消息来引导模型。
此外,OpenAI还在API中推出了视觉输入功能。
很多用户强烈呼吁这个功能上线,可以想见,它在制造业、科学等领域,会提供非常大的帮助。
在demo中,研究者给了模型一份表格的照片扫描件,有若干张。
注意,研究者填写的时候,故意填错了一些数据。o1是否能检测出这些错误呢?
在开发者消息中,研究者要求模型找出错误。如果要正确找出,必须其他几张照片的扫描。
果然,模型注意到了某一行的算术错误,还注意到标准扣除额不准确这种非常细节的问题。
改正错误后,研究者提问道:如果我的应税收入是这个,我要缴纳多少所得税?
可以看到,o1在右侧提供了一组函数。
比如其中一个函数,就是以JSON架构呈现
这些操作都在应用程序后端完成,用户看不到任何函数调用或来自API的响应。
此外,研究者还定义了一个JSON架构,来规范响应的格式。
在上面这个「表单修正」架构中,包含了一组修正,每个修正都包含错误原因等内容,这样就可以向用户展示哪里出错了。
甚至还能为PDF渲染一个用户界面,高亮出出错的地方。在我们不想从模型中渲染Markdown时,结构化输出特别有用,它让我们可以直接自动提取JSON。
最终,模型正确输出了修正结果。
API使用场景评估
针对API用例,OpenAI研究者进行了一些评估。
首先,在函数调用功能上,新的o1模型在函数调用能力上显著优于GPT-4。
这包含了两个关键部分——在需要时调用正确的函数,以及在不需要时避免调用函数。
另外,我们还可以将函数调用与结构化输出结合。
可以看到,o1比起GPT-4,同样表现出色。
在结构化输出中,o1在评估中也显著优于其他模型。
这意味着,模型在指令遵循上的表示更佳,在给出特定条件约束时,偏离预期的可能性也更低。
在编码方面,o1在Livebench评估中,要远远优于o1-preview和GPT-4o,这是一个巨大的进步。
而在AIME评估中,o1再次显著优于o1-preview。
有趣的是,最右侧是带有结构化输出的o1。
在构建结构化输出时,研究者希望确保模型在使用此功能和未使用时表现同样出色。
可以看到,即使启动了此功能,模型的推理能力依旧保持。因此我们可以放心在应用程序中使用,不必担心结果的准确性。
另外,模型在延迟上的变化也很有趣。
o1使用的推理Token,比o1-preview少了60%,因此对应用程序来说,它的运行速度更快、成本更低。
最后,研究者强调,抱歉暂时不会在API中推出o1 Pro,虽然此类请求非常多。
从今天起,函数调用、编码、结构化输出、开发者消息和图像理解,就会向第五级用户开放了。几周时间内,将覆盖到所有用户。
实时API,Her可以自己构建了
Realtime API(实时API)在今年10月初,正式放出了公测版。
在OpenAI伦敦开发者日上,所有人或许早已对其强大的实时语音能力有所了解。现场,开发者体验主管Romain Huet秀如何通过实时API订购派。
想象一下,你可以直接通过这个API构建ChatGPT高级语音模式了!不论是订餐AI助手,还是旅游AI助手等等,有了它就可以实现许多非常酷炫的功能。
它能够支持网络传输协议WebSocket,因此,你可以通过服务器进行通信,发语音并接受响应。
而在今天,OpenAI正式宣布实时API将支持WebRTC——专为互联网而生。
我们常见的视频会议,或者低延迟的视频流传输,都采用了WebRTC。它能够实时处理互联网不断的变化,比如动态调整比特率、进行回声消除。
现在,实时API也能共享这些优势了。假设你要构建一个应用程序,能省去不少功夫,可以直接运行。
接下来,OpenAI研究人员展示了一个demo,如下是HTML代码,包含了一个音频元素,一个对等连接(peer connection),它代表着你和实时API之间的一对一连接。
演示的重点,就是创建这个对等连接。当实时API向你发送音频时,把它放入到音频元素中。
紧接着,就是捕获麦克风输入的声音,并将其添加到对等连接中。首先,传输一个音频流到OpenAI,然后在设置好对等链接后,执行一个offer/answer操作。
offer/answer的作用是收集本地的所有信息。开发者通过HTTP POST发送这些信息,然后模型会作出响应。
然后,WebRTC 会为你处理所有细节,就不需要再去操心拥塞控制、音频捕捉等等。
那么,这个与之前WebSocket集成,有什么区别?
前者代码行数会大大拉长,达到200到250行,而且,在此基础上还会遇到其他的问题,比如处理反压(back pressure)等等。
接下来,运行一行代码,来看看它实际的样子。
音频元素——「圣诞节还有多少天?圣诞节是12月25日,而今天是12月17日。这意味着离圣诞节还有8天」。
剩余所做的,就是将其代码复制粘贴12行代码,执行脚本,就完成了。
这里,你唯一需要修改的就是 API Token,然后你就可以下载这段代码并运行。
OpenAI官方已经放出了所有代码,大家都可以随时构建。
令人惊喜的是,研究员请出了一位小伙伴——小鹿,它里面有一个微型控制器,大小如同一枚硬币。
插上电源之后,小鹿突然间活了,「圣诞快乐!你们在谈论什么」?
研究人员回复道,「我们正在讨论如何将WebRTC集成到实时API中」。
小鹿表示,「这听起来对我来说有点复杂。我们能不能聊点更有趣的事情,比如送礼物」?
接下来,研究人员和小鹿完成一轮精彩对话,完全展现了实时API的强大应用,而这只是所有用例的冰山一角。
这样,你就可以将其配置在任何可以穿戴的设备上,比如眼镜、摄像头、麦克风等等。而且,全程也只需30-45分钟。
此外,OpenAI还对实时API做了其他的更新。
从现在开始,GPT-4o音频Token将比以前便宜 60%,并在API中提供了对4o-mini的支持,其音频音频Token成本降低到当前价格的1/10。
其次,他们还为实时API推出了对Python SDK 的支持,使集成更加简单。
最后,还有一些API改进,让开发者更容易使用函数编码和安全防护机制。
偏好微调和定制化
关于微调和定制化,是开发者非常重要的一项功能,能够针对使用场景去定制模型。
直播现场,OpenAI官宣了全新的微调方法——偏好微调(preference fine-tuning)。通过使用直接偏好优化(DPO)能帮助开发者创建更符合用户偏好的模型。
具体来说,它是在比较不同回答中定制模型,而非使用固定的目标。
过去几个月,OpenAI火力全开,但微调API已经发布有一年的时间了,这次究竟有什么不同?
目前,在API中,他们推出了监督微调、以及前几天新推出的强化微调(RFT)。
在监督微调中,开发者需要提供模型需要的精确输入和输出,比如创建一个聊天机器人,就需要提供用户的消息以及精确的回复。
而在偏好微调中,有所不同。
你不需要提供精确的输入和输出,仅需要提供一对一响应,其中一个回应偏好度比另一个更强。
然后,微调过程便会优化模型,让其学会区分这些响应之间的差异。
这些差异可能包括响应格式、风格指南,甚至是一些抽象的特质,比如有用性或创造力。
那么,这种方法有什么样的特定用例场景?
客户支持、内容创作、创意写作等等,尤其是,适用于那些需要考虑语气、风格和创造力的主观任务。
如果在此过程中,开发者认为模型结果过于冗长,或者给出答案并不相关,就可以通过强化偏好的行为,并弱化不偏好的行为,来引导它生成更简洁、更相关的响应。
另一个非常好的使用场景可能是,内容审核或内容管理。
接下来,研究人员演示了如何通过API实现简单微调,先进入微调页面,点击「创建微调」选项,会看到一个新方法的下拉菜单。
选择「直接偏好优化」方法,然后在选择基础模型——GPT-4o。最后,需要做的就是上传数据。
假设需要做一个聊天机器人,让其更具对话性。这下面这个示例这种,是向助手询问纽约市天气的两组响应。
在首选的响应中,回复更加详细,使用的是华氏度。而在不理想的响应中,回复更为简洁,使用了摄氏度。
然后,将这些示例放入JSONL文件中,每个示例都包含了输入消息、偏好/非偏好的输出。
数据上传之后,再提供一些超参数(选择默认值),然后点击「创建」。
这样,微调过程就启动了。根据数据集的大小,这一过程可能需要几分钟到几小时不等。
一旦完成之后,我们能够像在API中任何基础模型一样,从新模型中采样。
目前,OpenAI已经向合作伙伴提供了偏好微调的早期访问权限,并收到了不错的反馈。
举个栗子,Rogo AI开发了一个面向金融分析师的AI助手,通过使用OpenAI模型重写、重构用户查询,以生成更相关的答案。
在使用监督微调时,他们未能使模型表现超越基础模型。但通过偏好微调,他们在内部基准测试中的准确率从基础模型的75%提升超80%。
鉴于GPT4o偏好微调所取得的成果,OpenAI预计很快将为GPT4o mini提供相同功能。同时,其训练Token的定价将与监督微调相同。
总言之,今天的OpenAI发布,对于开发者来说,是一个大礼包。
满血版o1引入API,具备了完整的生产功能集,而且函数编码功能,从今天起逐步推广到Tier 5。
另外,实时API能够支持WebRTC集成,以及token价格下降,以及偏好微调让场景定制模型更加容易。
而这些还不是全部,OpenAI今天还在一直持续推出新功能。
首先,在提升开发者体验和产品质量方面,OpenAI发布了新的SDK,新增对Go和Java SDK的支持。与Python SDK和Node SDK类似,它们支持OpenAI上所有你需要的API端点。
其次,在简化流程上,他们也推出了一个全新的登录、注册、获取API密钥的流程。现在,不需要签署5份服务条款协议,开发者即可在几秒钟内获取API密钥。
十、Day10:
10.1 电话直播ChatGPT
OpenAI放出了下面这个美国的电话号码,美国用户拨打该号码后会自动接通ChatGPT,换句话说,可以通过拨打电话的方式和ChatGPT语音对话。
1-800-242-8478(即 1-800-CHATGPT)
该功能目前有2个限制。首先是该功能目前仅限美国地区的用户。很好理解,毕竟这个号码是一个美国的电话号码。其次,每月免费通话时间限制为15分钟。
电话直拨ChatGPT所适用的设备则比较广泛,无论是智能手机、翻盖手机,甚至是demo中的老式旋转拨号电话,都可拨打该号码与ChatGPT互动。
实测效果
拨打上面那个电话确实能呼叫ChatGPT,建立连接和它对话。效果只能说中规中矩,OpenAI并没有明确指出该功能所使用的模型,但和它对话我得知它的知识库截止日期是2023年10月,并且支持打断,说明这是一个实时API(Realtime API),所以猜测应该是基于昨天发布的GPT-4o mini实时API创建的。
另外,聊天过程中不支持工具调用,也就是无法联网搜索信息,只能基于训练数据回答。所以如果开通了ChatGPT Plus的小伙伴,继续用ChatGPT App里的高级语音模
式就好,今天的这个功能最多是锦上添花。
10.2 WhatsApp支持
ChatGPT支持接入WhatsApp应用了。WhatsApp可以简单理解为国外版的“微信”,是一款即时通讯应用程序,在印度、巴西、美国、印尼等地有着非常庞大的用户基数,据传月活用户超20亿。
使用方法:将下面这个号码(号码同上)添加到WhatsApp的联系人列表,或者扫描demo中OpenAI官方提供的二维码,即可在WhatsApp中和ChatGPT对话。
1-800-242-8478
二维码在下面右上角:
WhatsApp中的这个聊天机器人基于
GPT-4o mini
模型搭建,毕竟是免费的,不太可能用更贵的
GPT-4o
。并且目前仅支持文本对话,无需账户即可使用。另外和前面的电话拨打功能相比,该功能的优势是全球用户均可使用。
专门创建了一个WhatsApp账号来测试,效果和宣传差不多。仅支持文本,发送图片给它会提示“无法回答”。
十一、Day11:
OpenAI 不再把 ChatGPT 定义为一个简单的问答工具,ChatGPT 即将演变成能够为用户执行任务的助手。桌面应用是成了 ChatGPT 一个发展的重要方向,因为它可以获得更多权限,不仅可以用于浏览器选项卡,还能访问屏幕内容和自动化桌面操作,帮助你干更多的事情。
现在,Mac 用户更新到最新版 ChatGPT 应用,所有发布的新功能就可以体验了,Windows 桌面应用程序还没开发,不过应该快了。
6 个月前,OpenAI 推出 Mac 桌面应用,之后又推出 Windows 桌面应用。今天,新的桌面应用功能主要包括:
-
原生 Mac 桌面应用程序,轻量级且资源占用少。
-
键盘快捷键 Option + Space 快速显示和隐藏聊天窗口。
-
自动提取上下文功能,方便用户与 ChatGPT 交互。
-
与其他应用程序协同工作,例如 Warp 终端、Xcode IDE、Apple Notes、Notion 和 Craft。
-
支持高级数据分析功能,例如将终端命令结果生成图表。
-
支持 OpenAI 新模型 o1,擅长解决复杂的编码问题。
-
支持多种 IDE,包括 VS Code、JetBrains 生态系统、Android Studio、PyCharm、RubyMine、Textmate 和 BB Edit。
-
支持 Matlab。
-
支持高级语音模式,可与语音模型进行交互。
Mac 原生应用特点
-
轻量级,占用资源少
-
独立窗口,方便用户进行多任务操作
-
支持快捷键快速显示和隐藏聊天窗口
功能演示
- 自动提取上下文: 用户可以直接从其他应用复制内容到 ChatGPT,无需手动输入。
- 跨应用功能: ChatGPT 可以与其他应用(如 Warp 终端)协同工作,自动识别应用环境并提供相应的指令和建议。
- 数据可视化: ChatGPT 可以将结果转换为图表,例如根据代码库提交历史自动生成节日主题条形图。
- 代码生成和修改: ChatGPT 支持与多种 IDE 交互,例如 Xcode,VS Code,Android Studio 等,可以理解代码上下文,自动生成代码,并根据用户需求进行修改。
- 写作辅助: ChatGPT 支持与笔记应用(如 Apple Notes, Notion 和 Craft)交互,可以根据用户提供的素材自动生成文本内容,并模仿用户的写作风格。
- 高级语音模式: 用户可以使用语音与 ChatGPT 交互,例如修改文档或代码,并获得实时反馈。例如, ChatGPT 与 Apple Notes 的协同工作,通过与“圣诞老人”(语音选择的一个角色)的对话展示了其创意应用场景。
十二、Day12:
没想到最后一天的发布
如此让人震惊 ,人工智能 在 ARC-AGI 上获得了 87.5% 的分数,我的意思是,如果结果属实,他们实际上已经实现了人类的推理能力 。
先说一下发布会的五个要点:
-
OpenAI 宣布推出两种新模型——O3 和 O3-mini。O3 是一种非常强大的模型,在编码、数学和 Arc AGI 基准等各种基准上都优于 OpenAI 之前的 O1 模型。
-
O3-mini 是 O3 的更具成本效益和性能重点的版本,与 O1-mini 相比,它以极低的成本和延迟提供类似的功能。
-
OpenAI 为安全研究人员开放了 O3 和 O3-mini 的早期访问权限,以帮助在公开发布之前测试这些模型,O3-mini 计划在 1 月底左右发布,O3 计划在之后不久发布。
-
视频通过现场演示展示了 O3-mini 的能力,包括生成代码来解决编程问题、在具有挑战性的 GPQA Diamond 数学基准上自我评估,以及支持函数调用和结构化输出等功能。
-
OpenAI 开发了一种名为“审慎对齐”的新安全技术,该技术利用模型的推理能力来更好地识别安全和不安全的提示,从而提高其安全性能。总而言之,关键要点是宣布强大的 O3 和具有成本效益的 O3-mini 模型、安全测试的早期访问以及 OpenAI 安全方法的进步。
12天的OpenAI活动,最后一天的“爆炸性”展示,令人无法忽视!🔮 在这场展现科技力量的盛宴中,Sam Altman 再次掀起波澜,推出了新一代 AI 模型——o3 和 o3-mini !如果你以为这只是些许升级,恭喜你,还没完全get到这背后的震撼力。
🚀 什么让 o3 与众不同?
这是一次AI进化的标志,或许我们离AGI(通用人工智能) 的时代更近了。o3所带来的,不仅仅是“智能内容生成”,而是更加注重思维链条的推理过程 。是的,你没听错,它在给出答案前先要深思熟虑 ,先思考,后回答!🤯
它在推理时,像是拿出了哲学家的耐心,慎重、冷静、扎实地自我核实,最终给出更精准的答案 。尤其在数学、科学、编程等领域,错得更少,准得更精!当然,这也意味着它比起直接给出答案的“快速派”模型,反应稍慢了一些 ,但正是这种沉淀思考的时间,为用户带来了真正的价值。
💥 那为什么没有“o2”?
Sam Altman表示,OpenAI在给o3和o3-mini命名时,避免了与英国电信巨头O2的重合。OK,这个解释没有问题,但事实上,也许更重要的是——o3的崭新特性,注定让它成为最独特的存在 。毕竟,这种基于推理的AI反应方式,是AI与人类思维方式的一次小小接轨。
🔥 o3的核心亮点:
-
- 推理能力强 :告别自信地给出错误答案,它通过“私人思维链”避免了这一弊端。
-
- 高度自定义 :你可以选择给它更多时间思考,或在急需快速答案时调至“低计算”模式。
-
- 更智能,更人性化 :o3的进化不仅仅是技术的提升,更是与人类思维更贴近的一步。
⚡️ 你准备好迎接AI思维革命了吗?
当然,o3的出现不等于AGI的全面实现。它依旧无法像人类一样在各个领域全能化,但它无疑给了我们迈向AGI的清晰方向 ——AI不仅能生成内容,它将拥有“思考”的能力。无论它是否能最终带我们走向AGI的彼岸,但“推理型AI”的未来,已经在这里悄然展开。
🌍 展望未来——AGI的曙光?
即使o3尚未全面开放,它的出现依然让我们对AI的未来充满了无限遐想 。如果OpenAI最终实现AGI,想象一下与微软的合作会带来怎样的震撼波动——这不仅是技术的胜利,更是商业的颠覆!毕竟,AI的“思考”背后,可能是下一个经济巨浪 。
1月,o3-mini将率先亮相,等到年底的完整版o3,到时候我们才真正见识到这款“未来之作”的威力!👀
参考文献 :
[1] https://mp.weixin.qq.com/s/zzfu4K2-2Qe4veUuRCzhxA
[2] https://mp.weixin.qq.com/s/pOGMnkqHcIRrqmabKnf1Rw
[3] https://mp.weixin.qq.com/s/XwTIDmZywqSqbjMf4T9xtg
[4] https://mp.weixin.qq.com/s/xKYZreLri\_IcazGgW0RgTQ
[5] https://mp.weixin.qq.com/s/PWzaDMRm8vOZzjfWbyE5Ig
[6] https://mp.weixin.qq.com/s/8nZbdv7I3aFWG7C34ivO2w
[7] https://mp.weixin.qq.com/s/DNOMR4BtElwNxxqRKon-Tg
[8] https://mp.weixin.qq.com/s/c9Vrvl0I7kV7uKJp9k2wCA
[9] https://mp.weixin.qq.com/s/1oZ7FXgRhD-7GWXOdQsbxg
[10] https://mp.weixin.qq.com/s/qWJR9dkj7bxixLMyvB5g2A
[11] https://mp.weixin.qq.com/s/S-DhdGs0E1uLbA7DseB26Q
[12] https://mp.weixin.qq.com/s/EeeZzocIUzlmZfAKXWd1UA
直播视频可以在官网查看,地址为:https://openai.com/12-days