OpenAI在2027年之前实现AGI的计划以及参数数量与模型性能的关系(点原文链接下载)

大模型人工智能与算法跨地域网络

近日,网络流传一份有关于OpenAI及神秘Q*项目的文档,该文档揭示了OpenAI计划是到2027年实现人类水平的AI,然后扩展到超智能。尽管埃隆·马斯克的诉讼导致了延迟,但这一目标仍将很快实现,另外讨论了参数数量与AI性能之间的关系。

picture.image

以下是该文档的摘要内容:

OpenAI的AGI计划

  • OpenAI在2022年8月开始训练一个拥有125万亿参数的多模态模型,第一阶段被称为Arrakis或Q*。
  • 该模型在2023年12月完成训练,但由于高昂的推理成本,原定于2025年发布的GPT-5(原GPT-4.5)被取消。
  • 原计划在2026年发布的GPT-6(后更名为GPT-7)因埃隆·马斯克的诉讼而被搁置。
  • Q* 2025(GPT-8)原计划在2027年实现完全的AGI。

AGI的定义和参数

  • AGI被定义为能够执行任何智能人类能够执行的智力任务的人工智能。
  • 深度学习的概念可以追溯到20世纪50年代,现代神经网络更加“深层”,即包含更多层,训练数据也更多。
  • AI研究的爆炸性增长归因于计算能力和数据量的增加。

参数数量与人类大脑的比较

  • 人类大脑的突触数量大约为100万亿,这被认为是每个神经元大约1000个连接,根据推论,当参数数量达到100万亿时,AI的性能似乎与人类水平相当。
  • GPT-2有15亿个连接,GPT-3有1750亿个连接,接近猫的大脑。

AI性能预测

  • 基于参数数量预测AI性能是可能的。Lanrian的预测显示,当参数数量与人类大脑相匹配时,AI性能将达到人类水平。

GPT-4/GPT-5的训练和发布

  • GPT-5在2023年底实现了原型AGI,智商为48。
  • OpenAI的CEO Sam Altman在2021年的一次采访中提到了100万亿参数模型的开发计划。
  • GPT-4/GPT-5不仅在文本和图像上进行了训练,还可能在音频和视频上进行了训练。

AI安全和伦理问题

  • AI领域的领导者开始对AGI的潜在风险发出警告,包括暂停AI发展的呼声。
  • OpenAI的Greg Brockman在2019年表示,他们计划在五年内构建一个与人类大脑大小相当的模型。

重点内容节选:

picture.image

picture.image

picture.image

picture.image

picture.image

picture.image

picture.image

欢迎点赞加关注,并可

在公众号内回复"进群"可进群交流。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
IDC 大模型应用落地白皮书
大模型技术已深度融入业务实践,各企业期望其释放更大商业价值。 但大模型落地之路面临许多挑战和顾虑。 如何精准对接业务需求与发展蓝图,制定切实可行的大模型落地策略? IDC发布首个大模型应用策略与行动指南 一为您揭晓一
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论