这份文档是一篇采访稿,采访对象是 OpenAI 的首席技术官 Greg Brockman。以下是文章的主要内容总结:OpenAI 的使命是确保通用人工智能(AGI)的安全发展,即将系统达到人类智能水平,并超越人类完成大部分经济价值最高的工作。OpenAI 结构为非营利,目标不是赚取巨额利润,而是为了构建影响力深远的系统。资助者包括 Sam Altman、Elon Musk、Reid Hoffman、Gabe Newell 等。AI 领域非常开放,研究成果通常公开发布。OpenAI 发布了《开源宪章》,未来将减少公开发布以确保安全性。深度学习是推动 AI 进展的技术,从2012年开始取得突破。GPU 的并行处理能力对深度学习至关重要。OpenAI 训练了一个 AI 系统,在 DOTA 游戏中与顶级人类玩家竞争。讨论了 AGI 的潜在影响,包括医疗、科学和其他领域的应用。强调了技术如何融入生活并确保其带来积极影响。讨论了 AI 技术的风险,包括系统被操控、未能实现目标和对社会的负面影响。讨论了 AI 技术如何被监管,以及政策制定者如何适应 AI 的快速增长。讨论了中国在 AI 领域的进展和与美国的竞争。OpenAI 短期内不追求盈利,专注于技术发展。讨论了 AI 如何影响社会结构和文化。讨论了 AGI 的时间线和预测的困难性。强调了教育和政策制定在 AI 发展中的重要性。
以下是全文:
OpenAI 的使命是确保通用人工智能的安全,即系统达到人类的智能水平,超越人类完成绝大多数经济价值最高的工作。只要我们能够构建这样的系统,它就应该真正惠及整个人类。我们看待 AI 时,实际上是有一条连续的技术谱系。
传统的 AI 技术之前往往超出了实际要求,我们有几十年的 AI 系统在为我们工作的情况,例如,支票处理是这方面的早期胜利,后来这些系统被人工神经网络技术接管,特别是在90年代。但其实是从2012年开始,我们才得以构建这些深层次的人工神经网络。这些可以从数据中学习并解决比之前更好的问题的系统,例如图像识别,以至于我们全部抛弃旧的系统,将其替换为深层次的人工神经网络。我们使用相同的算法用它来做机器翻译,例如,谷歌翻译突然之间变得非常成功。这种方法被应用到了多种不同的领域中。起初人们可能会说,哦,我们可以用这种方法进行感知,做一些非常基础的任务,然后进行机器翻译,延续较普通的感知任务,但紧接着你就会进行一些更复杂的问题,比如解决围棋或刀塔等竞争性电子竞技游戏,你会发现神经网络和 AI 能够比人类更好地解决互动问题。这就是我们未来预测的进展。我认为随着我们看到的这次仅仅是进展的表面,以及所驱动的进展,你不能排除短期内能够构建我们所谈论的系统的可能性。
让我们来谈谈公司结构,因为它是一个非常富有创业精神的节目。OpenAI 是非营利组织中的营利公司。有多少员工?我们现在大约有80人全职工作,已经运营三年了。我们结构为非营利,原因是什么?原因是我们最终的目标不是为了让自己赚取巨额利润,而是为了构建一个我们认为其影响力,如果成功的情况下,将可能比农业革命的影响更加深远,甚至或许能去到太空,并解决所有疾病,人类一直以来想要完成的各种任务,似乎由于技术限制难以实现。
当你谈论这类事情时,这超越了一个公司、一个国家甚至是一批人的努力。这就关乎整个人类。当你进行这样的事情,最终,应该确保那些塑造技术的人要以超越自身利益的方式进行思考。
好的,那么80个人意味着你们每年大约花费1000万美元左右。实际上我们的非营利组织已经超过这个数额了。
这些数字都是公开的,你可以去查一下。我猜我们2016年的预算大概是年增长10到15万美元,第一年由于 Elon 和 Sam 资助大约5000万美元,这些信息是在我理解的范围内。我们实际上有很多资助者,包括 Sam 和 Elon,还有 Reed Hoffman、Gabe Newell(Valve 的 CEO)以及其他许多人,还有 Open Philanthropy Foundation。实际上,我们不希望代表任何一个特定的利益。因此,如果我们关注某些利益,我们确实希望扩展并拓宽知识基础和知识产权。
所有的开源代码吗?还是有释放的顾虑?你如何管理这部分的?因为如果你们做了出色工作并花费了大量资金,其他参与者可能会利用你们的技术。你们如何管理这一点?这是一个非常好的问题。
当你今天审视 AI 技术的发展时,实际上你会发现一个非常开放的竞争领域,像 Google、Facebook、Baidu 等公司都在进行人工智能研究,并且公开所有内容。今天,AI 领域实际上已经形成了所有内容都予以公开的行为准则,这在非常有潜力的领域是相当奇怪的。我认为这很大程度上来源于学术路径,大概有3到4个实验室在过去20年中相信深度学习,却无人愿意为此提供资金,最终是以加拿大的‘月球项目’来提供的。一旦工作开始有些进展,所有大公司都纷纷表示,看看,我们想雇你们的人。而这些人也要求,但我们只会加入如果可以继续公开出版。
因此这种精神依然存在于领域内。但当风险较低时,例如谈论的是纯粹的科学进步或产品进步,这些可以被构建转化为产品为客户提供价值。一旦你开始谈论实际损害社会的事情,这就变得完全不同了,对吧?因此我们在今年年初发布了一份《开源宪章》文件。这就是基于大约两年的公共政策研究,如何作为组织将在未来运作。其中一个观点让很多人颇为惊讶的是,今天,我们通过发布大部分的研究成果来贡献,但未来我们将减少这种方法,以确保安全性。这几乎像在曼哈顿计划中工作一样。
这里举个例子,如果大家知道的原因是因为这些重要的技术和洞见应该对每一个人都开放获取。但如果错误的人或某些特定群体获取了这些洞见,这可能会带来灾难性的后果。没错,如果你今天看看 AI 技术的例子,就不清楚这个世界是否因此变好了。比如“深度假”技术就是一个很好的例子。如果你熟悉这种方式,这是一段开源代码,任何人都可以使用的来生成虚假视频。
你可以取用现有的视频,替换不同的人物,看起来非常逼真。这是人们使用这种技术进行多种不同应用的总和。
世界因此更美好吗?恐怕不完全是。你说的正是成人内容,他们将名人形象用于色情图片。如果你观察,你可能会以为这是他们的手机被泄漏,实际上是由计算机构建的,可能是奥巴马在做不适当的事情,可能会触怒右翼人士,让右翼人士说出可能激怒左翼人士的事情,于是陷入一片混乱。没错。
我们在技术领域的现状是,任何知道如何安装 TensorFlow 的人都能够使用这段开源代码生成他们设想的内容,并生成非常逼真的视频。我认为我们应将此视为一项研究案例的初步条件,即掌握强大 AI 技术后,确实需要进行这种安全和评估考量。是的,第一个案例可能会摧毁一个人的名声并对其品德造成一定伤害。
节目播完后,让我们谈谈认为好的方面,并展示一些你们已经取得的重大进展。我们回到本周创业栏目,现在我要告诉大家每个人都爱的信息。Squarespace,你可以创立新网站,可以博客或发布内容,也可以销售各种产品和服务,宣传你的实体或在线业务,甚至可以宣布事件或特殊项目。这里一切都是为此服务的。
查一下 Launch Festival Sydney 和 Launch Angel Summit,我们非常喜欢它们,因为可以瞬间搭建一个既美观又自定义且适合移动设备的网站,并且搜索引擎优化已经内置其中。您无需另寻顾问,所有这些服务也都免费且安全。我们非常喜欢 Squarespace,他们一直是我们本周创业节的支持者,产品质量极佳。
现在就访问 http://Squarespace.com 并获得免费试用。当您准备启动时,请使用优惠码 twist,将在您的首次网站或域名费用上获得10%的优惠。我知道您如果在听这个节目的情况下不需要节省这笔钱,但如果能,我希望大家使用这个 twist 代码。
节目播完后,许多人都会问 Jay,感谢你的播客。感谢你十年来每周两次地播放。有没有什么我能帮助你的?是的,有的,使用 Squarespace 并在 Twitter 上向 Squarespace 道谢,借此支持像本周创业这样的独立媒体。这真是无与伦比的产品。
顺便说一下,他们现在支持超过200个扩展,所以如果你想像我一样,创建创始人大学或天使项目,可以使用这些新的扩展。赶快去试试吧,这里有好多漂亮的新型扩展,当然还有出色的定制模板。很多人都不知道的是,SquareSpace 极其使用 CSS 功能。你可以销售商品,开设商店,这一切都非常简单。
回到节目的正轨上,各位欢迎回来本周创业栏目。我是主持人 Jason Calacanis,在这里 Wilson Sonsini 这家硅谷的律师事务所,以及其他城市,有一位 Greg Brockman,他是 OpenAI 的首席技术官兼执行总裁,他给我们提供了一个小时的时间来讨论他们已经取得的重大进展。我看过他们的视频,订阅了他们的 YouTube 渠道,这些进展非常出色。
你觉得这背后的创新核心是什么?我知道你有一个关于这方面的视频,但核心的地方在于摩尔定律,也许还有 GPU 所带来的海量计算能力,能否完善解释一下这一点,肯定深度学习是过去6年推动所有 AI 结果的技术。从2012年开始,机器翻译、语音识别、图像识别,以及诸如刀塔游戏等,都是由同一种算法推动的。真正退后一步去理解核心内容,实际上是实践者们通过调整使其更加容易学习的方式。在核心层面上,你只是有一些数学,就是将一大堆数字相乘,系统会学习实现执行者希望它执行的任务。这个魔力在于这里,让这一切成为可能的原因,是我们的计算机比过去的更加快速。如果你观察这些系统是如何构建起来的,你会发现其拥有海量计算能力。这很有趣,一方面可以说是相比于我们常见的规模而言是巨大的,比如我们笔记本上的 CPU 的计算能力。但与其他地方相比,我们仍然是,我们仍然是,我们仍然没有完全到达。
真正关键的创新,真正在于当人们意识到可以在 GPU 上训练神经网络时,这引领了一场革命。GPU 有很多浮点运算,正如用于玩游戏或自动驾驶汽车图像处理上由 Nvidia 等公司提供的设备。Nvidia 股票在过去几年显著上涨,而深度学习正是其中的核心。可能这是一个愚蠢的问题:为什么 GPU 的加速速度超过了 CPU?
关于神经网络的有趣之处在于它们大规模的并行性。名字里就包含了这一点。你有一个几乎是全量并行的神经网络系统。对于普通编程应用程序,在 Ruby on Rails 中开发启动时,很难很好地并行处理事情,对吧?你有很多顺序语句,所以无法充分利用并行处理。你的笔记本电脑 CPU 会运行在大约3GHz,谈下来每秒运行30亿次操作,这是一个非常快的速度。但如果你真正想要的是大量并行地运行尽可能多的操作,你需要一种不同的架构。确实,图形有类似的问题,你有众多非常独立的任务。你需要以像素为单元进行光线追踪,确切地对屏幕上的对象进行描述。实际上非常有趣的是,为 AI 超级计算机做出如此巨大贡献的行业正是游戏界。如果不是游戏玩家们热衷于使用更大的显示器、更高的分辨率、更多的每帧细节和更少的延迟,AI 革命可能会落后多少?这取决于人们是否想玩这些游戏,但其他应用会真正驱动它这一点还不清楚。
实际上非常有趣,我觉得 Nvidia 发生的事情是,可能是在2012年或2006年,他们首次开发了 CUDA,这里我有轻微的日期偏差。这是他们的 GPU 编程语言。他们说,我们有这个很棒的平台,我们希望开发者们来构建它,但我们真的不知道他们会构建什么。然后到了大约2010年,人们开始第一次使用这个平台。而在2012年,第一次重大成功到来时,所有计算机视觉专家都表示,我们将会抛弃过去20年甚至40年的研究,我们只想要深度神经网络了。这些研究生开始纷纷购买 GPU。而 Jensen Huang,Nvidia 的 CEO,问道,为什么这些研究生都试图购买 GPU?他在试图搞清楚发生了什么事。于是我们去了很多地方跟人们交谈,最终他意识到这个平台是推动 AI 的,这将主导下一个革命因为他们押注很大,这也是他们成为市场领导者的理由。它在继续增长吗?因为如您所见,加密货币的短暂革命带来了矿工。我想矿工的概念可能会消退,但确实带来了对自动驾驶汽车的持续推动,计算机视觉也依然在继续。
它增长得有多快?是在加速吗?还是就遵循摩尔定律?这是一个令人悲伤的事实,摩尔定律已经陷入困境。
我们可能还剩下一两次更多的摩尔定律,或者俩次,如果真的要精确地说。但解释一下原因,因为在这一点上,我们基本上是在构建处理器,其规模是单个纳米位级。这是您所处的尺度。您真的要担心量子效应。基本上就像,你能否?我甚至无法想象在那层面操纵物质是什么意思。需要的技术极其专业,非常难以再缩小一点点。在片上添加更多晶体管,这是很难的。所以,我们已经接近那个极限了。
没错,有没有新的游戏出现来取代?没错,确实有一个新的游戏出现了。有趣的是,这个游戏过去一直存在可能性,但没有理由去做,就是尝试将尽可能多的芯片装进一个盒子里。这个过程是怎么进行的呢?所以你做的事情是传统计算机构建在冯·诺依曼架构之上。
这在20世纪50年代由约翰·冯·诺伊曼设计。核心概念是有一个大内存和一个大的处理器之间有一个微小的瓶颈连接。处理器能够一次性获取任何数据元素并将其传输到内存底部,处理过后再放回内存,然后继续处理。但这就意味着,基于此架构,你实际上在处理数据时受到很多的限制。因此你做的是,删掉冯·诺依曼架构,替换为一系列小的处理器核,每个都有自己的小内存,紧邻旁边。所以你只能访问你的邻居的内存,而你的邻居不能访问相隔很远的邻居。但没关系,因为这就类似于神经网络的工作方式。
如果你这样考虑,这正是设计的一个关键点。让我们从神经网络的定义开始。
我们如何向一个孩子或一个完全不懂的人解释这一点?实际上,我发现描述神经网络和深度学习本身是非常困难的,迄今为止我从来没有找到一个没有任何问题的完美定义。
我认为最接近的是你有很多计算元素,有很多非常专业化的小品牌,每个都只为完成一项任务,都排列在一个大的链式结构中。你设置这些元素的方式是,在开始时没有学习到任何东西。你输入一些数据,然后这些元素会放电,传递各种疯狂的事情,信号一路传递通过整个网络,你输入垃圾,得到的输出也是垃圾。
但重要的是如何训练,如何让系统学习,然后主要是通过这种方式:你说,哦,你错了。这是我希望你得到的答案。然后你去调整个元素的微观设置,使得给定正确答案的概率更高,然后一遍又一遍地重复。你反复猜测和检查,再猜测,再检查,最终得到一个已学习如何解决问题的系统。史上最典型的 AI 成功案例应该就是这样。对我来说,实际上是一个很好的例子就是我们的 DOTA 系统。
这个系统的工作方式是,这就是世界上最受欢迎的游戏之一,由职业电竞运动员们在这些集居的房子里进行游戏。这是一个5对5的游戏。想成为最好的人,就必须住在一起,一起全年训练。如果他们成为了最好的队伍,将获得2000万美元的奖金池。
我们成功训练了一个神经网络,在某些时刻与顶级人类玩家竞争,并希望不久后能够超越他们。你可以到这里查看,或许我们可以在那里播放一部小的视频演示。我们实际上并没有在那里。你可以在 OpenAI 的频道上找到。
这个例子特别有趣,我想纠正我对它的理解,如果你是对的,1,这是一个团队运动,因此有五名玩家。所以你有一系列在不同侧的五个人类尝试解决同一个问题,而另一侧由 AI 控制所有五个玩家,或是否是五个 AI 相互协作解决问题?我应该如何看待这种情况?是的,这些事情对人类来说并没有那么明确,但对于 AI 而言,有一个统一的统觉,是的,但想法是把他们当做物理生物来看,完全一样。这些 AI 通过模拟在过去千年中一次次训练。哇,他们的脑子里都通过彼此的眼睛观察世界,彼此看见。他们的大脑是分开的,所以他们可以做出自己的决定,但你看过去千年的行为,最终你得到的就是hive mind。你看到他们开始自行探索基地之外,然后学习不再离开基地,因为这样你就会被击杀。他们在基地中,我们常常看到性能曲线出现下滑,但随后开始变得更加冒险,因为他们只是继续不断重复相同的操作,然后逐渐学习到在买了 Nash 等英雄时确实会发生一些好事,但我不知道为什么,只知道随机点按一下按钮。不错,我非常喜欢这一点。
是你们想出的这个“按钮狂按者”说法吗?不,意思是这个术语是否由你们创造的?不,我想这是一些习惯,随着时间它最终变成了一种神经网络,从只是漫无目的地按按钮变得越来越有策略。实际上,我们发现最难的是我们自己也不理解 DOTA 的策略。对,我在理解 DOTA 的知识上是这样的,你知道,成为一个顶尖玩家可能需要5, 6, 7年的时间,对吗?对,所以典型的时间是大约100小时来理解游戏中的情形。如果我们现在开始,两周后我们就能开始玩游戏了。对,那你可能仍然不是一个能够参加电竞比赛的稳固玩家。这意味着有很多真正的投入,对吗?就像是成为一名顶级田径运动员所需要的时间,是的。
那么你们现在在哪里?你是在何时开始开发 DOTA 项目,并且如何完成它的?在一些 OpenAI 员工,包括你在内,八十年份的八个个体,花了多长时间来训练神经网络,从而通关 DOTA?或者我猜 DOTA 自己允许你进行通关?你们花了多长时间来赢得顶尖选手或优秀选手?
我们是在2016年11月选择这款游戏的,所以大约两年前,我们真正开始了这个项目。只有我和另一个人。年底,我记得是新年的前夕,我在紧张地尝试闯关,我们实际上倒退回工程进入游戏的过程,因此我设法使这发挥作用了。
我们是在2016年的3月第一次取得机器学习的结果。这是我们第一次能够理解如何学习的非常限制的游戏。然后到8月份,我们已经能够1 V 1击败顶级玩家。因此像篮球那样的一人对决,我们可以轻松击败这个顶级选手。曲线图是实际上,如果我们早一天做同样的尝试,我们就会输。所以学习真的是非常快,每天都很重要。
一年后,我们在国际大赛中出场,对阵那里的顶级队伍,我们输掉了。我们估计不太好辨明,但确实进行了激烈的竞争。
我们打得十分顽强。不错,所以这确实是一个很棒的时刻,他们可能会把这个做成电影的。是的,所以确实如此,无论是一个 HBO 节目式的成功故事,还是一小时的那个时候他们都弄砸了的故事,都是非常吸引人的。好的,敬请期待,
这确实是咖啡,确切地说,它是用100%有机阿拉伯咖啡豆制成的,并且不会尝起来像香菇。咖啡里确实有香菇,但它并不尝起来像香菇。你一定要知道这一点。这种咖啡已经被佛教僧侣长期用于帮助他们集中精神,进行佛式冥想。
好了,去试试Four Sigmatic吧,你会发现你将更加有生产力、更有专注力和创造力。这就像避免了颤抖的咖啡,双提取的雪克卢豆还稳定了这种提神效果,也有助于支持你的日常免疫功能。
所以,去唤醒你的大脑,并通过使用Four Sigmatic来支持你的身心健康,你们这些朋友会在Four Sigmatic的网站上给你15%的优惠,http://www.four-sigmatic.com/twist。请记得在结账时使用优惠码twist,这样他们就知道你是从本周创业更新中了解到它的。如果你喜欢它,像我知道你一定会喜欢的那样,请在推特上告诉我,@提及Four Sigmatic,让他们知道你是在本周创业更新中了解到它的。
好的,我们继续回到这个精彩的节目。各位,欢迎回到本周创业更新,我的嘉宾Greg Brockman,他是OpenAI的CTO和cosplayer,看着他操控机械手旋转立方体真的很令人印象深刻。
Neuralink是Elon Musk的另一家公司,他说他可能还需要两年时间才能实现大脑与外界交流的目标。如果把这三件事结合起来,会怎样?比如那些失去了手或从一开始就没有手的人,能否拥有一个可以回应他们脑部信号的手?
澄清一下,Elon Musk实际上已不再参与OpenAI,只是在今年年初从董事会辞职了,为什么会这样?是因为与Tesla之间的分歧,虽然他还是支持并积极推广OpenAI项目,但不再直接参与其中,不过OpenAI的一些开源技术是可以被大家使用的。
把这些不同的学科结合在一起,这是否预示着我们的未来?我认为这是一个很有趣的问题。如果我们真能构建这种东西。确实,能够构建好的假肢并实现这一目标是一个很大的范畴。但从人类的角度来说,我认为我们习惯于构建一种技术,它的决策能力和自主性是由我们控制的,我们的决策比系统更胜一筹。我认为真正关键的是能够构建出能够比人类做出更好决策的系统,能够更好地理解问题。
比如说,如果有一个人不幸失去了手,并且在去取杯子时,AI知道那是个杯子,并决定说:“这是一个纸质的杯子,让我来看看摩擦力,我会完美地握住它。”这就是我们可以想象的事物之一。我认为,这就像是一个能够自主的假肢。
这个问题的核心是:我们希望技术达到什么样的状态?技术本身具有中立性,它可以为我们带来好处,也可以带来伤害。它可以让我们更多地投入到我们的生活中,有更多时间陪伴孩子,贡献出更好的点子和取得更多成果;也可以成为一个让人厌烦的存在,一直发送通知干扰我们的生活。
至于AGI(通用人工智能),它会是人工智能的最极端版本。因为我们能够达到这种人工通用智能时,它会比我们更好地理解我们和我们的行为,比我们自己还要理解得深。
所以,从另一个角度来看,我们建造更加聪明的系统,这样我们就要考虑它的利弊。我们已经开始看到建造更聪明系统的一些负面影响,同时也意识到一些潜在的优势。
想象一个系统能够阅读所有学科的科学文献,思考如何组合这些信息来解决癌症这种问题,甚至能够设计实验。它不一定需要有小型的科学实验室,也不一定要亲自实验,关键是能够从中做出决策,这是我们想要研究的技术。
这个将来我们应该能够解决难对付的问题,从而真正实现利益最大化。
如果有一种技术能够做到这一点,那么它还会带来其他哪些深远影响呢?我们如何确保它能以我们喜欢的方式融入我们的生活中?这需要由实施该技术的人来做出决策。这并不是仅仅依靠那些实现技术的人来决定。
这些技术的应用部署、利益如何分配,所有这些都需要我们都非常关心的问题。谷歌收购了DeepMind,Elon Musk曾是DeepMind的投资人,他曾请求他们不要卖给谷歌。
谷歌在人工智能上的领先地位非常显著,几乎是所有的领先者。你认为谷歌在人工智能上的领先地位有多远?领先是这个行业内一个非常有趣的概念,因为数据库发布是个依据。你认为他们的技术是否每样都发布出来了呢?实际上要阻止这个领域能人不发布技术要比你想象的难得多。因此,很难让他们保守秘密。例如,当OpenAI宣布由于安全原因,我们将减少技术的发布时,这引起了很大的争议。我认为这是一个非常有积极意义的领域,因为人们将自己视为一个旨在促进这项可能影响社会的所有人的技术发展的共同体。有些人可能在谷歌,有些人可能在Facebook,有些可能在OpenAI,大家都各自为营。
钱是很大的动力。
我相信你们公司可能也有不少DeepMind的人才,我们确实如此。最终,我认为最关键的是我们是按照一种非常不同的方式来构建公司的。传统的做法是人们把他们的公司管理得像传统的研究实验室。大家都是博士学位的研究人员,他们花了很多时间去思考问题。他们的最高价值是学术自由,能够探索想法。我们支持这种思想。但越来越明显的是,有一件事情大大提高了我们实现某些目标的价值,那就是大型项目。这些项目将拥有博士学位或机器学习背景的人,和拥有工程背景的人配对,我们发现,从完全不同的领域来的人,在OpenAI工作几个月后,都能高效地贡献于机器学习。
一名优秀的工程师可以用三到六个月的时间学会为人工智能运动或机器学习运动做出贡献。我们有多种方式来吸引人才。我们有一个 Fellowship 培训项目,这是一个为期六个月的项目,前三个月进行自我学习,接下来的三个月写一篇论文。
那些在YouTube频道工作的写手所做的项目似乎和学术项目有一些相似之处,但我们的项目范围很广。关于我们构建的一些小规模项目,我可以举一个例子:
这是一个教AI玩《马里奥》的机器学习模型,但它从未被告知要做什么,它只是被告知不要无聊。如果它能预测接下来会发生什么,那它就感到无聊,所以需要去做其他事情。那么它找到了多少彩蛋,又发现得有多快呢?实际上,它找到的路径跳跃(warp levels)和击败Boss的方式,这样的问题对于计算机来说怎样定义有趣呢?所以这里的诀窍就是,我们有一个神经网络试图预测接下来会发生什么。如果能预测出来,那对它来说就等于没有价值,那就是无聊。
它是否发现了游戏中的错误,换句话说,比如漏洞?实际上,我认为在这个特定的情况下它有可能找到了,但我们发现的其他AI也有这样的情况。当你发现这些小漏洞时,一个小角色跑向奇怪位置的情形总是很有趣。这个AI显然搞砸了,突然焦虑地穿越关卡,发现了一些错误,并且发现这些错误在类似的游戏里无处不在。我们在一个连续的动作系列中分析许多可能的行动,会进行不断地模拟,仿佛在这个问题上达到了昆虫级别的智慧。
你说如何定义人工智能,是一个极其受争议的话题。但从根本上讲,我们可以通过查看它的工作方式来定义它是如何工作的。可以看见这一点,为什么它不会影响我们的生活,但另一方面,它处理的也都是最难解决的问题。实际上就是这样。
我一直非常尊重那些能够解决别人无法解决的任务的系统,因为这意味着那里有一些新见解,可以从中学习,但看完《围棋》是如何解决的之后,围棋中有一个深度神经网络,这个像是一个人工直觉,它挑选出少数几个可能的好位置。然后通过尝试很多可能的走法。
这基本上模拟一个真正的人类围棋专家的工作方式。首先展示一个围棋专家演示棋盘,他们可能会说:“可能前行四个位置。然后你必须在脑子里想通这一切,下一步做什么。然后看看Dota如何工作,Dota开始看起来更像是现实,因为它是一个连续的动作系列,甚至不需要离散的方块。这个游戏持续45分钟,你需要实施数千次动作。你有各种单位、东西等等。这里没有预判,只是纯粹的神经网络,而且这种看起来是几乎像昆虫级别的智慧。
你在训练这种生物的大脑时,投入了大量的训练比赛,然后最终可以得到一个很好运作应用程序的大脑。这运行得非常好,能在它训练的环境中很好地处理,但它无法被移动到一个新的环境中运作良好的地方,但你基本上拥有非常强烈的针对性感受,可以解决眼前的问题。
这进化的部分将包括从有限的问题中学习,将其引入另一个相邻的问题中。所以把《Dota》的AI运用于《使命召唤》,就是这样。我们现在能够转移系统。
所以你用《Dota》AI系统来实现机器人运作,它管用,但它无法利用背景知识。但这一现状已经开始改变。
我们今年早些时候培训了一个模型,其他人也在进行类似工作。我们的模型读了7000本书,但我们没有告诉它书里的内容,只是让它预测下一步会发生什么,下一句该用哪个单词。所以它只需要阅读和预测未来。
然后你可以将这个模型应用于各种自然语言处理任务,比如回答问题,读一个小故事,然后回答关于它的某些问题。它在所有这些数据集上都是最先进的,它真的学习了有用的一些背景知识。你也可以要求它为你生成文本。你可以说:“请让我写个小故事。” 它会生成一些相当有趣的故事,并做法国红庙的卫兵互相作战,保护你作为叙述的人,它会提到一些烟雾从火中冒出。
你开始看到有一些丰富的背景知识。我认为这项工作还很早,还处于初步阶段。它不会比《最后的绝境》糟糕。但我们开始看到的是,你提高这些模型的性能,不同于 Deep Blue,作为实习生你们的模型在现实中很难实现。
你可能需要模拟器,让测试更加完美。但在这里,你只需要背景数据。你可以获得书籍数据,YouTube数据,甚至是图片数据。现在我们能够学习到比我们在训练中提出的问题更概括的东西,当我们从这个最后的亮点环节回来时,让我来谈谈国家如何看待这种技术带来的影响。
我们最近在中国看到一种技术被滥用,CRISPR被用来翻转基因开关,创造了遗传背景不同的婴儿。有什么你不放心的潜在后果,或者你抗氧化OpenAI或许可以避免的事情,当我们回到本周创业更新时呢?
嘿,各位,我想展示我们如何在LinkedIn上推广这篇播客。看这里,这是我的CMO Press制作的精美视频,他在LinkedIn上展开一场营销活动,目标是Google、Instagram、Twitter、SnapChat和Facebook的工作者。他说,让我们接触一些年龄在25岁以上的特定人群。然后他会更仔细地查看他们的工作经历,有多长时间。他说:“我们想要找的是在同一份工作上干了五年人群,你可以找干了超过十年的人。”接着,他上传了一个视频广告。为什么这很重要?因为我想让更多在有意义的公司工作的听众观看这段节目,他上传了一个我们在GA开幕时的演讲视频片段,并告诉人们要听取号召——前往我们的iTunes账户,订阅我们的播客,因为iTunes订阅者可能会多听一会儿。号召是订阅。他上传了一个视频,制作视频来针对这些正确的听众是如此容易。
如果你在其他地方买广告的话,因为没有关于他们职位的信息,你不能根据他们的学历、技能或者经验进行针对性投放。
谁有这些信息?
LinkedIn。如果你也希望像我一样做这件事,你可以去LinkedIn dot com/this week in startups。如果你花时间输入这个链接,你可以通过LinkedIn的朋友获取100元AC note便帽。这是一个很好的营销渠道,因为你可以获得高质量的潜在客户,非常精准的网站流量,以及更高的品牌认知度。这就是我要做的。
雅各布,他自己在利用LinkedIn进行营销。我们在过去六个月中将这个播客的观看人数翻了一番,你在LinkedIn上投入100元现在马上行动,我认为这笔钱很快就会花光,所以抓住这个机会吧,本周创业更新,你在LinkdIn上的LinkedIn本周创业更新。
好了,让我们回到这个精彩的节目中。各位,欢迎回到本周创业更新。我是主持人JASON KALK和我今天的嘉宾是Greg Brockman,你可以在Twitter上关注他,gdb,也可以关注OpenAI,在YouTube上搜索他们的频道,你会发现非常有趣的频道,有很多来自实习生的视频。大家可能关心的一件事是回到Elon的问题上。他说:“听我说,这个东西需要有控制系统。”这也是你和OpenAI关心的问题吧?
这是AI使命和道德的本质所在。在近期、中期甚至长期中,你最担心的方面是什么?
我认为这分为三类风险。
第一类是构建出一个系统,其操作者的需求是可以实现的,但却能被恶意的人操控。我们已经开始看到这种风险,例如,我们的社交媒体平台内嵌了各种AI算法,它们按设计运行,但一个知道如何操作的恶意人类可以让这些算法产生不利的后果,而不符合操作者意图的结果。那么Facebook说,我们将制定一个算法让人们对这种内容产生兴趣,挑选出他们最多感兴趣的内容展示给他们的朋友。然后一些谎言或震惊事件,让美国人疏离彼此等等,一切就如常发生。
但你可以想象具有更高责任风险的系统。比如说,控制电力网络,或者是那些对国家如何分配资源做出关键决策的工作,这都是非常具有风险的。例如自动驾驶汽车就是个例子,显然,如果这些系统能够被操控,情况会变得更糟。这是第一类风险。
第二类风险是系统未能实现操作者的目标。无人操控它,但它们却开始脱轨,没有按照原来的目标运行。实际上,这种现象在普通软件中也经常出现,我们不应该预期AI会有所不同。
让AI消灭癌症。他们可能会回答说,人类会得癌症,所以就清除所有的人。这就是《终结者》的题材。是的,确实如此。
另外,我们目前正在看到一个很有希望的现象。我认为这个问题是非常重要的。缓解这种风险的最佳方法是在技术研究的同时,进行安全研究,并解释这些安全研究。安全研究这种事是我觉得在S研究领域中,或许第一次人们重视如何构建强大的系统,这些系统能够满足人类的需求。如果你甚至无法理解他们所采取的行动,比如说,想象一个比你聪明得多的人,想象他们提出了一个让人难以跟上的想法,说他们会做这个,他们会做那个,你也跟不上。你会说,好吧,听起来不错,他们去做吧。但如果信任他们、确保他们价值观和你自己的一致,你会认为他们会做的任何事情都是相当好的。但如果你发现他们的价值观存在问题,你可能就是被误导去做了一些事情,或者你只是给予他们做的权限,而这些并不是你所希望的。
因此,价值观对齐成为一个真正的问题。所以真正核心的问题变成了,如何将人类的价值观纳入AI系统?
如何将人类投入到培训过程中?这是科幻小说所预言的。他们会说:“嘿,训练这些复制人和人形机器人,让他们不伤害人类,就像预防原则(Prime Directive),不要伤害人类,不能让人类受到伤害,不要做任何可能伤害到人类的事。如果你看到有人即将被伤害,那么阻止他们。”然后你看看阿西莫夫的机器人三定律,你会发现这些三定律行不通。我认为真正的教训是,如果我们所要做的就是写下人类渴望的奖励函数,并以非常明确的方式写下我们喜欢的东西,那我们的处境就会变得非常糟糕。但这里有一个积极的一面:这长期困扰很多人的问题。人们认为没有解决方案,我们彻底麻烦了。
但如果你回顾一下我们和安全领域的人们在过去的两三年中所进行的研究,你会发现我们可能有一个解决之道,你不需要明确指定奖励函数。我们已经有了能够学习超出了人类所能明确指定的知识的技术。确实,为什么不尝试学习奖励函数呢?当你深入思考时,人类本身也是这么运作的。
当你有一个孩子成长时,如果他们做某件好事,你会说“很好”;如果他们做某件坏事,你会说“不是很好”。于是我们认为,我们能够培养这些非常有智慧的系统,其价值观与我们一致。我对这个完美类比表示怀疑,但我认为,现在的现象是AI们通过反馈来学习,比如,给一个视频标签器展示两个行为的视频,你只需要说哪一个,这更符合你的需求。然后从少量反馈中,我们开始学习任务。这只是我们在推动的一种安全保障研究的一个例子。
那么第三个类别呢?第三个类别就是我们确实解决了前两个问题,我们建造的系统不能被操控,可以完全按照它们设计的来运行,但是在某种程度上,这个世界并不好。
有一些坏人,没错,这并不一定是恶意的行为者,但经济体制可能对于每个人都不公平。你可以想象,有一种情况,一家公司拥有所有资源,所有美元,这是一个成为最大的超级企业,并将其他人远远抛在后面的情况。这样的世界听起来并不理想。我认为技术本质上是为了促进人类价值观,确保提升整个社会的总体积极程度。技术是有潜力跨越所有人分享其益处的。
至于技术开源,让每个人都能访问,是否在凝聚力上行得通,也不见得一定是全面开放。但我们认为,最重要的是找到某种机制,无论我们创造出多么强大的技术,都能确保其利益普惠所有人,而不仅仅是少数公司和人群。你内部讨论的最近类比是关于核扩散,因为确实这是一项技术有潜力造福全世界,但也可能带来不可收拾的情况。一旦它被推广出去,我们意识到需要对其加以限制,让它只能有十个国家拥有,而第十一个国家却无法拥有。
就像第十一、十二与其他国家也不应该之所以不能拥有类似,我们已经决定只能让十个国家拥有。
我认为这是一项技术,能够让我们的预期更加清晰。它不是完美的类比,但技术的管理实际比核技术更容易控制。如果你想调控并保护其不落入特定行为者手中,因为它是材料类技术,需要实际的铀矿,需要大量的离心机。这是一种非常明显导致破坏性效果的技术。
相反,AI就像网络安全攻击,网络攻击不确定什么人使用了武器,更不用说谁会使用。因此,AI是否更像核武器或网络攻击?目前并不清晰。我认为这是许多比我们已建立的技术联系起来研究的问题,但你不能期望这种联系完美映射。
这很引人入胜,因为你考虑时,人们需要一个卡装兼容所有英伟达显卡的系统,如果你要拥有这一代的显卡,你需要有效的牌照,显卡要能标记使用情况,我们要跟踪它。
我认为这个对话中一个真正吸引人的是,对于许多问题,考虑它们的后果是一件很复杂的事情。但我发现对于通用人工智能而言,你内在需要翻转一些事情,即使不把它当科幻一样对待。如果不尊重这项技术,它总让人觉得它有远远超出我们生活的元素,那就不重要。但如果认真思考可能会发生治理这项技术的可能性,所有这些后果就会变得清晰。你就会开始思考这些装置、限制点,如何思考这些装置。那些算法都是存在的,关于系统如何部署以及这些系统将被谁控制,有哪些价值观进入其中。然后你可以想象,它不仅仅是我们,不仅仅是我们那些居住在硅谷,还不仅是我们这些人,而是整个世界的不同价值观的人。那么如何确保这些价值观能够被反映到最终系统中,让所有人都满意,这些都是非常棘手的问题。你不能期望一下就能解决。
别过于紧张,但你已经构建的技术,其他人在构建的技术,可能被用来用人工智能驱动无人机攻击飞机,让飞行器识别引擎,然后将一台DJI无人机放进引擎,让我们看着它们坠毁到码头。真是可怕。对于理性的程序员来说,这并不是一件困难的事情。这是一个值得这样做的正常动机吗?我想你传达的核心观点是,
那么关于这方面的具体时间线问题,可能需要十年到两年左右。如果我们设定一个上下限,比如15年,你会下注高限还是下限?你知道,就像你在扑克牌或赛马赌博时选择押注什么。对我来说,押注AI的时间线是有趣的,就像你选择什么牌一样。我的所有概率投注都集中在训练AI上,我想展示的是我认为应该展示给大家的情绪化的预测图表。
这些图表展示了在实际应用中用于突破性模型的计算能力的增长,而不是理论上。它有点像是视角拉伸的效果。就像一开始看到人,然后拉远镜头可以看到地球,接着能看到太阳系。这些是90年代的历史结果,现在都变得无关紧要了。为了解决那些问题,到底需要多少计算能力?这就是投入到解决这些问题的总计算量。
2012年,我们现在有了这些模型,这是图像模型的时代。2014年开始有更多的图像模型出现,同时机器翻译也开始寻求解决方法。最后,在2015年,进步速度约为每年10倍。从2012年到现在,这一系列的进步总和远远超过摩尔定律的预测,达到了大约30万倍。没错,从2012年到今天,六年时间,30万倍的进步。
在计算量上,这是一大目标。这是因为并行计算,以及人们开始使用更快的神经网络加速器。所谓的神经网络加速器,多多少少已经转向了更奇特的如神经网络ASICs,它们是专门为神经网络设计的特殊计算机。人们正在建造这些计算机。例如,谷歌正在开发名为TPU(张量处理单元)的芯片。但事实上,大约设有40家初创公司正在采取不同的方法来构建这些庞大的神经网络计算机。我们在这些方面有一些非常令人兴奋的技术和工具,我认为这仅仅是各种技术走向市场的开始。
我认为在这些进展中,最令人兴奋的是我们可以预计未来的五年人工智能还会再次获得非常大的进展,而且这一过程不需要任何科学突破,也没有任何科学风险。我们不需要更小的晶体管,也不需要不同的执行方式,而只需要执行。这很艰难,尤其是新产品的执行需要经过测试,但我们已经有足够的原材料和背景知识来做这件事。这确实是非常了不起的。
还没讨论过量子计算,它是近乎独角兽般的存在,我认为量子计算会不会让这一进程出现某种指数级增长如一些人所说的那样?或者你觉得新硬件的制造是为了占领这个市场而不是依赖量子计算?有趣的是,我不倾向于将潜在的基本科学风险纳入考量。我认为构建通用人工智能(AGI)的基础科学风险非常大,如果再加上需要量子计算机,仅从联网目标到能够运行TensorFlow的那一步就是一项重大挑战。我不认为自己有足够的知识来评价量子计算,但我认为这是一项非常艰巨的任务,我们不能完全依赖它来构建AGI。让我们看看他们的技术能否解决更基本的问题吧,我对此感到非常兴奋。
我对量子计算和光学技术都感到非常兴奋,我认为新的突破性技术可能会对光学连接非常有帮助,即不必像用电子一样,而是使用光妙接口。最终,我们真正需要的是带宽极高的高速接口,因为考虑到一切都被控制时,最重要的是,并不是让单个芯片变得更快,而是能否足够快地连接一切,以便快速传输数据。这又回到了我们之前讨论的数据总线之物它就是把数据往返于处理单元传输,让我们搭一道大总线,我们就可以直上去了。
最近有一些关于中国在人工智能方面的担忧。中国的同行们在这方面做得怎么样?这里的科学家是否以发表第一篇论文的心态工作?其实,如果你看论文数量,最近几年中国的论文数量超过了西方,这确实说明了中国在发表论文数量上超过了其他国家。但同时,质量上有不少问题。关于所有这些突破性进展,我只能想到微软在中国的研究成果。这让我认为因果关系很难评估。但另一方面,我认为有一些值得关注的事情正在发生。
确实,中国对人工智能的重视程度非常高,尤其是在围棋(Go)这种在华人社会受尊敬的游戏中,也许在中国你要让孩子立志成为足球运动员,但在美国可能是网球运动员。所以这样的国际影响力是巨大的影响。当中国顶尖棋手被AI击败时,这确实是引起人们注意的原因之一。如何让顶级棋手在一个轻松的棋盘游戏中失利,这也可以引发大众的高度关注。
人类的工作方式确实非常有趣,确是如此。但事实上,我非常赞赏中国政府为了解决这些问题如何动员起来展现的决心。展望未来,一些应用程序可能尚未完全实现,但执行力机制确实非常出色。
美国政府的三大情报机构是否会频繁地来询问你有关人工智能发展的细节?他们会只是进来问一下现在发生了什么,还是非常深入地了解情况?我不认为无论答案如何,我能公开分享。比如我谈论NBC、ABC这些,当然了,说洛杉矶当然也知道。所谓“三字母机构”当然是略去了更多。那么,就直说,以为美国政府对这一领域的重视程度如何?是非常重视、轻视,还是中等重视?
事实上,我们的组织在过去一年半左右的时间里大约已经进行了三四次参议院听证会。这非常令人振奋,庆幸的是,我已经做过的首次证言是由特德·克鲁斯主持的。他告诉我,小时候他想成为一名AI研究员,非常有趣。
实际让我惊讶的是,我看到众多高层政府官员对中国在这一领域的投入与参与程度感到非常关注。但另一方面,从资金投入和真正开展严肃研究的角度来看,这方面的优先级似乎还没有同等体现。我们开始看到的是人们开始关注这个问题,并认为我们能够获得实现目标的所需时间。但事实上,私营企业在这个领域做得非常好,放眼望去,政府方面似乎还没有参与进来。
OpenAI是否有可行的盈利模式以确保其可持续发展?比如火狐,不好意思,Mozilla基金会因为拥有许多人使用的浏览器,他们通过Google或Bing搜索获利,他们赚得数亿美元。那么OpenAI是否有盈利模式让自己能够持续发展而不依赖于每年寻找有爱心的富翁来资助研究?
短期内,这一领域的进展如此迅速,使我们不太可能去追求与这个目标无关的事情。所以如果选择与客户合作,那就是一种倒退。我也只是这么认为,在这段指数增长的研发过程中,你可以选择在任何一个点退出。一些在OpenAI工作的人都对我研究的最新技术很感兴趣,然后创立了一家公司。但另一方面,四十年后,新的技术已经在诸如机器人技术领域取得了快速发展,那时也许只需要等待一年时间使用最新技术,所以这种模式总是存在的。我认为,我们现在只是关注如何继续推进这项技术。
我认为,在这方面我们要专注于如何让这项技术继续发展。短期内,OpenAI需要依赖支持者,最好是能够覆盖广泛群体的支持者。对于我们来说,长远来说,我们将解决盈利模式的问题,但当下,我认为我们处于一个良好状态。
好的,让我们欢迎Greg,我们为Greg鼓掌,接下来我们有两名观众提问,请向后边的工作人员要麦克风。谢谢这个提议,很高兴,你好,我是Ryan Ru,感谢你进行这次采访。
我想提出一个简短的问题,我在演示过程中注意到,当手在操作盒子时,中指一直处于直立状态。这让我开始思考,AI系统如何识别文化敏感的议题,以及如何处理这些机制。这是否是一个提示?你在向我们发送信息吗?实际上,这确实是一个非常有趣的问题。
对于机器人手来说,有一个令人惊讶的发现,那就是它学会了可以识别的手势。实际上,存在一系列称为“抓取”的分类,如果你使用它们,就可以识别手是如何工作的。比如捏取或其他动作。你提出的一个重要观点是,有时候你可能会处于一种并非完全期望的方向上。有时候,比如中指直立,系统可能会产生不恰当的结果。
我们已经多次观察到这种情况,比如做出有偏差或不公平的决定。这确实是我们需要处理的一个重要问题。首先,最重要的是数据中存在的偏差。如果数据本身有偏差,我们应预期输出也会有偏差。但从长远看,我们要建立能训练大量未标记数据的系统,并如何将我们的文化观点纳入进来,以避免此类行为,这实际上是一个开放的问题。尽管如此,这和许多人正在努力的目标是密切相关的。
很好,我们再接受一个问题。麦克风在那边,和之前的一样。之前你说过,要具体描述这些系统中具体的人类价值观可能很难,或许它会在学习系统中识别出人类价值观,从而确保这些系统不会乱来。
但是,我们的社会并不一定对此达成共识。例如在美国,关于堕胎问题有着深刻的分歧。而这种分歧可能对形成某种共识造成阻碍。这是一个非常显著的例子,我们生活中还有许多类似的细微例子。那么你期待这些系统能形成某种共识,但我们人类却连共识都难以达成?这是一个非常好的问题。
我认为这是后AGI世界中最重要的问题之一:即便我们解决了技术难题,设计出无论被赋予哪个任务都能正常运行的系统,并确保它们不会出轨。之后还必须解决的一个问题是谁来制定这些系统的价值观,有哪些价值观被包含其中?
这是一个涉及多个组织的问题,需要具备代表不同国家乃至全世界利益的成员。在这一点上,我们没有简单的答案,但必须确保政府和全球各地的成员都参与到这个过程中来。要回答这样一个问题并确保系统的健康发展,需要巨大的协作和努力。确实,从某种意义上讲,政府和社会已经在这方面做了很好的准备。
以对等技术和加密货币为例,美国曾有人认为Napster就能证明对等技术的可行性,但我们看到它的结果。随着后来的加密货币,当SEC介入后,前述一切商业模式开始受到严格监管。在中国,人们告诉我加密货币不可能被阻止。但是,现实中,买卖某款加密货币可能会有法律问题,可能导致入狱。社会已经有了一套规则,技术可能是监管者中SEC不足以完全遏制的,或者某国如中国可能具有不同的价值观,不希望人们拥有自由与隐私。
让我们再接受一个问题。麦克风在哪里?好的,您好,我有一个问题。
一旦AI超过了人类智能,我们如何确保它不被用于负面用途呢?是啊,我写下来。什么时候会超过人类智能?
如果我们要做一个上下限的赌注,比如20年,你会赌哪一方?我会说,首先我们得弄清楚什么是智能。两年前,战胜围棋或扑克比赛被认为是智能。所以现在我们需要确定智能的定义。
当你赌博时,对赌注的理解至关重要,是吧?因此,我尽量避免对时间线做出预测,因为我认为,人们在预测时往往基于一些感觉,这是完全可以理解的。
我们实际上做的是:投入大量努力去理解什么因素在推动进步,并分析这些因素因何会加速或减缓进步。有关计算能力,为制作出那张图表,我们只是查阅了公开的数据信息,任何人都可以获取这些信息,我们没有综合性地整合。后面我们写了一篇博客文,公布这一30万倍的增长,而社区的反应则是:等一下,这是什么?他们没有意识到我们一直在做的事。因此,花时间退出来思考进步是怎样表现出来的,哪些关键问题仍然存在,例如如何实现一个能像人类那样少量学习并进行推理的系统。我认为,人们应该更多基于事实来做判断,让大家自己来得出结论。
我认为这再次体现了这个问题的核心部分。
构建技术是一种长期存在的活动,但我们发现技术往往带给我们利弊兼有的结果。归根结底,技术如何部署回溯到三个风险因素。第一个任务是解决所有的技术问题,这非常困难。但基本上来说,如果安全成为一个主要挑战,就放慢技术工作,如果所有人的安全工作都是易于进行的,则全速前进。
然后还有一个问题就是部署,涉及谁在其中以及谁拥有发言权和利益。协调全球各地的人类建设相似事物会是一个巨大的挑战,难以简短描述。
关于通用人工智能(AGI),我们都同意它可能在100年内到来,但要超过10年还需更多时间,我们也都接受了这点。AGI可能在100年内,但也要超过10年,是吗?我投票给观众,有多少人相信在100年内会出现通用人工智能呢?又有多少人认为它会晚于10年?
好的,现在我们大致有了一个讨论的基础,视我们的工作成果如何进行调整。你们确实同意我提出的观点,在10年和100年之间。我并不喜欢做预测,但确实有一部分因素需要思考。
设想你的观点是AGI可能在20年后,但实际上是不可能在15年内发生吗?还是说可能某些团队花了更多时间?我只是不想走这个方向。我认为有许多依赖因素,比如看看曼哈顿计划的例子,当我们需要原子弹时,它是迅速完成的。实际上,资源问题是在这个领域中非常重要的一部分。他们说,纳粹可能会取得这项技术,我们需要先行一步。此外,我们希望推动AI的发展不会成为一种竞争性竞赛,因为在面对所有潜在风险的情况下,难以想象我们能开展竞赛。如果我们把所有的80个人都用在加速上而不减缓速度,我们会更快取得成果。我完全明白你的意思。
最后一个问题,迈克尔。首先,感谢你来参观。我这里有一个AI研究公司,这是与你们刚刚讨论的俄罗斯、中国和美国政府的形势有关。某种程度上,我们在政府政策方面落后于中国,因为我们对于这一问题不够开放。在未来的两年或三年内,从参议院听证会上会有怎样的观点?为什么要评估国内政策制定者在人工智能快速增长方面的适应程度?这里也有一个教育问题。我认为在国内,人工智能政策非常古老。你提到,中国可能采取开放姿态欢迎这种技术,但他们的具体应用可能不符合我们想要的标准。我认为我们不能简单地将一切想法导入进来,指望社会的结构照着我们想要的样子发展。
最近,我注意到有一些关于出口控制的一些监管方面的进步,最近几周内也有笼统的宣布。我们实际上建议的是,花时间测量,真正了解发生了什么。尤其是在奥巴马时期,白宫有一份关于我们贡献的人工智能报告,迈入了第一步。但由于当前政府,我们还没有看到程度相称的进展。国内也有许多其他非常重要的事务正在发生,我们并不沮丧,随时准备让有兴趣的人们联系。
让我们为威尔逊·森尼提公司表示感谢,他们为这次活动的举办提供了场地。格雷格·布罗克曼,我们非常荣幸邀请你来参加。这场讨论真的非常精彩。
