随着人工智能技术的飞速发展,越来越多的人开始关注其潜力和风险。 其中,特斯拉创始人埃隆·马斯克的观点引人注目。 他认为,AI将是人类未来文明的最大风险之一。 那么,马斯克的这种担忧有何依据? 我们又该如何应对这一挑战呢?
呼吁暂停开发更先进人工智能
核心观点: AI 工具“对社会和人类构成深远风险”。
标志事件 : 2023年3月30日 ,埃隆·马斯克等千余名科技领袖敦促人工智能实验室暂停对最先进系统的开发,并在一封公开信中警告,AI工具“对社会和人类构成深远风险”。
这封信由非营利组织生命未来研究所(FLI)在 3月30日 发表,信中说,AI开发人员“陷入了一场失控的竞赛,开发和部署越来越强大的数字思维,以至于所有人——甚至包括它们的创造者——也无法理解、预测或可靠地控制它们”。
这封信详细描述了具有人类竞争力的人工智能系统以经济和政治干扰的形式对社会和文明的潜在风险,并呼吁开发者与决策者在治理和监管机构方面进行合作。
“只有当我们确信强大的AI系统将产生积极的影响,并且风险将是可控的时候,才应该推进开发。”
“这样人类可以享受AI带来的繁荣未来,在这个过程中,收获回报,设计监管系统,造福所有人,并给社会一个适应的机会。”
然而OpenAI的首席执行官 山姆·阿尔特曼并没有在这封信上签名 。
2023 世界人工智能大会
核心观点: AI 是一把“双刃剑”,具有控制人类的潜力。
标志事件 : 2023 年 7月6日 ,2023世界人工智能大会(WAIC)在上海开幕, 埃隆·马斯克 以视频方式“现身”, 直言“ 相信中国会有很强的人工智能力 ”。同时马斯克再度强调, AI是一把“双刃剑”,具有控制人类的潜力,提醒“人类要小心!”
1. 马斯克预测未来机器人数量将超过人类。
马斯克预测在未来的某个时刻,机器人和人类的比例可能超过1:1,这意味着机器人将比人类多,甚至是多很多。这一趋势已经十分明显。
在拥有大量机器人的未来,全球的生产效率将会提高到令人难以置信的水平。 当然,我们需要非常谨慎地对待,确保机器人对人类是有益的。
2. “ 超级智能” 比人类更优秀,也更危险。
马斯克认为相比自动驾驶、特斯拉人形机器人等人工智能,通用人工智能(AGI, Artificial General Intelligence)有很大不同。
通用人工智能是一种计算机智能,它能比所有人类都聪明。 我们需要有监管措施来确保这些计算机都可以协同并有序工作, 以成就一个单一的综合的“超级智能” (ASI, Artificial Super Intelligence) 。
未来,“超级智能”将比人类更有能力,也同时存在着风险。我们应该尽一切可能,确保担忧的事情不会发生,积极迎接未来的到来。
全球首届人工智能安全峰会
核心观点: AI 有监管是件好事情。
标志事件: **2023 年 11 月
1
日** ,
全球首届人工智能安全峰会
在英国布莱奇利园举行, 与会28个国家和欧盟一致认为需要在全球范围内做出新的努力,以确保以安全和负责任的方式开发和使用AI。
**11 月 2 日
,**
全球首届人工智能安全峰 发布《布莱奇利宣言》(Bletchley Declaration)。
人工智能安全峰会闭幕后不久,马斯克与英国首相苏纳克进行了一场长达40分钟的对谈。
两人在对谈中讨论了AI带来的风险和政府应如何应对这些风险等话题。
马斯克宣称 人工智能是“历史上最具破坏性的力量之一” ,并深入探讨了人工智能的危险和机遇。
“人工智能很可能成为一股向善的力量。”他说,“但它变坏的可能性并不是零。”
在未来,人类将面临“不需要工作的那一刻”。那一刻真的到来时,人类对此的反应是什么?
“是感到自在,还是不自在”仍是未知的。
我们该如何应对这一挑战?
马斯克关于AI可能失控、甚至威胁人类的言论究竟是未雨绸缪,还是杞人忧天?显然,现阶段这还是一个见仁见智的事情。
无论是充满希望的未来还是存在的风险,AI的崛起已势不可挡。
AI的时代已经到来,我们唯有做好准备,迎接这个充满无限可能的未来。
作为普通人,我们应该如何应对这一挑战?这里给大家两点建议:
1. 提高AI认知
每个人 都应该提升自己对于AI领域的认知。 这些认知包括“AI是什么? ”,“AI给我带来什么? ”,“我需要AI什么? ”
2. 上手和AI打交道
认知提升后,每个人都应该去亲身体验AI的威力。
首先是AI绘画工具,Midjourney、Stable Diffusion、DALL-E。
更重要的是基于大语言模型的 聊天式AI ,有条件的 可以直接尝试ChatGPT。同时 国 内基于 GPT的聊天式AI也很成熟 , 比如百度的文心一言、腾讯的混元大模型,阿里的通义千问 。
尝试这些AI工具,结合自身的工作,认真研究,工作中哪些内容是可以被替代的。