直面人工智能:脚步还能慢下来吗?

2023-05-18 11:50:54 来源:中国教育网络

今年初,随着春天的到来,AI领域也百花竞放,全球科技巨头争先恐后发布ChatGPT类相关产品,试图挖掘AI的巨大价值。然而,在大模型研究热火朝天的当下,MIT物理系教授马克斯·泰格马克、牛津大学哲学教授尼克·博斯特伦创办的非营利性组织未来生命研究所在其网站上贴出一封公开信,呼吁暂停至少6个月对下一代超级AI的研究,而图灵奖得主约书亚·本吉奥、苹果联合创始人斯蒂夫·沃兹尼亚克、Stability AI公司CEO埃马德·莫斯塔克以及纽约大学心理学教授加里·马库斯等学术权威和业界领袖也纷纷签名支持。

一封呼吁暂停的公开信

公开信中提到,此次暂停并不代表着总体上暂停人工智能的开发,而是从危险竞赛中后退一步。人工智能的研究和开发应重新聚焦于使当今强大的、最先进的系统变得更加准确安全、稳健一致、透明、可解释、可信且可靠。


(相关资料图)

纽约大学教授加里·马库斯表示:“这封信并不完美,但精神是正确的”。他认为,人们需要放慢脚步,直到可以更好地理解这一切所带来的后果。

信中详述了具有人类水平智能的AI系统可能会对社会和人类带来极大风险,称“这一点已得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:

- 我们是否应该让机器用宣传和谎言淹没我们的信息渠道?

- 我们是否应该让所有的工作自动化,包括那些令人满意的工作?

- 我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?

- 我们应该冒着失去对我们文明控制的风险吗?

公开信指出,如相关机构不能迅速实施此类暂停,政府应当介入并采取措施。此外,“AI实验室和独立专家应利用此次暂停,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督”。

信中还呼吁开发人员和政策制定者合作,加快强大的AI治理系统的开发,并表示应当设立监管机构、审计系统,监督和追踪高性能AI系统造成伤害后的责任问题,为AI技术安全研究提供公共资金等。

公开信最后表示,如今,我们的社会已经暂停其他可能造成灾难性后果的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而非毫无准备地进入秋天”。

3月30日,Open AI联合创始人兼首席执行官山姆·阿特曼发布“展望未来AGI”的短博文,疑似回应这场风波。他表示:“一个好的AGI应该具备以下三个特点:1、对齐超级智能的技术能力;2、大多数领先AGI 之间的充分协调;3、一个有效的全球监管框架。”

一个高贵的童话故事

许多业内人士同意,像ChatGPT这样强大的人工智能可能会对社会造成一些伤害,但六个月的暂停开发听起来更像是一个高贵的童话故事,没有什么现实基础。

从去年11月允许公众测试Open AI的GPT-3的那一刻起,生成性人工智能的发展就像列车驶过,未曾放慢速度。而发布ChatGPT就像是打开了一个潘多拉的盒子。

随着时间发展与GPT模型的换代升级,人们愈发习惯于向ChatGPT、谷歌的Bard和微软New Bing询问所有问题,需求的纯粹力量迫使科技巨头们展开竞赛,争取这个极具潜力的市场的主导权。

而市场力量则意味着,即使像Open AI这样的公司想要阻止人工智能发展的步伐,也将会无能为力。

风险投资公司Sapphire Ventures的总裁和联合创始人贾伊·达斯说:“没有谁有动力去做暂停,因为在一个自由市场社会中,每个人都在跑去抢夺更多的市场份额。神奇的力量已经被释放,人们没有办法放慢它的速度。”

达斯表示,没有人可以阻止公司秘密研究大型语言模型或与大科技公司合作进行人工智能的研发。没有任何实体可以在这六个月中访问每一个开发人员,看他们是否在从事与此相关的程序工作。因此,暂停方案的执行落地也将非常困难。

一场崭新的启蒙运动

4月8日,图灵奖得主杨立昆和机器学习领域权威学者吴恩达针对AI暂停公开信进行了深入讨论,两人立场鲜明,明确表态反对暂停AI研发。就像汽车刚发明时没有安全带和交通信号灯,杨立昆认为,人工智能与先前的技术进步之间没有本质上的差别。

吴恩达与杨立昆线上讨论

杨立昆总结道,当下人们对AI的担忧和恐惧可以分为两类:第一类是“AI威胁论”,即未来的AI将不受控制、逃离实验室,甚至成为人类的终结者;而第二类则更为现实,即当下AI所具有的偏见不公以及对社会经济的冲击。

对于第一类担忧,他和吴恩达都一致认为,现有AI完全达不到此种水平,所谓的未来依旧遥不可及。

两人同时赞成,虽然近年来AI 取得了巨大进步,但现在的模型离完美还相差甚远。ChatGPT让人们玩得不亦乐乎,而这造成了一种错误印象,让人们以为具有人类智能的AI已经不再遥远,但事实上,这些系统完全通过文本训练,没有任何真实的经验,对现实的理解十分肤浅。即使是GPT-4也很少利用图像训练,而这导致它们有时会一本正经地胡说八道。

杨立昆表示,在未来的几十年间,拥有人类智能的或超越人类智能的系统将会出现,但这绝不会马上实现。因此,必须先设计出有机会达到人类智能的AI,再来讨论如何保证它们的安全,否则讨论会为时过早。他举例道,如果汽车都不存在,如何设计安全带?如果都没有发明飞机,怎么设计安全的喷气式引擎?

针对第二类担忧,杨立昆则表示,人们确实需要应对AI的潜在危害,比如让AI系统可控,提供更真实、无害的信息。但是,未来的AI系统不会依照与当前的自回归LLM(如GPT-4)或其他系统(如Galactica或Bard等)相同的蓝图设计。研究人员会产生一些新的想法,使系统更加可控。因此,问题就变成了如何使系统遵循与人类价值观、政策一致的目标。

他认为,人类拥有足够的智慧设计超级智能系统,却没有足够智慧设计好的目标的概率很低。他提问道,目前的AI产品由少数公司生产,这些公司将会获得怎样的权力和影响力?会对经济产生怎样的影响?是否存在内在的风险?而这些问题也指向了他的结论,即可以有适当的产品监管,但不应停止研发。

他重申,当一项新技术投入使用时,我们需要做的是确保积极的影响最大化,消极的影响最小化,但这并不代表要阻止它。阻止一种可以增强人类智能的系统,实际上是在阻碍人类进步。人工智能将放大人类智能,这将会是新的“文艺复兴”,一种新的启蒙运动,为何要阻止它?

吴恩达也表示,人们不应因噎废食。即使人工智能系统确实有着为人们带来损害的风险,然而,AI也会创造巨大的价值。在过去几年,大量的人工智能创意被用于教育、医疗等行业。即使如今有GPT-4如此优越的模型,但构建一个更好的模型还是会帮助这些应用更好地助人,而中止这样的进步显然不利于创造这些对人类大有助益的工具。

一个“心系宇宙”的新模型

虽然马斯克在公开信上签署了自己的名字,然而,4月17日,他在接受采访时宣布,他将推出一个名为TruthGPT的类ChatGPT应用。因为相较于OpenAI的ChatGPT和谷歌的Bard,他想要进一步放宽聊天机器人的文本限制,尤其是减少对内容、争议话题的限制。目前,TruthGPT已上线投入使用。

TruthGPT网页版

马斯克参与电视采访

马斯克表示,TruthGPT将是一个 “最大限度地寻求真相,并试图理解宇宙本质的人工智能”,在他眼中,“这可能是人工智能往更安全方向发展的最佳途径,因为一个心系宇宙的人工智能不太可能消灭人类,而这则因为人类是宇宙中一个有趣的部分。”

同时,马斯克在采访中表示,“人工智能比管理不善的飞机设计、生产或维护,以及糟糕的汽车生产更危险,因为它有可能——无论人们如何看待这种概率,但它并非微不足道——造成文明的毁灭。”

除开发TruthGPT与Open AI、微软、谷歌正面交锋外,马斯克还建立了自己的人工智能公司,马不停蹄地加入了这场人工智能的“军备竞赛”。

目前,马斯克在内华达州注册了一家名为X.AI的新AI公司。并担任唯一董事。据知情人士透露,新AI公司与他的其他公司并不相关,但这家公司可以使用推特的内容来训练其语言模型,也可以利用特斯拉的计算资源。

除了创建公司,马斯克还购置了训练大模型必备的高性能芯片——1万张英伟达A100 GPU。据悉,Open AI就是使用英伟达的A100 GPU来训练ChatGPT,并支撑其后续运行和推理。

而在人员方面,马斯克正组建一个由AI研究人员和工程师组成的团队,他从谷歌的AI部门 DeepMind挖掘大模型专家,并且至少从今年2月开始,他一直在积极物色AI领域人才,希望与Open AI、谷歌等公司展开竞争。

来源:InfoQ、Insider、Tencent等网站

编辑:王雅静

关键词:

Copyright @  2015-2022 中南网版权所有 关于我们 备案号: 浙ICP备2022016517号-4   联系邮箱:514 676 113@qq.com