谷歌高管自黑:逼得李世石退役的阿尔法狗真的不算啥

如果不能确定今天的技术比,昨天的更聪明,怎么会知道技术进步了呢?...

iFeng科技

凤凰网科技官方账号,带你直击真相

阿尔法狗与李世石对弈渲染图

出品 | 凤凰网科技 凤凰新闻客户端

作者 | 霜叶

在计算机科学领域,衡量人工智能技术的“智能”是最棘手,也是最重要的问题之一。如果不能确定今天的技术比昨天,的技术更聪明,怎么会知道技术,有了进步呢?

乍一看,这似乎是一个伪命题。“很显然,人工智能越来越聪明”是一个答案。有大量资金和人才涌入,人工智能领域,人工智能也获得了一些里程碑,意义的进展,例如战胜顶尖人类围棋,选手;一些在10年前还,不可能解决的问题,目前已司空见惯,例如图像识别。这些都标志着人工智能取,得了很大进步。

另一种答案是,这些进步真心不是衡量,人工智能技术“智商”的好指标。在国际象棋和围棋领域超过顶尖人类,选手确实很了不起,但如果最聪明的计算机在解决,常见问题方面的表现还不如幼儿或小白鼠,这又有什么意义呢?

这是由谷歌软件工程师、机器学习领域大腕弗朗,科斯·乔列特(François Chollet)提出的一种观点。乔列特(乔列特)是得到广泛应用的神经,网络开发工具keras的开发者。

在最近发表的一篇标题为《智商的衡量》的论文中,乔列特阐述了一个观点,人工智能领域需要重新关注什么是,智商的问题。他说,如果研究人员想要在,通用人工智能领域取得进步,他们需要抛弃过去,流行的指标,例如视频游戏和棋类游戏,开始考虑使人更聪明的,技能,例如归纳和适应的能力。

在接受The Verge电子邮件采访时,乔列特(乔列特)解释了,他在这一问题上的想法,阐述了他认为当前人工智能,成就具有“误导性”的原因、未来我们应当,如何衡量人工智能“智商”,以及对超级人工智能的,担忧(代表人物就是埃隆·马斯克(Elon Musk))会限制公众想象力的原因。以下是略经编辑的,采访实录:

人工智能框架keras开发者弗朗,科斯·乔列特

问:在论文中,您阐述了人工智能,领域两种不同的“智能”概念,一种概念把“智能”视作在多种任务方面表现,出众的能力;另一种概念更重视归纳,和适应的能力——人工智能对新挑战(新,挑战)作出反应的能力。目前哪种概念影响力更大,后果是什么?

答:在人工智能发展的前30年,第一种概念更有影响力:智能表现为一组静态程序和,明确的知识。目前,事情发生了180度的变化:人工智能领域对智能的,描述是 “白板”。令人遗憾的是,这一框架基本上,没有遇到过挑战,甚至基本上没有受到过,审视。这些问题有很长的历史——可能是数十年,目前人工智能界对这些历史,基本上一无所知,原因也许是目前从事深度学习工作的,大多数人都是在2016年以后进入这一领域的。

这种知识垄断不是好事,尤其是对知之甚少,的科学问题的答案而言。它限制了人们的质疑,限制了人们创新的空间。我认为目前研究,人员应该认清事实。

问:在论文中,您还提出了一个观点:要想进步,人工智能领域需要对智能,有一个更好的定义。您认为,研究人员目前专注于静态(于静态,)测试性能,例如在玩游戏和下棋方面,战胜人类。您为什么认为这种衡量,智能的方法存在不足?

答:问题在于,一旦选定一个指标,人们会想尽一切办法改进,人工智能在这一指标上的表现。例如,如果把下国际象棋作为,衡量人工智能技术智能的指标(在1970至1990年代,期间就是如此),最终会得到一个下棋系统,它不会擅长完成其他任务,对我们了解人类,智能没有任何帮助。目前,开发擅长玩《Dota》或《星际争霸》等游戏的人工智能技术,也会落入完全相同,的智能陷阱。

这种情况或许不明显,因为对于人类而言,技能和智能密切相关。人类可以利用其通用智能获得与具体,任务相关的技能。一个人棋下得很好,会被认为具有相当高,的智能,因为我们知道,他下棋的技能并非天生的,而是借助通用智能,逐步学会下棋的。他的人生目标不是下棋。我们知道,他可以利用通用智能高效地,学会完成其他任务所需要的技能。这就是通用智能的威力。

但机器存在一些限制。一台机器可以设计为,专门用来下棋的。因此,我们在人类中获得的推断——“会下棋,所以一定具有智能”——就不成立了。通用智能可以生成完成,特定任务的技能,反之则不成立。对于机器而言,技能不等于智能。只要能获得与特定任务相关,的无限数据(或投入无限的工程资源),机器就可以掌握,完成任务的技能。但这不会使它们向通用智能,迈近一步。

关键的一点是,没有一种任务能让机器,获得通用智能,除非是元任务——通过解决大量以前未知的,问题获得新技能(新技能),而这正是我提议的衡量人工智能,技术智能的指标。

谷歌旗下人工智能实验室研究人员在,观看alphastar在《星际争霸II》中与人类玩家对战

问:既然目前这些指标无助于开发具有通用,智能的人工智能技术,为什么它们会被广泛应用?

答:毫无疑问的是,在知名游戏中击败顶尖,人类玩家的人工智能技术开发,主要是由媒体推动的。如果不是公众对,这类华而不实的“里程碑”感兴趣,研究人员会从事其他,更有意义的工作。

我认为这是令人悲哀的,因为科学研究应当解决尚未解决,的科学问题,而不是作秀。如果着手借助深度学习在《魔兽争霸III》中战胜顶尖人类玩家,只要获得足够的工程,技术人才和计算能力,我肯定会成功。不过,即使完成了这一目标,我对智能或归纳,会有新的认识吗?这一问题的答案显然,是否定的,大不了我只是会对大规模深度,学习系统有更多技术方面的了解。因此,我真的不认为,这属于科学研究的范畴,因为它没有使我们,获得新的知识,没有解决任何,悬而未决的问题。

问:您如何看待这些,项目的实际成就?对它们的错误,认识有多严重?

答:我发现的一个完全错误,的认识是,这些会玩游戏的系统,代表着人工智能技术向着能够应对实际世界复杂性,和不确定性的真正进步,其实完全不是这样。以OpenAI的OpenAI Five为例,它首先无法应付《Dota 2》的复杂性,因为它是用16个游戏角色,训练出来的,而整个游戏包含有(,包含有)逾100个角色。它的训练量相当于人类,玩了4.5万年《Dota 2》。

如果希望人工智能技术有朝一日能,处理现实世界的复杂性和不确定性,我们现在就必须开始考虑,这样的问题:什么是归纳?在学习系统中如何衡量和,使归纳最大化?这与利用10倍的数据,训练大型神经网络根本不是一回事。

问:更好地衡量智能的指标,是什么?

答:总之,我们需要停止评估人工智能技术,在完成特定任务中的技能,而开始评估它们获得技能,的能力。这意味着仅使用系统,之前不熟悉的新任务,衡量系统使用先验知识的能力以及,使用样本的效率。为获得给定技能,所需要的信息(先验知识和经验)越少,系统就越智能。目前的人工智能系统并非真,的非常聪明。

[我最近的一篇论文]提出了新的测试数据集ARC,看起来很像智商测试。ARC包含一系列推理任务,每个任务通过,演示进行解释,我们应该利用,演示完成任务。目前,ARC可以被人完全完成——即使没有任何口头解释或,先验训练,但迄今为止没有一项人工智能,技术能通过这一测试。

乔列特的ARC人工智能测试数据集

问:您认为只堆积算力人工智能技术可以,继续发展吗?有些人认为,从历史上看,这一直是提高人工智能系统性能的,最成功方法。而另一些人认为,如果继续只依靠堆积算力,我们很快会发现收益会,出现递减。

答:对于解决特定任务而言,这绝对是千真万确的。在一个垂直任务上,投入更多训练数据和算力,将使任务完成得更漂亮。但对于提高人工智能系统,的归纳能力来说,增加算力无济于事。

以自动驾驶汽车为例,数以百万计的训练,不足以生成能够安全驾驶汽车,的端到端深度学习模式。这就是为什么l5级自动驾驶汽车,还没有问世的原因。如果深度学习模型会推理,l5级自动驾驶汽车早,在2016年就该问世了。

自动驾驶汽车的发展远慢于许多人的想象

问:鉴于您讨论了当前,人工智能系统面临的约束,我想问一下您对超级,智能的看法——担心异常强大,的人工智能系统,会在不远的将来威胁人类,您认为这样的,担心合乎情理吗?

答:这一问题的答案是否定的,我不认为有关超级,智能的说法有理有据。我们从未开发出完全,自主的智能系统,也没有任何迹象表明我们在可预见的未来,能够开发出这样的系统。当前人工智能技术的进步,不会导致这样的系统。即使在遥远的未来能够开发出,这样的系统,目前我们也绝对没有办法推测,它的特点。

参考资料:

https://www.theverge.com/2019/12/19/21029605/artificial-intelligence-ai-progress-measurement-benchmarks-interview-francois-chollet-google

想看深度报道,请微信搜索“iFeng科技”。

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。

我就知道你在看!

0 个评论

要回复文章请先登录注册