专注中英文管理软件15年

为全球华人专属管理打造

国内24小时热线:

400--9908--527

国外24小时热线:

0086--185—6559—7695 0086-020-28269517

当人工智能越来越深入,AI技术要去向何方?

人工智能

人工智能在经历了最初的 跑马圈地 式发展之后,已经进入到了深耕细作的阶段。这也对AI数据提出了更为精准和高质的要求。在GTC China 2019上...

人工智能在经历了最初的“跑马圈地”式发展之后,已经进入到了深耕细作的阶段。这也对AI数据提出了更为精准和高质的要求。在GTC China 2019上,业界大佬发布了一系列针对人工智能的技术和产品。为了弄清业界大佬将如何在精细化阶段引导人工智能应用和发展这一问题,我们走访了业界大佬加速计算产品管理总监Paresh Kharya、业界大佬企业边缘计算总经理Justin Boitano、负责TensorRT产品市场的Siddarth Sharma,来为大家解开这个谜团。


交互与联想


关于什么是好的人工智能,我们不妨回到人工智能的定义,看我们愿意跟一位什么样的合作伙伴共事,就会明白其中的奥秘。


我们需要的伙伴首先是要易于沟通,换成人工智能系统,就是要人机交互方式良好。其次正如那句曾经脍炙人口的广告词——“人们失去联想,世界将会怎样”,我们希望合作伙伴具备根据信息主动思考的能力。


业界大佬加速计算产品管理总监Paresh Kharya看来,这两方面的特性可以归纳为两大模型:会话式AI和推荐系统。12月18日,业界大佬发布了第七代推理软件开发套件NVIDIA TensorRT 7,借助于该软件,全球各地的开发者都可以实现会话式AI应用,大幅减少推理延迟。这为实现更加智能的AI人机交互打开了新大门,从而能够实现与语音代理、聊天机器人和推荐引擎等应用进行实时互动。


关于这一进展,Paresh Kharya解释说:“会话式AI是非常重要的一种技术,因为这也是我们客户进行沟通的一种方式。会话式AI是一个非常复杂的任务,因为它需要理解语音、文本、语言,并且还要把这些东西转化为语言再次说回去。这里最关键的一个挑战就是要想真正地实现会话式AI,我们需要在毫秒级的时间段来完成整个非常复杂的过程,因为只有这样,会话式AI才会显得比较自然。随着TensorRT 7的发布,我们可以将这一系列的复杂模型进行加速计算,这也是我们第一次真正地实现实时会话式AI,并且可以准确的处理中间复杂的流程。”


此外在谈及推荐系统时,Paresh Kharya进一步谈到:“推荐系统也是至关重要的一环,因为我们现在面临的选择是越来越多,并且网上的信息量呈现爆炸式增长,我们面临产品选择的数量可以达到数十亿的级别,所以我们已经看到类似于阿里这样的公司已经在利用业界大佬的技术来提升自己的推荐系统。”


人工智能已经被应用于各个领域,但却又普遍在人机交互和联想推荐方式上存在不少问题。以交通出行领域为例,出门在外的人已经习惯了利用是电子地图寻找合理的出行方式。但目前的系统虽然应用了人工智能,可以在我们驾车时避开拥堵路段,但一是人机交互的方式并不便利,此外公交和火车、飞机等系统还是各自独立的。而如果电子地图在这两方面得到提升,我们采用语音方式就可以直接安排好直达目的地的各种交通方式,一个我们不可或缺智能人工智能交通系统才真正呈现在我们面前。我们也才会进入真正的人工智能时代。对此,业界大佬已经为这个时代的到来打开了新的一扇门。


人工智能需要生态带动


任何一个产业需要健康发展,在高速成长期都需要一个良性的生态。在本次GTC China 2019上,业界大佬的一系列发布显然已为营造一个良好的生态打下坚实的基础。


本次大会业界大佬在人工智能硬件方面,宣布了对ARM架构的支持。Paresh Kharya做了这样的诠释:“ARM是一个非常重要的,并且被广为使用的架构。在全球范围内,共有1500亿台设备是基于ARM架构的。之所以ARM架构如此成功,就是因为它是一个开放平台,各种各样的公司都可以在ARM架构上进行他们想要的创新。这也给了客户更多选择,无论在数据中心还是在边缘设备上都可以选择ARM架构,这也是我们为什么选择兼容ARM做加速计算。我们通过将CUDA平台和ARM架构进行兼容,在整个加速计算领域,无论是AI、高性能计算还是我们进入的所有的领域都可以给到客户更多选择。”


人工智能需要大量的算力支撑,而算力的提升一方面来自于硬件性能的提升,另一方面则来自于深度学习模型的支持。由于业界大佬能够满足多用户函数做深度学习的条件,因此当业界大佬的硬件升级时,一些主流的深度学习模型已经开始主动做出改变,以发挥出业界大佬新硬件的性能。


谈到业界大佬对目前主流深度学习模型的支持,业界大佬企业边缘计算总经理Justin Boitano表示:“现在市面上可能存在着成百上千种深度学习模型,基本上每一个用户用例,客户旗下都有自己的模型,他们用自己的数据来做训练,所以整个深度学习模型是高度多元化的,这也是为什么我们在做硬件的时候要做成可编程程度非常高的原因。因为只有这样才可以促进加速计算在这个领域的应用。我们在做硬件设计的时候,也考虑了深度学习过程当中可能会出现一些共性的东西来做改善,包括从Tensor Core支持多元化的深度学习模型。此外,我们一直在不断更新完善我们的软件堆栈,比如说我们只花了几个月的时间就更新了Tensor RT的新版本。有一些客户他们也希望提供一些现成的深度学习模型供他们使用,我们也有一些预训练好的模型供客户直接部署,或者他们通过转移学习的方式定制化自己想要的模型。我们也在不断更新和提供各种各样的堆栈让用户去创建训练和优化自己的模型。”


关于这个问题,负责TensorRT产品市场的Siddarth Sharma做了这样的补充:“我们和开发者保持了非常紧密的沟通和合作,以保证这些开发框架和我们硬件紧密兼容,与此同时我们在各种软件功能和库上做沟通,以保证一些外部开发者可以充分利用这些东西。所以我们在内部也有一个很大的团队去做主动沟通。”


一定还有人认为人工智能的普及是一件离我们非常遥远的事情,但是看看业界大佬吧,他们仅通过软件就让AI计算性能在两年内提升了4倍,Tensor RT新版本的更新时间更是缩短到只有三个月。此次大会,众多合作伙伴纷纷现身,展现了各自的人工智能应用,一个庞大的生态已经形成。因此,人工智能时代可能就在我们的门外,在不远的将来,它也许就将叩响我们的大门。