在AI赋能万物的时候,谁来给AI赋能?
4636
2018-08-13 15:22    文章来源:T媒体 张飞逸
文章摘要:似乎AI和机器学习(ML)终将“赋能万物”,但在这一过程中,谁又能给AI赋能?

似乎AI和机器学习(ML)终将“赋能万物”,但在这一过程中,谁又能给AI赋能?

每当一个新技术从概念转变为可落地的商业工具时,所有公司都会渴望赶上潮流,以在风口中“起飞”。比如一直保持火热的AI和ML。人们常说如今的AI/ML具有很大的体量,但这只是一个片面的描述,从具有百年历史的科技巨头,再到只有几个人的创业公司,他们都在此投入了大量的资源和时间以推动科技的发展,并将其用于商业活动。

但AI似乎不会只是一种昙花一现的风尚,据分析公司Tractica预测,全球企业在AI项目中的支出将从2016年的6.44亿美元增加到2025年的近390亿美元,这些AI项目也将成为所有高效销售平台和虚拟数字助手背后的驱动力。

所以AI和ML终将为整个世界来赋能,那么谁又会给AI赋能呢?

答案是数据和处理能力。

潜力与局限并存

对于AI对每个企业、垂直领域与行业的潜在影响,我们再赋予溢美之词也不为过。随着无辅助机器学习、自然语音识别(NLP)和深度学习能力的提高,每种能力所对应的技术也得以持续性的发展并扩展的全新的应用中。

具体而言,如今AI/ML技术更多地被人们用以进行目标识别与跟踪、地理数据本地化、防止欺诈、提高营销效果以及其他相关应用的探索,我们可以在自动驾驶汽车、呼叫中心、客户服务和网络安全看到了这样的创新。

而对于那些以及使用了AI自己数的公司来说,他们有一个很好的基础就是不断地进行系统性与战略性地收集数据。但他们也依然面临着一个AI和ML技术最大的局限:容量。

智能技术三要素:能力、容量和速度

驱动AI和ML的是人工神经网络(ANNs),其被设计为在并行中进行输入与输出的模拟和处理。要做到这一点,AI使用者需要存储大量的输入数据并调用大规模的计算来例假这些关键以交付出适当的输出。

我们不妨设想下部署一个聊天机器人以提供客户自主服务的案例,该机器人可对呼叫中心中的客户服务代理团队进行帮助。理想情况下,机器人能够准确地回答客户问题,并引导客户使用适当的资源,并以一种人类式并且自然的方式与他们进行交互。

要做到这一点,机器人的后端需要能够快速比对当前对话与公司自身客户语言库以“理解”交互中的语言环境并基于这些“判断”出什么才是最好的回应方式,而这才能做到与真人一样准确。

不过,这样进程所需的处理器和内存资源所消耗的带宽通常会远远超过大多数本地网络设计的处理能力。而且由于所涉及到的CPU或GPU数量也远远超过大多数公司所准备的预算,因此它们还会为企业增加很大的开支。此外,在进行远距离地点之间的交互时,还会出现延迟问题,这也可能会对产品或应用程序的工作过程造成极大干扰。

那么,企业该如何做呢?

通过直接云连接以最大化AI性能

越来越多使用过程密集型AI应用的公司开始转向混合云数据中心,以解决带宽和计算挑战,降低运营成本并消除了延迟问题。这种混合(Hybrid-ready)数据中心应该做到如下几点:

  1. 为设施内的云供应商提供简单的入口点(on-ramps), 以显著降低延迟和数据传输成本。与公有互联网相比,直接的云互联产品的延迟和传输成本要低50%,同时这也消除了企业对手动连接到每个供应商私有WAN连接的需要。

  2. 靠近供应商的核心计算节点,以进一步减少专用环境和云供应商直接的延迟。

  3. 极可能接近更多的终端用户和设备,以使得信息处理过程更接近用户或设备,这可以显著提高性能和可靠性。这特别有利于那些支持诸如自动驾驶汽车或网络安全操作等延迟敏感的AI应用程序,同时它也最大优化了工作负载灵活性和成本管理。

  4. 具有扩展的功能与客配置的中心基础设施,这可促进持续性的增长。


    目前,AI和机器学习技术正在不断成熟、进步,并在我们的日常生活中愈发普遍。与此同时,提供这些产品和服务的公司将需要从战略上考虑如何最好地平衡对其业务的各种需求,以充分发挥其技术的潜力,从而保持竞争优势。

    来源:Data Center Knowledge

    作者:Industry Perspectives

    翻译与编辑:T媒体 张飞逸


    版权声明:

    凡本网内容请注明来源:T媒体(http://www.cniteyes.com)”的所有原创作品,版权均属于易信视界(北京)信息科技有限公司所有,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

    本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,易信视界(北京)信息科技有限公司将追究其相关法律责任。

    评论