(1)史前:代数几何计算
一、算法
1、无
二、算力
1、1945 年,根据冯诺依曼理论研制出 ENIAC,人类历史上第一台计算机。
三、数据
1、无
四、典型应用
1、计算:1855 年,英国发明家巴贝奇发明差分机。
(2)50 年代开端:数学推理
一、算法
1、1950 年,图灵提出图灵机、图灵测试构想。
2、1956 年,达特茅斯会议,约翰麦卡锡(1971 年图灵奖得主、LISP 语言发明人)提出「人工智能」一词。
二、算力
1、无
三、数据
1、无
四、典型应用
1、搜索用于推理,应用于下棋游戏:1956 年,机器学习之父亚瑟塞缪尔的西洋棋程序战胜了美国康涅狄格州冠军。「推理就是搜索」,是这个时期主要研究方向。
(3)人工智能的第一次热潮(60 年代)与寒冬(70 年代):视觉识别与语音识别
一、算法
1、无
二、算力
1、1973 年,英国数学家莱特希尔报告,称视觉识别和听觉识别需要的计算量太大、数据处理量太大,当前无法满足。人工智能进入第一次寒冬。
三、数据
1、无
四、典型应用
1、智能问答:1966 年,美国军方委托麻省理工学院的人工智能学院编写了 ELIZA 智能问答系统。这是自然语言对话技术的开端。
2、视觉识别和听觉识别应用于机器人:1967 年,日本早稻田大学发明 WABOT-1 机器人原型,有摄像头视觉和麦克风听觉装置。这是视觉识别和听觉识别的开端。
(4)人工智能的第二次热潮(80 年代)与寒冬(90 年代):专家系统
一、算法
1、1982 年,英国科学家霍普尔德发明了具有全新学习能力的 Hopfield 神经网络算法。与此同时,杰佛里辛顿(深度学习之父)和大卫鲁梅哈特发明了可以训练的反向传播神经网络。
2、1988 年,美国科学家朱迪亚皮尔(贝叶斯网络算法发明人),将概率论方法引入人工智能推理。
他们将人工智能的「智能性」又往前推进了一步。
二、算力
1、1982 年,日本期望研发大规模多 CPU 并行计算机,来解决人工智能所需的计算量问题。当时已经能够做到 512 颗 CPU 并行计算。但其不通用性,很快被 Intel 的 x86 芯片架构超越。
三、数据
1、无
四、典型应用
1、基于规则的推荐技术应用于专家系统:1980 年,卡耐基梅隆大学研发的 XCON 垂直专家系统投入使用,具有 2500 条规则,专门用于自动选配计算机配件。由于垂直应用,所以计算量和数据处理量大大收敛。
但当时,神经网络、概率统计方法,与专家规则系统并未整合,这让专家系统并未具备自学习能力,而且维护专家系统规则越来越复杂。人工智能硬件又遇到了第二次寒冬。
(5)90 年代视觉识别和语音识别的突破
一、算法
1、1997 年,两位德国科学霍克赖特和施米德赫伯 提出了长期短期记忆(LSTM),适用于手写识别和语音识别的递归神经网络
二、算力
1、1997 年,IBM 用 480 块 x86 CPU 搭建深蓝 Deep blue 计算机战胜了人类世界象棋冠军卡斯帕罗夫。
三、数据
1、1995 年,理查德华莱士开发了新的聊天机器人程序 Alice,它能够利用互联网不断增加自身的数据集,优化内容。
四、典型应用
1、手写文字图像识别:1989 年,贝尔实验室的雅恩乐昆使用卷积神经网络技术,实现了人工智能识别手写邮政编码数字图像。
2、语音识别:1992 年,李开复用统计学方法,实现了连续语音识别。
3、机器人:2000 年,日本本田公司发明了机器人 ASIMO,有着更高效果的视觉识别与听觉识别能力。
(6)2006 年以后的深度学习
一、算法
1、2006 年,杰弗里辛顿出版了《Learning Multiple Layers of Representation》奠定了神经网络的全新架构。
2、2007 年,在斯坦福任教的华裔科学家李飞飞,发起创建了 ImageNet 项目。自 2010 年开始,ImageNet 每年举行大规模视觉识别挑战赛。2012 年由多伦多大学在挑战赛上设计的深度卷积神经网络算法,被业内认为是深度学习革命的开始。
3、2014 年,伊恩·古德费罗提出 GANs 生成对抗网络算法,用于无监督学习的人工智能算法。
4、2018 年,Google 推出 BERT 模型、OpenAI 推出 GPT-2 模型,均刷新了自然语言阅读理解与生成的人类历史最高效果。
目前,GAN 正在从视觉处理领域走向更普遍领域,强化学习也正在从游戏对抗训练领域走向更普遍领域,这会让数据无监督标注、无监督训练更前进一步。
二、算力
1、2006 年,AWS 云计算发布。2006 年,Hadoop 大数据存储与计算平台发布。2014 年,Spark 内存实时计算框架发布。
2、2009 年,吴恩达开始研究使用图形处理器(GPU 而不是 CPU)进行大规模无监督式机器学习工作。2017 年,Google 推出 TPU 人工智能计算专用芯片。
三、工具
1、2016 年,Google 开源推出 Tesorflow 深度学习平台。2016 年和 2017 年,谷歌发起了两场轰动世界的围棋人机之战,其人工智能程序 AlphaGo 连续战胜曾经的围棋世界冠军韩国李世石,以及现任的围棋世界冠军中国的柯洁。
2、2018 年,Google 开源推出 Dopamine 强化学习平台。
基于这两个开源平台产生了大量代码库,带来了人工智能应用的普及。
四、数据
1、2000 年以后,爬虫与搜索、互联网应用、电子商务应用、SaaS 应用、Open API 开放平台被广泛应用,造成非结构化数据大爆炸。
2、2014 年,4G 大规模普及(数据传输性能)、智能手机(高清摄像头与麦克风)大规模普及,导致智能手机语音、图像、视频多媒体数据大爆炸。
3、2014 年,IoT 智能产品流行,导致传感器时序数据大爆炸。
五、典型应用
1、智能会话:2014 年,Amazon 推出 Echo 智能音箱和智能会话 Alexa。2016 年,Apple 公司推出 Siri。
2、视觉识别和听觉识别应用于智能汽车:2009 年,谷歌开始秘密测试无人驾驶汽车技术;2014 年,谷歌成为第一个在通过美国州自驾车测试的公司。
3、机器人:谷歌 2013 年还曾收购了世界顶级机器人技术公司:波士顿动力学公司,2017 年又出售给日本软银公司。
(7)应用场景总结
回顾人工智能发展这 60 多年,似乎典型应用并不多,咱们就不提搞比赛搞秀的下棋游戏大战,真正商业应用的人工智能只有两类:
1、专家系统、智能问答、智能会话。这是典型的 NLP 领域。如果说 Google 和百度搜索也算 NLP,那么人工智能 NLP 过往,就是两个应用:智能问答和会话、搜索和推荐
2、可以视觉识别和听觉识别的硬件(消费者服务机器人、音箱、无人驾驶汽车、无人机、手机)。即使在中国人工智能这么热,也大多去抢海康威视大华工业级摄像头的市场,搞安防监控、交通监控、消防监控、安全生产监控、环保监控、金融刷脸认证、零售无人商店刷脸识别、线下营销广告自动消费者识别。
(8)尾巴:微软亚洲研究院
微软亚洲研究院,1998 年成立(美国互联网在 1994 年开始爆发),是全球唯一的专门研究人工智能的研究院。成立已经 20 年。
但似乎微软亚洲研究院起了个大早、赶了个晚集。人才倒是培养了不少,但大多流落业界或者自己创业,并无给微软自己带来好处。我也在思考这个问题到底出在哪里了?
现在的人工智能,是典型的数据科学。但微软作为工具产品公司,错过了互联网时代、智能手机时代,手里没数据。
互联网公司几乎都是羊毛出在狗身上(广告模式),智能手机公司是一半狗毛一半羊毛(手机硬件赚钱,AppStore 也挣钱)。微软是工具软件产品商业模式,是羊毛只能出在羊身上。所以微软对开源免费这事一直观望、犹犹豫豫。所以微软也开源,但一直不是很大力。这在工具方面就差强人意了。
另外,虽然微软看着 AWS 搞云,自己也于 2008 年也开始搞云,但因为云计算是软硬一体化的、带运营运维服务的,这是微软作为工具软件产品公司从来没有干过的,而且其收入结构/成本结构/利润结构也不一样,所以微软对搞云也一直犹犹豫豫的,直到 2014 年纳德拉上台来才强力做云。这就在算力方面滞后了。
而且很奇怪的是,微软亚洲研究院也一直没有在算法方面有开创性的东西。虽然 ResNet 在 2014 年 ImageNet 比赛中获得图像分类第一名,但只是改进型,不是开创型。从 2007 年洪小文上任微软亚洲研究院院长,按说是时间点并不晚。
缺数据、平台与生态不给力、算力发展也滞后,算法也没有开创性研究成果。
好不容易折腾了个微软小冰智能会话、Bing 搜索,还内部一顿权力斗争,沈向洋的离开不言而喻。
版权声明:
凡本网内容请注明来源:T媒体(http://www.cniteyes.com)”的所有原创作品,版权均属于易信视界(北京)信息科技有限公司所有,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。
本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,易信视界(北京)信息科技有限公司将追究其相关法律责任。
评论