AI与机器学习:大忽悠还是大希望?
2813
2019-04-04 17:36    文章来源:T媒体
文章摘要:那些整体说自己多么多么牛X的AI公司,你们自己心里没有点那啥数吗?

达克效应(Dunning-Kruger effect)是一种显著的偏见: 指的是能力欠缺的人在自己欠考虑的决定的基础上得出错误结论,但是无法正确认识到自身的不足,辨别错误行为。这些能力欠缺者们沉浸在自我营造的虚幻的优势之中,常常高估自己的能力水平,却无法客观评价他人的能力。

今天,我们看到了互联网、区块链和云计算等技术的兴起,可谓是人类近期历史上的三大科技热潮。但是,在这些技术的应用中,我们不幸又看了这一效应的出现,大量自身实力并不足够的厂商借了这些新兴的词语进行炒作与夸大。那么,人工智能(AI)与机器学习(ML)到底是忽悠还是希望呢?

这里有一点肯定的是,未来的AI将会进行更多彼此间的互动,比如许多网络安全工作将由它们来进行管理,不过这不是在今天。技术有一种与预测相悖的地方,其实现要么比预期早得多,要么比预期晚得多。在AI技术的远古早期,人们希望它能“很快解决问题”,但这个已经是50年前的事了。

事实上,我们还没有解决图灵测试问题:对于智人来说,还没有另一种智能可以与之对话(至少自从其他的人属物种如尼安德特人、能人、直立人等灭绝之后就没有了)。如果有一天我们能创造出这些会思考的机器,恐怕我们会完全放弃“人工”这个词。

最重要的语义区别在于,AI是对智能连续统一体的认知的追求,而不是“愚蠢”与“哈尔9000”(2001太空漫游中的杀人机器人)的二元对立。这里有一个简单的类比:房子是用很多工具建造的,其中木工工具是一组工具。但这并不意味着拥有木工工具就可以被称为房子。推而广之,称ML应用程序为AI是不正确的,但这却发生在安全领域中。有人成功的偷换了概念,并植入了AI的标识,其实这是一个很大的错误。

今天,ML正在复兴并且正在蓬勃发展,尽管它其实是一系列旧工具,在任何方面都不是非常神奇。 但鉴于计算和数据无处不在,我们看到了机器学习所谓的真正华丽,实用,智能应用的爆炸以及许多安全性,这当是个好消息。 但坏消息是我们仍然看到ML在商业计划,技术文档和营销中被用作魔术语言。每当使用该术语时,人们应该能够首先回答使用什么类型的机器学习(例如线性回归,逻辑回归,决策树,SVM,朴素贝叶斯,K-NN,K-Means,随机森林,降维等)。 以及它如何部署和训练。 这不需要ML学位,但它应该以一般人可以理解的方式回答。

这这里也有充满希望的地方,我们正在进入安全领域“人工辅助”ML应用的黄金时代。我们在会议上发表的演讲和科幻小说的论文中依靠“超级炒作”去解决了我们所有的问题,而现在在我们得到真正有用的东西之前就已经到了结局阶段。ML在自动化和使人类更有效的工作方面最有前途,比如恶意软件预测、事件响应、法医指导和类似的应用程序。尽管它们并不能神奇地解决所有问题,但它们让我们的网络安全问题变得容易处理得多,这会便于人类工作。

总有一天ML和AI会改变进攻和防守的安全格局,但不是今天。不过,这项研究并不需要产生那些令人兴奋的结果,因为围绕认证、周边控制、风险分析、漏洞管理、内部威胁检测、捕捉、补救等方面的工作越来越好。用马克·吐温的话来说就是:“持续的改进要比迟来的完美要好。”

参考来源:https://www.forbes.com/sites/samcurry/2019/04/02/ai-and-ml-greatest-hype-or-hope/#47e2f07c382c

翻译整理:T媒体


版权声明:

凡本网内容请注明来源:T媒体(http://www.cniteyes.com)”的所有原创作品,版权均属于易信视界(北京)管理咨询有限公司所有,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,易信视界(北京)管理咨询有限公司将追究其相关法律责任。

评论