由“开错药”的Watson说起,为什么机器还无法比拟人类
5784
2018-07-30 17:33    文章来源:T媒体 张飞逸
文章摘要:Watson成为“庸医”,不仅是其自身的能力不足,也是IBM对于它能力的过于夸大。

似乎这一段时间以来,人工智能(AI)“翻车”的事故不断,比如前段时间在博鳌论坛上让人“大跌眼镜”的腾讯翻译,还有最近一周上了热搜棒的“庸医”:IBM Wastson。

IBM事件持续发酵

据报道所示,在医生使用Watson进行癌症患者的诊断与治疗时,Watson给出了很多不正确与不安全的建议,甚至它给出的一出建议用药可能会导致患者的死亡。 这并非IBM Watson首次在医疗领域中“翻车”,众所周知,去年多次被评为美国最佳癌症研究机构的德州大学安德森中心就因为“问题不断”与“该技术尚未做好临床使用的准备”而终止了与IBM Watson的合作。显然,IBM依然没有吸取过去的教训。

国外媒体Stat News的调查显示,问题出在IBM对AI系统的训练不够到位。IBM Watson并没有接受那些真实癌症病例数据的训练,应用的只是由Memoial Sloan Kettering癌症中心工程师和医生所提供的合成数据。

鉴于隐私原因,厂商确实难以获得医疗数据,不够总是依赖虚假数据意味着机器给出的建议总是是基于少数专家,而不是真正的证据。在Stat News看到的文件中,一位来自于弗罗里达州Jupiter医院的医生对IBM说道,“这个产品就是一坨XX,我们是出于市场营销的目的而购买的,并希望你们能实现这一愿景。但在大多数的情况下,我们并不能对它进行使用”。

而让情况雪上加霜的是,IBM高管们似乎对人们撒了谎,他们声称Watson的建议是根据真实病人的真实数据,并得到了医生的好评。就此,英国科技媒体The Register曾对IBM问询到,为什么他们要继续发布这样的虚假信息,但IBM方面拒绝置评。

除了IBM Watson,围绕于AI的各种争论与问题还有很多,特别是在于AI自身的能力上。据报道,瑞典在线银行Nordnet就要解雇自己的一名AI员工,Nordnet本来希望该AI能够具有更高的工作速度与效率,但事与愿违,这名AI员工并能做出令他们满意的成绩。与之同时,在英国也有一家超市以类似的原因开出了自己的AI导购机器人。

甚至,就连创造了阿尔法狗的谷歌,也不免限于这样的争议中,有人指出,谷歌的AI翻译助手能力依然不足,它还是无法替代人工翻译者。

谷歌AI翻译助手仍不及人工翻译者

目前,谷歌的神经机器翻译(NMT)准确度依然不够,甚至还有一些很离谱与莫名其妙的错误。不久前有报道指出,当被要求将“dog dog dog dog dog dog dog dog dog”这个短语从夏威夷语翻译成英语时,支持谷歌翻译的AI化身“神棍”,将这个段毫无意义的问题翻译成了世界末日这样荒谬的警告。

同时,这一系统的记忆力也很差,尽管利用NMT模型中使用长短期记忆网络该AI可以记住一个句子中的更多单词信息,但除此之外没有太多。有人表示到,“NMT系统有非常严重的短期记忆丧失,我们建立了一个系统,目的是一次进行一个句子的翻译。结果,系统总是会忘了从先前句子中获得的信息”。

归根到底,与人类翻译者相比,AI翻译者缺乏常识。他们无法像人类那样理解语言,更不了解这个世界。所以对于他们来说,用同样的方式跟进文本中的对话是很困难的。那么,AI是神还是妖?

AI,从未那么神奇

在市场中,我们听惯了各类的夸大与炒作,区块链、AI、云计算这些词语如此泛滥,以至于让不少一听他们就看到厌恶与讨厌。但就本质而言,这些技术没有无错,而且每一个技术都很大的潜力。

不过,这些技术也没那么“神奇”,这个世界从来就没有灵丹妙药,指望一个技术就能解决一切现有的问题与挑战根本不现实。造成如今AI备受争议的局面,一方面是厂商过于夸大的宣传而无法兑现自己的承诺,而另一方面就是人们对于AI期望值过高。就目前而言,AI还是那个AI,它仍未那么“神奇”。 

编辑:T媒体 张飞逸


版权声明:

凡本网内容请注明来源:T媒体(http://www.cniteyes.com)”的所有原创作品,版权均属于易信视界(北京)信息科技有限公司所有,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,易信视界(北京)信息科技有限公司将追究其相关法律责任。

评论