广告

从狭义AI到广义AI,我们还需经历5大挑战

时间:2018-07-03 作者:Junko Yoshida 阅读:
在现阶段的AI发展早期——“狭义AI”(Narrow AI)和未来的“广义AI”(Broad AI)之间仍存在着巨大差距。为了实现Broad AI,必须打造一个能跨任务、跨领域以及跨越任意空间进行学习的AI系统…

现在大概没有哪一场技术研讨会或展览完全不提到人工智能(AI)了吧?本周在美国旧金山举行的全球电子设计自动化大会(Design Automation Conference;DAC)自然也不例外。

IBM研究院(IBM Research) AI与IBM Q量子计算机副总裁Dario Gil在DAC发表“AI成为新IT技术”(AI is the new IT)的专题演说。Gil介绍了AI技术的最新发展情势,并强调业界积极拓展AI版图的几个重要领域。
Dario-Gil-20180702
Dario Gil

回头看看在关键的2012年,那是在ImageNet挑战赛(ImageNet Challenge)中开发的深度卷积神经网络(CCN)首度被证实对于视觉对象识别算法带来突破之时。人工标记(labeled)的数据与运算能力急剧增加,加上算法的长足进展,进一步加速了深度学习革命。

许多产业领域开始对AI深感兴趣。Gil指出,衡量这一趋势的方法之一是学生选读机器学习入门课程的人数。他说,以住这些课程通常约有30到40名学生注册,而今,美国斯坦福大学(Stanford University)已有逾千人报名,麻省理工学院(MIT)也有700多名学生选读。

狭义AI

就像我们目前看到的,AI被应用在语言翻译、语音转录、对象检测和人脸识别。Gil将现阶段的AI应用称之为“狭义形式的AI”(a narrow form of AI),即AI只在单一领域执行单项任务。

尽管如此,AI已经像野火般迅速在许多产业领域蔓延开来了。Gil说:“目前已经累积几百种应用了,这一应用清单还相当长。”IBM开始在这一广泛应用中追踪AI可能带来的各种挑战,其范围从设计自动化、工业、医疗保健以及视觉检测到客户服务、营销/业务、物联网(IoT)以及合规性等。例如,在IC设计中,机器学习已经用于最佳化合成流程。
AI-F1-20180702
机器学习应用于IBM 22nm Z13系统(来源:IBM)

IBM以22nm工艺开发其z和Power服务器微处理器芯片,就是一个很好的例子。IBM根据经验知道机器学习能有效地“让合成流程参数自动化调整,向专家级设计人员汲取知识,并从之前的设计执行中学习。”
AI-F2-20180702
运用机器学习实现合成流程优化(来源:IBM)

这项计划显示了AI的未来承诺。但Gil也在专题演讲中提醒道,“我们还只是在AI的早期发展阶段。”

为什么呢?他强调,在“狭义AI”(Narrow AI)和“广义AI”(Broad AI)(以及最终的“普适AI”(General AI))之间,界线“还很遥远”。

Gil指出,最终,“我们必须打造一个可以学习和阅读的系统,它能够在跨不同领域之间自动游移,并跨越任意空间进行学习。目前这仍然是非常困难的问题。”

针对以足够的标记数据在单一领域中执行单项任务的AI,Gil说:“我们丝毫不怀疑这样的AI能够实现超人类的准确度性能。”但其挑战在于狭义AI如何演变为更广泛的形式。Gil解释了目前的这个困境:当你需要在另一个领域执行另一项任务时,你得从头开始建构一种新的神经网络并加以整理。他强调,这个世界需要的AI是可以跨越任务和领域发展的。

广义AI——跨越不同任务与领域界线

为了进一步拓展AI,AI社群面对几项关键挑战。

1) 可解释的AI

Gil首先强调的是“可解释的AI”(Explainable AI)。AI所作的判断必须是可以解释的。

Gil说:“我们必须创造一个没有黑盒子(blackbox)的AI。我们应该要能更清楚在神经网络中发生的事情。”他补充说,神经网络需要有除错器来发现错误。

对于推荐书籍阅读的AI系统,黑盒子策略应该是可行的。但是,Gil强调:“在这么多领域的许多产业中,黑盒子不一定都能被接受。这是AI进展的基础。当人们做出涉及大量投资的高风险决策时,以安全性作为关键因素,黑盒子AI可能成为盲点。”

2) AI很脆弱

Gil说:“虽然神经网络的能力令人印象深刻,但AI却非常脆弱。”只要有任何干扰注入系统中,你就可能骗过它。AI可能因为任何噪声导致混乱,甚至将一辆巴士误认为长颈鹿。Gil说,这听起来很搞笑,但如果因为误判成一只长颈鹿这样的错误让数十亿美元的投资化为泡影,那可是非常严重的问题。此外,入侵系统还可能造成神经网络中毒。他解释说,有鉴于神经网络易于受到各种攻击,架构起难以穿透的安全性至关重要。

3) AI的道德问题

“至于伦理道德,这可是个重大的话题。”Gil说:“在我们讨论这种超智慧的概念之前,我想谈谈自己真正专注的领域。这就是偏见。在神经网络中加进了偏见。”

在建立一个以各种例子作为训练基础的系统时,这些例子本身可能就会带入来自社会习俗的偏见。Gil引用了信贷决策的例子。一个从过去案例中学习的系统可能会认为“不要提供信贷给少数族群或女人”Gil说:“我们如何验证系统使用的例子是‘无偏见的’?如何加以检查?”

4) 从“小数据”中学习?

在训练数据中,例子经常是通用的。Gil强调,为了AI的进展,下一步是要弄清楚如何从更少量的数据中学到更多东西。AI应该要能够利用“先验知识”(prior knowledge),并将其学习和“权重”从一个神经网络转移到其他领域的其他网络。AI结合了学习和推论。我们在学习方面取得了很大的进步,但推论呢?Gil说:“似乎就不那么重要了”。总之,AI能够累积知识,但也必须能够将理由应用于该知识。

5) AI基础设施

业界必须继续建设AI的基础设施。AI的进步一直是来自业界不断地高运算能力。最近的“硬件复兴”(hardware renaissance)诞生了崭新的架构。Gil指出,更多的创造力预先为我们开启了一张“美好的发展蓝图”。“由于像深度学习这样的专用工作负载,”AI取得了巨大的进步。但Gil也强调,业界还必须持续开发AI基础设施。
AI-F3-20180702
迈向广义AI之路(来源:IBM)

普适AI

在广义AI阶段之后,IBM Research预期“普适AI”(General AI)至少要到2050年之后才会实现。Gil说,当科学家抛出2050年这样的数字时,他们真正的意思是“我们毫无头绪……”。
AI-F4-20180702
AI的演进(来源:IBM)

但AI的普适形式仍在发展的议程上,研究界正致力于弄清楚AI如何理解的问题。

当然,机器已经证明了有能力在像棋弈竞赛中超越人类,因为“规则”主宰了这一类明确定义环境的竞赛。然而,IBM的研究人员现在想知道机器思考如何在非二进制环境下运作,它不再仅仅产生非黑即白的答案。有鉴于此, IBM Research的以色列团队推出了AI辩论系统——IBM Debater。

上周,在旧金山举行的活动中,IBM展示了这套IBM Debater——据称针对政府是否应该支持某些计划(如支持音乐教育)等主题,它“不会输给任何技巧纯熟的人类辩论者”。

以下是Gil提供的视频剪辑。也许,没人敢说AI掌握了辩论的技巧,但这段视频却有助于我们一窥可能的未来——尽管看来像对着电视嘶吼,也不再是你单方面的辩论。

视频链接:https://www.youtube.com/watch?v=UeF_N1r91RQ

编译:Susan Hong

本文授权编译自EE Times,版权所有,谢绝转载

EETC wechat barcode


关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
广告
相关新闻
广告
广告
广告
广告