可解释AI是什么?为什么说它是接下来的关键点

近年来,人工智能技术的应用范围越来越广泛,尤其是在企业领域。然而,人工智能算法的不可解释性却使得企业难以理解其决策过程,这给企业带来了潜在的风险。为解决这一问题,可解释人工智能技术(XAI)应运而生。人们对于人工智能系统可解释性、透明性的要求,大致有四个层次。

第一个层次是针对直接使用者的需求。用户需要了解人工智能产品、服务背后的原理是什么,这是建立可信任AI的重要基础。可解释AI实际上支撑了可信任AI。

第二个层次是对于政策和监管部门的需求。他们希望通过解释原理来了解人工智能产品的公平性、可问责性,归因的过程是我们进一步问责、追究责任的基础。因此,可解释AI也与负责任的AI、可问责的AI联系在一起。

第三个层次是技术工程与科学层次。我们希望了解为什么某些算法能够成功,它成功背后的奥秘是什么,它的应用范围是什么,它能否在更大的范围内使用这样一些算法或者是一些技术。

第四个层次是公众理解AI。如果社会大众大多数关心的话,他也能够在这方面了解相应的技术、系统大体的工作原理方式是什么。在现在的AI系统中,其实很多算法背后运作机制是未知的,这种未知带来了未知的、难以管理的风险,包括安全性、鲁棒性、隐私保护、公平性等等。

这些问题关系到了社会运转中非常关键、人命关天的领域,比如医疗、自动驾驶。这会带来很大的应用方面的困难,以及社会对AI的不信任。因为当AI算法运作机制是未知的时候,它的风险机制、风险大小、风险尺度就是未知的,我们就难以去管理风险,进而去控制风险。

理解深度学习算法的运作机制,大致有理论和实践两条路径。在理论方面,当前的研究无法完全解释理论上泛化性较差的深度模型为何能在多领域取得如此的成功。这种理论与实践的矛盾,就像曾经物理学中的乌云一样,反映出来了人们对于机器学习理解的缺失,而这是现在在理论上提升算法可解释性的一个难点。

而在实验角度上,很多实验学科中的做法可以作为对于机器学习研究的启发,比如说物理学、化学,以及刚才提到的医疗。比如说药物研发流程中的合格检验,要做双盲实验;在物理学、化学的研究中,对控制变量实验有严格要求。类似的机制是否能在AI研究中严格执行呢?我觉得这可能是另外一条路径。

在可解释AI方面,当可解释性有它的局限或者和其他的目标、要求,需要做出权衡取舍的时候,我们想也可以从多个层面来进行替代性的,或者说是补偿性、补充性的策略。比方说针对监管部门,它对于可解释性的要求,和面向公众或者专家层面的,会有所不同,所以这个可以通过若干个层次,比如说监管部门的,行业的,市场的,以及传播普及层面的,对于安全性、鲁棒性要求更高一些,或者在专家层面上有更好的沟通理解,而对于社会公众而言,这里面就需要有一些转换,同时有需要一些权威部门,有公信力的部门,向社会做一些说明和认定。

总之,可解释人工智能是人工智能发展的关键点之一,它不仅支撑了可信任AI、负责任的AI、可问责的AI,还能够提高公众对于AI的理解和信任。未来,我们需要在理论和实践两方面做出更多的努力,以便更好地解释AI的决策过程,降低风险,促进AI技术的发展。

本文内容及图片均整理自互联网,不代表本站立场,版权归原作者所有,如有侵权请联系admin#jikehao.com删除。
(0)
极客号的头像极客号
上一篇 2023年 8月 15日
下一篇 2023年 8月 15日

相关推荐

合作联系:1152QQ041010