天津苹果XSMax触摸屏失灵_朱松纯:可解释性是人工智能获得人类信任的关键
6月6日,天津苹果XSMax触摸屏失灵北京通用人工智能研究院院长朱松纯教授应邀参加中国人工智能学会主办的CICAI国际人工智能会议,并提出了说明人工智能:如何使机器获得人类的信赖的主题报告。
本次会议旨在搭建国际学术交流平台,为全球致力于人工智能技术研究的学者提供跨学科、跨领域、跨地区的交流机会,加强学术交流和产业交流的深度和广度,激发新思想,培养新力量。
目前,人工智能技术正在赋予各行各业权力,并出现在人们工作和生活的各个方面。然而,当人们与人工智能设备互动时,他们会对人工智能时不时表现出来的智力障碍感到困惑。为什么人工智能总是回答问题?鉴于这些行业的痛点,朱松纯教授在专题报告中讨论了目前人工智能前沿研究的一个非常重要的问题:智能系统(AIagent,一般指人工智能系统)如何有效地解释自己,获得人类用户的信任,从而产生高效的人机合作,进而融入人机共存的社会。
朱教授指出,目前流行的人工智能技术采用大数据、小任务模式,行业内更倾向于将人工智能技术等同于大数据+深度学习+超大计算能力。基于这种模式的人工智能技术离人们对人工智能的期望还有很大的差距。例如,人工智能只能完成特定的人类预先定义的任务,而不能通用。每项任务都需要大量标的数据,没有数据就不知所措。模型无法解释和知识表达,无法与人进行多轮互动。大数据+深度学习模式是将训练数据输入神经网络,然后获得预测值。这个神经网络由大量的神经元组成,其计算机制无法解释,导致人们无法信任人工智能。
因此,我们将来要发展可解释的人工智能,使人工智能技术跳出黑箱,成为可解释、可解释、可信赖的人工智能。可解释的人工智能(ExplainableAI)大致分为两个层次:1.自我反思和可解释性,即机器与人类达成共同语言表达;2.自辩能力,即机器要向人类解释其计算机制和过程。
说到如何建立信任,天津苹果XSMax触摸屏失灵朱教授说,AI要想获得人的信任,就必须在两个层面上获得人的信任:1。能力的界限:AI要让人清楚的知道AI在什么条件下能做到什么样的性能,能完成什么样的任务;2.情感纽带:AI要和人保持相似的价值观,把人的价值放在重要位置,让人知道AI和自己是命运共同体,时刻维护人的利益。通过人机之间的迭代、沟通和合作,相互理解,进而达成共识,产生有根据的信任。
为了达到这个目的,朱教授建立了一个具有心理理论的可解释框架(ExplanationwithTheory-of-Mind,X-ToM)。人与人之间需要对客观的物理世界有同样的感知,通过交流了解对方对同一事物的看法,从而形成共识,即你知道我知道你知道,X-ToM就是这种人与人之间的交流模式。
AI通过人机交互的X-ToM框架,采用可解释的与或图形模型,实现模型的可解释、可追溯性和可修改性,使人工智能技术成为透明、可控、可信的技术。在实际应用中,人们知道人工智能给出答案的依据是什么,计算过程是什么,从而实现人们对人工智能的信任。
未来,天津苹果XSMax触摸屏失灵北京通用人工智能研究院将深入探索视觉、语言和认知形成的学习闭环,实现人与人之间的共识,形成共同的社会规范和行为价值,赋予人工智能三观,使人工智能技术真正融入人类社会,创造通用智能,提高人类福利的愿景。