一项研究试图让AI的决策过程更加可被解释.doc
《一项研究试图让AI的决策过程更加可被解释.doc》由会员分享,可在线阅读,更多相关《一项研究试图让AI的决策过程更加可被解释.doc(3页珍藏版)》请在三一文库上搜索。
1、一项研究试图让AI的决策过程更加可被解释一直以来,AI 进行图像识别都是一个难以清楚解释的过程,而如今麻省理工学院林肯实验室情报和决策技术小组(Intelligence and Decision Technologies Group)的一项研究试图让 AI 的决策过程更加可被解释。这个小组在今年夏天的 CVPR 上发表了一篇论文设计透明:弥合视觉推理的表现与可解释性(Transparency by Design: Closing the Gap Between Performance andInterpretability in Visual Reasoning),论文中提出的系统可以执行与人
2、类一样的推理步骤来进行与图像识别相关的任务,同时能以图像形式呈现其决策的过程。论文地址:https:/arxiv/abs/1803.05268图 |TbD-net的决策过程 (来源:MIT)了解神经网络如何做出决策一直是 AI 研究人员长期面对的问题。神经网络是以人的大脑为参照开发的 AI 系统,旨在复制人类学习的方式。简单的神经网络有一个输入层、一个输出层,两者之间还有一个将输入转换为正确的输出结果的层。然而一些深度神经网络非常复杂,无法遵循这种简单的转换过程。所以逐渐地,神经网络的设置层越来越多,决策过程成为了一个“黑箱”问题,内部流程非常不透明,以至于该网络的开发者可能都无法完全掌握。与
3、此同时,了解 AI 的决策过程非常重要。例如,对用在自动驾驶汽车中的神经网络来说,行人和路牌之间存在什么样的差异?神经网络的哪个决策阶段能够发现两者的区别?只有了解这一过程能够更好地纠正神经网络的一些错误。但目前最先进的神经网络也缺乏有效的机制能让人理解其推理过程。对此,麻省理工学院林肯实验室情报和决策技术小组开发了一个神经网络,可以执行类似人类的推理步骤来回答与图像相关的问题。该模型被命名为 Transparency by Design Network(简称:TbD-net),同时,TbD-net 在解决问题时能够用热力图来展示其进行视觉分析的过程,即当系统识别图像时,会对识别的部分进行突出
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一项 研究 试图 AI 决策 过程 更加 解释
链接地址:https://www.31doc.com/p-3365011.html