1第十四章模型可解释性《自然语言处理导论》
可解释性概述14.1解释性分析方法14.2自然语言处理算法解释分析方法14.3目录Contents2
14模型稳健性3目前绝大部分自然语言处理算法大都基于统计机器学习方法,这些数据驱动的算法在绝大部分任务上取得了良好的性能。但是,以深度神经网络方法为代表的“黑盒”模型缺乏可解释性。我们不能理解数百亿甚至是数万亿参数中的每个维度的含义,这造成了深度学习模型本质上的不可解释性。然而,我们又迫切的需要了解模型是否真正符合人类语言的习惯,机器在语言处理任务中的决策与人类的决策过程有何异同,数据驱动的统计模型与人类语言认知系统的差异等问题。这些问题一方面关系
您可能关注的文档
- 传感器原理与应用(第5版):固态图像传感器PPT教学课件.pptx
- 传感器原理与应用(第5版):光导纤维传感器PPT教学课件.pptx
- 传感器原理与应用(第5版):光电式传感器PPT教学课件.pptx
- 传感器原理与应用(第5版):化学传感器PPT教学课件.pptx
- 传感器原理与应用(第5版):脑机接口PPT教学课件.pptx
- 传感器原理与应用(第5版):数字孪生技术PPT教学课件.pptx
- 传感器原理与应用(第5版):新型传感器及其应用PPT教学课件.pptx
- 传感器原理与应用(第5版):压电式传感器PPT教学课件.pptx
- 传感器原理与应用(第5版):智慧城市PPT教学课件.pptx
- 传感器原理与应用(第5版):智慧电网PPT教学课件.pptx
原创力文档

文档评论(0)