- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第3章文本基础处理
教案
课程名称:Pyihon自然语言处理入门与实战课程类别:必修
适用专业:大数据技术类相关专业总学时:64学时(其中理论40学时,实验24学时)
总学分:4.0学分本章学时:12学时
一、材料清单
(1)《Python自然语言处理入门与实战》教材。
(2)配套 PPT。
(3)引导性提问。
(4)探究性问题。
(5)拓展性问题。
二、教学目标与基本要求
1 .教学目标
介绍语料库的基本概述,包括其用途和意义;对语料库的分类和构建原则进行逐点阐述; 详细介绍NLTK的安装、使用和语料库获取的方法;实现语料库的构建;介绍基于规则的分 词方法、基于统计的分词方法以及使用jieba进行分词;介绍中文分词工具jieba库的分词模 式,通过jieba库完成高频词提取;介绍基于规则和统计相结合的方法及jieba库的词性标注 方法;介绍条件随机场基本概念和基于条件随机场的命名实体识别的过程;对命名实体识别 过程进行讲解;对关键词提取技术做简单介绍:介绍关键词提取技术的3种算法;最后通过 实例实现自动化关键词提取。
(15)文本分类和聚类的基本流程。
.难点
(1)文本向量化模型Word2Vec和Doc2Vec的基本原理。
Word2Vcc和Doc2Vcc模型训练的流程。
(3)实现文本分类和聚类的步骤。
一、教学过程设计
.理论教学过程
(20)文本向量化的基本概念。
(21)文本离散表示的常用方法。
(22)文本向量化模型Word2Vec和Doc2Vec的基本原理。
Word2Vec和Doc2Vec模型训练的流程。
(24)文本相似度的概念。
(25)文本表示的概念。
(26)文本相似度的常用算法。
(27)文本挖掘的基本概念。
(28)常用的文本分类和聚类算法。
(29)文本分类和聚类的基本流程。
(30)实现文本分类和聚类的步骤。
.实验教学过程
(8)使用Word2Vcc训练词向量。
(9)使用朴素贝叶斯实现新闻文本分类。
(10)使用Kmeans实现新闻文本聚类。
十二、教材与参考资料
.教材
戴程,张良均.Python自然语言处理入门与实战[M].北京:人民邮电出版社.2022.
.参考资料
[1]张良均.Python数据分析与挖掘实战[M].北京:机械工业出版社.2015.
L2J张良均.Python与数据挖掘[M].北京:机械工业出版社.2016.
[3]肖刚,张良均.Python中文自然语言处理基础与实战[M].北京:人民邮电出版 社.2021.
2 .基本要求
(1)了解语料库的基本概念、用途、类型和构建原则。
(2) 了解中文分词的基本概念和常用方法。
(3)掌握中文分词工具jieba库的使用方法。
(4) 了解词性标注和命名实体识别的基本概念。
(5)熟悉jieba词性标注的流程和命名实体识别的实现流程。
了解关键词提取的基本概念。
(7)掌握关键词提取的方法。
三、问题
.引导性提问
引导性提问需要教师根据教材内容和学生实际水平,提出问题,启发引导学生去解决问 题,提问,从而达到理解、掌握知识,发展各种能力和提高思想觉悟的目的。
(1)语料库有哪些用途?
(2)分词方法有哪些?
(3)命名实体有哪些种类?
(4)提取关键词的常见方法有哪些?
.探究性问题
探究性问题需要教师深入钻研教材的基础上精心设计,提问的角度或者在引导性提问的 基础上,从重点、难点问题切入,进行插入式提问。或者是对引导式提问中尚未涉及但在课 文中又是重要的问题加以设问。
(1)语料库由什么组成?
(2)基于规则的分词方法有什么缺陷?
3) jieba词性标注的流程是什么?
(4)关键词提取系统的实用性有哪些?
3 .拓展性问题
拓展性问题需要教师深刻理解教材的意义,学生的学习动态后,根据学生学习层次,提 出切实可行的关乎实际的可操作问题。亦可以提供拓展资料供学生研习探讨,完成拓展性问 题。
(1)如何获取在线语料库?
(2)如何统计词频?
(3)如何改善中文命名实体识别的效果?
(4)关键词在新闻网站上有什么应用?
四、主要知识点、重点与难点
.主要知识点
语料库的基本概念和用途
语料库的种类和构建原则。
NLTK库的安装步骤。
NLTK库的常用函数。
(5)语料库的获取方法。
(6)语料库的构建方法。
(7)中文分词的基本概念。
(8)基于规则分词的基本概念和常用方法。
(9)基于统计分词的基本概念。
(10)中文分词工具jieba库的使用方法。
(II)基于jieba分词的实现方法。
(12)词性标注的基本概念。
(13)jieba词性标注的流程。
(14)命名实体识别的基本概念。
(15)条件随机场模型的基本原理。
(16)命名实体识别的实现流程。
(17)关键词提取的基本概念。
(18)常用关键词提取算法。
(19)
原创力文档


文档评论(0)