数学建模论文-医保欺诈行为的主动发现.docVIP

数学建模论文-医保欺诈行为的主动发现.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
医保欺诈行为的主动发现 摘 要 本文主要讨论了主流的异常检测方法,着重研究并分析了基于统计分布的异常检测在医疗保险数据挖掘中的应用。通过数据挖掘技术模型和聚类分析模型对医疗保险数据特点研究分析,找出了医保欺诈行为可能记录,同时给出了医疗保险数据的预处理方法。 针对每类医疗保险报销行为,应用基于统计学的离群点检测,为其假设一个分布,然后利用统计学的相关方法确定其参数,得到其精确分布频数。以得到每类医疗保险行为分布频数为基础,利用区间选取算法进一步得到其正常阈值区间利用统计学和MATLAB针对医疗保险欺诈行为构建了数据挖掘模型和聚类分析模型模型考虑了数据间存在的相互联系,对医疗保险行为的欺诈做出了统计和分析。对附表中的数据核算进行,对所得的三进行,通过聚类分析的标准化处理得到,再按照标准化处理的结果进行排序,得到欺诈记录的病人顺序。 的欺诈记录随机选取检验,得出数据挖掘的医保欺诈记录,均可用药大单价过高解释 二 问题分析 本文的工作是将数据挖掘的相关技术应用到临床行为管理中,设计一个构建正常临床行为进行异常检测的模型,这不仅能对合理的临床路径的制定提供决策依据,并且对发现违规行为以及医疗欺诈有着非凡的意义。 数据挖掘,是从存放在数据库、数据仓库或者其他信息库中的大量数据中获取有效、新颖、潜在有用、最终可理解的非平凡过程。所存在的大量数据中有许多可以广泛应用,并且迫切需要将这些数据转化成有用的信息和知识。而数据挖掘技术善于从缺乏先验信息的海量数据中发现隐含的、有意义的知识,预测未来趋势和行为,及甄别不符合隐含规则的异常行为。正是这种优势使得数据挖掘技术在医学数据的异常检验研究中被广泛地采用并取得了许多有价值的成果: 对于可能存在医疗欺诈行为控制方面,应用主要包括:决策树算法、回归模型、神经网络模型等。对可能存在医疗欺诈行为的因素进行挖掘,根据就诊情况可能存在反映欺诈行为,预防欺诈,促进医疗保险制度的标准化和规范化。 本文主要讨论了异常检验方法,着重研究并分析了基于统计分布的异常检验在医学临床数据挖掘中的应用。分析了医疗领域临床数据的特点以及适用于基于统计分布的异常数据特点,以此为基础,本文对临床数据进行相应的预处理,由于适用于统计分布处理的数据主要针对单个属性,也就是适用于低维数据,所以本文对数据的预处理除了常用的数据集成、数据清理和数据规约等以外,还对其尽心分类,并统计频率。建立了模型构架,实现了相关算法,并对模型的效果进行了检验,验证了模型的正确性和可靠性。 三 模型假设 (1) 假设附件中的相关数据是在没有任何大型灾难或疾病时期收集的; (2) 假设其他未考虑的次要影响因素对模型建立不产生重要影响; (3) 假设各个附件中的相关数据都真实可靠(除题中注明之外); (4) 假设所有的相关数据具有独立性,各个指标之间无相互影响 ; (5) 假设附表中的相关数据可以正确反映目前我国医疗保险现状。 四 符号说明 样本标准偏差 样本标准差标准化变量 样本相似系数 五 模型的建立和求解 1) 数据挖掘技术的介绍①明确分析目的 在这个阶段确定的分析目标决定了随后的数据挖掘方法的选择和组织,因此必须明确。这是建立正确分析的先决条件和基础。但是,要明确所需解决的问题并不总是很容易,特别是将潜在的问题转化为需要分析的具体目标。 首先要确定数据来源(一般都满足来自于内部资源),并加以适当的组织。研究者可以从本身所在机构的一个或几个数据源(数据库)中抽取和研究目的相关的数据创建挖掘对象,作为数据挖掘的基本输入。通常需要将这些数据以列表的形式组织和表示,称为数据矩阵,有时也称其为平面文件。然后,需要对数据矩阵进行初步的数据清洗,即对数据进行质量控制(如删除不适合分析的数据、补偿丢失数据、清除数据噪声等)。在某些情况下(如数据库非常大),也可以对原数据矩阵中的部分数据进行抽样分析。因为在这种情况下,对原数据全体进行完全分析得到的信息质量并不总是比进行抽样分析得到的更好。 ②探索性分析数据 对数据进行探索性分析的目的是使分析者预测什么数据挖掘方法最适合下阶段的数据分析。探索性数据分析的方法近似于数据挖掘,但两者的主要区别在于目的不同。探索性分析数据的目的在于描述数据的结构和关系,而数据挖掘的目的是在描述数据结构和关系的基础上直接生成规则。例如,尽管要观察的数据往往是多变量的,且这些变量之间也是相互作用的,但在探索性分析阶段,可以先从一元(单变量)分析开始,每次静态的考虑单一变量的作用,然后再作二元分析等。 ③实施数据挖掘方法,并以此分析数据 数据挖掘的方法和过程取决和服从于研究的目的。在根据研究目的对原始数据作探索性分析的基础上,初步决定数据挖掘的方法,每种方法有不同的技术可供选择。例如,若要描述数据的某些特性(如将原始数据划分成若

文档评论(0)

***** + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档