MSA测量系统分析.ppt

  1. 1、本文档共116页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
* 交叉表 第二格代表分级员A在第一次测量中判定一个单元为次劣,在第二次测量中判定为优良的次数 * 交叉表 第三格代表分级员A在第一次测量中判定一个单元为优良,在第二次测量中判定为次劣的次数 * 交叉表 第四格代表分级员A在第一次测量和第二次测量中判定一个单元为次劣的次数 * 交叉表 边格的数字代表行和列的总和 * 交叉表-比例 分级员A比例 下表代表上表的数据,其中每个单元格用总数的百分比来表示 代表10/20 * 交叉表-比例 由行和列的总和计算而得 * 对Kappa的定义将有所不同,取决于我们是在定义分级员内部Kappa,还是在定义分级员之间的Kappa 记得怎样计算Kappa吗? Pobserved 判定员一致同意的单元的比率=判定员A/B一致判定为优良的比率+判定员A/B一致判定为次劣的比率 Pchance 预期偶然达成一致的比率=(判定员A判定为优良的比率*判定员B判定为优良的比率)+(判定员A判定为次劣的比率*判定员B判定为次劣的比率) * Pobserved 等于上表对角线上概率的总和: P observed =(0.500 + 0.350) = 0.850 Pchance 等于每个分类概率乘积的总和: Pchance =(0.600*0.55) + (0.400*0..45) = 0.51 那么 Krater A=(0.85 - 0.51)/(1 - 0.51)=0.693 计算分级员A的Kappa * K Rater B = 数字 比例 计算分级员B的Kappa * ? 利用Minitab的 二元分类 系数型 Gage RR的 Study Ex) 为了分析以Go/No-Go Gage判定合格/不合格的系数型测试系统 选了15 EA 样品 (合格品 8个,不合格品7个)之后由3名测试人员反复测了3次后得到了如下的Data. * Attribute Gage RR Study Attribute Gage RR Study for Measurem Within Appraiser Assessment Agreement Appraiser # Inspected # Matched Percent (%) 95.0% CI A 15 14 93.3 ( 68.1, 99.8) B 15 13 86.7 ( 59.5, 98.3) C 15 13 86.7 ( 59.5, 98.3) # Matched: Appraiser agrees with him/herself across trials. ? 测量一致性 评价 -评价每个测试人员反复测试出的值之间的测量一致性 * 各测试人员的反复测量的结果的一致性的比率 反复测试每个样品时一致的样品数 总样品数 × 100 反复性 * Each Appraiser vs Standard Assessment Agreement Appraiser # Inspected # Matched Percent (%) 95.0% CI A 15 14 93.3 ( 68.1, 99.8) B 15 12 80.0 ( 51.9, 95.7) C 15 12 80.0 ( 51.9, 95.7) # Matched: Appraisers assessment across trials agrees with standard. Assessment Disagreement Appraiser # NG/G Percent (%) # G/NG Percent (%) # Mixed Percent (%) A 0 0.0 0 0.0 1 6.7 B 1 6.7 0 0.0 2 13.3 C 0 0.0 1 6.7 2 13.3 # NG/G: Assess

文档评论(0)

微微 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档