女性重性抑郁症患者识别动态面部表情神经基础fMRI探究.docVIP

女性重性抑郁症患者识别动态面部表情神经基础fMRI探究.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
女性重性抑郁症患者识别动态面部表情神经基础fMRI探究

女性重性抑郁症患者识别动态面部表情神经基础fMRI探究【摘 要】 目的:利用事件相关设计的功能磁共振成像技术探讨汉族女性抑郁症患者明确和不明确识别动态面部表情的神经基础。方法:以15例女性重性抑郁症患者为病例组(抑郁组),与之相匹配的健康者为对照组,利用配对t检验比较两组在明确和不明确识别动态面部表情时激活脑区的差异,设对比有差异(P35分,平均为52.1±9.7分。所有受试者既往主要用选择性5-羟色胺再摄取抑制剂抗抑郁治疗,入组前至少有2周的药物清洗期;排除了神经系统和其他精神障碍性疾病、严重躯体疾病、药物和/或酒精依赖者。为保证一致性,所有相关评定均由1名经过专门量表培训的精神科副主任医师于扫描当天完成。入组15例女性抑郁症患者评定结果全部有效。 1.1.2 正常对照组:与患者居住地相同且性别、年龄、受教育程度均与患者1∶1相匹配(年龄、受教育年限相差均小于2年)。无精神疾病家族史,精神卫生筛选表及神经症筛选表排除个人精神疾病史,排除伴有神经系统疾病、严重躯体疾病、药物和/或酒精依赖者。扫描前通过焦虑自评量表[7]及抑郁自评量表[8]排除焦虑及抑郁情绪状态。共入组15例,年龄23-52岁(41±11岁);受教育年限8-17年(11.7±4.1年)。入组15例正常对照组评定结果全部有效。 两组年龄(t=0.208, P=0.838)、受教育年限(t=-0.405, P=0.691)均无显著性差异,一般人口学资料均相匹配。均为右利手,听力、视力正常。本研究获南京医科大学医学伦理会批准,实验前告知实验内容,并由本人或家属签署知情同意书。 1.2 方法 1.2.1 刺激材料 本实验共包括100个视频片断,其中愉悦、悲伤、咀嚼、无面部动作及十字架各20个。除十字架外,每种表情视频片断男女各10个。视频片断选自中国面部表情视频系统(Chinese Facial Expression Video System,CFEVS)[9]。通过视频软件Ulead videostudio 9.0(Ulead company, 中国台湾)把表情视频统一为持续3秒的表情片断,为消除预期效应,短片以伪随机次序播放,同时以不同时间长度的灰屏片段间隔。 1.2.2 磁共振成像(MRI)数据采集 采用美国美商奇异公司生产的GE?Singa 1.5T磁共振成像仪。① 解剖定位像:采用液体抑制反转恢复序列(T1flaire)采集,轴位27层,与前后联合连线平行。脉冲重复时间/回波时间(TR/TE)=2000ms/7.3ms,层厚4mm,图像范围(FOV)=240mm×240mm,矩阵(matrix)=256×160。② 功能扫描:根据本磁共振仪的实时功能成像程序(real?time imaging processing,RTIP)采集方式,采用梯度回波-回波平面成像(Gradient?Recalled Echo?Planar Imaging,GRE?EPI)序列采集,TR/TE=3000ms/40ms,matrix =64×64,共27层,FOV=240mm×240mm,层厚=4mm。 1.2.3 刺激播放装置和行为学数据采集装置 通过投影仪把视频投放在机房内的屏幕上,受试者入仓后通过头上方的反光镜观看屏幕上的视频片断。受试者双眼与屏幕的距离固定。视频片断在屏幕上的位置固定,大小以受试者能舒适地看全表演者面部为准。行为学数据通过PRESENTATION软件采集。 1.2.4 实验程序 采取事件相关设计方案,长度不同的表情视频片断交替出现,以排除预期效应。明确识别任务,即要求受试者尽快判断视频表情,通过反应键盒完成;不明确识别任务,即要求受试者判断表情视频演员的性别(此时短片中演员的表情为不明确识别对象)。所有受试者均用右手按键,按键的手指次序在受试者之间予以均衡。扫描前,均做一定练习确保按键准确无误。扫描过程中记录受试者的行为学数据,包括反应时间和判断结果。扫描完毕后,请受试者对所看到的表情视频的愉悦度、唤醒度及表情类型做评判,愉悦度和唤醒度采用自我报告形式的9分制评分,详细评判方法参见本课题组以前的研究[9]。 1.2.5 磁共振数据处理及统计分析 图像数据经转化格式,采用statistical parametric mapping(SPM)2软件进行图像对齐、头动矫正、标准化及高斯平滑等预处理后建立模型并做估计,然后采用两组间配对t检验做统计分析,设对比有差异(P0.001,未校正)的体素范围(K值)≥10为具有显著性差异。将所获得的MNI坐标转换为Talairach坐标,查看激活脑区的解剖位置。采用SPSS 11.5软件对面部表情视频的愉悦度、唤醒度及性别识别正确率做描述性分析

文档评论(0)

docman126 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:7042123103000003

1亿VIP精品文档

相关文档