星希望教育

400-618-0402

孤独症免费咨询热线

孤独症儿童情绪面孔识别的眼动追踪研究

来源:
日期:2019-01-08

情绪作为个体社会心理发展的重要方面,对他人情绪的识别与理解是个体参与社会沟通和交往的必要前提.面孔表情是情绪和情感的重要外部表现,其识别和理解是个体获取社会信息的重要途径,也是维持正常社会交往的重要基础.对于典型发展 (typical developing, TD)儿童来说,情绪面孔识别是一种早期发展的社会技能.婴儿在4个月龄时能够对目光凝视和情绪面孔有不同反应, 在熟悉的环境中可以区分出恐惧、悲伤、高兴和惊讶等基本表情; 在7个月龄时可以区分面部表情,并且在视觉关注模式中,对相同或不同情绪面孔会做出方向性和习惯性反应; 在1岁时已能够运用并理解眼神对视、面部表情和肢体语言,采取非言语的沟通形式发起社 会互动、参与轮流游戏、表达基本的要求以及和他人分享兴趣,逐渐具备双向社会互动(reciprocal interaction)、共同注意(joint attention)以及行为控制 (behavioral regulation)的能力。

个体的面部特征区域的注视时间、注视点与情绪面孔识别的正确率存在密切的关系.不同面孔注视 模式会引起不同的面孔认知加工过程.行为研究发现,面孔认知障碍是由加工方式异常造成的。

孤独症谱系障碍儿童普遍存在情绪面孔识别和理解的缺陷,是导致其社交/沟通障碍的核心来源。基于多重因素混合设计实验,探索影响ASD儿童情绪面孔识别的主要因素及其交互作用; 通过眼动追踪技术分析ASD儿童情绪面孔识别的注视特征及加工模式,以及其对情绪面孔识别任务的影响。

1. 研究对象

本研究共招募82名儿童作为研究对象, 实验前与家长签订知情同意书. 研究对象分为孤独症儿童组(ASD)和典型发展儿童组(TD), 其中ASD 组31名, 男25名, 女6名; TD组51名, 男29名, 女22名,两组儿童年龄范围在2~7岁,且上不存在显著差异。

被试要求:

ASD儿童入组标准: (1) 符合美国精神疾病分类 DSM-V 的诊断标准; (2) 经发育行为儿科2名副主任 或主任级医师双盲确诊; (3) 年龄2~7岁; (4) 排除严 重呼吸系统疾病、儿童精神分裂症、癫痫及其他脑器 质性疾病; (5) 视觉系统发育正常. TD儿童入组标准: (1) 性别和年龄与 ASD 儿童匹配; (2) 经详细体格 检查和精神检查, 排除了躯体疾病、神经系统疾病、 精神发育迟滞、情绪障碍、注意缺陷多动障碍(attention deficit hyperactivity disorder, ADHD)、学习障碍及广泛 性发育障碍等精神疾患; (3) 视觉发育正常。

2. 材料

实验材料选自纽约州立大学建立的 BU-3DFE面部表情数据库, 其中包括101个对象, 6种基本表情生气、厌恶、恐惧、高兴、悲伤和惊讶,并且包括2D, 3D及动态视频(dynamic expression)3种格式.本研究从中选取4组对象,其中2个亚裔(1男1女), 2个拉美裔(1男1女)的两种基本情绪表情: 高兴和恐惧.使用Fanta Morph软件制作物理差异等距变化的4种不同强度水平(4等距: 1=25%, 2=50%, 3=75%, 4=100%)的表情材料,并且进行归一化处理,只保留正脸,去除头发等冗杂背景信息,在训练阶段采用另外2组对象相同条件处理的材料.本研究共生成静态表情材料64张,高兴及恐惧表情各32张,每种表情包括2D和3D两种格式分别16张;动态视频8段(4段高兴,4段恐惧),每段视频时长2000 ms(图1).在训练阶段,2D图像直接显示为平面图像,3D图像刺激在屏幕上呈现为去除纹理特征的3D面孔模型.3D模型的对象文件格式首先转换为开放开发者文件格式(open inventor),然后显示于VRVision,其专门开发用于在Matlab中显示3D刺激.实验控制软件采用配有PTB-3(Psychophysics Toolbox Version 3)开发包的Matlab R2012编写,程序可以记录反应时和正确率。3-1.png

3. 实验程序

实验程序包括训练阶段和正式测试阶段.训练阶段随机呈现12段面孔表情刺激材料(2 faces × 2 expressions × 3 image formats,与正式测试材料不重叠).首先,让儿童认识代表高兴和恐惧的表情标签,儿童通过表情标签选择来判断表情类别.儿童完全认识表情反应标签后,进入训练阶段,12段材料各随机显示一次,要求儿童做出判断, 训练 过程中纠正错误的选择,直到儿童能够正确完成任务才进入正式测试阶段.测试阶段流程所示,首先呈现注视点500 ms,然后随机呈现情绪面孔刺激,持续时间2000 ms,随后屏幕出现反应标签(此 时开始记录反应时),被试儿童做出选择判断后,进入下一回合,整个测试阶段包括72个回合(trials).测试电脑配置眼动仪(Tobii Eye Tracker 4C), 采样率90 Hz,屏幕分辨率1366像素×768像素,被试眼睛与屏幕中心齐平,距离约50~60 cm,刺激呈15.0°垂直×10.0°水平的视觉角度,并且每一个儿童测试前进行 七点校准.测试场景如图2(b)所示.测试程序及相关设备记录被试表情识别的正确率、反应时(精度为毫秒级)以及在非侵入、自然环境下的实时眼动数据,用以数据分析。

3-2.png

4. 统计处理

采用SPSS20.0及Excel整理被试表情识别正确率及反应时数据并进行统计分析; 采用OGAMA软件对情绪面孔识别过程中的眼动数 据进行可视化分析。

5. 结果

情绪面孔识别正确率及反应时描述性统计 ASD和TD儿童对3种不同刺激材料呈现的高兴 和恐惧情绪面孔的识别正确率及反应时的描述性统计如图3所示。

3-3.png

从整体来看, TD组儿童的情绪面孔识别能力优于ASD组儿童,即表情识别正确率较高,反应时也较 短.对于ASD儿童,表情识别正确率: 动态表情 >2D>3D; 表情识别反应时长: 动态表情<2D

多重因素对情绪面孔识别正确率及反应时的影响

本研究通过混合实验设计进一步探究了情绪表

情类别、刺激材料、表情强度等多重因素对情绪面孔 识别的正确率及反应时的影响. 以被试类型(ASD, TD)、刺激材料(2D, 3D, 由于动态视频材料不区分强度未纳入分析)和表情类别(高兴, 恐惧)为自变量,情绪面孔识别正确率和反应时为因变量进行重复测量方差分析, 其中被试类型为被试间因子,表情类型、表情材料、表情强度为被试内因子.分析结果发现, 在表情识别正确率上被试类型、表情类型、刺激材料及表情强度四者间的交互作用不显著

3-4.png

从注视轨迹图显示,TD儿童首先注视的是眼部区域,其次关注嘴部区域和脸部其他特征区, 并且存在回视; ASD组儿童首先注视的嘴部区域,然后是脸部其他区域,回避眼神接触,较少回 视.并且,从ASD和TD儿童面孔加工的注视图及搜路径可以看出,嘴角变化被应用于早期处理面部表情,尤其是高兴表情比较显著; 而对于恐惧表情的识别,眼部特征被更加注意.? 综上所述, ASD儿童在进行情绪面孔识别加工时呈现与TD儿童不同的注视模式,注视点、注视时间、视觉扫描路径、注视兴趣区等特征或许可以作为自闭症儿童早期识别的辅助参考指标.

6. 讨论 

3-5.png

分析结果发现,ASD在男性中的发病比例要高于女性, 这在本研究的样本中可以明显体现. 元分析研究发现, 从婴儿到青少年阶段, 女性的面孔表情识别能力都优于男性, 这与本研究结果具有一致性。

研究还发现, ASD儿童呈现与TD儿童不一样的面孔表情加工方式.TD组儿童主要通过眼部和嘴角特征来识别不同类别的表情; 注视点多集中于眼、嘴、鼻区域; 视觉搜索范式采用直接凝视, 而不是避免凝视刺激. ASD组儿童则回避眼神接触, 注视点漂移不定; 缺乏注视和共同注意,关注嘴部区域; 视觉搜索路径较少,关注局部特征.相关研究发现, ASD儿童在出生后 2~6个月的眼部注视正常,6个月以后开始衰退,这一研究结果解释了实验中ASD儿童情绪面孔识别异常的原因, 也持支持了本研究的结果,并且为通过眼动追踪辅助识别早期ASD的设想提供了科学基础。

结论

(1) 面孔表情材料、表情类别及表情强度的主效应显著,共同影响ASD儿童的情绪面孔识别能力,并且在性别和年龄上存在差异。

(2) ASD儿童对动态表情的识别能力优于2D和 3D材料的静态表情, 具有动态加工优势,并且对恐惧表情的识别正确率高于高兴表情,但反应时略长,具有威胁面孔检测优势效应,但不够强烈。

(3) ASD儿童情绪面孔识别能力与特异性面孔加工方式有关,主要表现为缺乏对面部特征区的注视,尤其是回避眼神,对眼部与嘴部的注视时间、注视点的个数均显著低于TD儿童。

(4)动态表情更符合真实的社会情境,可以作为刺激材料用以ASD儿童的教育干预训练,更有利于提高ASD儿童情绪面孔识别能力。

(5)眼动追踪作为一种技术手段有望在临床上辅助ASD儿童早期识别与诊断。







参考文献

王广帅,陈靓影,张坤.基于多重因素混合设计和眼动追踪的孤独症谱系障碍儿童情绪面孔识别[J].科学通报,2018,63(31):3204-3216.


官方微信
安装网校APP

Android