位置:首页 > 产品展示 > 行为观察分析系统

产品展示

产品展示

ErgoLAB面部表情分析系统

产品型号:ErgoLAB FACS

类   型:

面部表情分析系统

描   述:

ErgoLAB FACS面部表情分析系统是一款专业的面部表情分析与情绪状态识别科研工具。

咨询报价 预约体验

   ErgoLAB面部表情分析系统

 

一、产品概述

ErgoLAB FACS面部表情分析系统是主要的神经行为测试工具之一,该系统是一款专业的工具软件,可自动分析面部表情和面部微表情动作,同时系统内嵌情感效价识别模型,直接测量个体的“消极”、“中性”、“积极”的情感状态,还提供视线方向、头部朝向、个人特征等数据。系统通过面部动作编码体系(FACS:Facial Action Coding System)将许多现实生活中人类的表情进行了分类,是如今面部表情的肌肉运动的权威参照标准。系统具备情绪状态识别、面部表情分析等功能,根据人脸的解剖学特点,将其划分成若干既相互独立又相互联系的运动单元(AU),并分析了这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情。

ErgoLAB FACS系统是完全自主研发专利技术,具有多项国家发明专利与软件著作权,通过了省部级新技术新产品认证,欧洲CE、美国FCC、欧盟Rohs、ISO9001、ISO14001、OHSAS18001等多项国际管理体系认证。广泛应用于心理与行为观察、人因智能与人机互动、人机界面设计与产品可用性测试、产品(广告)营销、汽车驾驶(交通安全)、工业管理、工业设计、人因工程、消费行为学、应急行为研究、安全科学、环境行为学、建筑设计等多个领域科学研究。

ErgoLAB FACS面部表情分析系统是一款专业的面部表情分析与情绪状态识别科研工具。系统通过图像识别技术结合机器学习等人工智能算法,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、精确计算情感效价;并通过庞大的数据库使得模型预测的情绪准确率高达 93.3%。通过计算多维度数据特征,结合AI状态识别进一步研发可实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。ErgoLAB FACS系统采用先进表情识别算法,开发团队在软件功能及算法定制开发上积累了丰富的开发实施经验,可以根据用户要求对软件进行定制化设计开发,确保满足用户科研需要。

系统可以嵌入ErgoLAB行为观察分析系统和人机环境同步平台,支持在同一个软件界面同步采集与分析多维数据源,包括行为观察视频、生理数据、眼动数据、脑电数据、动作捕捉、生物力学、作业环境数据等,包含多终端API/TTL实时行为编码与事件标记应用程序,并提供开放数据同步接口可供二次开发。

随着神经行为科学的迅猛发展,人们开始尝试用神经行为学工具来测试各种商业行为表现。主要集中应用在对消费者偏好和满意度的测试,如消费者观看广告内容时的表情和购买意愿的关系;消费者闻不同气味的香水后的表情反应与对香水偏好的关系;听众的表情与音乐喜好的关系等众多研究领域。情感预测态度和行动针对视频图像中的每一帧,FACS提供面部表情的7种关键指标的详实数据,以及6种面部特征统计数据。这些参数可以洞察人们的情绪状态,并提高消费品、广告、媒体、软件的商业价值。


二、产品特点

1、面部表情自动编码

 面部表情自定义处理参数模块,包括实时处理及离线处理,如数据插值、中值滤波、均值滤波等,支持自定义程度阈值、合并阈值、以及大脑加工时间。

 自动识别并编码七种基本表情,包括高兴、悲伤、厌恶、恐惧、惊讶、生气、参与度,以0至100%区间计算表情程度值;

 计算多种微表情数据,如抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧/内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴等。

facialbq.jpg

2、状态识别与预警反馈

 系统内嵌情感效价计算模型,精确识别积极、中性、消极情感,客观评价个体情绪状态,与多模态数据形成客观有效的印证关系;

 系统可自动检测操作人员的头部位置三轴数据:俯仰角、偏航角、翻滚角;系统能够自动检测实时跟踪操作人员头部朝向,包括俯仰角、偏航角、翻滚角,并测定注视方向,计算瞳孔间距以及注意状态检测;

 结合人工智能与机器学习算法,进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。

3、面部表情分析与统计属性识别

 实时可视化的表情编码:系统实时计算操作人员的表情状态与情绪效价,在实验过程中,主试可实时查看与监测操作人员的表情程度与情绪变化,并做出相应的任务调整与行为预警。

 自动统计面部表情数据:包括每种面部表情的开始时间、结束时间、第一次发生的时间、总发生次数、频率、每次发生的时间、总的持续时间、总的持续时间在全部观察时间中所占的百分比、最短的持续时间、最长的持续时间、平均持续时间、持续时间的标准差、持续时间间隔置信区间等数据。

 自动检测操作人员的整个面部特征点,并输出原始坐标X、Y,以及视线位置;

 系统包含年龄分类器,支持实时计算并识别多个年龄段状态,可智能识别多种被试属性信息,如性别、是否佩戴眼镜。

4、多维度数据统计与二次开发

 多维度数据交叉统计:系统支持面部表情数据与其他多模态数据(眼动、脑电、生理、动补、行为等)的同步交叉分析,多个数据源在同一平台界面呈现,在采集的同时间轴数据里选择相应的时间片段,可同步观察和统计分析所有数据流之间的相关关系;

 具有API开发接口:面部表情原始数据与状态分析结果可以被其他程序实时访问,可使其它程序对被试者的情绪进行反馈。

三、应用领域

心理学与神经科学研究;

人因工程与工效学研究;

人因智能与人机交互研究;

智能交通与驾驶行为研究;

建筑人居健康与环境行为研究;

市场研究与消费者调研;

用户体验与交互研究;

教育研究;

临床研究;

婴儿研究;

体育运动研究;

沉浸式VR研究;

    ErgoLAB便携式行为观察分析系统

    ErgoLAB便携式行为观察分析系统是户外现场研究和田野实验人类行为活动或者作业任务绩效的实时行为编码和标准行为分析系统工具,系统通过行为编码体系(Coding Scheme)采用一种定量的观察记录方式来实现行为观察的结构化和系统化,对观察内容进行分类和量化编码的观察记录体系,可以对被试的行为数据进行实时采集、实时编码、分析与统计。

    介绍 参数
    ErgoLAB行为观察分析系统

    ErgoLA行为观察采集与分析系统,实时获取被研究对象的动作,姿势,运动,位置,表情,情绪,社会交往,人机交互等各种活动,记录并分析其状态与表现形式,形成行为编码-时间-频次标准化据库,记录与分析个体在操作任务中的行为频次或习惯性动作的特点等。通过基础行为分析、行为交叉分析、行为发生顺序分析与延迟分析等,探索心理、生理的外在表现,进一步了解人们行为与心理反应的相互关系。可以应用于心理学、人因工程、产品可用性测试、人机交互等领域的实验研究。

    介绍 参数

订购请留言

您需要:

  • 获取产品资料
  • 获取解决方案
  • 设备预约体验
  • 实验室规划设计
  • 制定招标参数

姓名:

电话:

邮箱:

学院院系/企业名称:

研究方向:

经费预算:

  • 50万以内
  • 100万以内
  • 200万以内
  • 300万以内
  • 500万以内
  • 1000万以内
  • 2000万以内
  • 5000万以内
  • 不限
推荐产品

QQ客服:

 4008113950

服务热线:

 4008113950

公司邮箱:Kingfar@kingfar.cn

微信联系:

 13021282218

微信公众号