facs面部表情分析系统ergolab-9001cc金沙

9001cc金沙-金沙9001cc以诚为本 > 我们的产品 > > 行为表情与动作 > facs面部表情分析系统

facs面部表情分析系统

产品时间:2022-04-27

产品概述:

ergolab面部表情分析系统

 

一、产品概述

ergolab facs面部表情分析系统是主要的神经行为测试工具之一,该系统是一款专业的工具软件,可自动分析面部表情和面部微表情动作,同时系统内嵌情感效价识别模型,直接测量个体的“消极”、“中性”、“积极”的情感状态,还提供视线方向、头部朝向、个人特征等数据。系统通过面部动作编码体系(facs:facial action coding system)将许多现实生活中人类的表情进行了分类,是如今面部表情的肌肉运动的参照标准。系统具备情绪状态识别、面部表情分析等功能,根据人脸的解剖学特点,将其划分成若干既相互独立又相互联系的运动单元(au),并分析了这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情。

ergolab facs系统是完全自主研发技术,具有多项国家发明与软件著作权,通过了省部级新技术新产品认证,欧洲ce、美国fcc、欧盟rohs、iso9001、iso14001、ohsas18001等多项管理体系认证。广泛应用于心理与行为观察、人因智能与人机互动、人机界面设计与产品可用性测试、产品(广告)营销、汽车驾驶(交通安全)、工业管理、工业设计、人因工程、消费行为学、应急行为研究、安全科学、环境行为学、建筑设计等多个领域科学研究。

ergolab facs面部表情分析系统是一款专业的面部表情分析与情绪状态识别科研工具。系统通过图像识别技术结合机器学习等人工智能算法,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、精确计算情感效价;并通过庞大的数据库使得模型预测的情绪准确率高达 93.3%。通过计算多维度数据特征,结合ai状态识别进一步研发可实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。ergolab facs系统采用先进表情识别算法,开发团队在软件功能及算法定制开发上积累了丰富的开发实施经验,可以根据用户要求对软件进行定制化设计开发,确保满足用户科研需要。

系统可以嵌入ergolab行为观察分析系统和人机环境同步平台,支持在同一个软件界面同步采集与分析多维数据源,包括行为观察视频、生理数据、眼动数据、脑电数据、动作捕捉、生物力学、作业环境数据等,包含多终端api/ttl实时行为编码与事件标记应用程序,并提供开放数据同步接口可供二次开发。

随着神经行为科学的迅猛发展,人们开始尝试用神经行为学工具来测试各种商业行为表现。主要集中应用在对消费者偏好和满意度的测试,如消费者观看广告内容时的表情和购买意愿的关系;消费者闻不同气味的香水后的表情反应与对香水偏好的关系;听众的表情与音乐喜好的关系等众多研究领域。情感预测态度和行动针对视频图像中的每一帧,facs提供面部表情的7种关键指标的详实数据,以及6种面部特征统计数据。这些参数可以洞察人们的情绪状态,并提高消费品、广告、媒体、软件的商业价值。


二、产品特点

 

1、面部表情自动编码

 面部表情自定义处理参数模块,包括实时处理及离线处理,如数据插值、中值滤波、均值滤波等,支持自定义程度阈值、合并阈值、以及大脑加工时间。

 自动识别并编码七种基本表情,包括高兴、悲伤、厌恶、恐惧、惊讶、生气、参与度,以0至100%区间计算表情程度值;

 计算多种微表情数据,如抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧/内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴等。

2、状态识别与预警反馈

 

 系统内嵌情感效价计算模型,精确识别积极、中性、消极情感,客观评价个体情绪状态,与多模态数据形成客观有效的印证关系;

 系统可自动检测操作人员的头部位置三轴数据:俯仰角、偏航角、翻滚角;系统能够自动检测实时跟踪操作人员头部朝向,包括俯仰角、偏航角、翻滚角,并测定注视方向,计算瞳孔间距以及注意状态检测;

 结合人工智能与机器学习算法,进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。

3、面部表情分析与统计属性识别

 实时可视化的表情编码:系统实时计算操作人员的表情状态与情绪效价,在实验过程中,主试可实时查看与监测操作人员的表情程度与情绪变化,并做出相应的任务调整与行为预警。

 自动统计面部表情数据:包括每种面部表情的开始时间、结束时间、首次发生的时间、总发生次数、频率、每次发生的时间、总的持续时间、总的持续时间在全部观察时间中所占的百分比、短的持续时间、长的持续时间、平均持续时间、持续时间的标准差、持续时间间隔置信区间等数据。

 

 自动检测操作人员的整个面部特征点,并输出原始坐标x、y,以及视线位置;

 系统包含年龄分类器,支持实时计算并识别多个年龄段状态,可智能识别多种被试属性信息,如性别、是否佩戴眼镜。

4、多维度数据统计与二次开发

 多维度数据交叉统计:系统支持面部表情数据与其他多模态数据(眼动、脑电、生理、动补、行为等)的同步交叉分析,多个数据源在同一平台界面呈现,在采集的同时间轴数据里选择相应的时间片段,可同步观察和统计分析所有数据流之间的相关关系;

 具有api开发接口:面部表情原始数据与状态分析结果可以被其他程序实时访问,可使其它程序对被试者的情绪进行反馈。

三、应用领域

心理学与神经科学研究;

人因工程与工效学研究;

人因智能与人机交互研究;

智能交通与驾驶行为研究;

建筑人居健康与环境行为研究;

市场研究与消费者调研;

用户体验与交互研究;

教育研究;

临床研究;

婴儿研究;

体育运动研究;

沉浸式vr研究;

  • 产品介绍
  • 留言框

ergolab面部表情分析系统

 

一、产品概述

ergolab facs面部表情分析系统是主要的神经行为测试工具之一,该系统是一款专业的工具软件,可自动分析面部表情和面部微表情动作,同时系统内嵌情感效价识别模型,直接测量个体的“消极”、“中性”、“积极”的情感状态,还提供视线方向、头部朝向、个人特征等数据。系统通过面部动作编码体系(facs:facial action coding system)将许多现实生活中人类的表情进行了分类,是如今面部表情的肌肉运动的参照标准。系统具备情绪状态识别、面部表情分析等功能,根据人脸的解剖学特点,将其划分成若干既相互独立又相互联系的运动单元(au),并分析了这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情。

ergolab facs系统是完全自主研发技术,具有多项国家发明与软件著作权,通过了省部级新技术新产品认证,欧洲ce、美国fcc、欧盟rohs、iso9001、iso14001、ohsas18001等多项管理体系认证。广泛应用于心理与行为观察、人因智能与人机互动、人机界面设计与产品可用性测试、产品(广告)营销、汽车驾驶(交通安全)、工业管理、工业设计、人因工程、消费行为学、应急行为研究、安全科学、环境行为学、建筑设计等多个领域科学研究。

ergolab facs面部表情分析系统是一款专业的面部表情分析与情绪状态识别科研工具。系统通过图像识别技术结合机器学习等人工智能算法,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、精确计算情感效价;并通过庞大的数据库使得模型预测的情绪准确率高达 93.3%。通过计算多维度数据特征,结合ai状态识别进一步研发可实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。ergolab facs系统采用先进表情识别算法,开发团队在软件功能及算法定制开发上积累了丰富的开发实施经验,可以根据用户要求对软件进行定制化设计开发,确保满足用户科研需要。

系统可以嵌入ergolab行为观察分析系统和人机环境同步平台,支持在同一个软件界面同步采集与分析多维数据源,包括行为观察视频、生理数据、眼动数据、脑电数据、动作捕捉、生物力学、作业环境数据等,包含多终端api/ttl实时行为编码与事件标记应用程序,并提供开放数据同步接口可供二次开发。

随着神经行为科学的迅猛发展,人们开始尝试用神经行为学工具来测试各种商业行为表现。主要集中应用在对消费者偏好和满意度的测试,如消费者观看广告内容时的表情和购买意愿的关系;消费者闻不同气味的香水后的表情反应与对香水偏好的关系;听众的表情与音乐喜好的关系等众多研究领域。情感预测态度和行动针对视频图像中的每一帧,facs提供面部表情的7种关键指标的详实数据,以及6种面部特征统计数据。这些参数可以洞察人们的情绪状态,并提高消费品、广告、媒体、软件的商业价值。


二、产品特点

 

1、面部表情自动编码

 面部表情自定义处理参数模块,包括实时处理及离线处理,如数据插值、中值滤波、均值滤波等,支持自定义程度阈值、合并阈值、以及大脑加工时间。

 自动识别并编码七种基本表情,包括高兴、悲伤、厌恶、恐惧、惊讶、生气、参与度,以0至100%区间计算表情程度值;

 计算多种微表情数据,如抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧/内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴等。

2、状态识别与预警反馈

 

 系统内嵌情感效价计算模型,精确识别积极、中性、消极情感,客观评价个体情绪状态,与多模态数据形成客观有效的印证关系;

 系统可自动检测操作人员的头部位置三轴数据:俯仰角、偏航角、翻滚角;系统能够自动检测实时跟踪操作人员头部朝向,包括俯仰角、偏航角、翻滚角,并测定注视方向,计算瞳孔间距以及注意状态检测;

 结合人工智能与机器学习算法,进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。

3、面部表情分析与统计属性识别

 实时可视化的表情编码:系统实时计算操作人员的表情状态与情绪效价,在实验过程中,主试可实时查看与监测操作人员的表情程度与情绪变化,并做出相应的任务调整与行为预警。

 自动统计面部表情数据:包括每种面部表情的开始时间、结束时间、首次发生的时间、总发生次数、频率、每次发生的时间、总的持续时间、总的持续时间在全部观察时间中所占的百分比、短的持续时间、长的持续时间、平均持续时间、持续时间的标准差、持续时间间隔置信区间等数据。

 

 自动检测操作人员的整个面部特征点,并输出原始坐标x、y,以及视线位置;

 系统包含年龄分类器,支持实时计算并识别多个年龄段状态,可智能识别多种被试属性信息,如性别、是否佩戴眼镜。

4、多维度数据统计与二次开发

 多维度数据交叉统计:系统支持面部表情数据与其他多模态数据(眼动、脑电、生理、动补、行为等)的同步交叉分析,多个数据源在同一平台界面呈现,在采集的同时间轴数据里选择相应的时间片段,可同步观察和统计分析所有数据流之间的相关关系;

 具有api开发接口:面部表情原始数据与状态分析结果可以被其他程序实时访问,可使其它程序对被试者的情绪进行反馈。

三、应用领域

心理学与神经科学研究;

人因工程与工效学研究;

人因智能与人机交互研究;

智能交通与驾驶行为研究;

建筑人居健康与环境行为研究;

市场研究与消费者调研;

用户体验与交互研究;

教育研究;

临床研究;

婴儿研究;

体育运动研究;

沉浸式vr研究;

留言框

  • 产品:

  • 您的单位:

  • 您的姓名:

  • 联系电话:

  • 常用邮箱:

  • 省份:

  • 详细地址:

  • 补充说明:

  • 验证码:

    请输入计算结果(填写阿拉伯数字),如:三加四=7



上一个:没有了

下一个:ergolabergolab时空行为分析系统


人机工程、人的失误与系统安全、人机工效学、工作场所与工效学负荷等

从安全的角度和着眼点,运用人机工程学的原理和方法去解决人机结合面安全问题

人-车-路-环境系统的整体研究,有助于改善驾驶系统设计、提高驾驶安全性、改善道路环境等

ergolab可实现桌面端、移动端以及vr虚拟环境中的眼动、生理、行为等数据的采集,探索产品设计、人机交互对用户体验的影响

研究如何通过城市规划与建筑设计来满足人的行为心理需求,以创造良好环境,提高工作效率

通过ergolab采集和分析消费者的生理、表情、行为等数据,了解消费者的认知加工与决策行为,找到消费者行为动机,从而产生恰当的营销策略使消费者产生留言意向及留言行为

销售热线:
400-811-3950

邮箱:
sales@kingfar.cn

扫一扫,关注金沙9001cc以诚为本

扫一扫,联系9001cc金沙

扫一扫访问手机站9001cc金沙-金沙9001cc以诚为本
网站地图