| 規 格:ErgoAI人因智能: 將人工智能技術引入人因工程研究工具,人因工程行業更加深度 |
型 號:ErgoAI |
數 量:1 |
| 品 牌:Kingfar公司介紹: 北京津發科技股份有限公司是國家級專精特新重點小巨人 |
包 裝:Kingfar公司介紹: 北京津發科技股份有限公司是國家級專精特新重點小巨人,國 |
價 格:面議 |
產品概述:
ErgoAI面部表情實訓設備是面向情感計算、人機交互、虛擬數字人等前沿領域職業教育的核心實訓載體,以光學成像等多模態表情捕捉技術為核心,深度融合微表情特征識別、實時表情驅動與動態渲染算法優化,構建從面部肌肉運動精準采集、表情特征參數化到虛擬角色表情映射的全鏈路實踐體系。 平臺聚焦情感交互場景,助力學生掌握通過面部表情捕捉驅動虛擬數字人、智能交互系統實現情感表達與意圖理解的核心技術,深度理解人類情感傳遞與機器感知的協同邏輯。同時,配套模塊化教學資源與項目化實訓方案,將理論知識與情感計算應用開發緊密結合,讓學生在實踐中提升虛擬角色表情設計、人機情感交互控制等創新能力,真正實現 “學技術、創應用” 的職業教育目標。 系統組成:(1)ErgoLAB面部表情實訓設備矩陣包括高分辨率光學攝像頭、紅外成像設備及3D面部掃描儀,支持多角度、多光照條件下的面部數據采集,具備高幀率、高精度與強魯棒性。 設備品類:設備名稱 | 設備介紹 | 便攜式面部表情實訓設備 | ErgoLAB便攜式面部表情分析設備是一款用于實時面部行為編碼與標準化表情分析的專業工具。該系統基于科學的面部行為編碼體系,通過定量化觀察與結構化記錄方式,實現系統、客觀的表情行為數據采集與分析。系統支持對面部表情單元進行分類識別與量化編碼,具備高精度和可重復的分析能力。移動終端版本適配便攜手持設備,適用于現場作業環境,支持實時面部表情記錄、多維度數據分析與統計功能,廣泛應用與人工智能、電子信息技術等方向實訓教學。 | 表情邊緣計算終端 | 搭載邊緣計算終端和智能算法模型,結合機器學習算法與圖像識別技術,利用面部肌肉特征點計算和分類表情狀態,自動編碼多種基本表情、精確計算情感效價,系統可實時檢測被試的頭部位置、面部特征點、視線朝向、基本生物信息等,結合AI狀態識別進一步實現對操作人員的分心、疲勞、應激等狀態的自動識別以及特定環境條件下的預警反饋。 |
(2)數據采集、微表情計算、情緒狀態識別、虛擬表情映射l 微表情計算:借算法精準提取面部特征點,分析微表情動作參數,挖掘隱藏的情緒信息 l 情緒狀態識別:搭載邊緣計算終端,實時計算高興、生氣、悲傷、厭惡、蔑視等數十種情緒狀態,以及疲勞、應激等情感反應 l 虛擬表情映射:將真實表情數據高精度映射至虛擬角色,適配多平臺實現逼真交互 l 自動識別7種面部表情狀態以及21種微表情數據,并實時計算面部表情程度值,以及整體面部肌肉的參與度狀態。系統內嵌情感效價計算模型,精確識別正性、中性、負性3種情感狀態。 l 自動監測操作人員的頭部位置坐標,實時跟蹤頭部朝向并測定注視方向,自動識別眼睛注視方向,計算瞳孔間距,監測注意狀態。 l 自動檢測操作人員的整個面部特征點,系統包含年齡分類器,支持實時計算并智能識別多個年齡段狀態,以及性別、是否佩戴眼鏡等個體屬性信息。 l 支持導入外部視頻,作為表情數據源,進行離線的表情識別、編碼與統計。支持手動編碼(Manual Coding)、全自動編碼(Auto Coding)、混合編碼(Merge Coding),三種表情編碼模式。 l 表情統計算法支持基礎表情數據統計分析、實時表情編碼可視化分析、事后表情編碼可視化分析、多維度表情數據交互分析,并生成可視化統計圖及統計表。 l 結合人工智能與機器學習算法,進一步實現對操作人員的分心、疲勞、應激等狀態的自動識別以及特定環境條件下的預警反饋。 平臺應用:具身智能:在具身認知與智能體學習課程中,學生利用設備采集人類面部表情數據,通過微表情計算與情緒狀態識別,將人類情緒特征映射到智能體的行為邏輯中,使智能體能夠基于情緒反饋調整動作與決策。 多模態人機交互教學場景:在多模態交互系統設計課程中,學生以設備采集的面部表情數據為核心,融合語音、手勢等多模態信息,設計更加自然流暢的人機交互系統。 ErgoLAB多模態同步方案:整體概述 ErgoLAB人機環境同步平臺采用多模態數據時鐘同步技術,平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數據分析-人因智能評估-可視化報告,支持基于云架構技術的團體測試和大數據管理。 ErgoLAB人機環境同步平臺采用主客觀結合多模態數據同步采集與多維度驗證的方法,數據實時同步種類包含大腦認知數據(EEG/BCI腦電儀與腦機接口邊緣計算設備、fNIRS/BCI近紅外腦成像儀),視覺數據(Eyetracker眼動儀與視線交互系統),生理數據(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數據、生物力學數據(拉力、握力、捏力、壓力…),人機交互數據(包含人機界面交互行為數據以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數據以及對應的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數據及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數據采集(包括室內、戶外、以及VR環境不同時空的行走軌跡、行車軌跡、訪問狀態以及視線交互、情感反應、交互操作行為等數據實時同步采集)、以及作業空間及作業環境數據(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數據;為科學研究及應用提供完整的數據指標。
|