基于APP移動終端原型手指軌跡測評系統(tǒng)
產(chǎn)品概述:
ErgoHMI Web桌面端人機交互測試系統(tǒng),遵照標準化可用性測試流程,提供便捷的實驗設計功能,具備網(wǎng)頁/原型興趣區(qū)自動識別與自定義編輯、測試過程高保真記錄、多模態(tài)數(shù)據(jù)同步采集、可視化分析報告等功能,支持在測試過程中實時采集與監(jiān)控被試的各項數(shù)據(jù)指標,為評價產(chǎn)品的有效性、滿意度和可用性提供定量化的數(shù)據(jù)依據(jù),為產(chǎn)品開發(fā)人員提供了從實驗設計到結果報告的可用性測試環(huán)節(jié)。
產(chǎn)品特點:
l 搭載便攜式移動終端測試平臺
l 自動識別網(wǎng)頁元素作為研究區(qū)域 AOI
l 實驗各階段均完整保留各個人機交互信息
l 自適應不同交互載體的顯示模式
l 同步分析AOI多維度人機交互數(shù)據(jù)
l 實時同步采集與監(jiān)測多維度交互數(shù)據(jù)
產(chǎn)品參數(shù):
l ErgoLAB APP原型呈現(xiàn)系統(tǒng),直接讀取刺激材料,高保真還原產(chǎn)品交互細節(jié)。配套移動終端手持設備臺,符合人體工效學設計原理,距離與角度均可調(diào)節(jié),大幅度提升眼動校準精度與測試的靈活性。
l 基于任意類型的信息化終端載體進行可用性測試與分析時,系統(tǒng)可直接識別原型中的各個元素并以像素位置進行計算,實現(xiàn)在交互測試過程中的實驗設計階段、結果回放階段及數(shù)據(jù)分析階段,均能保證刺激材料不失真,實時完整記錄測試過程中的多模態(tài)人機交互信息,客觀還原各個交互設置及數(shù)據(jù)反應。
l 實驗設計環(huán)節(jié),只需進行一版原型制作和興趣區(qū)繪制,即可直接在不同尺寸終端進行顯示,系統(tǒng)將自動匹配原型/網(wǎng)頁內(nèi)容在各個信息化終端載體的呈現(xiàn)效果,同時自動調(diào)節(jié)在各個尺寸載體的人機交互數(shù)據(jù)的計算與分析。
l 基于ErgoLAB多維度人機環(huán)境數(shù)據(jù)同步采集技術,以及自動識別AOI技術,測試結束,系統(tǒng)自動生成基于視覺搜索模式、腦認知加工模式、生理情感變化、人機交互效率、主觀測試結果、以及典型操作路徑的綜合報告,全面評價產(chǎn)品的用戶體驗與可用性測試。
l 同步分析AOI內(nèi)的各項人因數(shù)據(jù):包括視覺狀態(tài)數(shù)據(jù)、生理情感反應、腦認知數(shù)據(jù)、以及面部表情等,支持AOI內(nèi)多維度人因數(shù)據(jù)的交叉統(tǒng)計與可視化分析。同步分析AOI內(nèi)的各類人機交互數(shù)據(jù):包括鼠標點擊懸浮數(shù)據(jù)、眼控交互、情感交互、腦機交互、語音交互等
應用方向:
ErgoLAB APP&網(wǎng)頁原型測評系統(tǒng)在諸多領域已得到了廣泛的使用,包括航天領域、裝備、人工智能、物聯(lián)網(wǎng)互聯(lián)網(wǎng)產(chǎn)品用戶體驗、交互設計及可用性研究等。
l APP界面可用性研究
l 如網(wǎng)站可用性測試
ErgoLAB多模態(tài)同步方案:
整體概述
ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術,平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構技術的團體測試和大數(shù)據(jù)管理。
ErgoLAB人機環(huán)境同步平臺采用主客觀結合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學研究及應用提供完整的數(shù)據(jù)指標。
ErgoAI人因智能:
將人工智能技術引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設備或數(shù)據(jù)指標,采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。
基于ErgoAI人因智能多元時序算法底座與人因工程人機環(huán)境數(shù)據(jù)庫,構建人員特定狀態(tài)的預訓練模型,配合高靈活度的訓練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構建和優(yōu)化模型。 從而實現(xiàn)對人員狀態(tài)的精準實時評估與預警,如負荷狀態(tài)、應激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。