-
BioSync可穿戴眼動儀 詳細摘要: BioSync可穿戴眼動儀是一款適合真實現(xiàn)場眼動測試的輕便、高采樣率、高精準度眼動追蹤設(shè)備。產(chǎn)品重量輕,頭戴部分重量僅為22.75克,采用的人體工學設(shè)計,可兼容佩戴眼鏡情況下的測試,不會對佩戴者和工作任務(wù)造成干擾。產(chǎn)品采用高幀率場景攝像機,視野范圍廣。可基于電腦或手機進行有線或無線眼動數(shù)據(jù)采集,的二維碼眼動興趣區(qū)標定技術(shù),能夠在現(xiàn)場環(huán)境下提前預(yù)定興趣區(qū)的位置和范圍,自動統(tǒng)計相關(guān)眼動數(shù)據(jù)。產(chǎn)
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-29 在線留言 -
ErgoLAB MDS移動終端可用性測試平臺 詳細摘要: ErgoLAB MDS移動終端可用性測試平臺,用于移動終端產(chǎn)品可用性測試及交互行為分析,包括移動終端可用性測試平臺、移動終端人機交互數(shù)據(jù)采集模塊、移動終端眼動數(shù)據(jù)同步模塊和移動終端智能分析模塊。產(chǎn)品依據(jù)人體工效學結(jié)構(gòu)設(shè)計,提供舒適的操作體驗,可以搭載任何移動終端設(shè)備,如手機、pad、平板電腦等,包含多種不同移動設(shè)備和安裝配置的必要條件;可進行360°旋轉(zhuǎn),無限制寬度設(shè)備實驗。同時,結(jié)合高級眼動追蹤
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-29 在線留言 -
ErgoSIM駕駛模擬仿真軟件 詳細摘要: ErgoSIM駕駛模擬仿真軟件是一個全面、開放和可擴展的平臺,適用于交通駕駛與智能座艙領(lǐng)域研究,研究人員可根據(jù)具體研究需求,通過系統(tǒng)搭建適合的駕駛仿真場景并進行相應(yīng)測試。系統(tǒng)通過模型在環(huán)(MiL)的仿真方式,采用軟件在環(huán)(SiL)與硬件在環(huán)(HiL)的測試方法,使得用戶可以使用駕駛模擬系統(tǒng)在駕駛模擬仿真環(huán)境中行駛。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-29 在線留言 -
DMS駕駛?cè)藸顟B(tài)監(jiān)測系統(tǒng) 詳細摘要: ErgoLAB DMS駕駛?cè)藸顟B(tài)監(jiān)測系統(tǒng)采用圖像識別技術(shù),結(jié)合深度學習算法,能夠?qū)︸{駛?cè)藛T狀態(tài)進行監(jiān)測,包括情緒狀態(tài)、疲勞狀態(tài)、行為表現(xiàn)等??捎糜隈{駛?cè)诵袨榉治觥⒅悄茏摽捎眯?、自動駕駛系統(tǒng)有效性等測試。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-29 在線留言 -
智能座艙駕駛模擬器 詳細摘要: ErgoLAB智能座艙駕駛模擬器系統(tǒng)可用于駕駛模擬環(huán)境中針對智能座艙可用性、自動駕駛系統(tǒng)有效性、駕駛員駕駛行為、駕駛員情景意識等評估。系統(tǒng)包括三大功能模塊,即駕駛模擬仿真模塊、多模態(tài)人機交互測評模塊以及人因測評模塊。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-29 在線留言 -
VeHUB實車駕駛車輛信息采集系統(tǒng) 詳細摘要: VeHUB實車駕駛車輛信息采集系統(tǒng)是一種功能強大的儀器。它是基于新一代的高性能衛(wèi)星接收器,其中主機主要用于測量汽車移動時的速度和距離,并且能夠提供橫縱向加速度值、減速度、時間和制動、滑行、加速等距離的準確測量。外接各種模塊和傳感器可以采集油耗、溫度、加速度、角速度及角度、轉(zhuǎn)向角速度及角度、轉(zhuǎn)向力矩、制動踏板力、制動踏板位移、制動風管壓力、車輛CAN接口信息等其它許多數(shù)據(jù)。由于它的體積較小及安裝簡便
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-29 在線留言 -
航空人因測試專家系統(tǒng) 詳細摘要: ErgoLAB Expert System Aviation航空人因測試專家系統(tǒng),是專業(yè)用于“以飛行員為中心“的計算機測試系統(tǒng),也是標準化的航空科研云平臺。系統(tǒng)融合了廣泛的適用于航空航天領(lǐng)域的標準化問卷量表和2D/3D行為實驗任務(wù),以及多終端群體測試、大數(shù)據(jù)常模計算以及能力等級排名等功能。 系統(tǒng)一方面可用于對操作人員能力的測評、訓練以及選拔等工作,另一方面結(jié)合ErgoLAB人機環(huán)境同步云平臺,進行
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
交通人因測試專家系統(tǒng) 詳細摘要: 交通人因測試專家系統(tǒng)融合了廣泛的適用于交通領(lǐng)域的標準化問卷量表與行為實驗任務(wù),以及大數(shù)據(jù)采集常模計算等功能,一方面可用于該領(lǐng)域?qū)Σ僮魅藛T認知能力的測試評價、訓練提升以及選拔工作,另一方面結(jié)合ErgoLAB人機環(huán)多模態(tài)數(shù)據(jù)同步采集與分析平臺,也是專業(yè)化的交通領(lǐng)域研究的科研平臺。測試實驗內(nèi)容結(jié)合國家行業(yè)標準,均具有理論支撐、且經(jīng)過專家評審以及專業(yè)化的情境任務(wù)設(shè)計,充分涵蓋駕駛?cè)藛T的心理認知圖譜,且符合
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
人因工程實驗系統(tǒng) 詳細摘要: 人因工程實驗系統(tǒng)融合了認知與心理測試、生理測量等人因研究技術(shù),能夠讓學生完成人因領(lǐng)域教學實踐實訓課程中的數(shù)據(jù)采集、數(shù)據(jù)分析等過程,熟悉和應(yīng)用人因領(lǐng)域先進的研究方法和技術(shù),培養(yǎng)具備交叉學科能力的新一代人因行業(yè)人才。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB平臺教學模塊 詳細摘要: ErgoLAB平臺教學模塊融合了認知神經(jīng)科學與電生理、視覺追蹤、動作捕捉、行為分析、面部表情與狀態(tài)識別等先進的人因研究技術(shù),能夠讓學生完成人因領(lǐng)域教學實踐實訓課程中的數(shù)據(jù)分析等過程,熟悉和應(yīng)用人因領(lǐng)域先進的研究方法和技術(shù),培養(yǎng)具備交叉學科能力的新一代人因行業(yè)人才。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
多功能生理心理行為訓練儀 詳細摘要: 多功能生理心理行為訓練儀可廣泛用于人因工程、神經(jīng)科學、認知科學、心理學等實驗研究。產(chǎn)品設(shè)有三十多項測驗,各測驗項目均可通過鍵盤任意選擇,并自動將數(shù)據(jù)統(tǒng)計處理、打印和輸出。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB Statistics綜合統(tǒng)計分析模塊 詳細摘要: ErgoLAB Statistics綜合統(tǒng)計分析模塊以ErgoLAB人機環(huán)境多維度數(shù)據(jù)同步技術(shù)為基礎(chǔ),實現(xiàn)四大核心統(tǒng)計與分析功能:數(shù)據(jù)交叉統(tǒng)計、事件統(tǒng)計、片段統(tǒng)計、可視化分析報告。實現(xiàn)不同數(shù)據(jù)源之間的交叉統(tǒng)計、實現(xiàn)基于主觀測試結(jié)果的交叉統(tǒng)計、實現(xiàn)基于不同分析方法的可視化分析報告等,真正實現(xiàn)多維數(shù)據(jù)交叉融合,主客觀結(jié)果交叉驗證。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB Eyetracking眼動軌跡分析模塊 詳細摘要: 眼動追蹤通過紅外光反射原理,測量眼睛的注視點位置或者眼球相對頭部的運動而實現(xiàn)對眼球運動的追蹤,進而分析視覺加工特征。ErgoLAB眼動追蹤模塊采用高精度的眼動追蹤元件同步記錄個體的眼動軌跡、視線變化、眼動狀態(tài)等數(shù)據(jù),在多種視覺刺激和環(huán)境下開展人類行為研究。同步記錄如眼部或頭部3D空間位置、注視時間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周圍事物的視
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoVR虛擬原型同步模塊 詳細摘要: ErgoVR虛擬原型同步模塊,是津發(fā)科技自主研發(fā)針對虛擬現(xiàn)實場景與交互設(shè)計原型的研究和測評目標為導向,為用戶搭建沉浸式的虛擬現(xiàn)實交互環(huán)境、多類型的自然人機交互方式,以及三維人機交互數(shù)據(jù)與人因多模態(tài)數(shù)據(jù)的同步采集與評價,涵蓋產(chǎn)品設(shè)計、制造和維修過程中的所有工藝設(shè)計仿真與驗證,實現(xiàn)全流程的虛擬現(xiàn)實人機工效測評方案。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB Simulator模擬仿真同步模塊 詳細摘要: ErgoLAB Simulator模擬仿真同步模塊結(jié)合ErgoLAB VRX駕駛模擬仿真系統(tǒng)與ErgoLAB人車路環(huán)境同步云平臺,針對駕駛模擬仿真場景下采集的所有硬件數(shù)據(jù),提供專業(yè)的信號處理算法與統(tǒng)計分析報告,包括駕駛?cè)藬?shù)據(jù)分析、車輛運行數(shù)據(jù)分析、道路環(huán)境數(shù)據(jù)分析以及人機交互分析等。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB Interaction手指軌跡分析模塊 詳細摘要: ErgoLAB Interaction手指軌跡分析模塊,是津發(fā)科技依據(jù)人因工程和人-信息-物理系統(tǒng)理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品“以人為中心"的“人-信息系統(tǒng)交互"評估產(chǎn)品,可以對信息產(chǎn)品交互設(shè)計原型進行交互行為分析、可用性測試、人機交互評估、人因設(shè)計與工效學評價,廣泛用于移動終端APP應(yīng)用程序、AI人機智能交互程序產(chǎn)品原型等多類型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測試、人機交互評估測試
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB WEB/APP/HMI交互原型同步模塊 詳細摘要: ErgoLAB WEB/APP/HMI交互原型同步模塊遵照標準化可用性測試流程,專業(yè)用于桌面端、移動終端產(chǎn)品等人機交互平臺的可用性測試,提供便捷的實驗設(shè)計功能,具備網(wǎng)頁/原型興趣區(qū)自動識別與自定義編輯等功能,通過ErgoLAB人機環(huán)境同步云平臺支持在測試過程中實時采集與監(jiān)控被試的各項數(shù)據(jù)指標,為評價產(chǎn)品的有效性、滿意度和可用性提供定量化的數(shù)據(jù)依據(jù),為產(chǎn)品開發(fā)者提供了從實驗設(shè)計到結(jié)果報告的用
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB人機環(huán)境同步云平臺 詳細摘要: ErgoLAB人機環(huán)境同步云平臺,是基于云架構(gòu)的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進行人機交互評估以及人因與工效學的智能評價。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB Design自定義實驗設(shè)計模塊 詳細摘要: ErgoLAB Design自定義實驗設(shè)計模塊,涵蓋被試管理、創(chuàng)建試驗、運行試驗到數(shù)據(jù)記錄與分析,研究者可以完成個性化與目標化的實驗設(shè)計,并能夠?qū)崿F(xiàn)項目的連續(xù)性研究。支持基于電腦端、移動端和VR端產(chǎn)品的任意實驗研究,實現(xiàn)刺激材料一鍵導入,提供多樣化屬性設(shè)置;高效繪制興趣區(qū),保留刺激材料內(nèi)容和交互的完整性;便捷連通生理、腦電、眼動、行為等多類型數(shù)據(jù)采集設(shè)備;方便用戶快捷高效、縝密嚴謹?shù)剡M行實驗設(shè)計。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言 -
ErgoLAB Behavior行為觀察分析模塊 詳細摘要: ErgoLAB Behavior行為觀察分析模塊,采用標準攝像頭錄制行為視頻,實時獲取被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為-時間-頻次數(shù)據(jù)庫,記錄與編碼分析個體在活動中的行為頻次或習慣性動作的特點等。通過交互行為觀察,探索心理、生理的外在表現(xiàn),進一步了解人們行為與心理反應(yīng)的相互關(guān)系。
產(chǎn)品型號: 所在地:北京市 更新時間:2022-11-28 在線留言