產(chǎn)品中心
動作捕捉系統(tǒng)用于準(zhǔn)確測量運動物體在三維空間中的運動狀態(tài)與空間位置。ErgoLAB Motion是的全新可穿戴運動捕捉與人機(jī)工效/生物力學(xué)分析系統(tǒng),配備可穿戴人因記錄儀,便于攜帶,非常適用于各種虛擬現(xiàn)實應(yīng)用與實時的現(xiàn)場人因工效科學(xué)研究,如安全生產(chǎn)、人機(jī)交互、運動分析,動作姿勢傷害評估等。
空間定位系統(tǒng)支持多類型的時空數(shù)據(jù)采集,包括室內(nèi)空間位置追蹤、虛擬現(xiàn)實場景空間位置追蹤以及真實現(xiàn)場環(huán)境的空間位置追蹤。基于ErgoLAB多維度數(shù)據(jù)時空同步算法模型,可同步采集超過40種時間和空間位置行為等數(shù)據(jù),研究人員可以在任何環(huán)境下進(jìn)行時空行為研究,完成多維度客觀數(shù)據(jù)的實時同步采集與可視化時空分析。綜合計算機(jī)圖形圖像學(xué)、視覺設(shè)計、數(shù)據(jù)挖掘等技術(shù),支持進(jìn)行信息可視化、科學(xué)可視化與可視分析不同的層次研
津發(fā)科儀Captiv行為觀察分析系統(tǒng),法國國家安全研究所(INRS)與法國TEA公司聯(lián)合開發(fā)的CAPTIV行為觀察分析系統(tǒng)是研究人類行為的標(biāo)準(zhǔn)工具,該系統(tǒng)可以用來記錄分析被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機(jī)交互等各種活動;廣泛應(yīng)用于心理與行為觀察、親子互動、人機(jī)界面設(shè)計、產(chǎn)品(廣告)營銷、汽車駕駛(交通安全環(huán)境行為學(xué)等研究。
ErgoLAB行為觀察分析系統(tǒng)可實時獲取被研究對象的動作、姿勢、運動、位置、表情、情緒、社會交往、人機(jī)交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為編碼-時間-頻次標(biāo)準(zhǔn)化據(jù)庫,記錄與分析個體在操作任務(wù)中的行為頻次或習(xí)慣性動作的特點等。
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信
電話
微信掃一掃