當前位置:首頁 > 產(chǎn)品中心 > 行為觀察與表情分析 > 行為觀察分析系統(tǒng) > ErgoLAB便攜式行為觀察實驗室
簡要描述:ErgoLAB便攜式行為觀察實驗室是戶外現(xiàn)場研究和田野實驗人類行為活動或者作業(yè)任務績效的實時行為編碼和標準行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來實現(xiàn)行為觀察的結構化和系統(tǒng)化,對觀察內(nèi)容進行分類和量化編碼的觀察記錄體系,可以對被試的行為數(shù)據(jù)進行實時采集、實時編碼、分析與統(tǒng)計。
產(chǎn)品分類
Product Category相關文章
Related Articles詳細介紹
產(chǎn)地 | 國產(chǎn) | 加工定制 | 是 |
---|
ErgoLAB便攜式行為觀察實驗室
一、產(chǎn)品概述
ErgoLAB便攜式行為觀察實驗室是戶外現(xiàn)場研究和田野實驗人類行為活動或者作業(yè)任務績效的實時行為編碼和標準行為分析系統(tǒng)工具,系統(tǒng)通過行為編碼體系(Coding Scheme)采用一種定量的觀察記錄方式來實現(xiàn)行為觀察的結構化和系統(tǒng)化,對觀察內(nèi)容進行分類和量化編碼的觀察記錄體系,可以對被試的行為數(shù)據(jù)進行實時采集、實時編碼、分析與統(tǒng)計。便攜式行為觀察系統(tǒng)移動終端版本,通過移動終端與便攜性手持設備的有機結合,可以在戶外或者作業(yè)現(xiàn)場進行實時行為編碼記錄,收集數(shù)據(jù)后不需要把大量工作全留在事后行為編碼??梢噪S時隨地進行精確的戶外現(xiàn)場數(shù)據(jù)采集、實時行為編碼和分析與統(tǒng)計。
二、產(chǎn)品特點
● 系統(tǒng)支持與ErgoLAB行為觀察分析模塊和人機環(huán)境同步平臺配套使用,支持實時觀察和離線觀察兩種編碼方式。通過行為編碼體系實現(xiàn)行為觀察的結構化和系統(tǒng)化,與便攜性手持設備的有機結合,可以精確的編碼和分析。
● 支持基于便攜式行為觀察分析系統(tǒng)以及ErgoLAB APP手持終端實時創(chuàng)建點狀行為、片段行為、以及行為組行為,實時發(fā)送、實時標記、實時統(tǒng)計,支持實時接收/發(fā)送SyncBox TTL觸發(fā)刺激事件信息。
● 可以在人體移動狀態(tài)中觀察行為過程并進行實時行為編碼,系統(tǒng)支持實時行為編碼技術,基于跨平臺的手持終端如Windows、IOS、Android手機,Windows、IPad、Android平板進行實時的行為編碼,可以詳細地對觀察到的行為進行數(shù)據(jù)記錄,并允許在尋找自由實驗參與者時進行編碼。
1)手持式行為觀察記錄系統(tǒng)(API實時行為編碼模塊)
● 如果你需要進行野外觀察,并要求編碼和分析比較準確的話,ErgoLAB手持式觀察分析系統(tǒng)API實時行為編碼模塊是你的選擇,在這種情況下,掌上觀察記錄分析系統(tǒng)為觀測編碼行為提供了理想的解決方案。有了掌上行為觀察記錄分析系統(tǒng),你可以詳細的記錄觀察到的數(shù)據(jù),同時,由于它便捷的用戶界面使得掌上觀察編碼數(shù)據(jù)變得更加簡單。
● 這種輕便式設備是現(xiàn)場行為觀察的理想記錄器,你可以采用手持移動終端。新版的手持式行為觀察記錄分析系統(tǒng)API實時行為編碼模塊(ErgoLAB API),你可以在現(xiàn)場真實觀察時通過手持式行為觀察分析系統(tǒng)將行為編碼實時添加到移動行為觀察分析系統(tǒng)中?;氐睫k公室后,將記錄結果輸入到安裝有行為觀察記錄分析系統(tǒng)的電腦中進行分析處理。
2)智能機或者平板上的掌上行為觀察分析系統(tǒng)
● 手持式行為觀察記錄分析系統(tǒng)是一種運行在便攜式設備上的行為分析軟件 。適用于安卓系統(tǒng)的掌上數(shù)據(jù)分析系統(tǒng)有很多優(yōu)勢。
● 便攜式行為觀察分析系統(tǒng),支持觀察者在系統(tǒng)中提前創(chuàng)建好欲研究的點狀行為、片段行為、行為組行為等,通過行為觀察分析系統(tǒng)進行實時觸發(fā);同時支持在手機APP手持終端中提前或實時創(chuàng)建狀行為、片段行為、行為組行為,進行實時觸發(fā)與編碼。
● 系統(tǒng)支持離線行為編碼與統(tǒng)計,支持多行為組編碼的同時進行,無需進行層級切換,即可通過手指點擊、快捷鍵等方式實現(xiàn),可以實現(xiàn)行為的添加、刪除、補充、替換等方式,并詳細展示時間信息。
● 系統(tǒng)支持實時數(shù)據(jù)統(tǒng)計,如點狀行為、片段行為、行為組行為的發(fā)生次數(shù)等,預測行為趨勢;同時直接離線數(shù)據(jù)統(tǒng)計。同樣可以實現(xiàn)多被試的行為基礎統(tǒng)計、行為交叉統(tǒng)計、以及行為序列性分析與延遲統(tǒng)計等。
三、應用領域
●心理學與神經(jīng)科學研究;
●人因工程與工效學研究;
●人因智能與人機交互研究;
●智能交通與駕駛行為研究;
●建筑人居健康與環(huán)境行為研究;
●市場研究與消費者調(diào)研;
●用戶體驗與交互研究;
●教育研究;
●臨床研究;
●嬰兒研究;
●體育運動研究;
●沉浸式VR研究;
人機工程、人的失誤與系統(tǒng)安全、人機工效學、工作場所與工效學負荷等
從安全的角度和著眼點,運用人機工程學的原理和方法去解決人機結合面安全問題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設計、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設計、人機交互對用戶體驗的影響
研究如何通過城市規(guī)劃與建筑設計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過ErgoLAB采集和分析消費者的生理、表情、行為等數(shù)據(jù),了解消費者的認知加工與決策行為,找到消費者行為動機,從而產(chǎn)生恰當?shù)臓I銷策略使消費者產(chǎn)生留言意向及留言行為
郵箱:sales@kingfar.cn
電話:4008113950