<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
歡迎來(lái)到北京津發(fā)科技股份有限公司!
Products產(chǎn)品中心
首頁(yè) > 產(chǎn)品中心 > ErgoLAB人機環(huán)境同步 > 行為觀(guān)察分析 > ErgoLAB FACS便攜式行為觀(guān)察分析系統

便攜式行為觀(guān)察分析系統

簡(jiǎn)要描述:ErgoLAB便攜式行為觀(guān)察分析系統是戶(hù)外現場(chǎng)研究和田野實(shí)驗人類(lèi)行為活動(dòng)或者作業(yè)任務(wù)績(jì)效的實(shí)時(shí)行為編碼和標準行為分析系統工具,系統通過(guò)行為編碼體系(Coding Scheme)采用一種定量的觀(guān)察記錄方式來(lái)實(shí)現行為觀(guān)察的結構化和系統化,對觀(guān)察內容進(jìn)行分類(lèi)和量化編碼的觀(guān)察記錄體系,可以對被試的行為數據進(jìn)行實(shí)時(shí)采集、實(shí)時(shí)編碼、分析與統計。

  • 產(chǎn)品型號:ErgoLAB FACS
  • 廠(chǎng)商性質(zhì):生產(chǎn)廠(chǎng)家
  • 更新時(shí)間:2024-07-11
  • 訪(fǎng)  問(wèn)  量:2407

詳細介紹

產(chǎn)地類(lèi)別國產(chǎn)應用領(lǐng)域化工,農業(yè),地礦,能源,交通
    ErgoLAB便攜式行為觀(guān)察分析系統產(chǎn)品概述

    ErgoLAB便攜式行為觀(guān)察分析系統是戶(hù)外現場(chǎng)研究和田野實(shí)驗人類(lèi)行為活動(dòng)或者作業(yè)任務(wù)績(jì)效的實(shí)時(shí)行為編碼和標準行為分析系統工具,系統通過(guò)行為編碼體系(CodingScheme)采用一種定量的觀(guān)察記錄方式來(lái)實(shí)現行為觀(guān)察的結構化和系統化,對觀(guān)察內容進(jìn)行分類(lèi)和量化編碼的觀(guān)察記錄體系,可以對被試的行為數據進(jìn)行實(shí)時(shí)采集、實(shí)時(shí)編碼、分析與統計。便攜式行為觀(guān)察系統移動(dòng)終端版本,通過(guò)移動(dòng)終端與便攜性手持設備的有機結合,可以在戶(hù)外或者作業(yè)現場(chǎng)進(jìn)行實(shí)時(shí)行為編碼記錄,收集數據后不需要把大量工作全留在事后行為編碼??梢噪S時(shí)隨地進(jìn)行準確的戶(hù)外現場(chǎng)數據采集、實(shí)時(shí)行為編碼和分析與統計。



 

    二、產(chǎn)品特點(diǎn)

    ●系統支持與ErgoLAB行為觀(guān)察分析模塊和人機環(huán)境同步平臺配套使用,支持實(shí)時(shí)觀(guān)察和離線(xiàn)觀(guān)察兩種編碼方式。通過(guò)行為編碼體系實(shí)現行為觀(guān)察的結構化和系統化,與便攜性手持設備的有機結合,可以準確的編碼和分析。

    ●支持基于便攜式行為觀(guān)察分析系統以及ErgoLABAPP手持終端實(shí)時(shí)創(chuàng )建點(diǎn)狀行為、片段行為、以及行為組行為,實(shí)時(shí)發(fā)送、實(shí)時(shí)標記、實(shí)時(shí)統計,支持實(shí)時(shí)接收/發(fā)送SyncBoxTTL觸發(fā)刺激事件信息。

    ●可以在人體移動(dòng)狀態(tài)中觀(guān)察行為過(guò)程并進(jìn)行實(shí)時(shí)行為編碼,系統支持實(shí)時(shí)行為編碼技術(shù),基于跨平臺的手持終端如Windows、IOS、Android手機,Windows、IPad、Android平板進(jìn)行實(shí)時(shí)的行為編碼,可以詳細地對觀(guān)察到的行為進(jìn)行數據記錄,并允許在尋找自由實(shí)驗參與者時(shí)進(jìn)行編碼。

    1)手持式行為觀(guān)察記錄系統(API實(shí)時(shí)行為編碼模塊)

    ●如果你需要進(jìn)行野外觀(guān)察,并要求編碼和分析比較準確的話(huà),ErgoLAB手持式觀(guān)察分析系統API實(shí)時(shí)行為編碼模塊是你的理想選擇,在這種情況下,掌上觀(guān)察記錄分析系統為觀(guān)測編碼行為提供了理想的解決方案。有了掌上行為觀(guān)察記錄分析系統,你可以詳細的記錄觀(guān)察到的數據,同時(shí),由于它便捷的用戶(hù)界面使得掌上觀(guān)察編碼數據變得更加簡(jiǎn)單。

    ●這種輕便式設備是現場(chǎng)行為觀(guān)察的理想記錄器,你可以采用手持移動(dòng)終端。新版的手持式行為觀(guān)察記錄分析系統API實(shí)時(shí)行為編碼模塊(ErgoLABAPI),你可以在現場(chǎng)真實(shí)觀(guān)察時(shí)通過(guò)手持式行為觀(guān)察分析系統將行為編碼實(shí)時(shí)添加到移動(dòng)行為觀(guān)察分析系統中?;氐睫k公室后,將記錄結果輸入到安裝有行為觀(guān)察記錄分析系統的電腦中進(jìn)行分析處理。

 

    2)智能機或者平板上的掌上行為觀(guān)察分析系統

    ●手持式行為觀(guān)察記錄分析系統是一種運行在便攜式設備上的行為分析軟件。適用于安卓系統的掌上數據分析系統有很多優(yōu)勢。

    ●便攜式行為觀(guān)察分析系統,支持觀(guān)察者在系統中提前創(chuàng )建好欲研究的點(diǎn)狀行為、片段行為、行為組行為等,通過(guò)行為觀(guān)察分析系統進(jìn)行實(shí)時(shí)觸發(fā);同時(shí)支持在手機APP手持終端中提前或實(shí)時(shí)創(chuàng )建狀行為、片段行為、行為組行為,進(jìn)行實(shí)時(shí)觸發(fā)與編碼。

    ●系統支持離線(xiàn)行為編碼與統計,支持多行為組編碼的同時(shí)進(jìn)行,無(wú)需進(jìn)行層級切換,即可通過(guò)手指點(diǎn)擊、快捷鍵等方式實(shí)現,可以實(shí)現行為的添加、刪除、補充、替換等方式,并詳細展示時(shí)間信息。

    ●系統支持實(shí)時(shí)數據統計,如點(diǎn)狀行為、片段行為、行為組行為的發(fā)生次數等,預測行為趨勢;同時(shí)直接離線(xiàn)數據統計。同樣可以實(shí)現多被試的行為基礎統計、行為交叉統計、以及行為序列性分析與延遲統計等。

 

    三、應用領(lǐng)域

    ●心理學(xué)與神經(jīng)科學(xué)研究;

    ●人因工程與工效學(xué)研究;

    ●人因智能與人機交互研究;

    ●智能交通與駕駛行為研究;

    ●建筑人居健康與環(huán)境行為研究;

    ●市場(chǎng)研究與消費者調研;

    ●用戶(hù)體驗與交互研究;

    ●教育研究;

    ●臨床研究;

    ●嬰兒研究;

    ●體育運動(dòng)研究;

    ●沉浸式VR研究;

產(chǎn)品咨詢(xún)

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話(huà):

  • 常用郵箱:

  • 省份:

  • 詳細地址:

  • 補充說(shuō)明:

  • 驗證碼:

    請輸入計算結果(填寫(xiě)阿拉伯數字),如:三加四=7

人因工程與工效學(xué)

人機工程、人的失誤與系統安全、人機工效學(xué)、工作場(chǎng)所與工效學(xué)負荷等

安全人機工程

從安全的角度和著(zhù)眼點(diǎn),運用人機工程學(xué)的原理和方法去解決人機結合面安全問(wèn)題

交通安全與駕駛行為

人-車(chē)-路-環(huán)境系統的整體研究,有助于改善駕駛系統設計、提高駕駛安全性、改善道路環(huán)境等

用戶(hù)體驗與交互設計

ErgoLAB可實(shí)現桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數據的采集,探索產(chǎn)品設計、人機交互對用戶(hù)體驗的影響

建筑與環(huán)境行為

研究如何通過(guò)城市規劃與建筑設計來(lái)滿(mǎn)足人的行為心理需求,以創(chuàng )造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營(yíng)銷(xiāo)

通過(guò)ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動(dòng)機,從而產(chǎn)生恰當的營(yíng)銷(xiāo)策略使消費者產(chǎn)生留言意向及留言行為

郵件聯(lián)系我們:sales@kingfar.cn

掃一掃,關(guān)注微信
©2024 北京津發(fā)科技股份有限公司 版權所有 All Rights Reserved. 備案號:京ICP備14045309號-1
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
申扎县| 乐东| 杨浦区| 湛江市| 广饶县| 平武县| 汉中市| 邯郸市| 岳普湖县| 济源市| 白水县| 北海市| 珠海市| 闵行区| 个旧市| 中牟县| 云阳县| 襄垣县| 襄汾县| 伊金霍洛旗| 麻城市| 宣武区| 历史| 皋兰县| 新泰市| 大埔县| 伊宁县| 同德县| 陵川县| 鹤庆县| 乌鲁木齐市| 松滋市| 宁乡县| 普兰店市| 佛教| 乐山市| 三门县| 蓬安县| 南宁市| 阜阳市| 北流市| http://444 http://444 http://444 http://444 http://444 http://444