<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
歡迎來(lái)到北京津發(fā)科技股份有限公司!
Products產(chǎn)品中心
首頁(yè) > 產(chǎn)品中心 > > 行業(yè)解決方案 > ErgoLAB Spatio-Temporal時(shí)空行為分析系統

ErgoLAB Spatio-Temporal時(shí)空行為分析系統

簡(jiǎn)要描述:空間定位系統支持多類(lèi)型的時(shí)空數據采集,包括室內空間位置追蹤、虛擬現實(shí)場(chǎng)景空間位置追蹤以及真實(shí)現場(chǎng)環(huán)境的空間位置追蹤。研究人員可以在任何環(huán)境下進(jìn)行時(shí)空行為研究時(shí),完成多維度客觀(guān)數據的實(shí)時(shí)同步采集與可視化時(shí)空分析。綜合計算機圖形圖像學(xué)、視覺(jué)設計、數據挖掘等技術(shù),支持進(jìn)行信息可視化、科學(xué)可視化與可視分析不同的層次研究。

  • 產(chǎn)品型號:
  • 廠(chǎng)商性質(zhì):生產(chǎn)廠(chǎng)家
  • 更新時(shí)間:2024-07-12
  • 訪(fǎng)  問(wèn)  量:701

詳細介紹

品牌津發(fā)科技產(chǎn)地類(lèi)別國產(chǎn)
應用領(lǐng)域交通,汽車(chē),綜合
產(chǎn)品簡(jiǎn)介

空間定位系統支持多類(lèi)型的時(shí)空數據采集,包括室內空間位置追蹤、虛擬現實(shí)場(chǎng)景空間位置追蹤以及真實(shí)現場(chǎng)環(huán)境的空間位置追蹤。研究人員可以在任何環(huán)境下進(jìn)行時(shí)空行為研究時(shí),完成多維度客觀(guān)數據的實(shí)時(shí)同步采集與可視化時(shí)空分析。綜合計算機圖形圖像學(xué)、視覺(jué)設計、數據挖掘等技術(shù),支持進(jìn)行信息可視化、科學(xué)可視化與可視分析不同的層次研究。

特點(diǎn)
多類(lèi)型時(shí)空數據采集:支持室內時(shí)空數據采集、室外時(shí)空數據采集、VR虛擬時(shí)空數據采集。
自定義SOI與數據統計:可以任意編輯或時(shí)空位置作為SOI分析區域,進(jìn)行數據統計。
可視化人跡地圖與時(shí)空熱圖:系統任意編碼數據源均可進(jìn)入時(shí)空分析進(jìn)行軌跡與時(shí)空熱圖的可視化分析。
多類(lèi)型數據一鍵導出 :支持將所有原始數據、處理數據、編碼數據、統計圖表、可視化軌跡圖等一鍵導出。
功能

基礎定位分析與SOI統計

實(shí)時(shí)計算空間位置數據:系統實(shí)時(shí)計算并監測多被試的動(dòng)態(tài)時(shí)空位置數據,以及個(gè)體間空間位置關(guān)系的計算信息。
自定義SOI與數據統計 :根據實(shí)驗設計,系統自動(dòng)識別項目中的室內空間地圖、世界地圖、VR虛擬空間地圖,在不同類(lèi)型的時(shí)空地圖下,用戶(hù)可任意或編輯時(shí)空位置作為SOI分析區域,進(jìn)行數據統計。
SOI組與疊加分析:系統支持創(chuàng )建SOI Group組別或將建好的興趣區域進(jìn)行歸類(lèi)統計分析,支持單個(gè)被試或者多被試的軌跡數據疊加分析與數據統計。
事件與時(shí)間片段統計:支持所有實(shí)時(shí)編碼與事后編碼的事件與片段進(jìn)行時(shí)空可視化與數據統計分析。
多類(lèi)型數據一鍵導出 :支持將所有原始數據、處理數據、編碼數據、統計圖表、可視化軌跡圖等一鍵導出。


動(dòng)態(tài)時(shí)空數據可視化表達

多通道數據同步時(shí)空分析 :任意ErgoLAB人機環(huán)境同步平臺采集與編碼的數據均可以作為時(shí)空分析中的數據源,如生理數據、眼動(dòng)數據、行為數據等,進(jìn)行可視化時(shí)空熱圖與數據分析。
可視化時(shí)空熱圖:系統提供不同類(lèi)型的熱圖以可視化個(gè)體位置偏好行為,通過(guò)停留時(shí)間、停留次數等指標來(lái)可視化用戶(hù)的時(shí)空數據行為。采用數據可視化的方法對時(shí)空數據進(jìn)行分析和可視化展示,呈現和分析城市道路、建筑環(huán)境、室內空間等局部結構和交通狀況。
可視化行走軌跡:不同被試以不同顏色的行走軌跡圖形進(jìn)行可視化呈現,可直觀(guān)分析不同被試的運動(dòng)軌跡與交互區域,以及實(shí)時(shí)的位置關(guān)系信息。
多類(lèi)型事件標記:支持所有Event事件在時(shí)空軌跡地圖中可視化呈現與分析。包括刺激事件、自定義事件、鍵盤(pán)事件、鼠標事件以及VR虛擬環(huán)境下的手柄觸發(fā)事件。
SOI可視化序列性分析:支持時(shí)空數據的序列性分析,分析進(jìn)入一個(gè)興趣區域發(fā)生在進(jìn)入另一個(gè)興趣區域之后/之前的可視化序列相關(guān)性分析,并一鍵導出行為發(fā)生的可視化序列性分析報告。


可視化Behavior時(shí)空分析

任意編碼數據源的可視化分析與統計:系統支持同步采集的眼動(dòng)數據、生理數據、行為數據、駕駛數據、表情數據、動(dòng)作姿態(tài)數據等各種行為編碼數據的時(shí)空分析。支持統計soi興趣區域內發(fā)生的行為統計,包含在興趣區域內的行為名稱(chēng)、發(fā)生次數、每分鐘發(fā)生的次數、總持續時(shí)間、最小持續時(shí)間、最大持續時(shí)間、平均持續時(shí)間等指標。
多樣性的統計指標:計算統計進(jìn)入每個(gè)SOI興趣區域的興趣區域名稱(chēng)、興趣區域停留的總時(shí)間、興趣區域內停留時(shí)間占總時(shí)間的百分比、進(jìn)入興趣區域的總次數以及在興趣區域停留的平均時(shí)間等數據指標。

時(shí)空多維度數據綜合統計

多通道數據時(shí)空分析 :任意ErgoLAB人機環(huán)境同步平臺采集與編碼的數據均可以作為時(shí)空分析中的數據源,如生理數據、眼動(dòng)數據、行為數據等,進(jìn)行可視化時(shí)空熱圖與SOI數據統計。
綜合統計模塊數據分析:基于多維度人機環(huán)境時(shí)空數據同步技術(shù),綜合統計模塊支持項目中采集的任意人機環(huán)境時(shí)空數據源進(jìn)行交叉統計分析。如基于時(shí)間同步的眼動(dòng)數據、行為數據、生理數據。實(shí)現時(shí)間軸數據的交集可視化、多維度數據的綜合統計。
多層次的數據篩選與交叉分析:可以基于條件與結果進(jìn)行數據篩選、基于被試屬性的交叉分析、基于客觀(guān)測試結果的交叉分析、基于主觀(guān)測試結果的交叉分析,進(jìn)一步實(shí)現多維度數據的對比與可視化統計。


同步方案

ErgoLAB人機環(huán)境同步云平臺可人-機-環(huán)境多維度數據的同步采集與綜合分析,包括眼動(dòng)追蹤、生理測量、生物力學(xué)、腦電、腦成像、行為、人機交互、動(dòng)作姿態(tài)、面部表情、主觀(guān)評 價(jià)、時(shí)空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應用提供完整的數據指標。平臺可完成完整的實(shí)驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數據分析-人工智能應用-可視化報告,支持基于云架構技術(shù)的團體測試和大數據云管理。


產(chǎn)品咨詢(xún)

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話(huà):

  • 常用郵箱:

  • 省份:

  • 詳細地址:

  • 補充說(shuō)明:

  • 驗證碼:

    請輸入計算結果(填寫(xiě)阿拉伯數字),如:三加四=7

人因工程與工效學(xué)

人機工程、人的失誤與系統安全、人機工效學(xué)、工作場(chǎng)所與工效學(xué)負荷等

安全人機工程

從安全的角度和著(zhù)眼點(diǎn),運用人機工程學(xué)的原理和方法去解決人機結合面安全問(wèn)題

交通安全與駕駛行為

人-車(chē)-路-環(huán)境系統的整體研究,有助于改善駕駛系統設計、提高駕駛安全性、改善道路環(huán)境等

用戶(hù)體驗與交互設計

ErgoLAB可實(shí)現桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數據的采集,探索產(chǎn)品設計、人機交互對用戶(hù)體驗的影響

建筑與環(huán)境行為

研究如何通過(guò)城市規劃與建筑設計來(lái)滿(mǎn)足人的行為心理需求,以創(chuàng )造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營(yíng)銷(xiāo)

通過(guò)ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動(dòng)機,從而產(chǎn)生恰當的營(yíng)銷(xiāo)策略使消費者產(chǎn)生留言意向及留言行為

郵件聯(lián)系我們:sales@kingfar.cn

掃一掃,關(guān)注微信
©2024 北京津發(fā)科技股份有限公司 版權所有 All Rights Reserved. 備案號:京ICP備14045309號-1
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
容城县| 舒城县| 衡阳市| 慈利县| 甘孜县| 辽源市| 永年县| 边坝县| 噶尔县| 江永县| 信丰县| 梅河口市| 德令哈市| 武陟县| 淮北市| 墨玉县| 南江县| 额尔古纳市| 阿拉善左旗| 洛阳市| 洞头县| 滨州市| 宜兰市| 廊坊市| 西昌市| 浦县| 高雄县| 永福县| 台北县| 梅河口市| 墨江| 潜山县| 新绛县| 姚安县| 柳河县| 台江县| 墨竹工卡县| 镇江市| 孙吴县| 静海县| 固原市| http://444 http://444 http://444 http://444 http://444 http://444