<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
歡迎來(lái)到北京津發(fā)科技股份有限公司!
Products產(chǎn)品中心
首頁(yè) > 產(chǎn)品中心 > ErgoVR虛擬仿真工效學(xué) > HMI人機交互評價(jià) > ErgoVR人機交互與虛擬仿真實(shí)驗室

人機交互與虛擬仿真實(shí)驗室

簡(jiǎn)要描述:人機交互與虛擬仿真實(shí)驗室以人、機和環(huán)境之間的相互關(guān)系為主要記錄與分析對象,結合了人體科學(xué)、生物科學(xué)、系統工程、心理學(xué)、生理學(xué)等學(xué)科知識與方法,以ErgoLAB 人機環(huán)境同步平臺為核心,同步人- 機- 環(huán)境交互影響多元數據,提升科研數據的量化緯度與標準。

  • 產(chǎn)品型號:ErgoVR
  • 廠(chǎng)商性質(zhì):生產(chǎn)廠(chǎng)家
  • 更新時(shí)間:2024-07-11
  • 訪(fǎng)  問(wèn)  量:3084

詳細介紹

產(chǎn)地類(lèi)別國產(chǎn)應用領(lǐng)域建材,交通,航天,司法,汽車(chē)

人機交互與虛擬仿真實(shí)驗室解決方案

ErgoLAB 工業(yè)設計人機工程實(shí)驗室解決方案以人、機和環(huán)境之間的相互關(guān)系為主要記錄與分析對象,結合了人體科學(xué)、生物科學(xué)、系統工程、心理學(xué)、生理學(xué)等學(xué)科知識與方法,以ErgoLAB 人機環(huán)境同步平臺為核心,同步人- 機- 環(huán)境交互影響多元數據,提升科研數據的量化緯度與標準。

實(shí)驗室方案特點(diǎn):

人機交互與虛擬仿真實(shí)驗室解決方案

ü 創(chuàng )建3D 虛擬現實(shí)仿真實(shí)驗環(huán)境(如虛擬裝配、產(chǎn)品造型、構造等方面的設計等),以人—機—環(huán)境同步技術(shù),同步記錄:

ü 同步各種復雜的自然物理環(huán)境或工作環(huán)境變化:如環(huán)境溫度,濕度,噪音,照明,風(fēng)速,空氣流量,空氣中的顆粒物質(zhì),有機物質(zhì)等;

ü 同步各種活動(dòng)時(shí)的人體生理狀況(如腦電,心電,眼電,心率,皮電,皮溫,血流量等)、眼睛

ü 運動(dòng)或視線(xiàn)關(guān)注點(diǎn)情況、以及頭部和表情的變化情況等;

ü 同步人類(lèi)外顯行為的視頻數據(動(dòng)作,姿勢,運動(dòng),位置,力量,角度,人體震動(dòng)狀態(tài)等);

ü 完成在同一時(shí)間點(diǎn)或同一時(shí)間段內人機環(huán)境數據實(shí)時(shí)同步記錄、追蹤、分析數據。

應用領(lǐng)域:可廣泛用于工業(yè)設計、產(chǎn)品設計、交互設計、可用性研究、用戶(hù)體驗、人機交互界面設計、用戶(hù)行為、消費行為等領(lǐng)域研究。
津發(fā)ErgoLAB 人機環(huán)境同步平臺是研究人類(lèi)在不同環(huán)境中的行為反應,以及各種復雜的自然物理環(huán)境或工作環(huán)境變下(如環(huán)境溫度,濕度,噪音,照明,風(fēng)速,空氣流量,空氣中的顆粒物質(zhì),有機物質(zhì)等)進(jìn)行各種活動(dòng)時(shí)的人體生理狀況(如腦電,心電,眼電,心率,皮電,皮溫,血流量等)、眼睛運動(dòng)或視線(xiàn)關(guān)注點(diǎn)、以及頭部和表情的變化并同步以上所有的數據采集;結合人類(lèi)外顯行為的視頻數據(動(dòng)作,姿勢,運動(dòng),位置,力量,角度,人體震動(dòng)狀態(tài)等)進(jìn)行客觀(guān)的觀(guān)察和分析,了解所有的內外變化之間的因果關(guān)系;完成在同一時(shí)間點(diǎn)或同一時(shí)間段內人—機—環(huán)境數據實(shí)時(shí)同步記錄、追蹤、分析數據。

為什么采用ErgoLAB人機環(huán)境同步研究方法?

ü 單一指標不利于獲得可靠結論-實(shí)驗設計或數據解釋 一個(gè)好的實(shí)驗設計應該盡量避免系統變量和隨機變量的發(fā)生。

ü 當某一的指標與其他指標不*時(shí)仍然可以做出準確的判斷,而單一維度的研究可能在無(wú)意間陷入錯誤的之中。

ü 多維指標獲得的解釋更豐富 (在眼動(dòng)的幫助下獲得注意力信息,并實(shí)時(shí)采集被試的電生理狀態(tài),了解認知情緒信息。)

 


產(chǎn)品咨詢(xún)

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話(huà):

  • 常用郵箱:

  • 省份:

  • 詳細地址:

  • 補充說(shuō)明:

  • 驗證碼:

    請輸入計算結果(填寫(xiě)阿拉伯數字),如:三加四=7

人因工程與工效學(xué)

人機工程、人的失誤與系統安全、人機工效學(xué)、工作場(chǎng)所與工效學(xué)負荷等

安全人機工程

從安全的角度和著(zhù)眼點(diǎn),運用人機工程學(xué)的原理和方法去解決人機結合面安全問(wèn)題

交通安全與駕駛行為

人-車(chē)-路-環(huán)境系統的整體研究,有助于改善駕駛系統設計、提高駕駛安全性、改善道路環(huán)境等

用戶(hù)體驗與交互設計

ErgoLAB可實(shí)現桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數據的采集,探索產(chǎn)品設計、人機交互對用戶(hù)體驗的影響

建筑與環(huán)境行為

研究如何通過(guò)城市規劃與建筑設計來(lái)滿(mǎn)足人的行為心理需求,以創(chuàng )造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營(yíng)銷(xiāo)

通過(guò)ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動(dòng)機,從而產(chǎn)生恰當的營(yíng)銷(xiāo)策略使消費者產(chǎn)生留言意向及留言行為

郵件聯(lián)系我們:sales@kingfar.cn

掃一掃,關(guān)注微信
©2024 北京津發(fā)科技股份有限公司 版權所有 All Rights Reserved. 備案號:京ICP備14045309號-1
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<object id="ycyu2"><wbr id="ycyu2"></wbr></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"><noscript id="ycyu2"></noscript></sup><acronym id="ycyu2"><div id="ycyu2"></div></acronym>
<object id="ycyu2"></object>
<sup id="ycyu2"><wbr id="ycyu2"></wbr></sup>
<sup id="ycyu2"></sup>
<object id="ycyu2"></object>
临夏市| 斗六市| 深圳市| 固阳县| 靖远县| 西林县| 西城区| 融水| 岱山县| 灵宝市| 民县| 东乡族自治县| 夏津县| 怀柔区| 安康市| 辽阳县| 江西省| 霍城县| 松滋市| 新闻| 集贤县| 合阳县| 阳谷县| 玉环县| 鸡西市| 绵阳市| 阜南县| 周口市| 肇东市| 靖边县| 睢宁县| 射阳县| 北海市| 洛扎县| 鸡东县| 莲花县| 屯留县| 阜新| 琼海市| 叶城县| 漳浦县| http://444 http://444 http://444 http://444 http://444 http://444