国产精品嫩草影院AV_国产95在线 | 欧美_欧美色欧美亚洲另类二区_亚洲Va中文字幕无码久久

位置:首頁 > 產品展示 > ErgoVR人機交互虛擬仿真(zhen)

產品展示

產品展示

ErgoVR人機交互測評平臺

產品型號:ErgoVR

類(lei)   型:

1

描   述:

人機環境同步平臺是研究人類在不同物理環境中的行為反應,進行各種活動時的人體生理狀況、眼睛運動或視線關注點、以及頭部和表情的變化并同步以上所有的數據采集;

咨詢報價 預約體驗

一、產品(pin)概述

ErgoLAB信(xin)息產品人機(ji)交(jiao)互測評(ping)系統,是津(jin)發科技依(yi)據(ju)“人因工程(cheng)與工效學(Human Factors and Ergonomics)”和“人(ren)-信息-物理系統(HCPS)”理論自主研發的(de)面向多模態(tai)數(shu)字(zi)化(hua)信息(xi)產品 “以(yi)人為中心的(de)-信息系統交互HCI)主(zhu)客觀測試(shi)與評(ping)估(gu)系統(tong),可(ke)以(yi)對信息產品原(yuan)型(xing)(xing)進行(xing)人(ren)機交互(hu)(hu)原(yuan)型(xing)(xing)設計、用(yong)戶(hu)體驗與可(ke)用(yong)性測試(shi)、人(ren)機交互(hu)(hu)評(ping)估(gu)與交互(hu)(hu)行(xing)為(wei)分(fen)析(xi)系統(tong)、人(ren)因測試(shi)與人(ren)機工效(xiao)評(ping)價等(deng)。廣泛用(yong)于(yu)桌面端(duan)PC應用程序、WEB網頁程序,移動(dong)終(zhong)端APP應用程序(xu),虛擬現實VR應用程序(xu)等(deng)多類(lei)型信息化終端設備(bei),特別是人工智(zhi)能時(shi)代針對AI人機智能(neng)交(jiao)互程序產(chan)品原(yuan)型等多(duo)類(lei)型數字化信息產(chan)品的交(jiao)互行(xing)為(wei)分析和(he)可用性(xing)測試、人機交(jiao)互測試和(he)評(ping)價。

綜合分析1.jpg

ErgoLAB信息(xi)產品人機交互測評(ping)系統、用戶體驗(yan)與(yu)可用性測試系統分為學術版、企業(ye)版、軍工(gong)版,并可根據(ju)客(ke)戶需求(qiu)提(ti)供私有化(hua)云端部署;該系統是ErgoLAB人機環境同步云(yun)平臺專門針對人(ren)-信(xin)息(xi)系統交互(hu)HCI)主(zhu)客(ke)觀(guan)測試與評(ping)估的子系(xi)統(tong)(tong)。系(xi)統(tong)(tong)可(ke)提供(gong)從被試庫云項(xiang)目管理、云實驗設計、數(shu)據采集、存儲、分(fen)析到智能應用的全流程主(zhu)客(ke)觀(guan)數(shu)據驅動解(jie)決方(fang)案,可(ke)搭建私有云數(shu)據庫,包含多(duo)終端API/TTL實時行(xing)為編碼與事(shi)件標記應用程(cheng)序并(bing)提供開(kai)(kai)放數據同步接口(kou)可供二次開(kai)(kai)發,快(kuai)速精準輸出(chu)可用性測試與交互行(xing)為分析結(jie)果,助力裝備(bei)研制和產品開(kai)(kai)發的(de)全生命周期。

 

ErgoLAB信息產品人機交(jiao)互(hu)測(ce)評系統(tong),具(ju)備(bei)被試庫管理與(yu)屬性篩選、問卷與(yu)量表調查、WEB/APP/VR等多類型信(xin)息產品或原型的(de)設(she)計與導入(ru)、AOI興趣區(qu)自(zi)動(dong)識別與(yu)自(zi)定(ding)義編輯、測試過(guo)程同(tong)步記錄、多模態數(shu)據(ju)同(tong)步采集分析、以及實(shi)驗(yan)數(shu)據(ju)嵌入式回(hui)放等功能,借助科學量化(hua)的(de)統計數(shu)據(ju),分析得出面向特定(ding)用戶的(de)信(xin)息產(chan)品(pin)(pin)功能設計的(de)有效性和可用性。適用于裝備研(yan)制和產(chan)品(pin)(pin)開發(fa)的(de)全(quan)生命周(zhou)期,能夠幫助在產(chan)品(pin)(pin)開發(fa)初期修正策(ce)劃(hua)方(fang)案、產(chan)品(pin)(pin)投(tou)產(chan)階段提供(gong)(gong)改(gai)進(jin)方(fang)案、產(chan)品(pin)(pin)廣告與(yu)營銷提供(gong)(gong)客觀的(de)市場研(yan)究與(yu)用戶消費行為(wei)調(diao)研(yan)。

 

ErgoLABpng.png01 SYNCBOX.png

智能化人機環境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設計、數據同步采集、信號處理與數據分析到綜合統計與輸出可視化報告,對于特殊領域客戶可定制云端的人因大數據采集與AI狀態識別。具備ErgoVR虛擬現實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環境模擬實時同步人因工程研究解決方案,可以在不同的實驗環境為人-機-環境研究的發展提供進一步的主客觀數據支撐與科學指導。
實驗設計.png

 

其中,云實(shi)驗設(she)計(ji)模塊具備多時間軸、隨機化呈現(xian)等(deng)功能(neng)、可以(yi)創建復(fu)雜的(de)實(shi)驗刺(ci)激(ji),支(zhi)持任何類型的(de)刺(ci)激(ji)材料,包括自定義(yi)問(wen)卷、量(liang)表與(yu)實(shi)驗范式(shi)(系統包含(han)常用量(liang)表與(yu)實(shi)驗范式(shi)以(yi)及數據常模,如(ru)NASA-TLX認知負荷(he)量(liang)表、PANAS情緒效價量(liang)表、Stroop任務、MOT多目標追蹤(zong)、注(zhu)意力訓練(lian)任務等(deng))、聲(sheng)光電刺(ci)激(ji)與(yu)實(shi)時API行為編(bian)(bian)碼/TTL事件標記(ji)、多媒(mei)體刺(ci)激(ji)編(bian)(bian)輯如(ru)文本、聲(sheng)音、圖像(xiang),視頻(含(han)360度圖片(pian)和(he)視頻),在線網(wang)站(zhan)和(he)手(shou)機應用程序(xu),以(yi)及所有的(de)原型設(she)計(ji)材料,也支(zhi)持與(yu)如(ru)下刺(ci)激(ji)實(shi)時同步(bu)采集:如(ru)場景(jing)攝像(xiang)機、軟件,游戲(xi),VR,AR程序(xu)等(deng)。兼(jian)容第三方軟件刺(ci)激(ji)編(bian)(bian)譯(yi)軟件,如(ru)E-prime,Superlab,TobiiPro Lab等(deng)。

 

shikong2.png

ErgoLAB平(ping)臺(tai)采用主客觀結合多維(wei)度數(shu)(shu)(shu)據(ju)驗證的(de)方法,數(shu)(shu)(shu)據(ju)同(tong)步種類包(bao)含(han)大腦認知(zhi)數(shu)(shu)(shu)據(ju)(EEG腦機交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)與(yu)腦電測量(liang)系統(tong)、fNIRS高密度近紅(hong)外(wai)腦功能成像系統(tong)),視覺數(shu)(shu)(shu)據(ju)(Eyetracking視線交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)與(yu)眼動(dong)追蹤系統(tong)),生(sheng)(sheng)理信號數(shu)(shu)(shu)據(ju)(生(sheng)(sheng)理儀含(han):GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行(xing)(xing)為(wei)觀察、肢體動(dong)作與(yu)面(mian)部(bu)表(biao)情(基本情緒(xu)、情緒(xu)效價、微表(biao)情等(deng)(deng)(deng))數(shu)(shu)(shu)據(ju)、生(sheng)(sheng)物力(li)學數(shu)(shu)(shu)據(ju)(拉力(li)、握(wo)力(li)、捏力(li)、壓力(li)…),人機交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)數(shu)(shu)(shu)據(ju)(包(bao)含(han)如網頁終(zhong)端界(jie)面(mian)交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)行(xing)(xing)為(wei)數(shu)(shu)(shu)據(ju)以(yi)及(ji)(ji)對應的(de)鍵盤操作,鼠標點擊、懸浮、劃入劃出等(deng)(deng)(deng);移(yi)動(dong)終(zhong)端界(jie)面(mian)交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)行(xing)(xing)為(wei)數(shu)(shu)(shu)據(ju)以(yi)及(ji)(ji)對應的(de)手指行(xing)(xing)為(wei)如點擊、縮放、滑(hua)動(dong)等(deng)(deng)(deng);VR終(zhong)端界(jie)面(mian)人機交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)行(xing)(xing)為(wei)數(shu)(shu)(shu)據(ju)及(ji)(ji)對應的(de)雙(shuang)手操作拾取、丟棄、控(kong)制,VR空間行(xing)(xing)走軌(gui)(gui)跡)、以(yi)及(ji)(ji)多類型時(shi)(shi)空行(xing)(xing)為(wei)數(shu)(shu)(shu)據(ju)采集(包(bao)括室內、戶外(wai)、以(yi)及(ji)(ji)VR環(huan)(huan)境不同(tong)時(shi)(shi)空的(de)行(xing)(xing)走軌(gui)(gui)跡、行(xing)(xing)車軌(gui)(gui)跡、訪問狀態(tai)以(yi)及(ji)(ji)視線交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)、情感反應、交(jiao)(jiao)(jiao)(jiao)(jiao)(jiao)互(hu)(hu)操作行(xing)(xing)為(wei)等(deng)(deng)(deng)數(shu)(shu)(shu)據(ju)采集)、以(yi)及(ji)(ji)環(huan)(huan)境數(shu)(shu)(shu)據(ju)(溫度、濕度、噪音(yin)、光照、大氣壓、濕度、粉塵等(deng)(deng)(deng))等(deng)(deng)(deng)客觀量(liang)化數(shu)(shu)(shu)據(ju)。

eeg-visualization-min.png

ErgoLAB平臺包(bao)含(han)強大的(de)數據分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)模塊以(yi)及(ji)廣泛的(de)認知和情(qing)感(gan)生物特征識別(如記憶,注意力(li),情(qing)緒反應,行(xing)為決策(ce),以(yi)及(ji)警覺、壓(ya)力(li)等(deng))。ErgoLAB數據分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)與(yu)(yu)綜合統計分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)模塊包(bao)含(han)多維度人(ren)-機-環境數據綜合分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、EEG腦電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)與(yu)(yu)可(ke)視化、眼(yan)(yan)動分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)與(yu)(yu)可(ke)視化、行(xing)為觀(guan)察分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、面部表情(qing)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、動作姿態傷害評(ping)估與(yu)(yu)工效學(xue)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、交互行(xing)為分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、時(shi)空行(xing)為分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、車輛(liang)與(yu)(yu)駕駛行(xing)為分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(ErgoAI駕駛版本)、HRV心率變異性分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、EDA/GSR皮電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、RESP呼(hu)吸分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、EMG肌電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、General通(tong)用信(xin)(xin)號(hao)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(如SKT皮溫分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)、EOG眼(yan)(yan)電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)以(yi)及(ji)其他環境與(yu)(yu)生物力(li)學(xue)信(xin)(xin)號(hao)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi))。系統具(ju)備專門的(de)信(xin)(xin)號(hao)處(chu)理模塊以(yi)及(ji)開(kai)(kai)放式信(xin)(xin)號(hao)處(chu)理接口,可(ke)以(yi)直接導(dao)出可(ke)視化分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)報告以(yi)及(ji)原始(shi)數據,支持第三方處(chu)理與(yu)(yu)開(kai)(kai)發。

 

津發(fa)科技提供(gong)定(ding)制開發(fa)服務,與(yu)人因工(gong)程與(yu)工(gong)效學(xue)分(fen)析評(ping)價(jia)領(ling)域(yu)相關的算法模型、軟硬件產品與(yu)技術可深入研發(fa),詳情(qing)咨(zi)詢(xun)津發(fa)科技!

綜合分析1.jpg

津發科技股份公(gong)司自豪地給大家(jia)介紹(shao)ErgoLAB人機環境(jing)同(tong)步(bu)(bu)平臺。人機環境(jing)同(tong)步(bu)(bu)平臺是由津發公(gong)司安全(quan)自主開發的系(xi)統(tong),是一個專業用于(yu)實(shi)(shi)驗(yan)設(she)計(ji)、數據(ju)收集、分析(xi)統(tong)計(ji)和演(yan)示工(gong)效(xiao)學研(yan)究與人類(lei)行為(wei)研(yan)究中人-機-環境(jing)數據(ju)同(tong)步(bu)(bu)采集及(ji)多(duo)元數據(ju)同(tong)步(bu)(bu)分析(xi)平臺,系(xi)統(tong)通(tong)過了(le)(le)國家(jia)發明專利:201410056693.6,產品通(tong)過了(le)(le)歐(ou)洲CE、FCC、以(yi)及(ji)ISO9001、ISO14001、ISO18001等(deng)多(duo)項國際認證,也獲得國家(jia)多(duo)項自主知識產權證書。該系(xi)統(tong)與許多(duo)交通(tong)與駕駛研(yan)究、人因工(gong)程學、心理學實(shi)(shi)驗(yan)設(she)備相兼容,共(gong)同(tong)為(wei)人機工(gong)程研(yan)究創造了(le)(le)理想的人-機-環境(jing)同(tong)步(bu)(bu)研(yan)究解(jie)決方案(an)。

津發ErgoLAB人機環境同步平臺是研究人類在不同環境中的行為反應,以及各種復雜的自然物理環境或工作環境變下(如環境溫度,濕度,噪音,照明,風速,空氣流量,空氣中的顆粒物質,有機物質等)進行各種活動時的人體生理狀況(如腦電,心電,眼電,心率,皮電,皮溫,血流量等)、眼睛運動或視線關注點、以及頭部和表情的變化并同步以上所有的數據采集;結合人類外顯行為的視頻數據(動作,姿勢,運動,位置,力量,角度,人體震動狀態等)進行客觀的觀察和分析,了解所有的內外變化之間的因果關系;完成在同一時間點或同一時間段內人機環境數據實時同步記錄、追蹤、分析數據。

ErgoLAB人(ren)(ren)機(ji)環境同步(bu)平臺(tai)是(shi)一套研(yan)(yan)(yan)究(jiu)(jiu)(jiu)級解決(jue)方案,目前在人(ren)(ren)機(ji)交互與可用性研(yan)(yan)(yan)究(jiu)(jiu)(jiu)、駕駛行為研(yan)(yan)(yan)究(jiu)(jiu)(jiu)、環境行為研(yan)(yan)(yan)究(jiu)(jiu)(jiu)、安全(quan)人(ren)(ren)機(ji)工程(cheng)研(yan)(yan)(yan)究(jiu)(jiu)(jiu)、行為安全(quan)研(yan)(yan)(yan)究(jiu)(jiu)(jiu)、人(ren)(ren)機(ji)工程(cheng)研(yan)(yan)(yan)究(jiu)(jiu)(jiu)、人(ren)(ren)因(yin)工程(cheng)與工效學研(yan)(yan)(yan)究(jiu)(jiu)(jiu)等(deng)領域處于技術領先地位。

ErgoLAB解決方案適用于多種實(shi)驗研(yan)究環(huan)境(jing):3D虛(xu)擬仿真環(huan)境(jing)研(yan)究、Realworld真實(shi)世界(jie)現場研(yan)究環(huan)境(jing)、以及(ji)實(shi)驗室(shi)研(yan)究環(huan)境(jing)。

 

人機環境同(tong)步平臺技(ji)術特點,

1、可穿戴技術適合真(zhen)實現場研究

該系統采用最適(shi)合進(jin)行(xing)(xing)(xing)(xing)真實現場研(yan)究(jiu)級別的(de)(de)(de)(de)可(ke)穿(chuan)(chuan)戴(dai)技術、無線數(shu)(shu)據(ju)(ju)傳(chuan)輸技術,目前是世界上唯一的(de)(de)(de)(de)可(ke)穿(chuan)(chuan)戴(dai)人(ren)(ren)(ren)-機-環境同步(bu)研(yan)究(jiu)系統,無需連接任(ren)何線纜的(de)(de)(de)(de)數(shu)(shu)據(ju)(ju)記錄器(qi)(qi)與(yu)傳(chuan)感(gan)器(qi)(qi)實現無線通訊:讓被(bei)試忘(wang)記連接線纜帶來(lai)的(de)(de)(de)(de)約(yue)束與(yu)不適(shi)感(gan)覺(jue),在人(ren)(ren)(ren)類活動(dong)(dong)(dong)或操作作業中可(ke)以在完全(quan)自然(ran)不受(shou)任(ren)何干擾的(de)(de)(de)(de)狀態下采集數(shu)(shu)據(ju)(ju),行(xing)(xing)(xing)(xing)動(dong)(dong)(dong)完全(quan)自由!所有(you)的(de)(de)(de)(de)可(ke)穿(chuan)(chuan)戴(dai)數(shu)(shu)據(ju)(ju)采集模塊同步(bu)在線分(fen)析(xi)人(ren)(ren)(ren)體的(de)(de)(de)(de)腦電波變化(hua)、眼動(dong)(dong)(dong)軌跡、以及肌電、心(xin)電、皮電、皮溫、呼吸、心(xin)率等情(qing)緒和(he)生(sheng)(sheng)理變化(hua)、并可(ke)以就(jiu)人(ren)(ren)(ren)類行(xing)(xing)(xing)(xing)為的(de)(de)(de)(de)動(dong)(dong)(dong)作次數(shu)(shu)、動(dong)(dong)(dong)作習慣、動(dong)(dong)(dong)作頻率、持續時間等,進(jin)行(xing)(xing)(xing)(xing)情(qing)緒、緊張、反應狀態的(de)(de)(de)(de)分(fen)析(xi),研(yan)究(jiu)個體行(xing)(xing)(xing)(xing)為、生(sheng)(sheng)理情(qing)緒狀況、視覺(jue)、認(ren)知(zhi)、活動(dong)(dong)(dong)等機體特(te)性在特(te)定工作或移動(dong)(dong)(dong)狀態下與(yu)周(zhou)圍(wei)環境刺激間交互影響狀態。

2、虛擬現實(shi)環境模擬仿真(zhen)技(ji)術結合定量(liang)的研究方法

1)人(ren)-機-環(huan)境(jing)同(tong)步(bu)技術實現了(le)數據(ju)的(de)(de)量化(hua)分(fen)(fen)析(xi)。傳統研究(jiu)中,多采用定(ding)性/質的(de)(de)分(fen)(fen)析(xi)方法。以人(ren)機環(huan)境(jing)同(tong)步(bu)技術為核(he)心的(de)(de)研究(jiu)方法將數學化(hua)、數字化(hua)及數據(ju)的(de)(de)量化(hua)研究(jiu)和分(fen)(fen)析(xi)相(xiang)結合(he),將之前一(yi)(yi)直是(shi)“說一(yi)(yi)說”或(huo)者(zhe)“感覺(jue)”的(de)(de)東西通(tong)過大量的(de)(de)數據(ju)來證明和論(lun)述。人(ren)機環(huan)境(jing)同(tong)步(bu)技術最實質性的(de)(de)功用是(shi)使研究(jiu)人(ren)員得(de)以進行數據(ju)分(fen)(fen)析(xi),為工程、安全、設計、建(jian)筑、交(jiao)通(tong)、航(hang)空航(hang)天、航(hang)海(hai)、船舶(bo)類的(de)(de)學生創造和實踐提供(gong)了(le)很(hen)好的(de)(de)實驗和研究(jiu)平臺。

2)人(ren)-機-環境同(tong)步(bu)技(ji)術(shu)結合(he)虛(xu)擬(ni)(ni)(ni)現實(shi)技(ji)術(shu)。以人(ren)機環境同(tong)步(bu)技(ji)術(shu)為核心的(de)人(ren)機環境同(tong)步(bu)實(shi)驗(yan)室結合(he)了數據定量化、虛(xu)擬(ni)(ni)(ni)現實(shi)技(ji)術(shu)。通過虛(xu)擬(ni)(ni)(ni)空間(jian)的(de)用戶體(ti)驗(yan)研(yan)究(jiu),將模型或圖紙類(lei)的(de)“感”性(xing)研(yan)究(jiu)提到實(shi)際體(ti)驗(yan)層面,更貼近現實(shi)研(yan)究(jiu)。同(tong)時(shi),像(xiang)比傳統的(de)虛(xu)擬(ni)(ni)(ni)現實(shi)設備(bei),該(gai)技(ji)術(shu)使虛(xu)擬(ni)(ni)(ni)環境具備(bei)了科研(yan)能力,可實(shi)現多維度定量數據采集和(he)分析等(deng)功能。

3、與其他研究(jiu)方(fang)法的顯(xian)著區別

人-機-環(huan)(huan)(huan)境同步技術與以(yi)往一(yi)些傳統(tong)(tong)的(de)(de)研究方法(fa)的(de)(de)根本區別之一(yi),就是環(huan)(huan)(huan)境因素不再作為(wei)一(yi)種(zhong)被(bei)動的(de)(de)干擾因素排(pai)斥在系統(tong)(tong)之外,而是作為(wei)一(yi)種(zhong)積極的(de)(de)主(zhu)動因素納入系統(tong)(tong)之中,并成為(wei)系統(tong)(tong)的(de)(de)一(yi)個重要環(huan)(huan)(huan)節。

很顯然,環(huan)境(jing)既影(ying)(ying)響(xiang)人(ren)的(de)(de)生存和(he)(he)工作能力(li),又影(ying)(ying)響(xiang)機的(de)(de)性能和(he)(he)可靠運轉。反之,人(ren)和(he)(he)機也影(ying)(ying)響(xiang)環(huan)境(jing)的(de)(de)狀態。所以,環(huan)境(jing)與(yu)(yu)人(ren)、環(huan)境(jing)與(yu)(yu)機、環(huan)境(jing)與(yu)(yu)系(xi)統之間,既存在信(xin)息(xi)流通、信(xin)息(xi)加(jia)(jia)工問(wen)題(ti),也存在信(xin)息(xi)控制問(wen)題(ti),這(zhe)就更加(jia)(jia)突出了環(huan)境(jing)在系(xi)統中的(de)(de)重要作用(yong)。

實踐證明(ming),只有(you)把環(huan)境作(zuo)為系(xi)統的(de)(de)一個環(huan)節,才(cai)能從(cong)系(xi)統的(de)(de)總體高度對(dui)環(huan)境進(jin)行全面的(de)(de)規(gui)劃與(yu)控制,有(you)的(de)(de)可以消除(chu),有(you)的(de)(de)可以防護,有(you)的(de)(de)可減至允(yun)許限度,有(you)的(de)(de)可獲取最(zui)佳值(zhi),從(cong)而使全系(xi)統處于最(zui)優工作(zuo)狀態,這就(jiu)從(cong)根本(ben)上杜絕了那種先出產(chan)品后治(zhi)環(huan)境,或在管(guan)理工作(zuo)中(zhong)頭(tou)痛治(zhi)頭(tou)、腳(jiao)疼醫腳(jiao)的(de)(de)被動局面,使人們的(de)(de)科(ke)學(xue)(xue)實踐活動始(shi)終(zhong)沿著科(ke)學(xue)(xue)的(de)(de)道(dao)路前進(jin);

 

研(yan)究(jiu)者可(ke)以使用ErgoLAB人機環境同(tong)步平臺完成個性化(hua)(hua)與(yu)目標(biao)化(hua)(hua)的(de)實(shi)驗設計,并能(neng)夠實(shi)現項目的(de)連續(xu)性研(yan)究(jiu)。它(ta)依據科學實(shi)驗研(yan)究(jiu)標(biao)準過程(cheng),支(zhi)持實(shi)驗測試全過程(cheng)---從(cong)項目計劃(hua)、樣本確定、數據同(tong)步記錄到結果的(de)分(fen)析(xi)與(yu)可(ke)視(shi)化(hua)(hua)及導出(chu)報告。

在實(shi)(shi)驗課題計(ji)劃(hua)準(zhun)備階(jie)(jie)段,ErgoLAB支持研(yan)究(jiu)(jiu)者(zhe)所(suo)(suo)有的(de)(de)(de)(de)設(she)計(ji)規劃(hua)--從樣本屬性(xing)界定(ding)到數據(ju)(ju)(ju)記錄方式的(de)(de)(de)(de)匹(pi)配等。在實(shi)(shi)驗測量階(jie)(jie)段,研(yan)究(jiu)(jiu)者(zhe)可(ke)以實(shi)(shi)時(shi)監控所(suo)(suo)有通道的(de)(de)(de)(de)數據(ju)(ju)(ju),及(ji)(ji)時(shi)監測相關重要性(xing)數據(ju)(ju)(ju)影響因素。ErgoLAB人機環境(jing)同步(bu)平(ping)臺提(ti)供(gong)了同步(bu)測量數據(ju)(ju)(ju)回(hui)放功能(neng),允許研(yan)究(jiu)(jiu)者(zhe)準(zhun)確的(de)(de)(de)(de)分析(xi)腦波、生理反應、眼(yan)動注視點(dian)、行為、動作,語言(yan)評(ping)論(lun),姿勢以及(ji)(ji)面部表情等。同時(shi),ErgoLAB也提(ti)供(gong)了豐富(fu)的(de)(de)(de)(de)數據(ju)(ju)(ju)分析(xi)功能(neng),研(yan)究(jiu)(jiu)者(zhe)可(ke)以根據(ju)(ju)(ju)課題研(yan)究(jiu)(jiu)的(de)(de)(de)(de)目(mu)的(de)(de)(de)(de)、內容(rong)選取(qu)特定(ding)的(de)(de)(de)(de)數據(ju)(ju)(ju)片段或過濾、提(ti)取(qu)有意義的(de)(de)(de)(de)數據(ju)(ju)(ju)結果,進而開展(zhan)有效(xiao)的(de)(de)(de)(de)深入研(yan)究(jiu)(jiu)與分析(xi)。

人機(ji)環境同步平臺(tai)系統組成:

津發ErgoLAB人(ren)機環(huan)境(jing)同(tong)(tong)(tong)(tong)步(bu)平臺以獨創的(de)(de)人(ren)機環(huan)境(jing)多(duo)元數據同(tong)(tong)(tong)(tong)步(bu)技術為核心(xin),通過可穿(chuan)戴情(qing)緒測(ce)量(liang)與生理記(ji)錄(lu)同(tong)(tong)(tong)(tong)步(bu)模塊同(tong)(tong)(tong)(tong)步(bu)記(ji)錄(lu)個體的(de)(de)心(xin)電ECG、皮(pi)電EDA、脈(mo)搏PPG、肌電EMG、呼吸(xi)RESP、皮(pi)溫SKT等(deng)(deng)指標;同(tong)(tong)(tong)(tong)時,非(fei)接觸與可穿(chuan)戴眼動(dong)追(zhui)蹤同(tong)(tong)(tong)(tong)步(bu)模塊及EEG可穿(chuan)戴腦電測(ce)量(liang)同(tong)(tong)(tong)(tong)步(bu)模塊同(tong)(tong)(tong)(tong)步(bu)實(shi)時記(ji)錄(lu)個體的(de)(de)眼動(dong)和腦電波變化(hua)情(qing)況,分(fen)(fen)析(xi)個體的(de)(de)注意(yi)力(li)、認知負荷等(deng)(deng)信息;Biometrics可穿(chuan)戴生物力(li)學測(ce)量(liang)同(tong)(tong)(tong)(tong)步(bu)模塊及PsyLAB交互行為觀察模塊結合(he)動(dong)作分(fen)(fen)級編碼(ma)技術,同(tong)(tong)(tong)(tong)步(bu)實(shi)時記(ji)錄(lu)個體的(de)(de)動(dong)作、姿(zi)勢、行為表現(xian)、表情(qing)分(fen)(fen)析(xi)等(deng)(deng);Environment物理環(huan)境(jing)測(ce)量(liang)數據同(tong)(tong)(tong)(tong)步(bu)模塊實(shi)時同(tong)(tong)(tong)(tong)步(bu)記(ji)錄(lu)個體工作環(huan)境(jing)信息,如溫濕(shi)度,光照度等(deng)(deng)環(huan)境(jing)的(de)(de)要求(qiu)對個體行為或績效的(de)(de)影響性等(deng)(deng)。

    ErgoHMI駕駛艙人機工效虛擬現實系統

    虛(xu)擬現實(shi)技(ji)術(shu)為我們(men)發展(zhan)一(yi)種變革性的(de)(de)(de)具有良(liang)好生態效度(du)(du)(du)和(he)內(nei)部效度(du)(du)(du)的(de)(de)(de)實(shi)驗方法提供了契機。傳統的(de)(de)(de)心理學實(shi)驗往(wang)往(wang)犧(xi)牲生態效度(du)(du)(du)來達到較高的(de)(de)(de)外部效度(du)(du)(du)。其次(ci),虛(xu)擬現實(shi)技(ji)術(shu)使得心理學實(shi)驗可以在自然的(de)(de)(de)條件下進(jin)行,從而更有效地開(kai)展(zhan)有關人類視知(zhi)(zhi)覺、運動和(he)認知(zhi)(zhi)等(deng)方面的(de)(de)(de)研究。

    介紹 參數
    ErgoVR沉浸式CAVE虛擬仿真實驗室

    ErgoVR沉浸式CAVE虛(xu)擬現實實驗室可提供光環(huan)境(jing)與(yu)(yu)(yu)視(shi)覺(jue)模(mo)擬、聲環(huan)境(jing)與(yu)(yu)(yu)聽覺(jue)模(mo)擬、氣味(wei)與(yu)(yu)(yu)嗅覺(jue)模(mo)擬、人機(ji)交(jiao)互(hu)與(yu)(yu)(yu)觸(chu)覺(jue)反饋(kui)模(mo)擬、人機(ji)交(jiao)互(hu)測評、人機(ji)環(huan)境(jing)測試、人機(ji)工(gong)效(xiao)分析、人因設(she)計與(yu)(yu)(yu)虛(xu)擬裝配(pei)、虛(xu)擬展示(shi)、虛(xu)擬訓練等(deng)技術(shu)服務(wu)。

    介紹 參數
    多人交互虛擬現實系統

    多(duo)人(ren)交互(hu)可穿戴行(xing)(xing)走(zou)虛(xu)擬(ni)現實(shi)系統由津發(fa)科(ke)技自主研發(fa)的(de)ErgoLAB虛(xu)擬(ni)世(shi)界人(ren)機環(huan)境(jing)同(tong)(tong)步平臺(tai)、美國WorldViz頭戴式(shi)行(xing)(xing)走(zou)虛(xu)擬(ni)現實(shi)系統等核(he)心(xin)部件組成,采(cai)用虛(xu)擬(ni)現實(shi)多(duo)人(ren)交互(hu)技術(shu),支(zhi)持多(duo)人(ren)在(zai)同(tong)(tong)一個虛(xu)擬(ni)現實(shi)場景中協同(tong)(tong)完(wan)成人(ren)機交互(hu)任務的(de)解決方案,試驗者的(de)動作均細致地呈(cheng)現在(zai)同(tong)(tong)一個虛(xu)擬(ni)現實(shi)世(shi)界中,雙人(ren)數(shu)據(ju)同(tong)(tong)步,即(ji)時互(hu)動感大(da)大(da)增(zeng)強(qiang)。在(zai)進行(xing)(xing)人(ren)機環(huan)境(jing)或者人(ren)類行(xing)(xing)為研究(jiu)時結合虛(xu)擬(ni)現實(shi)技術(shu),基于(yu)三維(wei)虛(xu)擬(ni)現實(shi)環(huan)境(jing)變化的(de)情況下實(shi)時同(tong)(tong)步采(cai)集人(ren)-機-環(huan)境(jing)定量數(shu)據(ju)并進行(xing)(xing)分(fen)析(xi)評(ping)價,定量結果為科(ke)學研究(jiu)做客觀數(shu)據(ju)支(zhi)撐。

    介紹 參數

訂購請留言

您需要:

  • 獲取產品資料
  • 獲取解決方案
  • 設備預約體驗
  • 實驗室規劃設計
  • 制定招標參數

姓名(ming):

電話:

郵箱:

學(xue)院院系(xi)/企(qi)業(ye)名稱:

研究方向:

經費預算:

  • 50萬以內
  • 100萬以內
  • 200萬以內
  • 300萬以內
  • 500萬以內
  • 1000萬以內
  • 2000萬以內
  • 5000萬以內
  • 不限
推薦產品

QQ客服:

  4008113950

服務熱線:

 4008113950

公司郵箱:Kingfar@suixiangcoffee.cn

微信聯系:

 13021282218 

微信公眾號