Summary

Industry 4.0 시나리오에서 몰입형 분석을 위한 혼합 현실 솔루션의 유용성 측면 평가

Published: October 06, 2020
doi:

Summary

이 프로토콜은 몰입형 분석에 사용되는 개발된 혼합 현실 애플리케이션의 기술 설정을 설명합니다. 이를 바탕으로 개발 된 기술 솔루션의 사용성 측면에 대한 통찰력을 얻기 위해 연구에 사용 된 조치가 제시됩니다.

Abstract

의학 또는 산업에서 고차원 데이터 세트의 분석이 점점 더 요구되고 있습니다. 그러나 사용 가능한 기술 솔루션은 사용하기가 복잡한 경우가 많습니다. 따라서 몰입형 분석과 같은 새로운 접근 방식을 환영합니다. 몰입형 분석은 다양한 사용자 그룹 및 데이터 세트에 대해 편리한 방식으로 고차원 데이터 세트를 경험할 것을 약속합니다. 기술적으로 가상 현실 장치는 몰입형 분석을 가능하게 하는 데 사용됩니다. 예를 들어, Industry 4.0에서는 고차원 데이터 세트의 이상치 또는 이상 식별과 같은 시나리오가 몰입형 분석의 목표입니다. 이러한 맥락에서 몰입형 분석에 대한 개발된 기술 솔루션에 대해 두 가지 중요한 질문을 해결해야 합니다: 첫째, 기술 솔루션이 도움이 되고 있습니까? 둘째, 기술적 해결책의 신체적 경험은 긍정적입니까 아니면 부정적입니까? 첫 번째 질문은 기술 솔루션의 일반적인 타당성을 목표로하고 두 번째 질문은 착용감을 목표로합니다. 이러한 질문을 체계적으로 다루는 현존하는 연구 및 프로토콜은 여전히 드뭅니다. 이 작업에서는 주로 Industry 4.0 시나리오에서 몰입형 분석의 유용성을 조사하는 연구 프로토콜이 제시됩니다. 특히이 프로토콜은 네 가지 기둥을 기반으로합니다. 먼저 이전 경험을 기반으로 사용자를 분류합니다. 둘째, 기술 솔루션의 타당성을 평가하는 데 사용할 수있는 작업이 제시됩니다. 셋째, 사용자의 학습 효과를 정량화하는 측정이 제시됩니다. 넷째, 설문지는 작업을 수행 할 때 스트레스 수준을 평가합니다. 이러한 기둥을 기반으로 혼합 현실 스마트 안경을 사용하여 연구 프로토콜을 적용하는 기술 설정이 구현되었습니다. 수행된 연구의 결과는 한편으로는 프로토콜의 적용 가능성과 다른 한편으로는 Industry 4.0 시나리오에서 몰입형 분석의 타당성을 보여줍니다. 제시된 프로토콜에는 발견된 제한 사항에 대한 논의가 포함되어 있습니다.

Introduction

가상 현실 솔루션(VR 솔루션)은 다양한 분야에서 점점 더 중요해지고 있습니다. 종종 VR 솔루션(가상 현실, 혼합 현실 및 증강 현실 포함)을 사용하면 많은 일상적인 작업과 절차를 쉽게 수행할 수 있습니다. 예를 들어, 자동차 도메인에서 자동차의 구성 절차는 가상 현실1 (VR)을 사용하여 지원할 수 있습니다. 연구원과 실무자는 이러한 맥락에서 다양한 접근 방식과 솔루션을 조사하고 개발했습니다. 그러나 사용성 측면을 조사하는 연구는 여전히 드뭅니다. 일반적으로 두 가지 주요 질문에 비추어 측면을 고려해야합니다. 첫째, VR 솔루션이 실제로 VR 기술을 사용하지 않는 접근 방식을 능가하는지 여부를 평가해야합니다. 둘째, VR 솔루션은 주로 무겁고 복잡한 하드웨어 장치에 의존하기 때문에 착용감 및 정신적 노력과 같은 매개 변수를 더 심층적으로 조사해야합니다. 또한 언급 된 측면은 항상 해당 응용 분야와 관련하여 조사되어야합니다. 현존하는 많은 접근법이 이러한 질문을 조사할 필요성을 알고 있지만2, 결과를 제시한 연구는 더 적습니다.

현재 중요한 VR 분야의 연구 주제는 몰입 형 분석으로 표시됩니다. 인간의 인식을 분석 작업에 포함시키려는 시각적 분석 연구 분야에서 파생됩니다. 이 프로세스는 시각적데이터 마이닝4이라고도 합니다. 몰입형 분석에는 데이터 시각화, 시각적 분석, 가상 현실, 컴퓨터 그래픽 및 인간-컴퓨터 상호 작용분야의 주제가 포함됩니다5. 헤드 마운트 디스플레이(HMD)의 최근 장점으로 인해 몰입형 방식으로 데이터를 탐색할 수 있는 가능성이 향상되었습니다. 이러한 추세에 따라 새로운 상호 작용 시스템의 개발, 사용자 피로를 조사해야 할 필요성 또는 정교한 3D 시각화 개발과 같은 새로운 과제와 연구 질문이등장합니다6. 이전 간행물6에서는 몰입형 분석의 중요한 원칙에 대해 논의했습니다. 빅 데이터에 비추어 볼 때 복잡한 데이터 풀을 더 잘 분석할 수 있도록 몰입형 분석과 같은 방법이 점점 더 필요합니다. 몰입형 분석 솔루션의 사용성 측면을 조사하는 연구는 소수에 불과합니다. 또한 해당 영역이나 분야도 이러한 연구에서 고려되어야합니다. 이 작업에서는 몰입형 분석 프로토타입이 개발되었으며, 이를 기반으로 Industry 4.0 시나리오를 위해 개발된 솔루션을 조사하는 프로토콜이 개발되었습니다. 따라서 프로토콜은 주관적, 성능 및 생리적 측면을 기반으로 하는 경험 방법2를 활용합니다. 당면한 프로토콜에서 주관적인 측면 은 연구 사용자의인지 된 스트레스를 통해 측정됩니다. 성능은 분석 작업을 수행하는 데 필요한 시간과 오류를 통해 측정됩니다. 마지막으로 피부 전도도 센서가 생리적 매개 변수를 측정했습니다. 처음 두 가지 측정은이 작업에서 제시 될 것이며, 측정 된 피부 전도도는 평가하기 위해 더 많은 노력이 필요합니다.

제시된 연구에는 특히 신경 과학 측면 및 정보 시스템을 포함한 여러 연구 분야가 포함됩니다. 흥미롭게도 정보 시스템의 신경 과학 측면에 대한 고려 사항은 최근 여러 연구 그룹 7,8의 관심을 끌었으며인지 적 관점에서도 IT 시스템의 사용을 탐구하려는 요구를 보여줍니다. 이 작업과 관련된 또 다른 분야는 정보 시스템 9,10,11의 인적 요소에 대한 조사를 구성합니다. 인간-컴퓨터 상호 작용 분야에서는 솔루션의 유용성을 조사하기 위한 도구가 존재합니다. 시스템 사용성 척도는 주로 이 컨텍스트에서 사용됩니다12. 소리내어 생각하기 프로토콜13은 정보 시스템 사용에 대해 자세히 알아보기 위해 널리 사용되는 또 다른 연구 기술입니다. 정보 시스템의 유용성 측면을 측정하기위한 많은 접근법이 존재하고 그 중 일부는 오래 전에 제시되었지만14, 새로운 측정 또는 연구 방법을 조사해야하는 질문이 여전히 제기됩니다. 따라서이 분야의 연구는 매우 활발합니다12,15,16.

다음에서는 현재 작업에서 널리 사용되는 두 가지 방법이 고려되지 않은 이유에 대해 설명합니다. 첫째, 시스템 사용성 척도를 사용하지 않았습니다. 척도는10 개의 질문 17을 기반으로하며 다른 여러 VR 연구18에서도 그 사용을 찾을 수 있습니다. 이 연구는 주로 스트레스19의 측정을 목표로하기 때문에 스트레스 관련 설문지가 더 적절했습니다. 둘째, 소리내어 생각하기 프로토콜20은 사용되지 않았습니다. 이 프로토콜 유형은 일반적으로13에서 유용성을 보여 주었지만 무겁고 복잡한 VR 장치를 사용하는 것과 병행하여 소리내어 생각 세션을 수행해야한다는 사실 때문에 연구 사용자의 스트레스 수준이 증가 할 수 있으므로 여기서는 사용되지 않았습니다. 이 두 가지 기술은 사용되지 않았지만 다른 최근 연구 결과가 당면한 연구에 통합되었습니다. 예를 들어, 이전 작품21,22에서 저자는 연구에서 초보자와 전문가를 구별합니다. 이러한 연구의 성공적인 결과를 바탕으로, 당면한 프로토콜은 제시된 연구 사용자 분리를 활용합니다. 응력 측정은 다음 작업 15,19,21,22의 아이디어를 기반으로합니다.

처음에는 연구를 수행하기 위해 분석 작업을 수행하기에 적합한 Industry 4.0 시나리오를 찾아야합니다. 저자23의 다른 작업에 영감을 받아 (1) 이상치 감지 및 (2) 클러스터 인식의 두 가지 시나리오(즉, 분석 작업)가 확인되었습니다. 두 시나리오 모두 까다로우며 처리량이 많은 생산 기계의 유지 관리와 매우 관련이 있습니다. 이 결정을 바탕으로 6 가지 주요 고려 사항이이 작업에 제시된 연구 프로토콜을 주도했습니다.

  1. 연구를 위해 개발된 솔루션은 기술적으로 혼합 현실 스마트 안경( 재료 표 참조)을 기반으로 하며 혼합 현실 애플리케이션으로 개발될 것입니다.
  2. 초보자와 고급 사용자를 구별 할 수있는 적절한 테스트를 개발해야합니다.
  3. 성능 측정은 시간과 오류를 고려해야 합니다.
  4. 몰입형 분석 솔루션과 비교할 수 있는 데스크톱 애플리케이션을 개발해야 합니다.
  5. 인지된 스트레스 수준을 평가하기 위한 조치를 적용해야 합니다.
  6. 후자의 점 외에도, 사용자가 언급된 두 가지 분석 작업(즉, (1) 이상치의 검출 및 (2) 클러스터의 인식)의 절차를 수행하는 동안 스트레스 수준을 완화하기 위한 특징이 개발되어야 한다.

언급 된 6 가지 사항을 기반으로 연구 프로토콜은 다음 절차를 통합합니다. 이상값 감지 및 클러스터 인식 분석 작업은 혼합 현실 스마트 안경을 사용하여 몰입형 방식으로 수행해야 합니다( 재료 표 참조). 따라서 새로운 응용 프로그램이 개발되었습니다. 공간 소리는 정신적 노력을 증가시키지 않고 분석 작업의 수행을 용이하게해야합니다. 음성 기능은 혼합 현실 스마트 안경의 개발된 응용 프로그램에 사용되는 탐색을 용이하게 해야 합니다( 재료 표 참조). 정신 회전 테스트는 초보자와 고급 사용자를 구별하는 기초가되어야합니다. 스트레스 수준은 설문지를 기반으로 측정됩니다. 성능은 사용자가 분석 작업에 필요한 (1) 시간과 분석 작업에 대해 사용자가 만든 (2) 오류를 기반으로 평가됩니다. 혼합 현실 smartglass의 성능은 새로 개발되고 유사한 2D 데스크톱 애플리케이션에서 동일한 작업을 수행하는 것과 비교됩니다. 또한, 피부 전도도 장치는 스트레스에 대한 가능한 지표로서 피부 전도도 수준을 측정하는 데 사용됩니다. 이 측정의 결과는 추가 분석의 대상이되며이 작업에서는 논의되지 않습니다. 저자는 동일한 장치를 사용한 다른 연구에서 추가 고려 사항이 필요하다고 밝혔습니다24.

이 프로토콜을 기반으로 다음 5 가지 연구 질문 (RQ)이 해결됩니다.

RQ1 : 참가자의 공간 상상력이 작업 수행에 큰 영향을 미칩니 까?
RQ2: 시간이 지남에 따라 작업 성능에 큰 변화가 있습니까?
RQ3: 몰입형 분석 솔루션에서 공간 사운드를 사용할 때 작업 성능에 상당한 변화가 있습니까?
RQ4: 개발된 몰입형 분석이 사용자에게 스트레스를 준다고 인식합니까?
RQ5: 2D 접근 방식에 비해 몰입형 분석 솔루션을 사용할 때 사용자의 성과가 더 향상됩니까?

그림 1 은 두 가지 척도에 대해 제시된 프로토콜을 요약합니다. 그것은 개발 및 사용 된 측정과 상호 작용 수준과 관련하여 그 참신함을 보여줍니다. 상호작용 수준은 VR 설정을 위한 기능을 개발할 때 중요한 측면을 구성하므로 그림 1은 이 작업에서 개발된 전체 프로토콜의 참신함을 더 잘 보여줍니다. 사용 된 두 척도 내의 측면에 대한 평가는 주관적이지만 전반적인 평가는 현재 관련 작업과 다음과 같은 주요 고려 사항을 기반으로합니다. 한 가지 중요한 원칙은 사용자가 조율 된 자연스러운 상호 작용을위한 환경의 추상화를 사용하는 것입니다. 당면한 프로토콜과 관련하여 포인트 클라우드의 시각화는 사용자에게 직관적 인 것으로 보이며 이러한 클라우드의 패턴 인식은 일반적으로 관리 가능한 작업으로 인식되었습니다. 또 다른 중요한 원칙은 어포던스를 오버레이하는 것입니다. 이로써, 당면한 프로토콜에서 사용되는 공간 사운드의 사용은 검색된 물체의 근접성과 상관관계가 있기 때문에 한 예입니다. 저자는 대부분의 정보가 인간의 인식에 가장 중요한 중간 영역에 위치하는 방식으로 표현을 조정할 것을 권장합니다. 저자가 이 원칙을 포함하지 않은 이유는 사용자가 스스로 최적의 지점을 찾도록 장려하고 한 번에 표시하기에는 너무 큰 데이터 시각화 공간에서 방향을 잡도록 유도하기 위함이었습니다. 제시된 접근법에서, 보여질 3D 데이터의 특성에 대한 더 이상의 고려는 이루어지지 않았다. 예를 들어 차원이 임시 차원으로 가정되면 산점도가 표시될 수 있습니다. 저자는 이러한 종류의 시각화가 Industry 4.0의 맥락에서 일반적으로 흥미롭다고 생각합니다. 그러나 합리적으로 작은 시각화 집합에 초점을 맞춰야 합니다. 또한 이전 간행물은 이미 데이터의 공동 분석에 중점을 두었습니다. 이 연구에서이 연구 질문은이 연구에서 언급 된 다른 문제의 복잡성으로 인해 제외되었습니다. 여기에 제시된 설정에서 사용자는 걸어 다니면서 몰입 형 공간을 탐색 할 수 있습니다. 다른 접근 방식은 가상 공간을 탐색하는 컨트롤러를 제공합니다. 이 연구에서는 SUS(시스템 유용성 척도)를 사용하여 유용성에 중점을 둡니다. 또 다른 이전 간행물은 경제 전문가를 대상으로 연구를 수행했지만 VR 헤드셋을 사용했습니다. 일반적으로, 그리고 가장 중요한 것은,이 연구는이 작업에서 사용 된 혼합 현실 스마트 글라스와 같은 다른 장치에 대한 제한된 시야에 대해 불평합니다 ( 재료 표 참조). 그들의 연구 결과는 VR 분야의 초보자가 분석 도구를 효율적으로 사용할 수 있음을 보여줍니다. 이것은 이 연구의 경험과 일치하지만, 이 작업에서 초보자는 VR 또는 게임 경험이 있는 것으로 분류되지 않았습니다. 대부분의 VR 솔루션과 달리 혼합 현실은 실제 환경을 추적할 수 있으므로 위치에 고정되어 있지 않습니다. 360° 경험을 위해 특수 의자를 사용하여 사용자를 데스크탑에서 해방시키는 것과 같은 VR 접근 방식. 의 저자는 인식 문제가 몰입형 분석의 성능에 영향을 미친다는 것을 나타냅니다. 예를 들어 그림자를 사용합니다. 당면한 연구에서는 사용 된 혼합 현실 스마트 안경 (재료 표 참조)이 그림자를 표시 할 수 없기 때문에 불가능합니다. 해결 방법은 가상 바닥일 수 있지만 이러한 설정은 이 연구의 범위를 벗어났습니다. 몰입형 분석 분야의 설문 조사에서는 3D 산점도가 다차원 데이터의 가장 일반적인 표현 중 하나로 확인되었습니다. 전체적으로 그림 1 에 표시된 측면은 현재 Industry 4.0 시나리오에 대한 몰입형 분석의 유용성 측면을 조사하는 프로토콜로 컴파일된 것을 찾을 수 없습니다.

Protocol

모든 자료와 방법은 울름 대학교 윤리위원회의 승인을 받았으며 승인 된 지침에 따라 수행되었습니다. 모든 참가자는 서면 동의서를 제출했습니다. 1. 적절한 학습 환경 조성 알림: 이 연구는 복잡한 하드웨어 설정에 대처하기 위해 통제된 환경에서 수행되었습니다. 사용 된 혼합 현실 스마트 안경 ( 재료 표 참조)과 2D 응용 프로그램 용 노트북?…

Representative Results

실험에 대한 측정값 설정이상값 감지 작업의 경우 시간, 경로 및 각도와 같은 성능 측정값이 정의되었습니다. 측정값은 그림 6 을 참조하십시오. 적색 표시점이 발견될 때까지 시간이 기록되었다(즉, 이상치). 이 성능 측정값은 참가자가 빨간색으로 표시된 지점을 찾는 데 필요한 시간을 나타냅니다. 시간은 결과에서 변수 “time”(밀리초)으?…

Discussion

개발된 혼합 현실 스마트 안경( 재료 표 참조) 적용과 관련하여 두 가지 측면이 특히 유용했습니다. 이상치의 감지 작업에 공간 사운드를 사용하는 것은 한편으로는 긍정적으로 인식되었습니다(RQ3 결과 참조). 다른 한편으로는 음성 명령의 사용도 긍정적으로 인식되었습니다 ( 그림 10 참조).

연구 참가자와 관련하여 경험적 연구의 경우 모집…

Disclosures

The authors have nothing to disclose.

Acknowledgements

저자는 인정할 것이 없습니다.

Materials

edaMove movisens
HoloLens Microsoft
Matlab R2017a MathWorks
RPY2 GNU General Public License v2 or later (GPLv2+) (GPLv2+) https://pypi.org/project/rpy2/
SPSS 25.0 IBM

References

  1. Korinth, M., Sommer-Dittrich, T., Reichert, M., Pryss, R. Design and Evaluation of a Virtual Reality-Based Car Configuration Concept. Science and Information Conference. , 169-189 (2019).
  2. Whalen, T. E., Noël, S., Stewart, J. Measuring the human side of virtual reality. IEEE International Symposium on Virtual Environments, Human-Computer Interfaces and Measurement Systems, 2003. , 8-12 (2003).
  3. Martens, M. A., et al. It feels real: physiological responses to a stressful virtual reality environment and its impact on working memory. Journal of Psychopharmacology. 33 (10), 1264-1273 (2019).
  4. Keim, D. A. Information visualization and visual data mining. IEEE transactions on Visualization and Computer Graphics. 8 (1), 1-8 (2002).
  5. Dwyer, T., et al. Immersive analytics: An introduction. Immersive analytics. , 1-23 (2018).
  6. Moloney, J., Spehar, B., Globa, A., Wang, R. The affordance of virtual reality to enable the sensory representation of multi-dimensional data for immersive analytics: from experience to insight. Journal of Big Data. 5 (1), 53 (2018).
  7. Davis, F. D., Riedl, R., Vom Brocke, J., Léger, P. M., Randolph, A. B. . Information Systems and Neuroscience. , (2018).
  8. Huckins, J. F., et al. Fusing mobile phone sensing and brain imaging to assess depression in college students. Frontiers in Neuroscience. 13, 248 (2019).
  9. Preece, J., et al. . Human-computer interaction. , (1994).
  10. Card, S. K. . The psychology of human-computer interaction. , (2018).
  11. Pelayo, S., Senathirajah, Y. Human factors and sociotechnical issues. Yearbook of Medical Informatics. 28 (01), 078-080 (2019).
  12. Bangor, A., Kortum, P., Miller, J. Determining what individual SUS scores mean: adding an adjective rating scale. Journal of Usability Studies. 4 (3), 114-123 (2009).
  13. Krahmer, E., Ummelen, N. Thinking about thinking aloud: A comparison of two verbal protocols for usability testing. IEEE Transactions on Professional Communication. 47 (2), 105-117 (2004).
  14. Hornbæk, K. Current practice in measuring usability: Challenges to usability studies and research. International Journal of Human-Computer Studies. 64 (2), 79-102 (2006).
  15. Peppa, V., Lysikatos, S., Metaxas, G. Human-Computer interaction and usability testing: Application adoption on B2C websites. Global Journal of Engineering Education. 14 (1), 112-118 (2012).
  16. Alwashmi, M. F., Hawboldt, J., Davis, E., Fetters, M. D. The iterative convergent design for mobile health usability testing: mixed-methods approach. JMIR mHealth and uHealth. 7 (4), 11656 (2019).
  17. System Usability Scale (SUS). Assistant Secretary for Public Affairs Available from: https://www.hhs.gov/about/agencies/aspa/how-to-and-tools/methods/system-usability-scale.html (2013)
  18. Fang, Y. M., Lin, C. The Usability Testing of VR Interface for Tourism Apps. Applied Sciences. 9 (16), 3215 (2019).
  19. Pryss, R., et al. Exploring the Time Trend of Stress Levels While Using the Crowdsensing Mobile Health Platform, TrackYourStress, and the Influence of Perceived Stress Reactivity: Ecological Momentary Assessment Pilot Study. JMIR mHealth and uHealth. 7 (10), 13978 (2019).
  20. Zugal, S., et al. Investigating expressiveness and understandability of hierarchy in declarative business process models. Software & Systems Modeling. 14 (3), 1081-1103 (2015).
  21. Schobel, J., et al. Learnability of a configurator empowering end users to create mobile data collection instruments: usability study. JMIR mHealth and uHealth. 6 (6), 148 (2018).
  22. Schobel, J., Probst, T., Reichert, M., Schickler, M., Pryss, R. Enabling Sophisticated Lifecycle Support for Mobile Healthcare Data Collection Applications. IEEE Access. 7, 61204-61217 (2019).
  23. Hoppenstedt, B., et al. Dimensionality Reduction and Subspace Clustering in Mixed Reality for Condition Monitoring of High-Dimensional Production Data. Sensors. 19 (18), 3903 (2019).
  24. Winter, M., Pryss, R., Probst, T., Reichert, M. Towards the Applicability of Measuring the Electrodermal Activity in the Context of Process Model Comprehension: Feasibility Study. Sensors. 20, 4561 (2020).
  25. Butscher, S., Hubenschmid, S., Müller, J., Fuchs, J., Reiterer, H. Clusters, trends, and outliers: How immersive technologies can facilitate the collaborative analysis of multidimensional data. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. , 1-12 (2018).
  26. Wagner Filho, J. A., Rey, M. F., Freitas, C. M. D. S., Nedel, L. Immersive analytics of dimensionally-reduced data scatterplots. 2nd Workshop on Immersive Analytics. , (2017).
  27. Batch, A., et al. There is no spoon: Evaluating performance, space use, and presence with expert domain users in immersive analytics. IEEE Transactions on Visualization and Computer Graphics. 26 (1), 536-546 (2019).
  28. Towards hmd-based immersive analytics. HAL Available from: https://hal.archives-ouvertes.fr/hal-01631306 (2017)
  29. Luboschik, M., Berger, P., Staadt, O. On spatial perception issues in augmented reality based immersive analytics. Proceedings of the 2016 ACM Companion on Interactive Surfaces and Spaces. , 47-53 (2016).
  30. Fonnet, A., Prié, Y. Survey of Immersive Analytics. IEEE Transactions on Visualization and Computer. , (2019).
  31. Spielberger, C. D., Gorsuch, R. L., Lushene, R. E. STAI Manual for the Stait-Trait Anxiety Inventory (self-evaluation questionnaire). Consulting Psychologist. 22, 1-24 (1970).
  32. Vandenberg, S. G., Kuse, A. R. Mental rotations, a group test of three-dimensional spatial visualization. Perceptual Motor Skills. 47 (2), 599-604 (1978).
  33. Härtel, S., Gnam, J. P., Löffler, S., Bös, K. Estimation of energy expenditure using accelerometers and activity-based energy models-Validation of a new device. European Review of Aging and Physical Activity. 8 (2), 109-114 (2011).
  34. . RPY2: A Simple and Efficient Access to R from Python Available from: https://sourceforge.net/projects/rpy/ (2020)
  35. Hoppenstedt, B., et al. Applicability of immersive analytics in mixed reality: Usability study. IEEE Access. 7, 71921-71932 (2019).
  36. Hoppenstedt, B. Applicability of Immersive Analytics in Mixed Reality: Usability Study. IEEE Dataport. , (2019).

Play Video

Cite This Article
Hoppenstedt, B., Probst, T., Reichert, M., Schlee, W., Kammerer, K., Spiliopoulou, M., Schobel, J., Winter, M., Felnhofer, A., Kothgassner, O. D., Pryss, R. Evaluating Usability Aspects of a Mixed Reality Solution for Immersive Analytics in Industry 4.0 Scenarios. J. Vis. Exp. (164), e61349, doi:10.3791/61349 (2020).

View Video