プロトコルの目的は、実験室で使用するためのビデオデータを収集する方法を詳述することです。データを見ている参加者の目を追跡するデータと、機械学習の手法を使用して見ていたビデオのコンテンツを効率的に分析する方法を記録する方法。
都市で生活する人が増えていく中で、日々の動きや収集できるデータを研究する方法が重要で価値あるものとなっています。アイトラッキング情報は、感情、健康状態、精神状態や行動の範囲に接続することが知られています。しかし、ビジョンは絶え間ない目の動きの結果であるため、雑音とは何かということから重要なことは、複雑でデータ集約的である。さらに、彼らに提示されたものと比較して人々が見るものを制御することも重要な課題です。
次に、自然で複雑なシーンのビデオのアイトラッキングを組み合わせて分析する方法と、ビデオのコンテンツを分析するための機械学習手法を示します。このプロトコルでは、撮影したビデオからのデータの分析、ビデオが参加者の視線データを記録するのに最もよく使用される方法、ビデオのコンテンツを分析してアイトラッキングデータと組み合わせる方法に重点をおいています。我々は、結果の簡潔な要約と、複雑な環境におけるさらなる研究のための方法の可能性についての議論を提示する。
都市環境における私たちの日々の経験は、私たちの健康と幸福に大きく影響します。私たちの幸福は、私たちが見ることができる緑の空間の量に依存することができ、1,2,3, そして、これらのビューは、公園の設計についての意思決定を導くために、アイトラッキング機器を使用して定量化することができます.ただし、生成される視線追跡データの量と、このデータの意味に関する問題が発生します。ラボや自然環境で視線データを記録するための設備がより使いやすく、より強力になるにつれて、研究者は、意思決定の質問に役立つデータをどのように収集して分析できるかを検討する必要があります。
これまでのところ、多くのアイトラッキング研究では、調査や実験室の設定4で写真を使用してきました。この方法は、再現性と結果の制御の多くを可能にしながら, ビデオやウェアラブルモバイルアイトラッカーの使用を含むアイトラッキング技術の最新の進歩を活用することができません。.さらに、歩行とリラックスの行為は、特にウェイファインディング5のような仕事に向いているとき、必然的に動的であると主張します。したがって、これらの設定の完全に科学的な理解は、研究室の外で行われるべきです。しかし、現時点では、現実の自然環境でのアイトラッキングは、被験者間の経験を非常に困難なものと比較します。たとえば、ある回答者が樹木を他のものよりも見ているかどうかを比較する場合、自分の視点が他の人に比べて常に変化しているか、または頭が回転しているかどうかを制御する方法があります。これらの条件での詳細な解析は、現在の解析手法ではほぼ不可能です。私たちは、調査されている個人に利用可能な表示領域を制御することが重要であると主張し、分析では、任意の時点で見られている全体のシーンを考慮することができるようにします。
ストレスレベルと安全性の認識を景観ビューに結びつける一連の理論と、応力6,7のよく進化した尺度があります。視線8を測定するアイトラッキング装置の高度化も急速に進展している。目を追跡することは、不随意の目の動きがより確実に好み、ストレスや他の従来の測定よりも、アンケートや、唾液のコルチゾールなどの侵入性の生理学的検査よりも安全に接続される可能性があるため重要です。本研究の目的は、より自然な設定に適用される視線追跡データのより正確な測定を可能にするツールを開発することであり、これにより、公園の設計に情報を提供した長期にわたるランドスケープ理論を反論したり、数 十 年。
このプロジェクトの目的は、パークウォークのシミュレーションのさまざまなビデオに関連する視線追跡データを生成する新しい分析手法を開発し、テストすることです。ここと他の場所で報告された私たちの仕事は、完全にモバイルのアイトラッキングシステムの自然主義的な設定と上記で言及したラボベースの写真研究との中間点を表しています。特に、私たちは刺激材料としてビデオを使用することに集中し、この材料を使用してメルボルン市で異なる公園が生成する魅力の量をテストする方法を模索しています。私たちの仕事は、ビデオの詳細な分析がストレスからの回復を提供するために、公園の可能性の完全な、より自然な評価を行う前に、違反する必要があるステップであるという仮定に基づいています。
本研究では、都市公園を散策した映像を用いたデスクトップ・アイ・トラッカーを用いて、公園内をのんびりと散歩しているとの想像を求めた。我々は、参加者が異なるオブジェクトを見て、公園間で匹敵する時間を費やすことを可能にする方法を説明する。一般に、デスクトップスタディはモバイル ET の研究と比較して制御が容易で、各被験者の比較分析が可能です。
標準的なアイトラッキングソフトウェアでは、手動による対象領域ツールを使用して、オペレータが各シーンで目的のオブジェクトの周囲に手動で境界を描画することができます。これにより、参加者が異なるオブジェクトを見て自動的にカウントされるまでの時間を設定できます。ビデオデータの場合、このプロセスは労働集約的であり、オペレータの主観とエラーの対象となります。アイトラッキング解析ソフトウェアのそれ以降のバージョンでは、AOIs は、それらがビデオで同じサイズである場合、フレーム間でオブジェクトを自動的に追跡することができます。これは改善であるが、これは各画像の少数の刺激に対してのみ使用されることを意図しており、各画像は確認および確認されなければならない。
画像内のオブジェクトの手動ラベリングは一般的であり、GNU 画像操作プログラム (GIMP) などの画像編集ソフトウェアによってサポートされています。1 s が30フレームまたはイメージを生成することを考えると、ビデオの手動ラベリングは実用的ではありません。さらに、樹木の天蓋のような複雑なオブジェクトの端の周りに描画ベクトルポリゴンによる AOI ラベリングは非常に時間がかかります。最後に、ベクトルラベリングを使用してビューのフィールド内のオブジェクトのサイズを計算することは可能ですが、この機能は現在使用できません。
以下で報告する方法は、これらの制限を扱っています。本研究ではオブジェクトの自動ラベリングを採用した。これは、ビデオのすべてのフレーム内のすべてのピクセルにオブジェクトクラスを示すラベルが割り当てられる、セマンティックラベリングと呼ばれる画像処理手法を使用して可能です。機械学習は、対象のオブジェクトクラスごとにピクセル分類子を導出するために使用されます。これらの分類子は、各ピクセルに確率的なラベル (単項電位として知られている) を提供し、最終的なラベル出力を達成するために後続の最適化プロセスでリファインされます。これらの分類子は、テクスチャ、エッジの向きのヒストグラム、RGB カラー値、正規化された画像座標など、画像から抽出されたフィーチャの空間における各オブジェクトクラス間の統計的決定境界を学習します。このための適切な技術は、ダーウィン機械学習ツールボックス10に実装されており、以下に説明されています。
一般的に、アイトラッキングデータを解析するための標準的なソフトウェアパッケージでは、ベクトル AOI が使用されます。1つの静止画像でも、ベクトルのサイズを簡単に測定することはできません。さらに、画像中の全ての AOIs を含む、AOIs の相対量を計算することは面倒である。説明したような機械学習の手法を使用せずに、ビデオに手動でこれを行うことはほとんど不可能です。これ?…
The authors have nothing to disclose.
この作業は、メルボルン市と部分的にアーク DP 150103135 によって財政的にサポートされました。私たちは彼のアドバイスと協調的なアプローチのための Eamonn Fennessy に感謝したいと思います。研究助手イザベル Janecki とイーサン・チェンにも特別な感謝を込めて、このデータの収集と分析を支援しました。すべてのエラーは作者のままです。
12 mm lens | Olympus | Lens | |
Panasonic GH4 | Panasonic | Video Camera | |
Tobii Studio version (2.1.14) | Tobii | Software | |
Tobii x120 desktop eye-tracker | Tobii | Eye-tracker |