Summary

Virtuelle Hand und Virtual-face Illusions Erstellen zur Untersuchung der Selbstdarstellung

Published: March 01, 2017
doi:

Summary

Hier beschreiben wir virtuelle Hand und virtuellen Gesicht Illusion Paradigmen, die verwendet werden können, körperbezogene Selbstwahrnehmung / -Darstellung zu studieren. Sie wurden bereits in verschiedenen Studien verwendet wurde, das zu demonstrieren, unter bestimmten Bedingungen eine virtuelle Hand oder das Gesicht kann in eines der Körperdarstellung eingearbeitet werden, was darauf hindeutet, dass Körper Darstellungen sind ziemlich flexibel.

Abstract

Studien untersuchen, wie Menschen sich selbst und ihre eigenen Körper oft vertreten verwenden Varianten von "ownership Illusionen", wie das traditionelle Gummihand-Illusion oder in jüngerer Zeit entdeckt enfacement Illusion. Jedoch erfordern diese Beispiele eher künstlichen Versuchsaufbauten, in denen die künstlichen Effektor in Synchronität werden gestreichelt muss mit der realen Hand der Teilnehmer oder von Angesicht einer Situation, in der die Teilnehmer keine Kontrolle über die Streichungen oder die Bewegungen ihrer wirklichen oder künstlichen Effektor haben . Hier beschreiben wir eine Technik Eigentum Illusionen in einer Einrichtung zu schaffen, die realistischer ist, intuitiver, und der vermutlich höhere ökologische Validität. Es ermöglicht die virtuelle Hand Illusion, die von den Teilnehmern die Bewegungen eines virtuellen Hand auf einem Bildschirm oder im virtuellen Raum vor ihnen präsentiert steuern zu müssen. Wenn die virtuelle Hand bewegt sich synchron mit der eigenen Grund Hand der Teilnehmer, neigen sie dazu t wahrnehmener virtuelle Hand als Teil des eigenen Körpers. Die Technik schafft auch die virtuellen Gesicht Illusion von den Teilnehmern , die Bewegungen eines virtuellen Gesicht vor ihnen, wieder mit dem Effekt steuern mit , dass sie dazu neigen , das Gesicht , als ihre eigenen wahrnehmen , wenn sie synchron mit ihr wahres Gesicht bewegt. Die Untersuchung der Umstände, die Illusionen dieser Art geschaffen, erhöht werden, oder es enthält wichtige Informationen über reduziert, wie die Menschen schaffen und Darstellungen von sich selbst halten.

Introduction

Laut westlichen Philosophie, das menschliche Selbst aus zwei Aspekten besteht 1: Zum einen haben wir unsere eigenen Körper und unsere Aktivitäten im hier und jetzt wahrnehmen, die eine phänomenale Selbstdarstellung erzeugt (oft die minimale Selbst genannt). Zum anderen haben wir dauerhaftere Darstellungen von uns selbst schaffen , indem sie Informationen über unsere persönliche Geschichte zu speichern, neue Informationen in die entstehende Selbstkonzept zu integrieren und präsentieren uns in unserem sozialen Umfeld entsprechend, die auf die Schaffung eines sogenannten narrativen Selbst beträgt. Die minimale oder phänomenale Selbst wurde argumentiert, aus zwei Quellen von Informationen entstehen. Eine davon ist top-down Informationen über länger anhaltende Aspekte unseres Körpers, wie zum Beispiel Informationen über die Effektoren wir besitzen oder die Form unseres Gesichts. Die andere ist , Bottom-upInformationen , die von der Selbstwahrnehmung in der aktuellen Situation zur Verfügung gestellt.

Untersuchungen des letzteren wurden strongly durch eine geschickte Studie von Botvinick inspiriert und Cohen 2. Diese Autoren präsentierten menschlichen Teilnehmer mit einem Gummihand liegen vor ihnen, in der Nähe eines ihrer wirklichen Hände, die aber aus dem Blick verborgen war. Wenn die echte Hand und der Gummihand wurden in Synchronität strich, so intermodalen Synchroneingang zu schaffen, neigten die Teilnehmer die Gummihand als Teil ihrer eigenen Körper der Gummihand Illusion wahrzunehmen. Weitere Untersuchungen ergaben , dass wahrgenommen Eigentum sogar so weit ging , dass die Teilnehmer würden schwitzen beginnen und versuchen , ihre echte Hand zurückzuziehen , wenn der Gummihand wurde mit einem Messer angegriffen zu werden oder auf andere Weise "verletzt" 3 zu sein.

Während Botvinick und Cohen ihre Ergebnisse interpretiert entsteht, dass die Selbstwahrnehmung zu demonstrieren, die aus der Verarbeitung von Bottom-up-Informationen, andere Autoren haben argumentiert, dass die Gummihand Illusion ergibt sich aus der Interaktion zwischen den intermodalen Synchronisationsspgony der Eingabe, der Bottom-up – Informationsquelle und gespeicherten Darstellungen von eigenen Hände ein, eine Top-Down – Informationsquelle 4. Die Idee ist, dass der Reiz Synchronität den Eindruck erweckt, dass die reale und die Gummihand sind ein und dasselbe, und da die Gummihand sieht aus wie eine echte Hand, dieser Eindruck Realität betrachtet wird.

Spätere Untersuchungen von Kalckert und Ehrsson 5 hinzugefügt , um eine visuomotorische Komponente auf die Gummihand – Paradigma, das für die Untersuchung sowohl wahrgenommen Eigentum (der Eindruck , dass die künstlichen Effektor zum eigenen Körper gehört) erlaubt und wahrgenommen Agentur (den Eindruck , dass man Herstellung beobachteten Bewegungen selbst). Die Teilnehmer konnten sich mit dem Zeigefinger der Gummi Hand nach oben und nach unten von ihren eigenen Zeigefinger bewegen, und die Synchronität zwischen realen und Gummihandfingerbewegungen, die Art der Bewegung (passive vs. aktiven Modus) und die Positionieg der Gummihand (unpassende vs. congruous im Hinblick auf die Hand des Teilnehmers) wurden manipuliert. Die Ergebnisse wurden Unterstützung für die Idee zu schaffen gemacht, dass Agentur und Eigentum sind funktionell unterschiedliche kognitive Phänomene: während Synchronität der Bewegung sowohl Sinn des Eigentums und der Agentur aufgehoben, die Art der Bewegung nur Agentur betroffen sind, und Kongruenz der Gummihandposition hatte auf einen Effekt Eigentum nur. Die beiden letzteren Ergebnis wurden in einer Follow-up – Studie repliziert , in denen der Abstand zwischen realen und Gummihand in der vertikalen Ebene 6 variiert: Eigentum für die Gummihand verringert , wie seine Position zunehmend auf die Real Hand des Teilnehmers nicht übereinstimmen. Allerdings war Agentur nicht durch Fehlstellungen der Gummihand in jedem Zustand betroffen.

neuere Forschungen Virtual-Reality-Techniken, aber die die Teilnehmer mit aktiver Kontrolle über den künstlichen Effektor bieten, legt nahe, dass die Rolle des Top-downTeil und die Unterscheidung zwischen Eigentum und Agentur kann 7 hoch genug eingeschätzt wurden, 8. Diese Techniken haben die Gummihand durch eine virtuelle Hand präsentiert den Teilnehmern auf einem Bildschirm vor ihnen oder mit Hilfe von Virtual-Reality – Brille 9 ersetzt. Die Teilnehmer tragen häufig eine dataglove, die die Bewegungen des Teilnehmers echte Hand in die Bewegungen der virtuellen Hand, entweder synchron oder asynchron (zB mit einer spürbaren Verzögerung) übersetzt. Ähnlich wie der Gummi-Hand Illusion, erhöht synchrone Übersetzung stark den Eindruck der Teilnehmer , dass die virtuelle Hand einen Teil seines oder ihres eigenen Körpers 10 wird.

Virtual-Reality-Techniken Der Einsatz hat die Gummi-Hand Illusion zu schaffen, mehrere Vorteile gegenüber sowohl dem traditionellen Gummi-Hand-Paradigma und die Kombination aus dem Gummi-Hand Paradigma mit dem visuomotorische components 11. Bewegen der Hand und einen Effektor in Synchronität bewegen sehen damit eine viel natürlichere Situation schafft als eine Gummihand gegenüber und durch einen Experimentator gestreichelt zu werden. Darüber hinaus stellt die virtuelle Manipulation der Experimentator mit viel mehr experimentelle Flexibilität und viel mehr Kontrolle über die Wahrnehmungs Beziehung zwischen Wahrnehmung und eine wirkliche Hand und die Wahrnehmung des Ereignisses durch den künstlichen Effektor erstellt bewegt. Insbesondere erleichtert die Manipulation von Faktoren virtuellen Techniken, die wahrscheinlich zu beeinflussen wahrgenommen Eigentum und Agentur sind. So kann beispielsweise die Form der virtuellen Seite geändert werden, viel einfacher und schneller als die Form eines Gummiseits und die Bewegungen der virtuellen Seite kann von beliebiger Art sein und beispielsweise biologisch unmöglich Bewegungen beinhalten. Unter anderem erleichtert dies die Grenzen der Illusion zu erforschen, wie die künstliche Effektor nicht wie eine Hand aussehen müssen aber replac seined durch jede Art von statischen oder dynamischen Ereignisses. Von praktischen und theoretischen Interesse, ist ein virtueller Effektor wohl viel intensiveres und fühlt sich viel realer als eine Gummihand, die die Notwendigkeit zu reduzieren, wahrscheinlich ist top-down Interpretationen aufzurufen Sinne der vorliegenden Situation zu machen.

Besitz Illusionen, jedoch nicht auf die Hände eingeschränkt. 12 Tsakiris war die erste , die Streicheln Technik verwenden , um den Eindruck der Teilnehmer , dass ein statisches Gesicht in einem Bild vor ihnen ist ihre eigene präsentiert zu schaffen. Sforza et al. 13 haben auch Hinweise für dieses Phänomen gefunden, auf die sie sich beziehen , wie enfacement: Teilnehmer Gesichtszüge eines Partners aufgenommen , wenn ihre eigenen und ihres Partners Gesicht wurden in Synchronität berührt. Das neuronale Mechanismus, um die enfacement Illusion zugrunde liegenden hat vor kurzem von verschiedenen Forschern untersucht worden; für einen umfassenden Kommentar und interpretation der Ergebnisse siehe Bufalari et al. 14. Wir haben sich vor kurzem die regelmäßige enfacement Illusion Design in ein Virtual-Reality – Version (die virtuelle-face Illusion), in denen die Teilnehmer die Bewegungen eines virtuellen Gesicht vor ihnen steuern von ihren eigenen Kopf zu bewegen 15.

Hier beschreiben wir zwei Experimente, die die virtuelle Hand Illusion 7 und die virtuelle Gesicht Illusion 15 Paradigmen bzw. Selbstdarstellung zu untersuchen. Die virtuelle Hand Experiment umfasste drei, völlig experimentelle Faktoren gekreuzt: (a) die Synchronität zwischen (Filz) in Echt Hand und (gesehen) virtuell-Effektor Bewegungen, die entweder nahe Null Eigentum und Agentur oder drei Sekunden, um so eine zu induzieren Steuerzustand; (B) das Auftreten des virtuellen Effektorzellen, die entweder wie eine menschliche Hand aussah oder wie ein Rechteck (so die Wirkung von Echt virtuellen eff zu testenector Ähnlichkeit auf das Eigentum Illusion); und (c) die Möglichkeit, das Verhalten des virtuellen Effektor zu steuern, die entweder nicht vorhanden in einem passiven Zustand oder direkt in einem aktiven Zustand war. Die virtuelle-face Experiment zwei enthalten, vollständig überquert experimentelle Faktoren ab: (a) die Synchronität zwischen Echt Gesicht und virtuellen Gesicht Bewegungen, die entweder nahe Null war Eigentum und Agentur, drei Sekunden als Kontrollbedingung zu induzieren; und (b) der Gesichtsausdruck der virtuellen Fläche, die entweder neutral oder zeigt ein Lächeln war, zu prüfen, ob positive Stimmung die Stimmung der Teilnehmer heben würde und seine Leistung in einer Stimmung empfindlichen Kreativität Aufgabe verbessern.

Protocol

Alle Studien entsprachen den ethischen Standards der Deklaration von Helsinki und die Protokolle wurden von der Universität Leiden Humanforschung Ethikkommission genehmigt. Jede Bedingung etwa 20 Teilnehmer getestet. 1. Virtuelle Hand Illusion Versuchsaufbau Willkommen der Teilnehmer und sammeln zusätzliche Informationen, wie Alter, Geschlecht, usw. Stellen Sie einen experimentellen Aufbau, der eine virtuelle Realität Programmierumgebung umfasst; ein rechtshändiges dataglove mit sechs programmierbare zur Mitte der Handfläche angebrachten Schwingungs Stimulatoren und an der Außenseite des mittleren (zweiten) Phalangen jedes der fünf Finger (siehe Materialliste); ein 3-Freiheitsgrade (DOF) Orientierung Tracker; SCR (Hautleitwerts) Messtechnik; eine Black Box (Tiefe: 50 cm, Höhe: 24 cm; Breite: 38 cm) mit einem Computer-Bildschirm horizontal liegen an der Spitze (im Dienste der virtuellen Realität Enviro präsentierennment); und ein Umhang des Teilnehmers Hand abzudecken. Bitten Sie den Teilnehmer die dataglove auf seine rechte Hand und die Ausrichtung Tracker am rechten Handgelenk zu setzen. Bringen Sie einen SCR-Fernsender mit einem Riemen am linken Handgelenk. Setzen Sie die SCR – Elektroden auf den medialen (zweiten) phalanges des Zeige- und Mittelfinger der linken Hand (1A und B für eine Darstellung des Aufbaus sehen). Sitz den Teilnehmer vor dem Schreibtisch, auf dem der Kasten mit dem Computer-Bildschirm auf der Oberseite platziert ist. Bitten Sie den Teilnehmer seine rechte Hand in die Box entlang der Tiefenachse zu setzen, wie es aus ihrer Sicht zu schützen. Setzen Sie einen Umhang über die rechte Schulter des Teilnehmers und decken den Raum zwischen Bildschirm und Teilnehmer. Bitten Sie den Teilnehmer seine linke Hand auf einen leeren Bereich des Schreibtisches zu ruhen. Schließen Sie die Kabel von dataglove und Orientierung Tracker auf den Computer, und starten Sie die Virtual-Reality-Programmierung environment. Führen Sie den bereits geschriebenen Befehl Skript im Befehlsfenster, indem Sie die Schaltfläche "Ausführen" in der Umgebung der virtuellen Realität-Schnittstelle klicken, so dass die Umgebung der virtuellen Realität beginnt. Überwachen Sie, dass der Teilnehmer den Anweisungen folgt auf dem Computer-Bildschirm vor den Teilnehmern gezeigt. Warten Sie, bis das vorgeschriebene Befehlsskript automatisch beendet. Abbildung 1: (A) Die Teilnehmer trugen eine Orientierung Tracker und ein dataglove auf ihrer rechten Hand und SCR entfernten Sender auf ihrer linken Hand. (B) Konfiguration der virtuellen Hand Illusion Experiment. (C) Aufbau der virtuellen Gesicht Illusion Experiment. (D) Ein Screenshot des Computerbildschirms.Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. Virtuelle Hand Design Hinweis: Verwenden Sie Python Befehlsskripts im Befehlsfenster der Virtual Reality-Software und speichern Sie sie. Stellen Sie sicher, dass das Hauptbefehlsskript, die Importbefehle, die Modul-Skripte und andere Befehle unten beschriebenen Teil der gleichen Skriptdatei sind. Für die komplette Python – Skript und die erforderlichen Dateien finden Sie in der beigefügten "Virtual Hand Illusion.zip" Datei (NB: die Zip-Datei , die eine ergänzende Materialien des Manuskripts ist und nicht Teil des Softwarepakets Weiterhin schließt er die erforderlichen Plugins für die. dataglove und Orientierung tracker, und alle anderen python-Modulen im gesamten Skript verwendet wird). Um das Experiment zunächst entpacken Sie den Inhalt dieser Datei in einen beliebigen Ordner (zB auf dem Desktop) und doppelklicken Sie dann auf die "virtuelle Hand illusion_54784_R2_052716_KM.py" Datei zu starten , das Experiment durchzuführen. Beachten Sie, dass das Skriptentworfen mit der angegebenen Virtual-Reality-Programmierumgebung zu arbeiten und nicht von anderen Programmen verwendet wird. Importieren Sie eine vorgefertigte virtuelle Hand-Modell und ein vorgeschriebenes Hand Skriptmodul in die Umgebung der virtuellen Realität (die in der Rate-Datei der Virtual-Reality-Umgebung Software-Paket zu finden ist). Das Handskriptmodul verfolgt die Fingergelenk Geste und Winkel des dataglove und speist die Daten in die virtuelle Hand-Modell, das die Bewegungen der virtuellen Hand ermöglicht die Steuerung durch die reale Hand Bewegen des dataglove tragen. Ändern Sie manuell die Größe und das Aussehen der virtuellen Hand, wenn nötig durch seine Parameter im Skript angibt, wie seine x, y und z-Skalierung um seine Größe zu ändern oder das zugeordnete Bild ändern. Für Synchronität Bedingungen verwenden keine Transformation, so dass die virtuelle Hand auf die gleiche Weise wie die reale Hand bewegt und bei (etwa) zur gleichen Zeit. So erstellen Sie Asynchronität, fügen Sie eine Verzögerung von 3 s, so dass die virtual Hand bewegt sich wie die reale Hand, aber mit einer spürbaren Verzögerung. Identifizieren eines geeigneten vorgefertigten Orientierung Tracker-Plugin in der Virtual-Reality-Umgebung Rate-Datei und importieren Sie es in den Befehlsskripts. Beachten Sie, dass die Befehls das Ausführen von Skripts der Tracker-Modul Ausrichtung verfolgen die Orientierungsänderungen der realen Hand (zur Verfügung gestellt von der Orientierung tracker Teilnehmer tragen auf ihrem rechten Handgelenk), die durch die Einstellung der Orientierungsänderungen der virtuellen Hand zu steuern, werden dann verwendet, macht Gieren, Nicken und rollen Daten der virtuellen Hand im Befehlsfenster. Kanal, um die durch die Ausrichtung Tracker verfolgt die Daten direkt in die virtuelle Handmodell für Synchronität Bedingungen aber eine Verzögerung von 3 s für Asynchronität einzufügen. Entwerfen Sie die erforderlichen zusätzlichen virtuellen Objekte und deren Bewegungsbahnen, so dass sie zu und von der virtuellen Hand bewegen (hier, Design und Import zusätzliche Modelle für einen Stock, Rechteck, Kugel und Messer, um während verschiedener pa verwendet werdenrts des Experiments; siehe "Versuchsbedingungen"). Ändern Sie manuell die Größe, Aussehen und Position für jedes dieser Objekte in der Befehlsskript in der gleichen Weise wie die Parameter für die virtuelle Hand eingestellt werden. Setzen Sie die erforderlichen Bewegungsbahnen mit den entsprechenden Befehlen für ein Objekt die Start- und Endposition der Bewegungsbahnen zu setzen und die Geschwindigkeit, mit der er fahren soll. Bestimmen Sie die Vibrationsstärke und Timing jedes Schwingungs Stimulator in der Befehlsskript; entweder ohne Verzögerung für Synchronität Bedingungen (dh Schwingung beginnt genau dann , wenn die virtuelle Seite von dem anderen virtuellen Objekt in Kontakt gebracht wird) , oder mit einer Verzögerung von 3 s für Asynchronität. Alle Vibratoren vibrieren zugleich als die virtuelle Hand wird durch den anderen virtuellen Objekt (oder dem verzögerten Zeitpunkt) berührt. Stellen Sie die Vibrationsfestigkeit auf einen mittleren Wert (dh bis 0,5 auf einer Skala von 0-1). Man beachte, dass die tatsächliche Stärke der Vibration auf der programmi hängtng Umwelt und Vibratoren für das Experiment verwendet und dass ein Medium Schwingungsebene in unserem Experiment nicht unbedingt die tatsächliche Stärke der Vibration entsprechen , wenn unterschiedliche Hardware (dh Vibratoren / dataglove) oder Software verwendet wird. In dem Experiment Skript einen zweiten Teil, der auf die vorhergehenden Schritte mit Ausnahme der folgenden Änderungen identisch ist: Ersetzen Sie die virtuelle Handmodell mit einem virtuellen Rechteck von ähnlicher Größe wie die virtuelle Hand (so das Aussehen Faktor des Experiments zu realisieren) Stellen Sie sicher, dass die Rotation der realen Hand, wie durch die Orientierung Tracker aufgenommen wird in Drehbewegungen des Rechtecks ​​übersetzt. Stellen Sie sicher , dass das Öffnen und Schließen der realen Hand , wie durch die dataglove nahm in Farbveränderungen des Rechtecks übersetzt wird mit dem entsprechenden Befehl zum Ändern der Farbe eines Objekts in der Programmierumgebung (zB präsentieren das Rechteck in grün , wenn der hund vollständig geschlossen ist, in rot, wenn es vollständig geöffnet ist, und lassen Sie die Farbe allmählich von rot zu grün oder grün auf rot wie die Hand öffnet oder schließt). Experimentelle Bedingungen Führen Sie die acht Versuchsbedingungen (resultierend aus der Kreuzung der drei experimentelle Faktoren Synchronität, Aussehen des virtuellen Effektor und aktiv / passiv) in einer Reihenfolge, die entweder ausgeglichen über Teilnehmer oder randomisiert ist. Für jede Bedingung sind drei Phasen von etwa 2 bis 3 min jede der virtuellen Hand Illusion und eine Bedrohung Phase zu messen elektroHautReaktionen (SCR) zu induzieren. Die konkrete Protokoll unterscheidet sich etwas für die acht Zustände und wird nachfolgend beschrieben. Virtuelle Hand / aktiv / Synchronität Konfigurieren des Systems, so dass die Verzögerung zwischen den folgenden Ereignissen nahe Null und nicht bemerkbar: (a) die Bewegungen und Ausrichtungsänderungen der realen seits und die entsprechening Bewegungen und Orientierungsänderungen der virtuellen Hand in der visuomotorische Korrelationsphase; (B) die Zeitpunkte des Kontakts zwischen der virtuellen Hand und dem zusätzlichen virtuellen Objekt auf dem Bildschirm und den entsprechenden Zeitpunkten der vibrationsinduzierten Stimulation der realen Hand in der visuell-taktilen Phase; und (c) die Bewegungen und Ausrichtungsänderungen der realen Hand und die entsprechenden Bewegungen und Ausrichtungsänderungen der virtuellen Seite; und die Zeitpunkte der Kontakt zwischen der virtuellen Hand und dem zusätzlichen virtuellen Objekt auf dem Bildschirm und die entsprechenden Zeitpunkten der vibrationsinduzierten Stimulation der realen Hand in der visuomotorische-taktilen Phase. Für die visuomotorische Korrelationsphase haben die Teilnehmer sich frei bewegen oder drehen ihre wahre rechte Hand, einschließlich Öffnen, Schließen und ihre echte Hand drehen und jeden Finger einzeln bewegen. Lassen Sie die Teilnehmer die entsprechenden Bewegungen der virtuellen Hand auf dem Bildschirm zu sehen. Für die visuo-taktile Stimulationsphase haben die Teilnehmer ihre echte Hand halten noch während der Betrachtung des Bildschirms. Präsentieren Sie ein weiteres virtuelles Objekt auf dem Bildschirm, wie eine virtuelle Kugel oder Stick (die in 1.2.3 erstellt wurde), die zu und von der virtuellen Hand bewegt, was den Eindruck der Berührung der Herstellung und nicht die virtuelle Hand zu berühren. Begleite jeden Kontakt zwischen diesem zusätzlichen virtuellen Objekts und der virtuellen Hand durch Vibrator Aktivität auf dem dataglove. Lassen Sie den Vibrator , dass ein Teil der realen Hand stimulieren, die zum Teil der virtuellen Hand entspricht , die durch die zusätzliche virtuelle Objekt berührt wird (zB wenn das virtuelle Objekt scheint die Handfläche der virtuellen Hand, die Handfläche des Teilnehmers zu berühren echte Hand sollte durch den Vibrator 16) stimuliert werden. Für die visuomotorische-taktile Korrelationsphase haben bewegen sich die Teilnehmer die virtuelle Hand durch ihre echte Hand, um die Bewegung eines virtuellen vibrierenden st zu berührenick oder ein ähnliches Objekt (siehe 1.2.3). Stellen Sie sicher, dass jeder Kontakt zwischen virtuellen Hand und virtuellen Stick / Objekt durch Vibration induzierte Stimulation der realen Hand des Teilnehmers begleitet wird, wie in 1.3.3.3 beschrieben. Für die Bedrohung Phase haben die Teilnehmer ihre wahre rechte Hand immer noch halten, während ein virtuelles Messer oder Nadel beobachten erscheinen auf dem Computerbildschirm. Machen Sie das virtuelle Messer oder Nadel und aus der virtuellen Hand gehen. Stellen Sie sicher, dass jeder Kontakt führt zu einem sichtbaren scheinbaren "Schneiden" oder der virtuellen Hand "Punktierung". Stimulieren Sie, dass ein Teil der realen Hand, die mit den Vibratoren des dataglove zum Schnitt oder punktierten Teil der virtuellen Hand entspricht, wie in 1.3.3.3 beschrieben. Virtuelle Hand / aktiv / Asynchronität Führen Sie die Prozedur unter 1.3.3 beschrieben, nachdem das System so, dass die Verzögerung zwischen den kritischen Ereignissen drei Sekunden statt nahe Null zu konfigurieren. </ol> Virtuelle Rechteck / aktiv / Synchronität Führen Sie die Prozedur beschrieben unter 1.3.3, aber mit dem virtuellen Rechteck anstelle der virtuellen Hand. Virtuelle Rechteck / aktiv / Asynchronität Führen Sie die Prozedur beschrieben unter 1.3.4, aber mit dem virtuellen Rechteck anstelle der virtuellen Hand. Virtuelle Hand / passiv / Synchronität Führen Sie die Prozedur unter 1.3.3 beschrieben, aber die Teilnehmer bitten, seine oder ihre echte Hand zu halten, immer noch in allen Phasen. Virtuelle Hand / passiv / Asynchronität Führen Sie die Prozedur unter 1.3.4 beschrieben, aber die Teilnehmer bitten, seine oder ihre echte Hand zu halten, immer noch in allen Phasen. Virtuelle Rechteck / passiv / Synchronität Führen Sie die Prozedur unter 1.3.5 beschrieben, aber die Teilnehmer bitten, seine oder ihre echte Hand zu halten, immer noch in allen Phasen. Virtuelle Rechteck / passiv / Asynchronität Führen Sie die Prozedur unter 1.3.6 beschrieben, aber die Teilnehmer bitten, seine oder ihre echte Hand zu halten, immer noch in allen Phasen. Datensammlung Sammeln Sie SCR Daten die Messausrüstung (siehe Materialliste) und der zugehörigen Software. Die Aufnahmefrequenz wird alle 0,1 ms. Bitten Sie den Teilnehmer zu füllen Sie den Fragebogen aus Mess Gefühl von Eigentum, Agentur, Standort und Aussehen für den jeweiligen Zustand. Verwenden Sie entweder eine Papierversion, in der jede Frage (wie in 1.4.2.1 und 1.4.2.2 beschrieben) gedruckt wird, zusammen mit einer Likert-Skala (wie in 1.4.2.3 beschrieben), und die mit einem Stift ausgefüllt werden kann; oder eine computerisierte Version verwendet werden, wobei jede Frage auf dem Bildschirm angezeigt wird, zusammen mit dem Likertskala, und in dem der gewählte Skalenwert kann eingegeben werden. Fügen Sie einen Fragebogen , die minimal eine oder mehrere Eigentumsfragen enthält 2; Verwenden Sie die folgenden vier: <br /> (O1) "Ich fühlte mich, als ob die Hand auf dem Bildschirm waren meine rechte Hand oder einen Teil meines Körpers"; (O2) "Es schien, als ob das, was ich waren auf meiner rechten Hand das Gefühl durch die Berührung mit dem Stock auf die Hand auf dem Bildschirm verursacht wurde, dass ich sah"; (O3): "Ich hatte das Gefühl, dass die Schwingung ich auf meiner rechten Hand fühlte sich an der gleichen Stelle war, wo die Hand auf dem Bildschirm durch den Stock berührt wurde"; (O4) "Es schien meine rechte Hand in der Lage war, wo die Hand auf dem Bildschirm war". Erwägen Sie, weitere Fragen zu Agentur Fragen; Verwenden Sie die folgenden Schritte aus: (A1) "Ich fühlte ich diese virtuelle Hand steuern kann" (für den aktiven Zustand); (A1) "Es schien, als ob ich die Hand auf dem Bildschirm bewegt haben könnte, wenn ich es gewollt hätte, als ob es mein Wille gehorchten" (für den passiven Zustand); . Beachten Sie, dass die in 1.4.2.1 und 1.4.2.2 aufgeführten Elemente in die Hand Zustand beziehen. Für das Rechteck Zustand, ersetzen Alle Verweise auf die virtuelle Hand durch Verweise auf das virtuelle Rechteck. Verwenden Sie eine Likertskala 2 für jede Frage (zB 1-7), so dass die Teilnehmer den Grad punkten , zu denen sie auf die Frage vereinbart; zB 1 verwenden für "stimme nicht zu " und 7 für "sehr". Stellen Sie sicher, jede Frage auf dem Bildschirm angezeigt und kann mit den Nummern 1 bis 7 entsprechend den 7 Antwortoptionen der Likert-Skala beantwortet werden; Aussehen und Antwortoptionen werden im Testskript programmiert. 2. Virtuelle-face Illusion Versuchsaufbau Willkommen der Teilnehmer und sammeln zusätzliche Informationen, wie Alter, Geschlecht, usw. Stellen Sie einen experimentellen Aufbau, der eine virtuelle Realität Programmierumgebung umfasst; ein Kopfposition-Tracking-System, einschließlich der entsprechenden Hard- und Softwaref "> 17; und ein 3-DOF Orientierung Tracker an die Spitze eines Hutes oder Baseballkappe angebracht. HINWEIS: Mit diesem Versuchsaufbau können die Teilnehmer sich frei bewegen oder drehen ihren eigenen Kopf, um die Position und Orientierung der virtuellen Fläche zu kontrollieren, aber sie können nicht die Mimik der virtuellen Gesicht steuern Bitten Sie den Teilnehmer auf dem Stuhl 2 Meter vor dem Computer-Bildschirm zu sitzen. Siehe Abbildung 1C und 1D für einen Abbildungen des experimentellen Aufbaus. Bitten Sie den Teilnehmer an der Kappe mit dem daran befestigten Orientierung Tracker zu setzen. Verbinden Position Tracking-System und Orientierung Tracker auf den Computer und führen Sie den bereits geschriebenen Befehl Skript im Befehlsfenster, indem Sie die Schaltfläche "Ausführen" in der Umgebung der virtuellen Realität-Schnittstelle klicken, so dass die Umgebung der virtuellen Realität beginnt. Überwachen Sie, dass der Teilnehmer den Anweisungen folgt auf dem Computer-Bildschirm vor den Teilnehmern gezeigt. Warte abbis die vorgeschriebene Befehlsskript wird automatisch abgeschlossen. Virtuelle Gesichts – Entwurf HINWEIS: Für die komplette Python – Skript und die erforderlichen Dateien den beigefügten "Virtual Gesicht Illusion.zip" Datei (NB sehen: die Zip-Datei , die eine ergänzende Materialien des Manuskripts ist und nicht Teil des Softwarepakets, es enthält nicht die erforderlichen Plugins zur Positions- und Orientierungsverfolgungs und alle anderen Module Python ganzen Skript verwendet). Um das Experiment durchzuführen, zunächst den Inhalt dieser Datei in einen beliebigen Ordner entpacken (zB auf dem Desktop) und doppelklicken Sie dann auf die "virtuelle-face illusion_54784_R2_052716_KM.py" Datei , um das Experiment zu starten. Beachten Sie, dass das Skript hier vorgestellten entworfen mit der Virtual-Reality-Programmierumgebung zu arbeiten und wird nicht funktionieren andere Programme. Verwenden Sie ein virtuelles Gesicht Bauprogramm zu entwerfen virtuelle Gesichter mit den entsprechenden Alter, Rasse, und Geschlechter (entsprechenddie Teilnehmer getestet), indem sie die am besten passenden Werte auf den entsprechenden Skalen der Programmwahl Erstellen Sie zwei Versionen jedes Gesicht, eine mit einem neutralen Gesichtsausdruck und ein mit einem Lächeln, indem Sie die entsprechenden Werte der Auswahl auf die entsprechenden Skalen des Programms (die Ausdrücke durch Ändern Augengröße, die Krümmung des Mundes und einige andere Gesichtsmuskeln variiert) Für Studenten zu testen, erstellen Sie vier 20-jährige virtuelle Gesichter mit dem virtuellen Gesicht Bauprogramm, ein männliches Gesicht mit einem neutralen Gesichtsausdruck, ein männliches Gesicht, das, ein weibliches Gesicht mit einem neutralen Gesichtsausdruck lächelt, und ein weibliches Gesicht dass lächelt In der virtuellen Gesicht Bauprogramm exportieren die Gesichter in 3D VRML-Format-Dateien. Mit Hilfe der entsprechenden Befehle der virtuellen Realität Programmierumgebung importieren die erstellten VRML – Dateien, dh die virtuellen Gesichter, in die Umgebung der virtuellen Realität für den Einsatz während des Experiments. Vary ihrer Größe oder Umfang durch ihre Parameter eine entsprechende Einstellung mit den entsprechenden Befehlen. Finden Sie die bereits geschriebene Tracking-Modul für die Kopfposition-Tracking-System in der Rate-Datei der virtuellen Umgebung und importieren, die die Kopfpositionen der Teilnehmer Tracking ermöglicht. In den Skripten, die Daten der Kopfpositionen ändern und den Zeitpunkt bestimmen, wann der Kopfpositionen übersetzt werden in virtuellen Gesichtspositionen (mit einem 0 ms Verzögerung für Synchronität Bedingungen und 3 s Verzögerung für die Asynchronität). Finden Sie eine vorgefertigte Orientierung Tracker-Plugin in der Rate-Datei der virtuellen Umgebung und importieren Sie es in den Befehlsskripts. Beachten Sie, dass wiederum erlaubt das Skript zeitliche Verzögerungen in Bezug auf den Zeitpunkt der Einführung als Orientierungsänderungen des Kopfes des Teilnehmers werden übersetzt in Orientierungsänderungen des virtuellen Kopf (mit einem 0 ms Verzögerung für Synchronität Bedingungen und 3 s Verzögerung für die Asynchronität ). Design zusätzliche virtuelle obProjekte (wie einem virtuellen Stick) und ihre Bewegungsbahnen, so bewegen sie sich zu und von der virtuellen Gesicht. Stellen Sie die Größe des virtuellen Objekts auf die Größe eines virtuellen Finger ähnlich. Schließen Sie Hardware und implementieren die gespeicherten Befehlsscripts, und dann das Experiment starten. Experimentelle Bedingungen mittels der Kopfposition Tracking-System und des Teilnehmers Kopforientierung mittels einer 3-DOF Orientierung Tracker an einer Kappe der Kopfposition des Teilnehmers Führen Sie den Befehl Skripte und zu verfolgen. Setzen Sie die Teilnehmer auf die virtuelle Gesicht für 30 s und weisen die Teilnehmer nicht zu bewegen. Sobald Gesicht verschwunden ist, haben die Teilnehmer an die IOS-Skala (beschrieben unter Data Collection) reagieren zu beurteilen, wie er oder sie die Beziehung zwischen den Menschen- oder selbst wahrnimmt und die virtuelle Gesicht. Führen Sie die vier experimentellen Bedingungen (weiter unten beschrieben) in einer Reihenfolge, die entweder ausgeglichen über parti istnehmern oder randomisiert. Jeder Zustand enthält drei Phasen von etwa 2 bis 3 min jeweils die virtuelle-face Illusion zu induzieren. Neutral / Synchronität Konfigurieren Sie das System so, dass die Verzögerung zwischen den folgenden Ereignissen nahe Null und nicht bemerkbar: (a) die Bewegungen des realen Kopf und die entsprechenden Bewegungen des virtuellen Kopfes in der visuomotorische Korrelation Phase und (b) die Zeitpunkte der Kontakt zwischen der realen Hand des Teilnehmers und der realen Wange des Teilnehmers und zwischen dem virtuellen Objekt und dem virtuellen Kopf in der visuell-taktile Stimulationsphase. Für die visuomotorische Korrelationsphase haben die Teilnehmer setzen auf die Kappe mit dem daran befestigten Orientierung Tracker. Bitten Sie sie, in Bewegung zu bleiben oder Drehen ihrer eigenen Kopf die Position und Orientierung der virtuellen Fläche zu steuern. Für die visuell-taktile Stimulationsphase haben die Teilnehmer strecken ihre rechte Arm nach rechts und zurück, immer wieder ihre rechte Wange zu berühren, während waTching den Bildschirm. Der Touch ist nur vorübergehend: Teilnehmer die Wange berühren, lassen Sie ihren rechten Arm nach rechts gehen und zu strecken, und wiederholen Sie für die Dauer dieses visuell-taktile Stimulationen Phase. Auf dem Bildschirm präsentieren die virtuelle Gesicht an der Wange durch ein virtuelles Objekt wiederholt berührt zu werden, wie zum Beispiel eine virtuelle Kugel. Die Berührung ist (oder eher Handbewegung im Allgemeinen) mit dem virtuellen Objekt durch das Bewegungssystem synchronisiert, die den Standort eines Teilnehmers des Körpers (zB Hand) im 3D – Raum verfolgen können, die uns direkt erlaubt der Teilnehmer Handbewegungen Karte auf die Flugbahn des des virtuellen Objekts, in einer synchronisierten Bewegung der realen Hand Bewegungsbahn des Teilnehmers resultierende und der virtuellen Bewegungsbahn des Objekts. Somit wird, wenn das virtuelle Objekt den virtuellen Avatar berührt, entspricht dies dem Teilnehmer ihre eigenen Wange zu berühren. Neutral / Asynchronität Führen Sie die Prozedur deunter 2.3.4 beschrieben, nachdem das System so konfiguriert ist, dass die Verzögerung zwischen den kritischen Ereignissen 3 s anstelle von nahe Null. Smiling / Synchronität Führen Sie die Prozedur unter 2.3.4 beschrieben, nachdem das System so konfiguriert ist, das lächelnde Gesicht anstelle des Gesichts mit einem neutralen Ausdruck zu präsentieren. Smiling / Asynchronität Führen des unter 2.3.6 beschriebenen Verfahren nach dem das System so konfiguriert ist, dass die Verzögerung zwischen den kritischen Ereignissen 3 s anstelle von nahe Null. Datensammlung Bitten Sie den Teilnehmer zu füllen Sie den Fragebogen aus Mess Gefühl der Zugehörigkeit und die Agentur für den jeweiligen Zustand. Fügen Sie einen Fragebogen, die minimal eine oder mehrere Eigentumsfragen enthält; Verwenden Sie die folgenden vier: (O1) "Ich fühlte mich wie das Gesicht auf dem Bildschirm mein eigenes Gesicht war"; (O2) "Es schien, als ob ich warauf meine eigene Reflexion in einem Spiegel "; (O3) "Es schien, als würde ich die Bewegungen erfassen und die Berührung auf meinem Gesicht in der Stelle, wo das Gesicht auf dem Bildschirm war"; (O4) "Es schien wie die Berührung ich auf meinem Gesicht spüren war durch die Kugel verursachte das Gesicht auf dem Bildschirm zu berühren". Erwägen Sie, Agentur Fragen; Verwenden Sie die folgenden beiden: (A1) "Es schien, als ob die Bewegungen, die ich auf dem Bildschirm auf dem Gesicht sah durch meine eigenen Bewegungen verursacht wurde"; (A2) "Das Gesicht auf dem Bildschirm bewegt, so wie ich es wollte, als wäre es mein Wille war zu gehorchen". Fügen Sie die "Aufnahme von anderen in der Self" (IOS) 18 skaliert werden , die unter Verwendung eines 7-Punkt erstellt wird (1-7) Likertskala 2 , auf dem jede Punktzahl angezeigt wird auf einen anderen Grad an Selbst andere Überlappung zu entsprechen . Zeigen den Grad der Überlappung graphisch durch die Überlappung von zwei Kreisen mit einem RepresEnting das "Selbst" und der andere Kreis der "Andere". Charakterisieren Sie die niedrigste Punktzahl der Skala von Null-Überlappung der beiden Kreise und die höchste Punktzahl durch perfekte Überlappung. Höhere Leistungen somit ein höheres Maß an Selbst andere Überlappung darstellen. Optional sind die 19 Affect Grid Stimmung zu beurteilen. Erstellen Sie eine 2-dimensionale (Valenz von Erregung) Likert-Art Raster, in dem eine Dimension Wertigkeit (im Bereich von -4 für das Gefühl unangenehm 4 für das Gefühl angenehm) und die andere Erregung (im Bereich von -4 für das Gefühl schläfrig entspricht bis 4 für Gefühl geweckt hoch). Lassen Sie die Teilnehmer einen Punkt (zB mit einem Stift) wählen, das dem entspricht , wie angenehm und wie sie zur Zeit geweckt fühlen. HINWEIS: Die Fragebögen, IOS und Affect Grid erscheinen auf dem Bildschirm nach jeder der experimentellen Phasen abgeschlossen ist. Die Teilnehmer verwendet, um die Tastatur (identisch mit dem virtuellen Hand Illusion Experiment) zu reagieren. </Li> Optional sind die alternative Verwendungen Aufgabe (AUT) 20. Bitten Sie die Teilnehmer so viele Einsatzmöglichkeiten für einen gemeinsamen Haushalt Element, wie eine Zeitung aufzulisten. Die Aufgabe wird mit Stift und Papier durchgeführt. Lassen Sie die Teilnehmer zu notieren, wie viele Verwendungen für das Objekt, wie sie können in 5 min. Wiederholen Sie dies für ein anderes Objekt (zB ein Ziegel). Score die Ergebnisse später nach Geläufigkeit (Anzahl der Verwendungen), Flexibilität (Anzahl der Verwendungskategorien), Ausarbeitung (wie viele Details oder Erklärung, die für die Nutzung zur Verfügung gestellt wird), und Originalität (wie einzigartig die Verwendung ist). Stellen Sie sicher, dass höhere Werte für alle Positionen höher divergentes Denken Leistung zeigen. Verwenden Sie zwei unterschiedliche Scorer und dafür sorgen, dass die Inter-Scorer Korrelation hoch ist. Konzentrieren Sie sich auf die Flexibilität Punktzahl für weitere Analysen, da dies die konsequenteste und theoretisch transparent Punktzahl der Aufgabe ist. Verwenden Sie die AUT als impliziten (und bedarfs Eigenschaft-frei) messen Stimmung angibt, wie die Leistung bei dieser Aufgabe erhöht mit einer besseren Stimmung 21. HINWEIS: Wenn die AUT zur Änderung implementiert ist das Skript so, dass die virtuelle Fläche auf dem Bildschirm bleibt, ist sichtbar und verbleibt unter der Kontrolle des Teilnehmers während sie die AUT tun.

Representative Results

Virtuelle Hand Illusion Wir liefen mehrere Experimente, um die virtuelle Hand Illusion Paradigma, zu untersuchen, wie die Menschen ihre Körper darstellen, in diesem Fall die Hände. Die Anzahl der getesteten Teilnehmer abhängig von der Menge von Bedingungen, in der Regel um die 20 Teilnehmer für jede Bedingung. Hier bieten wir Ihnen relevante Ergebnisse für eine der erarbeiteten Studien, die wir in unserem Labor durchgeführt. Wir werden unsere Diskussion auf die subjektiven Daten der Durchschnitt der Likert angelegte Antworten auf die vier Fragen Eigentums (O1-O4) und der Likert angelegte Antwort auf die Frage Stelle (A1) zu beschränken. In dieser Studie acht untersuchten wir systematisch die Auswirkungen von Synchronie (synchron vs. asynchron), das Erscheinungsbild des virtuellen Effektor (virtuelle Hand gegen Rechteck) und Aktivität (passive vs. aktiv) auf der particnehmern "Gefühl der Zugehörigkeit und ein Gefühl der Agentur (alle Bedingungen innerhalb Teilnehmer getestet wurden). Die Ergebnisse waren die gleichen für den Besitz und Agentur. Wie in Abbildung 2 angegeben ist , wahrgenommen Eigentum und Agentur waren stärker , wenn reale und virtuelle Hand in Synchronität bewegt [F (1,43) = 48,35; p <0,001; und F (1,43) = 54,64; p <0,001; für den Besitz und die Agentur jeweils], wenn der virtuelle Effektor war eine Hand, als wenn es sich um ein Rechteck [F (1,43) = 14.85 war; p <0,001; und F (1,43) = 6,94; p <0,02], und wenn der Teilnehmer aktiv war und nicht passiv [F (1,43) = 9,32; p <0,005; und F (1,43) = 79,60; p <0,001]. Die Synchronität Effekt repliziert die virtuellen Standard Hand Illusion. Abbildung 2: Eigentümer und Agenturratings als Funktion der Synchronität, Aussehen des virtuellen Effektor, und die Aktivität des Teilsicipant. Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen. Abbildung 3: Eigentümer und Agenturratings in Abhängigkeit von Synchronie und Aktivität des Teilnehmers. Beachten Sie, dass die Synchronität Wirkung für aktive Teilnehmer stärker ausgeprägt ist. Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen. Noch interessanter ist, sowohl Eigentums- und Agentur zeigte eine signifikante Wechselwirkung zwischen Aktivität und Synchronität [F (1,43) = 13,68; p = 0,001; und F (1,43) = 23,36; p <0,001; siehe Abbildung 3], aber nicht zwischen Schein und Synchronität. Dieses Musterdeutet darauf hin, dass die Aktivität eine dominierende Rolle für den Besitz spielt und die Illusion als Erscheinung ist, es zeigte auch, dass die Illusion Besitz Wahrnehmung in virtuellen stärker ist als Gummihand-Illusion Paradigma traditionell. Nach Hommel 22, objektive Agentur trägt zu (dh das Ausmaß , die ein externes Ereignis objektiv kontrolliert werden kann) sowohl subjektiv als Eigentum und subjektive Agentur, weshalb in diesem Experiment erklärt, aktiv, synchrone Steuerung über den virtuellen Effektor erhöht sowohl subjektive Eigentum und subjektive Agentur. Während Auftritt mit Synchronität zu interagieren, ist fehlgeschlagen, was darauf hindeutet, dass das Eigentum Illusion nicht auf Aussehen angewiesen ist, hat es einen Haupteffekt erzeugen. Dies zeigt, dass Aussehen tut auf wahrgenommen Eigentum auswirken. Es ist sinnvoll anzunehmen, dass die Menschen die allgemeinen Erwartungen über das, was externe Objekte könnten oder kein pl sein könnteausible Teil ihres Körpers, die Eigentums Wahrnehmung im Allgemeinen unterstützt aber mäßig nicht die Wirkung der Synchronität. Wir schließen daher, dass mehrere Quellen von Informationen an das Gefühl der subjektiven Eigentum beitragen: allgemeine Top-down-Erwartungen und Bottom-up-Synchronität Informationen. Die Beziehung zwischen diesen beiden Informationsquellen scheint nicht interaktiv, sondern Ausgleichs zu sein, so dass die allgemeinen Erwartungen in Abwesenheit von Synchronität dominieren kann, und umgekehrt. Virtuelle-face Illusion In einer weiteren Studie untersuchten wir, wie die Menschen ihr Gesicht darstellen. Wir waren in der Lage , die traditionelle enfacement Illusion in einer virtuellen Umgebung zu replizieren, die wir als die virtuelle-face Illusion beziehen 12. Wir untersuchten weiter, ob die Menschen die Stimmung durch ein virtuelles Gesicht ausgedrückt annehmen, mit denen sie zu identifizieren. Es gab einen innerhalb TeilnehmerFaktor-Synchronität (synchron vs. asynchron) und einem der beiden Teilnehmer Faktor-Gesichtsausdruck (glücklich vs. neutral). Die IOS Bewertungen vor der Induktionsphase wurden von den IOS-Ratings nach der Induktionsphase abgezogen, auch Bewertungen der Affect Grid vor der Induktionsphase von den nach der Induktionsphase Grid Ratings beeinflussen abgezogen wurden, und diese Rating-Änderungen wurden als IOS verwendet und beeinflussen Gitter Ergebnisse. Die Analyse der Eigentums Scores (O1-4), die Agentur Bewertungen (A1-2) und das IOS Skala 18 Änderungen zeigten alle Haupteffekte der Synchronie [F (1,58) = 38,24; p <0,001; F (1,58) = 77,33; p <0,001; und F (1,58) = 43,63; p <0,001; jeweils], mehr Eigenverantwortung und Agentur wahrgenommen , dass die Synchronität zwischen der eigenen Kopfbewegungen und die Bewegungen der virtuellen Gesicht zeigt, und erleichtert die Integration des Gesichts des anderen in eigenen Selbst eigenen (siehe FiAbbildung 4). Synchrony auch Stimmung verbessert, wie durch eine Synchronität Wirkung auf das Gitter beeinflussen 19 angegebenen Änderungen [F (1,58) = 7,99; p <0,01]. Abbildung 4: Eigentümer und Agenturratings sowie IOS ändert, als eine Funktion der Synchronität. Beachten Sie, dass positive IOS Änderungen bedeuten eine Erhöhung der Integration der anderen in sich selbst. Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen. Abbildung 5: Affect Rasters (positive Werte bedeuten positiv laufenden beeinflussen) und Flexibilität Partituren in der AUT, als eine Funktion der Synchronität und der Ausdruck der virtuellen Gesicht. Beachten Sie, dass die Wechselwirkungen zwischen Synchronie und Ausdruck von mehr positiv werdenden Stimmung angetrieben werden und eine besonders gute Flexibilität Leistung für die Kombination von Synchronie und glücklich virtuellen Gesicht. Bitte klicken Sie hier , um eine größere Version dieser Figur zu sehen. Es waren signifikant Haupteffekte der Gesichtsausdruck auf IOS ändert, beeinflussen Gitter ändert, und Flexibilität in der 20 AUT, 21, 23 , aber noch wichtiger war die Tatsache , dass das Gitter Änderungen betreffen und die Flexibilität , mit Synchronität interagierten Note [F (1, 58) = 4,40; p <0,05; und F (1,58) = 4,98; p <0,05; beziehungsweise]. Wie in 5 gezeigt, berichteten die Teilnehmer verbesserte Stimmung und zeigte mehr kreatives Verhalten nach enfacing (dh synchronly bewegt sich mit) ein glückliches Gesicht, als die Bedingungen verglichen, wo sie ein neutrales Gesicht asynchron mit einem glücklichen Gesicht bewegt oder synchron mit. F / P / PES EFF HANDLUNG SYN EFF * ACT EFF * SYN ACT * SYN EFF * ACT * SYN O1 11.66 10.11 45,38 10,08 0,001 0,003 <0,001 0,003 0,21 0,19 0,51 0,19 O2 5,37 47,65 0.025 <0,001 0,11 0,53 O3 10,75 41,30 9,81 0,002 <0,001 0,003 0,20 0,49 0,19 O4 12,86 17,17 15,12 10,60 0,001 <0,001 <0,001 0,002 0,23 0,29 0,26 0,20 O1-4 14.85 9.32 48.35 13.68 0; 0,001 0,004 <0,001 0,001 0,26 0,18 0,53 0,24 A1 6,94 79,60 54,64 23.36 0,012 <0,001 <0,001 <0,001 0,14 0,65 0,56 0,37 Tabelle 1: F, P und Teil Eta im Quadrat (PES) Werte für die Auswirkungen der Fragebogen Artikel Ratings, mit df = 43 Faktoren EFF sind: virtuelle Effektor (virtuelle Hand gegen Rechteck); ACT: Aktivität (aktive Exploration vs. passive Stimulation); und SYN: Synchronie (synchron vs. asynchron). Nur Ergebnisse für erhebliche Auswirkungen gezeigt. <table border = "1" fo: keep-together.within-page = "1" keep-mit-next.within-page ="always"> M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS O1-4 4.37 3,44 5.09 3.50 3.79 3.14 4,68 3.05 0,20 0,23 0,19 0,25 0,23 0,23 0,20 0,21 A1 3.59 3.11 6.36 4.36 3.07 2,57 6.09 3.80 0,30 0.32 0,15 0,33 0,28 0,27 0,24 0,33 <p class="jove_content" fo:keep-together.within-page = "1"> Tabelle 2: Mittel (M) und Standardfehler (SE) für den Besitz und die Agentur Bewertungen in allen acht Bedingungen. H: Hand; R: Rechteck; A: aktiv; P: passiv; SY: synchron; AS: asynchron. F / P / PES Gesichtsausdruck Synchrony Gesichtsausdruck * Synchrony Ownership (O1-4) 38.24 <0,001 0,40 Agentur (A1-2) 77,33 <0,001 0,57 IOS Änderungen 4.03 43.63 0,049 0,001 0,07 0,43 Affect Grid Valence Änderungen 6.06 7.99 4.40 0,017 0,007 0,041 0,10 0,13 0,07 AUT-Flexibilität 5.42 4.98 0,024 0,03 0,09 0,08 AUT-Fluency 7.89 0,007 0,12 Tabelle 3: F, P und Teil Eta im Quadrat (PES) Werte für relevanten abhängigen Maßnahmen, mit df = 58 für Fragebogen und IOS Ergebnisse und df = 56 für die Wertigkeit Dimension des Gitters moo beeinflussend und AUT Ergebnisse. Nur Ergebnisse für erhebliche Auswirkungen gezeigt. M / SE Neutral-SY Neutral-AS Happy-SY Happy-AS Ownership (O1-4) 2,88 2.03 3,38 2,36 0,27 0,16 0,23 0,22 Agentur (A1-2) 5.90 4,25 6.16 4.08 0,20 0,25 0,13 0.32 IOS Änderungen 0,37 -0,80 1,00 -0,40 0,21 0,25 0,20 0,24 Affect Grid Valence Änderungen -1,07 -1,33 0,60 -1,20 0,42 0,33 0,39 0,31 AUT-Flexibilität 5,87 6,07 7,43 6.10 0,31 0,37 0,29 0,39 AUT-Fluency 7,27 8,27 9,73 7,37 0,51 0,68 0,68 0,49 Tabelle 4: Mittel (M) und Standardfehler (SE) für relevanten abhängigen Maßnahmen in den vier Bedingungen. Neutral: neutral facial expression; Happy: glücklichem Gesichtsausdruck; SY: synchron; AS: asynchron.

Discussion

In diesem Artikel haben wir beschrieben, zwei detaillierte Protokolle für die virtuellen Hand und virtuellen Gesicht Illusion Paradigmen, in denen unsere virtuellen Gesicht Studie war die erste, die traditionelle Streicheln induzierten face-Eigentums Illusion in der virtuellen Realität, zusammen mit repräsentativen Ergebnissen zu replizieren aus die beiden Paradigmen.

Die wesentlichen Synchronität Effekte zeigen, dass wir bei der Induktion illusorisch Eigentum für die virtuelle Hand und die virtuelle Gesicht, ähnlich zu den herkömmlichen Illusion Paradigmen erfolgreich waren. Die Möglichkeit , diese Effekte mit Hilfe von Virtual Reality – Techniken zu reproduzieren hat erhebliche Vorteile 11, 24. Virtual-Reality-Techniken sind die Befreiung der Experimentator von der eher künstlich und unterbrechende Streicheln Verfahren und eröffnet neue Möglichkeiten für experimentelle Manipulationen. Zum Beispiel erlaubt uns morphing virtuellen Effektoren systematisch die Auswirkungen der appea zu manipulierenRance der virtuellen Hand und die Ähnlichkeit zwischen der virtuellen und der realen Hand des Teilnehmers oder der Gesichtsausdruck des virtuellen Gesicht. Die Auswirkungen der Agentur kann auch systematisch durch Variieren des Grades untersucht werden (zB Unmittelbarkeit) , an die Teilnehmer , die Bewegungen des künstlichen Effektor steuern.

Ein weiterer vielversprechender Weg für zukünftige virtuelle Realität Forschung Perspektive der ersten Person (1PP) Virtual-Reality-Erfahrungen. 1PP Erfahrungen können eine immense Gefühl des Eintauchens und das Gefühl der Gegenwart, auf einem ganz anderen Maßstab als eine dritte Person Perspektive virtuelle Realität erleben 25, 26, 27, 28 erstellen. In 1PP erfährt kann man wirklich das Gefühl , dass man sich der Avatar ist, ist , dass man verkörpert buchstäblich den Avatar. Dies eröffnet Möglichkeiten für alle Arten von Manipulationen, wie Ablösen Teile eines nach oben Person in den Körper 28, 29 verlängernden, rescaling Körperteile 30, oder eine Person , die Hautfarbe 31, 32 zu ändern.

Da die derzeitigen und viele andere Ergebnisse zeigen, in einer synchronen Art und Weise virtuelle Ereignisse Steuerung stark erhöht die Wahrnehmung dieser Ereignisse auf den eigenen Körper gehören. Zum Beispiel unsere Erkenntnisse aus der Hand Studie deuten darauf hin , dass eine sofortige Kontrolle ist ein wichtiges Stichwort für die Unterscheidung zwischen selbstproduzierten und anderen produzierten Ereignisse (dh persönliche Agentur) und zwischen selbstbezogenen und anderen bezogenen Ereignissen (dh Körper Eigentum) . Die Ergebnisse hier und an anderer Stelle präsentiert legen nahe , dass Bottom-up – Informationen eine entscheidende Rolle bei der Entstehung der phänomenale Selbstdarstellung spielt, auch für Körperteile , die nicht als identitätsbezogene als eigene Körperteil 4 sind.

jove_content "> Der wichtigste Teil der beschriebenen Protokolle ist das Induktionsverfahren, die Korrelationen zwischen visuelle, taktile und Motor (dh proprioceptive) informations diese Korrelationen ermöglicht das kognitive System Eigentums- und Agentur abzuleiten einführt. Da diese Korrelationen verlassen sich auf die relative Zeitsteuerung der jeweiligen Ereignisse, wie beispielsweise die Verzögerung zwischen dem eigenen Bewegungen des Teilnehmers und die Bewegungen des künstlichen Effektor ist es entscheidend, Verarbeitungsverzögerungen (insbesondere im Hinblick auf die Übersetzung von Daten von der dataglove auf die Bewegung des virtuellen Effektor zu halten auf dem Bildschirm) auf ein Minimum. Mit unserem Versuchsaufbau die maximale Zeitverzögerung beträgt etwa 40 ms, was kaum spürbar ist und behindert nicht die Wahrnehmung von Kausalität und Agentur. Shimada, Fukuda und 33 Hiraki haben vorgeschlagen , dass die kritische Zeitfenster für das Auftreten von multisensorischen Prozesse Integration der Selbstkörperdarstellung bilden 300 ms ist,was bedeutet, dass längere Verzögerungen dürften die Wahrnehmung der Kontrolle über die virtuelle Events zu reduzieren.

Ein weiterer wichtiger Aspekt des Protokolls ist eng experimentelle Kontrolle über die Teilnehmer an der Hand oder Gesicht Bewegungen, je nach dem Paradigma. Während der Induktion werden die aktiven Bewegungen des jeweiligen Faktors wesentlich, da die erforderlichen intersensorischen Korrelationen basieren auf aktiven explorative Bewegungen auf der Seite des Teilnehmers. Es ist daher wichtig, die Teilnehmer zu ermutigen, häufig zu bewegen und in der aktiven Exploration zu engagieren. In anderen Phasen des Experiments, können Bewegungen der Messung jedoch beeinträchtigen. Zum Beispiel in der virtuellen Hand Illusion Paradigma, die linke Hand zu bewegen (von dem SCR aufgezeichnet wurde) wahrscheinlich Messungen des SCR-Ebene laut und unzuverlässig zu machen.

Eine Begrenzung der virtuellen Hand Illusion Paradigma Technik ist, dass aus praktischen Gründen die Teilnehmer gemeinsam eine dataglove und Orientierung tr tragenacker während des gesamten Experiments (so Ablenkung zu minimieren). Dies kann nicht bequem sein, was wiederum die Stimmung oder die Motivation des Teilnehmers auswirken können. Eine mögliche Lösung für dieses Problem wäre die Verwendung leichterer Ausrüstung oder maßgeschneiderte Wearables. Eine weitere Einschränkung unserer aktuellen virtuellen-face Illusion Paradigma Technik ist, dass das Gerät nur registriert Kopfbewegungen, aber keine Veränderungen im Gesichtsausdruck. Teilnehmer die Mimik eines virtuellen Gesicht zu steuern, so dass wahrscheinlich Eigentum Illusionen beitragen, aber dies würde Hard- und Software erfordern, die zuverlässige Erkennung und Kategorisierung von Mimik beim Menschen-die wir in unserem Labor noch nicht zur Verfügung stehen zur Verfügung stellt. Die Verwendung von beispielsweise Echtzeit (Gesichts-) Motion-Capture-Dienstprogramme von großem Nutzen sein würde, diese Einschränkungen zu überwinden und würde uns erlauben, Gefühl der Agentur und den Besitz von Avataren zu erhöhen, um signifikant höhere Werte.

Wie bereits angedeutet durchdie Ergebnisse aus unserer Studie 8, betrachten die Menschen verschiedene Informationsquellen und ihre Körperdarstellung kontinuierlich aktualisieren. Sie scheinen Bottom-up – Informationen und Top-down – Informationen in einer kompensatorischen Art und Weise zu verwenden, in dem Sinne , dass eine Informationsquelle spielt eine stärkere Rolle bei der Abwesenheit des anderen-ähnlich dem , was für den Sinn der Agentur 34 angenommen wurde. Dies bietet interessante Möglichkeiten für die zukünftige Forschung, wie es zum Beispiel legt nahe , dass das Eigentum auch für künstliche Effektoren in ungünstigen Positionen wahrgenommen werden kann, sofern ein ausreichendes Maß an Oberflächen Ähnlichkeit oder umgekehrt (dh wenn der künstliche Effektor passt perfekt mit dem realen Effektor unterscheidet sich aber von ihm in Bezug auf die Oberflächenmerkmale). Die vorliegenden Ergebnisse zeigen auch, dass die Grenzen zwischen sich selbst und andere sind eher Kunststoff, so dass Merkmale einer anderen Person oder Agent kann als ein Merkmal von sich selbst wahrgenommen werden, sofern ein gewisses Maß an synchrony zwischen eigenen Verhaltens ein und die der anderen 35, 36.

Disclosures

The authors have nothing to disclose.

Acknowledgements

This work was funded by the Chinese Scholarship Council (CSC) to K. M., and an infrastructure grant of the Netherlands Research Organization (NWO) to B. H.

Materials

Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16 (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands ‘feel’ touch that eyes see. Nature. 391 (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270 (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48 (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6 (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2 (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5 (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3 (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person’s face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113 (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4 (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37 (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63 (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57 (3), 493-502 (1989).
  20. Guilford, J. P. . The nature of human intelligence. , (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106 (3), 529-550 (1999).
  22. Hommel, B., Haggard, P., Eitam, B. 34;Action control and the sense of agency&#34. The sense of agency. , 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115 (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6 (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5 (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7 (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26 (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5 (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7 (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110 (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7 (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22 (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4 (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17 (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24 (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73 (4), 512-526 (2009).

Play Video

Cite This Article
Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

View Video