Summary

Auslösen und Analysieren von männlichen Maus Ultraschall-Vokalisierung (USV) Lieder

Published: May 09, 2017
doi:

Summary

Mäuse produzieren ein komplexes multisyllabisches Repertoire an Ultraschall-Vokalisationen (USVs). Diese USVs sind weithin als Auslesungen für neuropsychiatrische Störungen verwendet. Dieses Protokoll beschreibt einige der Praktiken, die wir gelernt und entwickelt haben, um die akustischen Eigenschaften und die Syntax von Maus-Songs konsequent zu induzieren, zu sammeln und zu analysieren.

Abstract

Mäuse produzieren Ultraschall-Vokalisierungen (USVs) in einer Vielzahl von sozialen Kontexten während der Entwicklung und Erwachsenenalter. Diese USVs werden für Mutter-Welpen-Retrieval 1 , jugendliche Wechselwirkungen 2 , entgegengesetzte und gleiche Geschlechtswechselwirkungen 3 , 4 , 5 und territoriale Wechselwirkungen verwendet 6 . Seit Jahrzehnten werden die USVs von Ermittlern als Proxies für die Untersuchung neuropsychiatrischer und Entwicklungs- oder Verhaltensstörungen 7 , 8 , 9 verwendet und in jüngster Zeit die Mechanismen und die Evolution der Gesangskommunikation unter den Wirbeltieren zu verstehen 10 . Innerhalb der sexuellen Interaktionen produzieren erwachsene männliche Mäuse USV-Songs, die einige Features haben, die den Balkenliedern von Singvögeln entsprechen 11 . Die Verwendung solcher multisyllabischen ReperToires können potenzielle Flexibilität und Informationen, die sie tragen, erhöhen, da sie variiert werden können, wie Elemente organisiert und rekombiniert werden, nämlich Syntax. In diesem Protokoll wird eine zuverlässige Methode, um USV-Songs von männlichen Mäusen in verschiedenen sozialen Kontexten, wie die Exposition gegenüber frischem weiblichen Urin, anästhesierten Tieren und Östrusfrauen, zu entlocken. Dies schließt Bedingungen ein, um eine große Menge von Silben von den Mäusen zu induzieren. Wir reduzieren die Aufzeichnung von Umgebungsgeräuschen mit preiswerten Klangkammern und präsentieren eine Quantifizierungsmethode, um die USVs automatisch zu erkennen, zu klassifizieren und zu analysieren. Letztere beinhaltet die Auswertung von Call-Rate, Vocal Repertoire, akustischen Parametern und Syntax. Verschiedene Ansätze und Einblicke in der Verwendung von Playbacks, um die Präferenz eines Tieres für bestimmte Liedtypen zu studieren, werden beschrieben. Diese Methoden wurden verwendet, um akustische und syntaxische Veränderungen über verschiedene Kontexte bei männlichen Mäusen und Liederpräferenzen bei weiblichen Mäusen zu beschreiben.

Introduction

Im Vergleich zu den Menschen produzieren Mäuse sowohl niedrige als auch hochfrequente Vokalisierungen, die später als Ultraschall-Vokalisationen (USVs) über unserem Hörbereich bekannt sind. Die USVs werden in einer Vielzahl von Kontexten produziert, darunter von Mutter-Welpen-Retrieval, jugendliche Wechselwirkungen, zu entgegengesetzten oder gleichen Geschlecht erwachsenen Wechselwirkungen 4 , 12 . Diese USVs bestehen aus einem vielfältigen multisyllabischen Repertoire, das manuell 9 oder automatisch kategorisiert werden kann 10 , 11 . Die Rolle dieser USVs in der Kommunikation wurde in den letzten Jahren zunehmend untersucht. Dazu gehören die Verwendung der USVs als Auslesungen von Mausmodellen von neuropsychiatrischen, Entwicklungs- oder Verhaltensstörungen 7 , 8 und internen Motivations- / Emotionszuständen 13 . Die USVs sollen zuverlässige Informationen über die eMitter-Zustand, der für den Empfänger 14 , 15 nützlich ist.

Im Jahr 2005, Holy und Guo 11 , erweiterte die Idee, dass erwachsene männliche Mäuse USVs wurden als eine Folge von multisyllabischen Call-Elemente oder Silben ähnlich wie Singvögel organisiert. In vielen Arten erlaubt ein multisyllabisches Repertoire dem Emitter, Silben auf unterschiedliche Weise zu kombinieren und zu bestellen, um die potenziellen Informationen des Liedes zu erhöhen. Variation in dieser Syntax wird geglaubt, um eine ethologische Relevanz für Sexualverhalten und Kumpelpräferenzen zu haben 16 , 17 . Nachfolgende Studien zeigten, dass männliche Mäuse in der Lage waren, die relative Zusammensetzung der Silbenarten, die sie vor, während und nach der Anwesenheit einer weiblichen 5 , 18 produzieren, zu verändern. Das heißt, die erwachsenen männlichen Mäuse verwenden ihre USVs für Balzverhalten, entweder zu gewinnenOder einen engen Kontakt mit einer Frau aufrechterhalten oder die Paarung 19 , 20 , 21 erleichtern. Sie werden auch in männlich-männlichen Wechselwirkungen emittiert, vermutlich um soziale Informationen während der Interaktionen zu vermitteln 4 . Um diese Veränderungen in den Repertoires zu erfassen, messen die Wissenschaftler in der Regel die spektralen Merkmale (akustische Parameter wie Amplitude, Frequenzen etc. ), Anzahl der USVs Silben oder Anrufe und Latenz zum ersten USV. Allerdings betrachten nur wenige die Sequenzdynamik dieser USVs im Detail 22 . Vor kurzem entwickelte unsere Gruppe eine neuartige Methode zur Messung von dynamischen Veränderungen in den USV-Silbensequenzen 23 . Wir haben gezeigt, dass die Silbenreihenfolge innerhalb eines Liedes (nämlich Syntax) nicht zufällig ist, dass sie sich je nach sozialem Kontext ändert und dass die Hörenden diese Veränderungen als ethologisch relevant ermitteln.

Wir merken thBei vielen Forschern, die Tierkommunikation studieren, nicht an den Begriff "Syntax" die gleiche genaue Bedeutung wie Syntax, die in der menschlichen Sprache verwendet wird. Für Tierkommunikationsstudien verstehen wir einfach eine geordnete, nicht zufällige Sequenz von Klängen mit einigen Regeln. Für den Menschen sind darüber hinaus spezifische Sequenzen bekannt, die spezifische Bedeutungen haben. Wir wissen nicht, ob dies bei Mäusen der Fall ist.

In diesem Papier und dem dazugehörigen Video wollen wir zuverlässige Protokolle liefern, um die USVs der männlichen Mäuse in verschiedenen Kontexten aufzunehmen und Playbacks durchzuführen. Die Verwendung von drei nacheinander verwendeten Software für: 1) automatisierte Aufnahmen; 2) Silbenerkennung und -codierung; Und 3) eine eingehende Analyse der Silbenmerkmale und Syntax wird gezeigt (Abbildung 1 ). Dies ermöglicht es uns, mehr über männliche Mäuse USV Struktur und Funktion zu lernen. Wir glauben, dass solche Methoden Datenanalysen erleichtern und neue Horizonte eröffnen können, um eine normale und abnorme Gesangskommunikation in mou zu charakterisierenSe Modelle der Kommunikation und neuropsychiatrischen Erkrankungen, jeweils.

Protocol

Ethik-Erklärung: Alle experimentellen Protokolle wurden vom Duke University Institutional Animal Care and Use Committee (IACUC) unter dem Protokoll Nr. A095-14-04 genehmigt. Anmerkung : Siehe Tabelle 1 im Abschnitt " Werkstoffe und Ausrüstung " für Details der verwendeten Software. 1. Stimulation und Aufzeichnung von Maus USVs Vorbereitung der Männchen vor den Aufnahmesitzungen HINWEIS: Die repräsentativen Ergebnisse wurden unter Verwendung von B6D2F1 / J jungen erwachsenen männlichen Mäusen (7 – 8 Wochen alt) erhalten. Dieses Protokoll kann für jede Belastung angepasst werden. Stellen Sie den Lichtzyklus des Tierraums auf einen 12-h-Licht / Dunkel-Zyklus ein, sofern nicht anders angegeben. Befolgen Sie die Standard-Gehäuse-Regeln von 4 bis 5 Männer pro Käfig, wenn nicht anders erforderlich oder erforderlich. Drei Tage vor der Aufzeichnung setzen Männer männlich einzeln einer sexuell reifen und empfänglichen Frau (bis zu 3 Männchen mit einer Frau pro Käfig) der gleichen Belastung über Nacht aus. Am nächsten Tag entfernenDas Weibchen aus dem Käfig des Mannes und Haus die Männchen ohne die Weibchen für mindestens zwei Tage vor der ersten Aufnahmesession, um die soziale Motivation zu singen (basierend auf unserer Studie und Fehler Anekdotische Analysen) zu erhöhen. Vorbereitung der Aufzeichnungsboxen Verwenden Sie einen Strandkühler (Innenmaße sind L 27 x W 23 x H 47 cm), um als Schalldämpfungsbox-Studio zu dienen (Abbildung 2A ). Bohren Sie ein kleines Loch auf die Oberseite des Kastens, um das Mikrofon-Draht laufen zu lassen. HINWEIS: Die Aufzeichnung der Tiere in einem gesund abgeschwächten und visuell isolierten Umfeld ist vorzuziehen, um Dutzende von Mäusen sofort aufzunehmen, ohne dass sie einander hören oder sehen, verhindern die Aufzeichnung von kontaminierenden Umgebungsgeräten und Geräten im Raum und um sauber zu werden Tonaufnahmen der Mäuse (Abbildung 2B ). Wir haben keine Ton-Echos oder Verzerrungen auf den Klang beim Vergleich von Vokalisierungen der gleichen Maus im Gegensatz zu außerhalb von tEr schalldämpft ( Abb. 2C ); Vielmehr können die Klänge lauter sein und haben weniger Harmonische in der Kammer. Verbinden Sie das Mikrofon mit dem Draht, dem Draht an die Soundkarte und der Soundkarte an den Computer, um mit einer Tonaufnahmesoftware zu arbeiten ( zB Software A in Abbildung 1 und Tabelle 1 ). Eine adäquate Tonaufnahme-Software ist notwendig, wie Software A, die WAV-Sounddateien erzeugt. Legen Sie einen leeren Käfig (58 x 33 x 40 cm) in die schalldichte Box und stellen Sie die Höhe des Mikrofons so ein, dass die Membran des Mikrofons 35 – 40 cm über dem Boden des Käfigs liegt und dass das Mikrofon über dem Käfig zentriert ist ( Siehe Fig. 2A ). Konfiguration der Aufnahmesoftware A ( Tabelle 1 ) für die kontinuierliche Aufnahme Doppelklick und Software öffnen A. Klicken Sie auf und öffnen Sie das Menü "Konfiguration" und wählen Sie das Gerät namens, Abtastrate (250.000 Hz), Format (16 Bit). Wählen Sie die Option "Trigger" und klicken Sie auf "Toggle". HINWEIS: Diese Einstellung ermöglicht das Starten der Aufnahme durch Drücken einer Taste (F1, F2 usw. ), während der Stimulus in den Käfig der Maus gelegt wird. Geben Sie die ID der Maus unter dem Parameter "Name" ein. Setzen Sie die maximale Dateigröße auf die gewünschten Minuten der Aufnahme (wir sind in der Regel auf 5 min). HINWEIS: Je länger die Minuten, desto größerer Speicherplatz benötigt. Wenn der Continuous-Modus nicht gesetzt ist, schneidet die Software die Song-Kämpfe am Anfang oder Ende einer Sequenz ab, die auf Set-Parametern basiert, und daher kann man Sequenzen nicht zuverlässig quantifizieren. Notizen USVs mit den verschiedenen Reizen. Anmerkung: Jeder Stimulus kann unabhängig von den experimentellen Bedürfnissen des Benutzers verwendet werden. Heben Sie das Tier vorsichtig an, um vom Schwanz aufgezeichnet zu werden, und legen Sie es in einen Käfig ohne Bettwäsche (um zu verhindern, dass sich bewegtEment Lärm auf dem Bettzeug) in der schalldichten Box, und legte den Käfig offene Metall-Deckel auf der Oberseite, mit dem Deckel nach oben. Schließe den Schalldämpfer ab und lasse das Tier 15 Minuten lang dazu gewöhnen. Führen Sie die Stimuli Vorbereitung (1.4) in diesem Moment. Stimuli Vorbereitung Vorbereitung von frischen Urin (UR) Proben als Stimulus Erhalten Urinproben bei maximal 5 Minuten vor der Aufnahmesession, um eine maximale Wirkung bei der Induktion des Liedes von den Männchen zu gewährleisten. HINWEIS: Urin, der länger und vor allem für Stunden oder über Nacht sitzt, ist nicht so wirksam 24 , 25 , die wir empirisch verifiziert haben 23 . Wähle eine weibliche oder männliche (je nach dem Geschlecht des zu stimulierenden Stimulus) in einem Käfig, packe die Haut hinter dem Hals und behindere das Tier in einer Hand wie bei einem Medikamenteneinspritzverfahren mit dem Bauch ausgesetzt. <lI> Mit einer Pinzette, packen Sie eine Baumwollspitze (3 – 4 mm lang x 2 mm breit). Reiben Sie sanft und drängen Sie auf die Blase des Tieres, um einen Tropfen frischen Urins zu extrahieren. Wischen Sie die Vagina der Frau oder den Penis des Mannes, um den gesamten Tropfen auf der Baumwollspitze zu sammeln. Dann einen anderen Käfig auswählen. Und wiederholen Sie die gleiche Prozedur mit einem anderen weiblichen oder männlichen aber mit dem gleichen Baumwollspitze zuvor verwendet. HINWEIS: Dieses Verfahren vergewissert sich, den Urin von mindestens zwei Weibchen oder Männchen aus zwei unabhängigen Käfigen auf der gleichen Baumwollspitze zu mischen, um gegen irgendwelche Östrus oder andere individuelle Effekte zu sorgen, da bekannt ist, dass der Östruszyklus das Gesangsverhalten beeinflussen könnte 18 , 26 . Legen Sie die Baumwollspitze in eine saubere Glas- oder Plastik-Petrischale. HINWEIS: Da die Baumwollspitze mit Urin innerhalb der nächsten 5 min verwendet werden muss, besteht keine Notwendigkeit, sie zu bedecken, um Verdunstung zu verhindern. VorbereitungenAuf den lebenden weiblichen (FE) Stimulus als Stimulus Wähle ein oder zwei neue Käfige von sexuell reifen Frauen. Identifizieren Sie Weibchen im Pro-Estrus oder Estrus-Stadium durch visuelle Inspektion (breite Vagina Öffnung und rosa Surround, wie in 27 , 28 gezeigt ). Trennen Sie sie in einem anderen Käfig bis zum Gebrauch. Vorbereitung der anästhesierten Tiere Weibchen (AF) oder Männchen (AM) als Stimulus Für die AF, wählen Sie eine Frau aus dem Pool oben (entweder in Pro-estrus oder estrus). Für die AM, wählen Sie ein Männchen aus einem Käfig von erwachsenen männlichen Mäusen. Anästhesieren Sie das Weibchen oder Männchen mit einer intraperitonealen Injektion einer Lösung von Ketamin / Xylazin (100 bzw. 10 mg / kg). Verwenden Sie die Augensalbe, um eine Austrocknung der Augen zu verhindern, während das Tier anästhesiert wird. Überprüfen Sie die richtige Anästhesie, indem Sie den Pfotenrückzugsreflex beim Pressen pressen. Legen Sie das betäubte Tier in einen sauberen Käfig auf ein Papiertuch, WitzH der Käfig auf dem Heatkissen auf "minimale Hitze" gesetzt, um die Kontrolle der Körpertemperatur zu gewährleisten. Wiederverwendung der gleichen Tiere bis zu 2 bis 3 mal für verschiedene Aufnahmesitzungen, wenn nötig, bevor sie aufwachen (normalerweise ca. 45 min). Legen Sie sie nach jeder Aufnahmesession wieder auf die Warmhalteleiste. Kontrollieren Sie die Atemfrequenz durch visuelle Inspektion (~ 60 – 80 Atemzüge pro Minute) und Körpertemperatur durch Berühren des Tieres alle 5 min (sollte warm zu berühren). Wenn Sie bereit sind, aufzunehmen, klicken Sie auf die Schaltfläche "Record" der Software A. HINWEIS: Die Aufnahmen werden nicht gestartet, es sei denn, der Benutzer klickt auf die Taste, die jedem Kanal zugeordnet ist. Überwachen Sie den Live-Audio-Feed von den Käfigen auf dem Computer-Bildschirm, um sicherzustellen, dass die Tiere singen und die Aufnahmen ordnungsgemäß erhalten werden. Gleichzeitig drücken Sie die zugehörige Taste des gewünschten Aufzeichnungspakets ( dh F1 für Kasten 1) und führen Sie den gewünschten Stimulus ein. Präsentiere einen der Reize wie folgt. Legen Sie die Baumwollspitze mit frischen Urinproben in den Käfig, oder legen Sie die lebende Frau in den Käfig, oder legen Sie eines der anästhesierten Tiere (AF oder AM) auf den Metalldeckel des Käfigs. Legen Sie die Aufnahmebox ruhig und lassen Sie die Aufnahme für die voreingestellte Anzahl von Minuten ( zB 5 min, wie in Abschnitt 1.3 beschrieben). Nach der Aufnahme klicken Sie auf die rote Taste, um die Aufnahme zu stoppen. Wenn ein anästhesiertes Tier als Stimulus verwendet wurde, öffnen Sie die schalldichte Aufzeichnungsbox, nehmen Sie das betäubte Tier aus dem Metalldeckel des Käfigs und legen Sie es vor der nächsten Aufnahmesession auf das Heizkissen zurück, oder wenn Sie das Tier nicht mehr als Stimuluskontrolle verwenden Es alle 15 min, bis es genügend Bewußtsein wiedererlangt hat, um die äußerste Wiederholung zu erhalten. Öffnen Sie den Käfig und entfernen Sie das bewusste Testtier, und legen Sie es zurück zu seinem Hauskäfig. Reinigen Sie den Testkäfig mit 70% Alkohol aDestilliertes Wasser. 2. Verarbeitung von .wav-Dateien und Silbe-Codierung mit dem Maus-Song-Analysator v1.3 Öffnen Sie die Codierungssoftware B (Abbildung 1 , Tabelle 1 ) und setzen Sie den Ordner mit dem Software Script C von "Mouse Song Analyzer" (Abbildung 1 , Tabelle 1 ) in den Pfad der Software B ein, indem Sie auf "set path" klicken und den Ordner auf Software hinzufügen B. Dann schließe die Software B ab. Konfigurieren Sie die kombinierten Software-B + C-Silben-Identifikationseinstellungen. HINWEIS: Das Software-Skript C-Code erstellt automatisch einen neuen Ordner namens "Sonogramme" mit Dateien im .sng-Format im selben Ordner waren die .wav-Dateien. Es ist in der Regel besser, alle .wav-Dateien aus der gleichen Aufnahmesession zu sammeln, die mit Software A im selben Ordner erzeugt wird. Software mit C konfigurieren HINWEIS: Diese Version der Software B ist ganz cMit dem Software-Skript kompatibel. Es kann nicht garantiert werden, dass alle späteren Versionen alle im aktuellen Code enthaltenen Funktionen akzeptieren. Navigieren Sie zu dem Ordner, der die Aufnahme enthält. WAV-Dateien, die mit dem Fenster "aktueller Ordner" analysiert werden sollen. Im "Befehlsfenster" den Befehl "whis_gui" eingeben. Im neuen Whis-Gui-Fenster beobachten Sie mehrere Unterfensterabschnitte mit unterschiedlichen Parametern (Abbildung 3 ), einschließlich "Sonogrammparameter", "Whistle Options" und alle anderen. Passen Sie die Parameter für die Erkennung von USVs an. Verwenden Sie die folgenden Parametereinstellungen für die Erkennung von USVs Silben aus Labormäusen ( zB B6D2F1 / J und C57BL / 6J Mausstämme, die in unseren Studien verwendet werden): Im Abschnitt Sonogrammparameter die Min Frequenz auf 15.000 Hz einstellen , die Max Frequenz auf 125.000 Hz, die Abtastfrequenz ( Anzahl der Frequenz ) tO 256 kHz und der Schwellenwert auf 0,3. Im Abschnitt " Whistle-Optionen" den Purity Threshold auf 0,075 einstellen , die Minimaldauer der Silbe auf 3 ms, die Min-Frequenz- Sweep auf 20.000 Hz und die Filter-Duration auf 3 ms. In den anderen Abschnitten die Min. Note Dauer auf 3 ms einstellen und die Min. Note Count auf 1. Für das Silbenkategorisierungsprotokoll wählen Sie im mittleren Bereich des Whis_gui-Fensters Kästchen aus: Die Standardkategorisierung basiert auf Holy und Guo 11 und Arriaga et al. 10 , die die Silbe durch die Anzahl der Tonhöhensprünge und die Richtung des Sprungs codiert: S für einfache kontinuierliche Silbe; D für einen Abwärtssprungsprung; U für einen Aufstieg springen; DD für zwei sequentielle Abwärtssprünge; DU für einen DowN und ein Sprung; Etc. Dies ist standardmäßig, wenn der Benutzer nichts auswählt. Der Benutzer hat die Möglichkeit, die Analyse auf bestimmte Silbearten durchzuführen, indem man jede der repräsentativen Boxen auswählt. Um eine Silbenkategorisierung zu wählen, wie von Scattoni et al. 9 , zusätzlich wählen Sie Split s Kategorie, die diese Art in mehr Unterkategorien auf der Grundlage der Silbenform trennt. Wählen Sie Oberschwingungen, wenn der Benutzer Silben weiter in die mit und ohne Oberwellen sortieren möchte. Klassifizieren Sie die Silben in den .wav-Dateien von Interesse Wählen Sie alle .wav-Dateien aus einer Aufnahmesitzung im oberen linken Bereich des Whis_gui-Fensters. Klicken Sie auf "Get Sonograms" in der Mitte des Whis_gui-Fensters (Abbildung 3 ). Ein neuer Ordner mit den Sonogrammen wird erstellt, mit .sng Dateiformat.Wählen Sie alle Sonogramme (.sng Dateien) in obenLinke ecke von whis-gui window.Enter "Animal ID" und "Session ID" in den Boxen unter dem Sonogramm-Datei-Fenster. Dann klicken Sie auf Prozesssonogramme. Beobachten Sie drei Dateitypen im Sonogramm-Ordner: "Tier-ID-Session-ID -Notes.csv" (enthält Informationen zu den aus den Silben extrahierten Notizen), "Tier-ID-Session ID -Syllables.csv", (enthält Werte aller Klassifizierte Silben, einschließlich ihrer spektralen Merkmale und der Gesamtzahl der in den Sonogrammen ermittelten Silben), "Tier-ID-Session ID -Traces.mat", (enthält grafische Darstellungen aller Silben). HINWEIS: Die Datei "Animal ID-Session ID -Syllables" enthält manchmal einen kleinen Prozentsatz (2 – 16%) nicht klassifizierter USV-Silben, die komplexer sind als die ausgewählten, oder die sich zwei Silizium-Silben überlappen. Diese können bei Bedarf separat von der Trace-Datei geprüft werden. 3. Quantifizierung der Silbe Akustische Struktur und Syntax HINWEIS: Die Anleitung für die Schritte, die für die Erstsyntaxanalyse erforderlich sind, sind im "READ ME!" Enthalten. Kalkulationstabelle der "Song Analysis Guide v1.1.xlsx" Datei, unsere benutzerdefinierte Tabellenkalkulation E (Abbildung 1 , Tabelle 1 ). Öffnen Sie das Software-Skript C-Datei-Ausgabe "Animal ID-Session ID -Syllables.csv", die im obigen Abschnitt mit der Tabellenkalkulationssoftware D (Abbildung 1 , Tabelle 1 ) erhalten wurde. Es enthält die Gesamtzahl der in allen Sonogrammen erfassten Silben und all ihre spektralen Merkmale. Wenn noch nicht konvertiert, innerhalb der Tabellenkalkulation Software D konvertieren diese .csv-Datei in Spalte Trennung in Software D, um jeden Wert in einzelne Spalten setzen. Öffnen Sie die Datei "Song Analysis Guide v1.1.xlsx" auch in der Software D. Dann klicken Sie auf thE Vorlage Kalkulationstabelle, und kopieren und fügen Sie die "Animal ID-Session ID -Syllables.csv" Datei Daten in dieses Blatt, wie in der Vorlage Blatt Anweisungen empfohlen. Entfernen Sie Zeilen mit der Kategorie "Nicht klassifiziert" von Silben. Nach dem Entfernen der 'Nicht klassifizierten' Zeilen kopieren und kopieren Sie zuerst ISI (Inter-Silben-Intervall) Daten in Spalte O in Spalte E. Zweitens kopieren Sie alle Daten von Spalte A nach N in die 'Daten' Kalkulationstabelle. In der Datenkalkulation geben Sie die Tier-IDs (Spalte AF) und die Aufzeichnungslänge (in Minuten, Spalte AC) ein. HINWEIS: Die Tier-IDs müssen mit denen übereinstimmen, die in der Aufzeichnung eingegeben wurden. Die Datei erkennt die eingegebenen Zeichen und vergleicht sie mit dem Namen der .wav-Dateien. Bestimmen Sie den ISI-Cutoff, um eine Sequenz zu definieren, indem Sie die Kalkulationstabelle mit der Bezeichnung "Density ISI", das "ISI-Plot" -Ergebnis verwenden. HINWEIS: In unserer letzten Studie 23 haben wir den Cutoff auf zwei Standa gesetztAbweichungen vom Zentrum des letzten Gipfels Es bestand aus langen Intervallen (LI) von mehr als 250 ms, die verschiedene Liedkämpfe innerhalb einer Sitzung des Sings trennten. Zeigen Sie die wichtigsten Ergebnisse in der 'Features' Kalkulationstabelle (Gruppierung aller Spektral-Features von jedem Tier gemessen). HINWEIS: Wenn der Benutzer die in Abschnitt 2.8.9 beschriebene Standard-Silben-Kategorie-Einstellung im Software-Skript C verwendet hat, werden die Silben dann weiter in 4 Kategorien eingeteilt, wie oben beschrieben und in Chabout et al. 23 : 1) einfache Silbe ohne Tonhöhe, «s»; 2) zwei Noten-Silben getrennt durch einen einzigen nach oben («u») Sprung; 3) zwei Noten-Silben getrennt durch einen einzigen Abwärtssprung («d»); Und 4) komplexere Silben mit zwei oder mehr Tonhöhen zwischen Noten («m»). Für Syntax-Werte, klicken Sie auf die "Global Probabilities" -Kalkulationstabelle, die Wahrscheinlichkeiten für jedes Paar von s berechnetYllable Übergangstypen unabhängig von Ausgangssilben unter Verwendung der folgenden Gleichung 23 . P (Vorkommen eines Übergangstyps) = Gesamtzahl der Vorkommen eines Übergangstyps / Gesamtzahl der Übergänge aller Typen Klicken Sie auf die Kalkulationstabelle "Bedingte Wahrscheinlichkeiten", um die bedingten Wahrscheinlichkeiten für jeden Übergangstyp in Bezug auf Ausgangssilben zu berechnen, die die folgende Gleichung verwendet: P (Vorkommen eines Übergangstyps bei der Ausgangssilbe) = Gesamtzahl der Vorkommen eines Übergangstyps / Gesamtzahl der Vorkommen aller Übergangstypen mit derselben Anfangssilbe Um zu testen, ob und welche der obigen Übergangswahrscheinlichkeiten sich von nicht-zufällig unterscheiden, unter Verwendung eines MarkO-Modells erster Ordnung nach dem Ansatz in 23 , um benutzerdefinierte Software F ( zB Syntax-Decorder in R-Studio, Abbildung 1 , <) zu verwendenStark> Tabelle 1) mit den folgenden R-Skripten: Tests_For_Differences_In_Dynamics_Between_Contexts.R für innerhalb von Gruppen unter verschiedenen Bedingungen; Oder Tests_For_Differences_In_Dynamics_Between_Genotypes.R für zwischen Gruppen unter den gleichen Bedingungen. Führen Sie einen Chi-Quadrat-Test oder einen anderen Test Ihrer Präferenz durch, um statistische Unterschiede in den Übergangswahrscheinlichkeiten des gleichen Tieres über verschiedene Kontexte (paarweise) nach dem Ansatz in 23 zu testen. HINWEIS: Weitere Details über das statistische Modell, das verwendet wird, um die Syntax zwischen den Gruppen zu vergleichen, finden Sie in 23 . Forscher können andere Ansätze verwenden, um die globalen oder bedingten Übergangswahrscheinlichkeiten zu analysieren, die sie oder andere entwickelt haben. Um die Sequenzen als Syntaxdiagramme grafisch darzustellen, geben Sie die Werte in eine Netzwerkgrafik- Software G ein (siehe Abbildung 1 , Tabelle 1 ), wobei Knoten unterschiedliche Silbenkate bezeichnenGories und Pfeilfarbe und / oder Dickenpixel, die Bereiche von Wahrscheinlichkeitswerten zwischen Silben darstellen. HINWEIS: Aus Gründen der Übersichtlichkeit ergeben sich für die globalen Wahrscheinlichkeitsgraphen nur Übergänge von mehr als 0,005 (über 0,5% des zufälligen Auftretens). Für die bedingten Wahrscheinlichkeiten verwenden wir einen Schwellenwert von 0,05, da jede Wahrscheinlichkeit im "globalen Modell" geringer ist, wenn man bedenkt, dass wir uns durch die Gesamtzahl der Silben und nicht nur durch einen bestimmten Silbentyp teilen. 4. Liedbearbeitung und Testvorbereitung für einen Liedtyp HINWEIS: Die Wiedergabe von USVs kann verwendet werden, um die Verhaltensreaktion eines Tieres experimentell zu testen, einschließlich der Präferenz für einen bestimmten Songtyp. Weil die weiblichen Präferenzen sich je nach dem Östrus-Zustand ändern können, für Frauen sicherstellen, dass sie sich im selben Östrus-Zustand befinden, bevor sie wie folgt getestet werden: Bereiten Sie Frauen mit sexueller Erfahrung einige Tage vor dem Playback-Experiment vor <olAufrechtzuerhalten Setzen Sie sexuell reife Frauen (> 7 Wochen) einem Mann für 3 Tage vor den Experimenten aus, um Östrous (Whitten 28 Effekt) auszulösen, indem Sie sie in einen Trennkäfig (klarer fester Plastik mit gebohrten Löchern in ihm) lassen, damit das Weibchen sehen kann und Rieche das Männchen, aber das Verhindern des Geschlechtsverkehrs. Überwachen Sie den Östrus-Zyklus, und wenn Pro-Estrus oder Estrus offensichtlich ist (vaginale Öffnung und rosa Surround, wie in 27 gezeigt), setzen Frauen wieder zusammen in ihren eigenen Käfig. Sie sind bereit, am nächsten Tag getestet zu werden. Bereiten Sie die Song-Dateien für die Wiedergabe vor Verwenden Sie die Kopier- und Einfügefunktionen in einer Tonverarbeitungssoftware H ( zB SASLap Pro, Abbildung 1 , Tabelle 1 ), um zwei bearbeitete WAV-Dateien mit den gewünschten Bedingungen für Stimuli zu erstellen. Um gegen die Anzahl der Vokalisationen als Variable zu schützen, vergewissern Sie sich, dass die beiden Sounddateien die gleiche Anzahl von s enthaltenYllables und Länge der Sequenzen (Liedkämpfe) von denselben oder verschiedenen Männchen / Weibchen aus den gewünschten Kontexten ( zB UR). Öffnen Sie die erste Datei mit dem Song aus der Bedingung 1 in der Software H. Dann gehen Sie zu Datei> Specials> Kanal hinzufügen aus der Datei und wählen Sie die zweite Sounddatei aus der Bedingung 2 aus. Dies erzeugt 2 Kanäle, eine für jede Bedingung. Passen Sie die Lautstärke visuell an, wenn nötig, um sicherzustellen, dass die Volumina der beiden Dateien miteinander übereinstimmen, indem Sie auf Bearbeiten> Lautstärke klicken. Gehen Sie dann zu Bearbeiten> Format> Sampling Frequency Conversion und wählen Sie von 250.000 Hz auf 1.000.000 Hz umwandeln, um die .wav-Dateien von einer Sampling-Frequenz von 256 kHz auf 1 MHz umzuwandeln. Dieser Schritt ist notwendig, damit das Wiedergabegerät die .wav-Dateien liest. Speichern Sie diese neuen Dateien als Testdateien, die wiedergegeben werden sollen. Achten Sie darauf, zu identifizieren, welches Lied in welchem ​​Kanal (1 oder 2) ist. Aus Gründen der Klarheit nennen Sie es "file name.wav". Gehen Sie zu EXit> Format> Swap Channels und tausche die beiden Kanäle aus. Sichern Sie die ausgetauschten Versionen mit einem anderen Namen. HINWEIS: Dies ist die entgegengesetzte Kopie mit den Kanälen umgekehrt, nannte später 'file name_swapped.wav'. Bereiten Sie das Wiedergabegerät vor Reinigen Sie das Wiedergabegerät "Y-Labyrinth" mit 70% Alkohol, gefolgt von destilliertem Wasser. Trocknen Sie es mit Papiertüchern. Unser Y-Labyrinth ist ein hausgemachter, opaker, solider schwarzer Plastikapparat mit 30 cm langen Armen und zwei Bohrungen an den äußersten Enden des Labyrinths, damit der Ultraschalllautsprecher auf den Boden der Arme passen kann (Abbildung 4A ). Vergewissern Sie sich, dass die Lautsprecher in ihrer richtigen Position sind und mit der Soundkarte verbunden sind und die Karte an den Computer angeschlossen ist. Öffnen Sie Software A, wählen Sie Play> Device und wählen Sie das Playback Soundkartengerät aus. Wählen Sie "Datei-Header-Rate verwenden". Gehen Sie zu Play> Playlist und laden Sie die Datei von Interesse mit den beiden chaNnels ( dh "file.wav"). Wählen Sie "Schleifenmodus". Richten Sie den Videorecorder über dem Labyrinth, um das gesamte Labyrinth zu decken. Führen Sie das Wiedergabeexperiment durch Legen Sie die Testfrau in die Labyrinth für eine 10-minütige Gewöhnung Zeitraum. Nach 10 Minuten, wenn das Weibchen nicht im Startarm ist, dann schieben Sie das Weibchen vorsichtig zurück zum Startarm und schließen Sie das Plastiktrennfenster. Wählen Sie die vorbereitete Datei ("file.wav") aus, um sie abzuspielen und abzuspielen. Starten Sie die Videoaufzeichnung und vergewissern Sie sich, welcher Kanal auf dem Y-Labyrinth-Arm positioniert ist ( dh : UR links oder FE im rechten Arm) mit einer Papiernote im Videoaufzeichnungsfeld. Erlaube dem Weibchen, die Songs im Loop-Modus zu hören und das Labyrinth während einer gewünschten Anzahl von Minuten ( dh 5 min) zu erkunden: das ist eine Session. Bringe das Weibchen wieder in den Startarm zurück. Erlauben Sie ihr, sich für eine Minute bei der Vorbereitung der nächsten Sitzung auszuruhen. RemVon Urinspuren und Kot mit destilliertem Wasser. Laden Sie die Datei "file_swapped.wav", und schalten Sie die Position der Papiernotizen für die Videoaufnahme ein, und verschieben Sie die linke Seite nach rechts und umgekehrt. Nach 1 Minute spielen Sie die Datei und befreien das Weibchen für die zweite Sitzung . Wiederholen Sie die Schritte 4.4.3 bis 4.4.4 für insgesamt 4 Sitzungen x 5 Minuten, um die Erkennung potenzieller Seitenvorspannung während des Tests zu steuern. Stoppen Sie die Videoaufnahme am Ende aller Sessions, indem Sie auf die rote Stopptaste klicken. Reinigen Sie das Labyrinth mit 70% Alkohol und destilliertem Wasser zwischen den Frauen. Wiederholen Sie alle Schritte mit verschiedenen Song-Exemplaren eine Woche später mit den gleichen Frauen, um ausreichende Ergebnisse zu erhalten, um die Zuverlässigkeit der Ergebnisse zu testen. Später beobachten Sie die Videos und verwenden Sie den Timer auf dem Video und eine Stoppuhr, um die Zeit zu messen, die von den Weibchen in jedem Arm für jede Sitzung verbracht wird. Analysieren Sie die resultierenden Daten statistisch für mögliche Song-Einstellungen.

Representative Results

Im vorliegenden Protokoll wurden Veränderungen im Gesangsverhalten und Syntax der männlichen B6D2F1 / J-Mäuse charakterisiert. Im Allgemeinen konnten wir mit diesem Protokoll im Durchschnitt pro Mann pro 5-minütige Sitzung 675 ± 98,5 klassifizierte Silben in Reaktion auf weibliche UR, 615,6 ± 72 in FE, 450 ± 134 in AF, 75,6 ± 38,9 in AM und 0,2 aufzeichnen ± 0,1 bei männlichen UR (n = 12 Männer). Die Raten waren ~ 130 Silben / min für weibliche UR, ~ 120 Silben / min für FE oder ~ 100 Silben / min für AF-Kontexte (Abbildung 5A ). Männchen produzieren eine viel größere Menge an Silben als Reaktion auf frisch gesammelten Urin im Vergleich zu über Nacht gesammelten Urin 10 , 23 . Männchen singen auch in der Anwesenheit eines anästhesierten männlichen oder frischen männlichen Urins beträchtlich weniger Abbildung 5A ). Männer ändern auch ihr Repertoire über Kontext 23 . Zum Beispiel erhöhen sich die B6D2F1 / J-Männer deutlich Produktion von mehrfachen Pitch-Sprung "m" Kategorie Silben in der weiblichen Urin-Bedingung (Abbildung 5B ). Sie verändern auch akustische Merkmale einzelner Silben über den Kontext. Zum Beispiel singen B6D2F1 / J-Männchen Silben mit einer höheren Amplitude und Bandbreite im weiblichen Urin-Kontext und höherer spektraler Reinheit im wachen weiblichen Kontext im Vergleich zu den anderen (Abbildung 6 ) 23 . Dieses Protokoll bietet auch ein Mittel zur Messung von dynamischen Merkmalen der Sequenz und damit Syntaxänderungen. Mit einer angepassten Methode von Ey et al. 22 , verwenden wir das ISI, um die Lücken zwischen den Sequenzen zu definieren (Abbildung 7A ) 23 , und verwenden Sie dann die Lücken, um zeitliche Muster von Silbensequenzen zu unterscheiden und zu analysieren. Wir haben längere Sequenzlängen im wachen weiblichen Kontext erzeugt ( Abbildung 7B )F "> 23. Diese Technik erlaubt es uns, das Verhältnis von komplexen Sequenzen (zusammengesetzt aus mindestens 2 Vorkommen des" m "Silbentyps) im Vergleich zu einfachen Sequenzen (bestehend aus einem oder keinem" m "-Typ und damit meist durch" Wir haben festgestellt, dass bei den B6D2F1 / J-Männchen der weibliche Urinkontext ein höheres Verhältnis im Vergleich zu den anderen auslöste (Abbildung 7C ) 23 , was darauf hinweist, dass sie komplexere Silben im weiblichen Urinzustand produzierten, aber auch, dass solche Silben verteilt sind Über mehr Sequenzen. Wir sind auch in der Lage, die bedingten Übergangswahrscheinlichkeiten von einem Silbentyp zu einem anderen zu berechnen (24 Übergangstypen, einschließlich der Übergänge von und zum "Ruhezustand") 23 . Wir haben festgestellt, dass in verschiedenen Kontexten die Wahl der Übergangstypen der Mäuse für gegebene Ausgangssilben unterschiedlich ist und dass es mehr Syntax div gibtIn der weiblichen Urinbedingung (Abbildung 8 ) 23 . Diese Beobachtungen stimmen mit früheren Berichten überein, die zeigen, dass Männer die akustischen Eigenschaften oder Repertoire-Komposition ihrer Vokalisierungen in Reaktion auf verschiedene Reize und Erfahrungen 4 , 5 , 24 verändern können . Schließlich bietet das vorliegende Protokoll Anleitung zum Testen von weiblichen Präferenzen mit Playbacks. Wir fanden, dass B6D2F1 / J-Weibchen komplexere Lieder (mit 2 oder mehr "m" Silben) im Vergleich zu einfachen Liedern 23 . Die meisten Frauen entschieden sich, öfter auf der Seite des Y-Labyrinths zu bleiben, die die komplexen Lieder spielten ( Abbildung 4B ). Abbildung 1: Flussdiagramm von SofTware verwenden und analysieren. Jedes Programm und zugehöriger Code erhält einen Buchstabennamen, um ihre Identität zu erklären und im Haupttext zu verwenden. In () sind die spezifischen Programme, die wir in unserem Protokoll verwenden. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. Abbildung 2: Einrichten für die Aufnahme von männlichen Mäuse-Songs. (A) Bild einer Schalldämmung Aufzeichnungsbox und eingerichtet, um USV Vokalisierungen aufzuzeichnen. (B) Beispiel-Sonogramm einer mit Software A ( Tabelle 1 ) aufgenommenen Aufzeichnung mit detaillierten spektralen Merkmalen, berechnet durch "Mouse Song Analyzer v1.3": Dauer, Inter-Silben-Intervall (ISI), Spitzenfrequenz min (Pf min), Spitzenfrequenz max (Pf max), Spitzenfrequenzstart (Pf Start), Spitzenfrequenz Ende (Pf Ende) und Bandbreite. (C) Sonogramme eines anderen männlichen Gesangs zu einer lebenden Frau, innerhalb der Schalldämmung Box und außerhalb der Box auf der Laborbank im selben Raum. Unsere anekdotischen Beobachtungen zeigen, dass die Aufnahmen in der Schachtel des gleichen Tieres größeres Volumen (stärkere Intensität) und weniger Oberwellen zeigen, aber keine Hinweise auf Echos in der Schachtel ohne Schallschaum. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. Abbildung 3: Screenshot des "Mouse Song Analyzer v1.3" whis_gui Fenster zeigt die verschiedenen Optionen für Analysen. Die dargestellten Parameter sind diejenigen, die zur Aufzeichnung von männlichen USVs in den dargestellten Zahlen und Datenanalysen verwendet wurden (außer min. Notendauer betrug 3 ms). .com / files / ftp_upload / 54137 / 54137fig3large.jpg "target =" _ blank "> Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. Abbildung 4: Weibliche Auswahl zwischen Playbacks von komplexen und einfachen Songs. (A) Bild der verwendeten Y-Labyrinth-Geräte und Maßmessungen. (B) Die Zeit, die die Weibchen in jedem Arm verbracht haben, spielen entweder von einem komplexen (weiblichen Urin ausgelösten) oder einfacher (waches weibliches ausgelöste) Lied von demselben Männchen. Die Daten werden für n = 10 B6D2F1J weibliche Mäuse als Mittelwert ± SE dargestellt, wobei auch einzelne Werte gezeigt sind; 9 der 10 Frauen zeigten eine Vorliebe für das komplexere Silben- / Sequenzlied. * P <0,05 gepaart Student T-Test. Abbildung modifiziert von Chabout, et al. 23 mit Erlaubnis.Blank "> Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. Abbildung 5: Anzahl der gesammelten Silben und Repertoire über Bedingungen . (A) Silbe Produktionsrate der Männer in verschiedenen Kontexten. (B) Repertoire-Kompositionen von Männchen, wenn sie in Gegenwart von weiblichem Urin (UR), anästhesierten weiblichen (AF), wachen weiblichen (FE) und anästhesierten männlichen (AM) -Kontexten sind. Die Daten werden als Mittelwert ± SEM dargestellt. * P <0,03; ** p <0,005; *** p <0,0001 für post-hoc gepaarten Schüler-t-Test nach Benjamini und Hochberg Korrektur (n = 12 Männer). Abbildung von Chabout et al. 23 mit Erlaubnis. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. <p class="jove_content" fo:keep- Zusammen.within-page = "1"> Abbildung 6: Beispiele für spektrale Merkmale in verschiedenen Kontexten. (A) Amplitude. * P <0,025 für Post-hoc gepaarten Schüler t-Test nach Korrektur. (B) Frequenzbereich oder Bandbreite. *: P <0,041; **: p <0,005; ***: p <0,0001 nach Korrektur. (C) Spektrale Reinheit der Silben. * P: <0,025; **: p <0,005; ***: p <0,0001 nach Korrektur. Abkürzungen: weiblicher Urin (UR), anästhesierte weibliche (AF), wache weibliche (FE) und anästhesierte männliche (AM). Die von Chabout et al. 23 mit Erlaubnis. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. 37fig7.jpg "/> Abbildung 7: Sequenzmessungen. (A) Verwendung des ISI, um die Sequenz zu trennen. Kurzes ISI (SI) und mittleres ISI (MI) werden verwendet, um Silben innerhalb einer Sequenz zu trennen, und lange ISI über 250 ms (LI) trennen zwei Sequenzen. (B) Länge der Sequenzen, gemessen als Anzahl der Silben pro Sequenz, produziert von Männern in verschiedenen Kontexten. *: P <0,025; ** p <0,005; P <0,0001 nach Korrektur. (C) Verhältnis von komplexen Liedern über einfache Lieder, die von Männern in verschiedenen Kontexten produziert werden. * P <0,041; ** p <0,005; P <0,0001 nach Korrektur. Die Daten werden als Mittelwert ± SEM (n = 12 Männer) dargestellt. Abbildung von Chabout et al. 23 mit Erlaubnis. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen. <p class="jove_content" fo:keep-tZusammen mit einer Seite = "1"> Abbildung 8: Silben-Syntax-Diagramme von Sequenzen basierend auf bedingten Wahrscheinlichkeiten für jeden Kontext. Die Pfeildicke ist proportional zum bedingten Wahrscheinlichkeitsereignis eines Übergangstyps in jedem Kontext, gemittelt von n = 12 Männchen: P (Auftreten eines Übergangs bei der Ausgangssilbe). Aus Gründen der Klarheit werden seltene Übergänge unterhalb einer Wahrscheinlichkeit von 0,05 nicht gezeigt. Abbildung von Chabout et al. 23 mit Erlaubnis. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Discussion

Dieses Protokoll bietet Ansätze zu sammeln, zu quantifizieren und zu studieren männliche Mäuse Balz Vocalizations im Labor über eine Vielzahl von meist weiblichen Reizen. Wie bereits in Chabout et al. 23 und in den repräsentativen Ergebnissen erlaubte uns die Verwendung dieser Methode, um kontextabhängige Vokalisationen und Syntax zu entdecken, die für die empfangenden Frauen materiell sind. Die Standardisierung dieser Stimuli wird die Sammlung einer zuverlässigen Anzahl von USVs ermöglichen und detaillierte Analysen der männlichen Wertsachen und Repertoires ermöglichen.

Wenn eine lebende Frau mit dem Männchen anwesend ist, erlaubt uns das Protokoll nicht, den Emitter der Vokalisierungen klar zu identifizieren. Allerdings zeigten frühere Studien, dass die Mehrheit der in diesem Zusammenhang emittierten Vokalisierungen von den Männern 26 , 29 . Die meisten Studien mit einem konkreten (männlichen oder weiblichen)Als Anreiz für die Männchen glauben, dass die Anzahl der weiblichen Vokalisationen in diesen Kontexten vernachlässigbar ist 4 , 5 , 22 , 30 . Jedoch ein neues Papier verwendet Triangulation, um die Vokalisierung der Emitter in Gruppe untergebrachte Bedingungen 31 zu lokalisieren, und zeigte, dass innerhalb einer Dyade, das Weibchen zu ~ 10% der USVs beiträgt. In dem vorliegenden Protokoll erlaubt die Verwendung der anästhesierten Frau dem Benutzer, die männlichen Vokalisationen in Gegenwart einer Frau ohne ihre Vokalisierung zu studieren. Im Gegensatz zu den Erwartungen dieser aktuellen Studie 31 fanden wir keinen Unterschied in der Anzahl der Silben, die zwischen den FE- und AF-Bedingungen 23 emittiert wurden. Es ist möglich, dass lebende Weibchen nicht wesentlich zu den Aufnahmen beigetragen haben oder dass die Männer weniger in Gegenwart von lebenden Weibchen gegen anästhesierte fem vokalisiertenAles Dennoch glauben wir, dass zukünftige Experimente die Verwendung dieser Triangulationsmethode berücksichtigen sollten, um die potenzielle Wirkung des weiblichen Beitrags zu beurteilen.

Es gibt noch andere Software, die einige Schritte ausführen kann, die wir umrissen haben, obwohl wir nicht in einer für die Fragen, die wir mit einer Kombination von drei Programmen gefragt haben, genügt: Software A, Maus Song Analyzer Software Skript C mit Software B, die Syntaxanalyse-Software mit Hilfe einer benutzerdefinierten Tabellenkalkulationssoftware D + E-Berechnungen und Syntax-Decorder mit R. Beispielsweise hat ein aktuelles Papier eine Software namens VoICE vorgeschlagen, die es dem Benutzer ermöglicht, akustische Variablen automatisch aus den Sonogrammen oder direkt auf manuell zu entnehmenden Einheiten zu extrahieren Ausgewählt durch den Benutzer 32 . Aber die automatisierten oder halbautomatischen Sequenzanalysen sind nicht so detailliert wie unser Ansatz. Einige kommerzielle Software kann automatisch analysieren die akustischen Funktionen, aber nicht bieten ein AutoAtic Klassifizierung der Silben; Der Benutzer muss danach die verschiedenen Silben sortieren. Grimsley, Gadziola et al. 33 entwickelte ein tabellenbasiertes virtuelles Maus-Gesangs-Orgel-Programm, das Silben auf der Grundlage gemeinsamer akustischer Merkmale aufbaut, aber keine automatische Erkennung der Silben liefert. Ihr Programm 34 ist einzigartig darin, dass es neue Sequenzen aus aufgezeichneten Songs mit Markov-Modellen kreiert und somit erweiterte Funktionen als einfache Bearbeitung hat.

Die meisten bisherigen Kommunikationsstudien an Mäusen konzentrierten sich auf die Seite des Emitters 35 , 36 . Nur wenige Studien haben die Seite des Empfängers 30 , 37 , 38 erforscht . Playback- und Diskriminierungsprotokolle bieten einen einfachen Test, um die Seite des Empfängers zu studieren, wie die, die auch kürzlich von Asaba, Kato et etAl. 39 . In dieser Studie nutzten die Autoren eine zweifache Testbox, die mit akustischem Schaum anstelle des hier beschriebenen Y-Labyrinth-Kastens getrennt war. Beide Wahlaufbauten haben Vor- und Nachteile. Zuerst isoliert das Y-Labyrinth nicht den Klang von einem Arm zum anderen, aber die Zwei-Wahl-Box macht. Mit dem Y-Labyrinth-Design kann das Tier die beiden Songs, die gleichzeitig gespielt werden, schnell auswerten und in Richtung der bevorzugten bewegen. Nichtsdestoweniger unterstützen die Versuchsexperimente im Allgemeinen die Experimentatoren, die Bedeutung und damit die Funktionen der für konkrete Tiere erzeugten Vokalisationen zu bestimmen. Abschließend, nach der Beherrschung der Techniken dieses Protokolls und Analysen, sollten die Leser in der Lage sein, viele Fragen, die den Kontext, Genetik und Neurobiologie der Maus USVs beeinflussen Adresse.

Mit B6D2F1 / J-Mäusen, die weiblichen assoziierten Reize fast immer auslösen USVs von den Männern, die wir in unserem Labor getestet haben. Es ist wichtig zu kollernCt genug Silben (> 100 in 5 min), um eine starke statistische Analyse erhalten zu können. Zur Fehlerbehebung, wenn keine USVs aufgezeichnet werden (oder nicht genug), überprüfen Sie die Konfiguration, um sicherzustellen, dass Töne aufgezeichnet werden. Machen Sie eine Live-Inspektion dessen, was im Käfig während der Aufnahme geschieht, indem Sie das Echtzeit-Sonogramm auf dem Computerbildschirm nach der Einführung des Reizes betrachten. Andernfalls versuchen, das Männchen wieder einer sexuell reifen / empfänglichen Frau über Nacht auszusetzen und sie dann alleine für mehrere Tage oder bis zu einer Woche vor der Aufnahme wieder zu beherbergen. Basierend auf anekdotischen Beobachtungen, finden wir, dass einige Männer an einem Tag viel singen (für fast die volle 5 min) und nicht viel am nächsten Tag und dann wieder einen anderen Tag. Wir wissen nicht den Grund, warum solche innerhalb der Subjektvariabilität auftritt, aber wir vermuten, dass es wahrscheinlich eine Motivation oder saisonale für die Männchen und der Östruszustand für weiblichen Urin ist. Wenn keine USVs aufgezeichnet sind, versuchen Sie, das Tier an mehreren Tagen aufzuzeichnen, um diese variablen Effekte aufzuheben. UnlIke in Singvögeln, haben wir keine offenen Unterschiede in der Menge des Sings auf der Grundlage der Tageszeit. Wir finden, dass die Männchen nicht viel singen (<100 Silben in 5 min), bevor sie 7 Wochen alt sind.

Die hier vorgestellten Erkennungsmethoden können Tausende von Silben und alle akustischen Parameter in wenigen Minuten extrahieren. Aber wie jede automatische Erkennung Methode, ist es sehr empfindlich auf Hintergrundgeräusche. Die Verwendung von Mouse Song Analyzer-Erkennungssoftware mit geräuschvollen Aufnahmen (z. B. von Tieren, die mit Bettwäsche aufgenommen wurden) kann eine Anpassung der Erkennung "Schwelle" erfordern, um mehr Flexibilität zu ermöglichen. Dies wird aber auch die Anzahl der falschen positiven Silben erhöhen und die automatische Erkennung kann fehlschlagen. Unter solchen Umständen kann eine manuelle Codierung verwendet werden.

Wie bereits erwähnt, sind die Anzahl, die Repertorien und die Latenz der Vokalisationen in Abhängigkeit von der Belastung stark variabel, so dass man die Parameter ändern muss (Aufzeichnungslänge,Stimulus, automatisierte Silbenerkennung, etc. ) für einige Stämme, um optimale Aufnahmen für statistische Analysen zu gewährleisten.

Disclosures

The authors have nothing to disclose.

Acknowledgements

Diese Arbeit wurde von der Howard Hughes Medical Institute Fonds an EDJ unterstützt. Wir danken Pr. Sylvie Granon (NeuroPSI – Universität Paris Süd XI – FRANKREICH) für die Ausleihe der Lautsprecher Hardware. Wir danken auch Mitgliedern des Jarvis Labs für ihre Unterstützung, Diskussionen, Korrekturen und Kommentare zu diesem Werk, vor allem Joshua Jones Macopson für Hilfe bei Zahlen und Tests. Wir danken Dr. Gustavo Arriaga für Hilfe mit der Mouse Song Analyzer Software, die es für uns auf V1.3 und andere Aspekte dieses Protokolls aktualisiert. V1.0 der Software wurde von Holy und Guo entwickelt, und v1.1 und v1.3 von Arriaga.

Materials

Sound proof beach cooler See Gus paper has more info on specific kind Inside dimensions (L 27 x W 23 x H 47 cm):
Condenser ultrasound microphone CM16/CMPA Avisoft Bioacoustics, Berlin, Germany #40011 Includes extension cable 
Ultrasound Gate 1216H sound card Avisoft Bioacoustics, Berlin, Germany #34175 12 channel sound card
Ultrasound Gate Player 216H Avisoft Bioacoustics, Berlin, Germany #70117 2 channels playback player
Ultrasonic Electrostatic Speaker ESS polaroid Avisoft Bioacoustics, Berlin, Germany #60103 2 playback speakers
Test cage  Ace #PC75J 30 x 8 x 13 cm height; plexiglas
plexiglas separation home made 4 x 13 cm plexiglas with 1cm holes
Video camera Logitech C920 logitech HD Pro webcam C920
Heat pad  Sunbeam 722-810-000
Y-maze  Home made Inside dimensions (L 30 x W 11 x H 29 cm):
Tweezers
Software
 Avisoft Recorder (Software A) Avisoft Bioacoustics, Berlin, Germany #10101, #10111, #10102, #10112 http://www.avisoft.com
 MATLAB R2013a (Software B) MathWorks MATLAB R2013a (8.1.0.604)
 Mouse Song Analyzer v1.3 (Software C) Custom designed by Holy, Guo, Arriaga, & Jarvis; Runs with software B http://jarvislab.net/wp-content/uploads/2014/12/Mouse_Song_Analyzer_v1.3-2015-03-23.zip
 Microsoft Office Excel 2013 (Software D) Microsoft Microsoft Office Excel
Song Analysis Guide v1.1 (Software E) Custom designed by Chabout & Jarvis. Excel calculator sheets, runs with software D http://jarvislab.net/wp-content/uploads/2014/12/Song-analysis_Guided.xlsx
Syntax decorder v1.1 (Software F) Custom designed by Sakar, Chabout, Dunson, Jarvis – in R studio https://www.rstudio.com/products/rstudio/download/
 Graphiz (Software G) AT&T Research and others  http:// www.graphviz.org; 
 Avisoft SASLab (Software H) Avisoft Bioacoustics, Berlin, Germany #10101, #10111, #10102, #10112 http://www.avisoft.com
Reagents
Xylazine (20mg/ml) Anased
Ketamine HCL (100mg/ml) Henry Schein #045822
distilled water
Eye ointment  Puralube Vet Ointment  NDC 17033-211-38
Cotton tips
Petri dish

References

  1. Amato, F. R., Scalera, E., Sarli, C., Moles, A. Pups call, mothers rush: does maternal responsiveness affect the amount of ultrasonic vocalizations in mouse pups. Behav. Genet. 35, 103-112 (2005).
  2. Panksepp, J. B., et al. Affiliative behavior, ultrasonic communication and social reward are influenced by genetic variation in adolescent mice. PloS ONE. 2, e351 (2007).
  3. Moles, A., Costantini, F., Garbugino, L., Zanettini, C., D’Amato, F. R. Ultrasonic vocalizations emitted during dyadic interactions in female mice: a possible index of sociability. Behav. Brain Res. 182, 223-230 (2007).
  4. Chabout, J., et al. Adult male mice emit context-specific ultrasonic vocalizations that are modulated by prior isolation or group rearing environment. PloS ONE. 7, e29401 (2012).
  5. Yang, M., Loureiro, D., Kalikhman, D., Crawley, J. N. Male mice emit distinct ultrasonic vocalizations when the female leaves the social interaction arena. Front. Behav. Neurosci. 7, (2013).
  6. Petric, R., Kalcounis-Rueppell, M. C. Female and male adult brush mice (Peromyscus boylii) use ultrasonic vocalizations in the wild. Behaviour. 150, 1747-1766 (2013).
  7. Bishop, S. L., Lahvis, G. P. The autism diagnosis in translation: shared affect in children and mouse models of ASD. Autism Res. 4, 317-335 (2011).
  8. Lahvis, G. P., Alleva, E., Scattoni, M. L. Translating mouse vocalizations: prosody and frequency modulation. Genes Brain & Behav. 10, 4-16 (2011).
  9. Scattoni, M. L., Gandhy, S. U., Ricceri, L., Crawley, J. N. Unusual repertoire of vocalizations in the BTBR T+tf/J mouse model of autism. PloS ONE. 3, (2008).
  10. Arriaga, G., Zhou, E. P., Jarvis, E. D. Of mice, birds, and men: the mouse ultrasonic song system has some features similar to humans and song-learning birds. PloS ONE. 7, (2012).
  11. Holy, T. E., Guo, Z. Ultrasonic songs of male mice. PLoS Biol. 3, 2177-2186 (2005).
  12. Portfors, C. V. Types and functions of ultrasonic vocalizations in laboratory rats and mice. J. Amer. Assoc. Lab. Anim. Science: JAALAS. 46, 28-28 (2007).
  13. Wohr, M., Schwarting, R. K. Affective communication in rodents: ultrasonic vocalizations as a tool for research on emotion and motivation. Cell Tissue Res. , 81-97 (2013).
  14. Pasch, B., George, A. S., Campbell, P., Phelps, S. M. Androgen-dependent male vocal performance influences female preference in Neotropical singing mice. Animal Behav. 82, 177-183 (2011).
  15. Asaba, A., Hattori, T., Mogi, K., Kikusui, T. Sexual attractiveness of male chemicals and vocalizations in mice. Front. Neurosci. 8, (2014).
  16. Balaban, E. Bird song syntax: learned intraspecific variation is meaningful. Proc. Natl. Acad. Sci. USA. 85, 3657-3660 (1988).
  17. Byers, B. E., Kroodsma, D. E. Female mate choice and songbird song repertoires. Animal Behav. 77, 13-22 (2009).
  18. Hanson, J. L., Hurley, L. M. Female presence and estrous state influence mouse ultrasonic courtship vocalizations. PloS ONE. 7, (2012).
  19. Pomerantz, S. M., Nunez, A. A., Bean, N. J. Female behavior is affected by male ultrasonic vocalizations in house mice. Physiol. & Behav. 31, 91-96 (1983).
  20. White, N. R., Prasad, M., Barfield, R. J., Nyby, J. G. 40- and 70-kHz Vocalizations of Mice (Mus musculus) during Copulation. Physiol. & Behav. 63, 467-473 (1998).
  21. Hammerschmidt, K., Radyushkin, K., Ehrenreich, H., Fischer, J. Female mice respond to male ultrasonic ‘songs’ with approach behaviour. Biology Letters. 5, 589-592 (2009).
  22. Ey, E., et al. The Autism ProSAP1/Shank2 mouse model displays quantitative and structural abnormalities in ultrasonic vocalisations. Behav. Brain Res. 256, 677-689 (2013).
  23. Chabout, J., Sarkar, A., Dunson, D. B., Jarvis, E. D. Male mice song syntax depends on social contexts and influences female preferences. Front. Behav. Neurosci. 9. 76, (2015).
  24. Hoffmann, F., Musolf, K., Penn, D. J. Freezing urine reduces its efficacy for eliciting ultrasonic vocalizations from male mice. Physiol. & Behav. 96, 602-605 (2009).
  25. Roullet, F. I., Wohr, M., Crawley, J. N. Female urine-induced male mice ultrasonic vocalizations, but not scent-marking, is modulated by social experience. Behav. Brain Res. 216, 19-28 (2011).
  26. Barthelemy, M., Gourbal, B. E., Gabrion, C., Petit, G. Influence of the female sexual cycle on BALB/c mouse calling behaviour during mating. Die Naturwissenschaften. 91, 135-138 (2004).
  27. Byers, S. L., Wiles, M. V., Dunn, S. L., Taft, R. A. Mouse estrous cycle identification tool and images. PloS ONE. 7, (2012).
  28. Whitten, W. K. Modification of the oestrous cycle of the mouse by external stimuli associated with the male. J. Endocrinol. 13, 399-404 (1956).
  29. Whitney, G., Coble, J. R., Stockton, M. D., Tilson, E. F. ULTRASONIC EMISSIONS: DO THEY FACILITATE COURTSHIP OF MICE. J. Comp. Physiolog. Psych. 84, 445-452 (1973).
  30. Asaba, A., et al. Developmental social environment imprints female preference for male song in mice. PloS ONE. 9, 87186 (2014).
  31. Neunuebel, J. P., Taylor, A. L., Arthur, B. J., Egnor, S. E. Female mice ultrasonically interact with males during courtship displays. eLife. 4, (2015).
  32. Burkett, Z. D., Day, N. F., Penagarikano, O., Geschwind, D. H., White, S. A. VoICE: A semi-automated pipeline for standardizing vocal analysis across models. Scientific Reports. 5, 10237 (2015).
  33. Grimsley, J. M., Gadziola, M. A., Wenstrup, J. J. Automated classification of mouse pup isolation syllables: from cluster analysis to an Excel-based “mouse pup syllable classification calculator”. Front. Behav. Neurosci. 6, (2012).
  34. Grimsley, J. M. S., Monaghan, J. J. M., Wenstrup, J. J. Development of social vocalizations in mice. PloS ONE. 6, (2011).
  35. Portfors, C. V., Perkel, D. J. The role of ultrasonic vocalizations in mouse communication. Curr. Opin. Neurobiol. 28, 115-120 (2014).
  36. Merten, S., Hoier, S., Pfeifle, C., Tautz, D. A role for ultrasonic vocalisation in social communication and divergence of natural populations of the house mouse (Mus musculus domesticus). PloS ONE. 9, 97244 (2014).
  37. Neilans, E. G., Holfoth, D. P., Radziwon, K. E., Portfors, C. V., Dent, M. L. Discrimination of ultrasonic vocalizations by CBA/CaJ mice (Mus musculus) is related to spectrotemporal dissimilarity of vocalizations. PloS ONE. 9, 85405 (2014).
  38. Holfoth, D. P., Neilans, E. G., Dent, M. L. Discrimination of partial from whole ultrasonic vocalizations using a go/no-go task in mice. J. Acoust. Soc. Am. 136, 3401 (2014).
  39. Asaba, A., Kato, M., Koshida, N., Kikusui, T. Determining Ultrasonic Vocalization Preferences in Mice using a Two-choice Playback. J Vis Exp. , (2015).

Play Video

Cite This Article
Chabout, J., Jones-Macopson, J., Jarvis, E. D. Eliciting and Analyzing Male Mouse Ultrasonic Vocalization (USV) Songs. J. Vis. Exp. (123), e54137, doi:10.3791/54137 (2017).

View Video