Information

Wie werden fMRT-Reaktionen auf akustische Reize gemessen?

Wie werden fMRT-Reaktionen auf akustische Reize gemessen?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Wie können fMRT-Experimente durchgeführt werden, die die Reaktion auf akustische Reize (z. B. Musik) messen, wenn das Gerät so laute, unangenehme und ablenkende Geräusche macht? Gibt es inzwischen leisere MRT-Tomographen oder müssen die Reize (über Kopfhörer) lauter sein als das Maschinengeräusch? Wie misst man dann die Wirkung eines Flüsterns?


Ich hätte diesen Artikel früher finden können, aber wie die Dinge laufen, habe ich es nicht getan. Aber möglicherweise enthält es das meiste, was zu dieser Frage gesagt werden kann:

Jonathan E. Peellej, Methodische Herausforderungen und Lösungen in der auditiven funktionellen Magnetresonanztomographie, Front Neurosci. 2014; 8: 253


Neuronale Reaktionen auf natürliche und modellangepasste Stimuli zeigen unterschiedliche Berechnungen im primären und nicht primären Hörkortex

Zugehörigkeiten Department of Brain and Cognitive Sciences, Massachusetts Institute of Technology, Cambridge, Massachusetts, Vereinigte Staaten von Amerika, Zuckerman Institute of Mind, Brain and Behavior, Columbia University, New York, New York, Vereinigte Staaten von Amerika, Laboratoire des Sytèmes Perceptifs, Département d'Études Cognitives, ENS, PSL University, CNRS, Paris Frankreich

Rollen Konzeptualisierung, Finanzierungsakquise, Recherche, Methodik, Ressourcen, Software, Supervision, Schreiben – Originalentwurf, Schreiben – Review & Editieren

Zugehörigkeiten Department of Brain and Cognitive Sciences, Massachusetts Institute of Technology, Cambridge, Massachusetts, Vereinigte Staaten von Amerika, Program in Speech and Hearing Biosciences and Technology, Harvard University, Cambridge, Massachusetts, Vereinigte Staaten von Amerika, McGovern Institute for Brain Research, Massachusetts Institute of Technology, Cambridge, Massachusetts, Vereinigte Staaten von Amerika


MATERIALEN UND METHODEN

Acht gesunde Probanden (zwei Männer und sechs Frauen, 19–32 Jahre alt) nahmen an dieser Studie teil, und ein Proband nahm zweimal an verschiedenen Tagen teil. Insgesamt wurden neun Experimente durchgeführt. Die Probanden gaben ihre Einverständniserklärung ab, die vom Institutional Review Board der University of Minnesota genehmigt wurde. Alle fMRI-Experimente wurden auf einem 4T/90-cm-Bohrungsmagnetsystem (Siemens, Erlangen, Deutschland) mit der Varian INOVA-Konsole (Varian Inc., Palo Alto, CA, USA) durchgeführt. Es wurde eine Einschleifen-RF-Oberflächenspule (10 cm Durchmesser) verwendet. Die Kopfbewegung wurde durch einen schaumstoffgepolsterten Halter begrenzt. Zu Beginn des Experiments wurden axiale, sagittale und koronale anatomische MR-Bilder mit einem konventionellen T1-gewichtetes TurboFLASH-Verfahren ( 22 ). Auf der Grundlage dieser Bilder wurden sieben koronale Bilder ausgewählt, die den größten Teil der Kalkarina-Fissur in V1 abdecken, um fMRT-Daten mit GE-EPI mit den folgenden Parametern zu erfassen: FOV = 20 × 20 cm 2 , Matrix = 64 × 64 in-plane, TE = 22 ms, TR = 1,35 s, Schichtdicke = 5 mm, 50 ms zum Erfassen jeder Bildschicht und insgesamt 350 ms zum Erfassen jedes Mehrschichtbildsatzes.

Um die Interferenz von akustischem Rauschen auf die Aktivität des visuellen Kortex zu untersuchen, wurde ein Aufgabenparadigma mit gepaarten Reizen entwickelt. In diesem Aufgabenparadigma (siehe Abb. 1) wurde der Gradientenschall, der bei jeder Aufnahme eines Multislice-fMRT-Datensatzes erzeugt wurde, als primärer Stimulus verwendet und ein dem Schall folgendes Blitzlicht als sekundärer Stimulus mit einer variablen Verzögerung von ISI zwischen den beiden Reizen. Ein rotes LED-Schachbrett (12,8 cm × 5,9 cm) wurde verwendet, um eine kurze (17 ms) visuelle Blinkstimulation zu erzeugen. Während der fMRT-Studie lagen die Probanden in Rückenlage im Magneten und betrachteten das Schachbrett-Display über einen Spiegel, der in einer speziell angefertigten Halterung über ihren Augen untergebracht war. Sie wurden angewiesen, ihre Augen während der gesamten fMRT-Studie auf die Mitte des Displays zu fixieren. Es wurde gezeigt, dass der neurale refraktäre Effekt im menschlichen visuellen Kortex während einer wiederholten visuellen Stimulation verschwindet, wenn eine relativ lange Verzögerung (≥ 1 s) zwischen wiederholten visuellen Reizen angewendet wird (18). Daher wurde die Komplikation des neuralen refraktären Effekts bei V1 in dieser Studie durch die Verwendung einer langen TR von 1,35 s (entspricht der bildgebenden TR) eliminiert. Darüber hinaus wurde ein Aufgabendesign ähnlich dem konventionellen Blockaufgabendesign zur Verbesserung der Zeiteffizienz der Bildmittelung zugelassen und in dieser Studie angewendet. Der experimentelle Ablauf ist in Abb. 2 dargestellt. In jedem fMRI-Experiment wurden sechs Durchläufe (Durchläufe 1–6) durchgeführt. Jeder Lauf bestand aus sieben Kontrollperioden (jeweils 40 Bildersätze), die mit sechs Aufgabenperioden (Aufgaben A–F, jeweils 10 Bildersätze) verschachtelt waren. Sechs verschiedene ISI-Werte (50, 100, 200, 300, 500 und 700 ms) wurden in den sechs Aufgabenperioden jeweils in einer pseudo-randomisierten Reihenfolge in jedem Durchlauf verwendet.

Aufgabendesign, das im Paradigma der paarigen Stimuli verwendet wird. Als primärer Stimulus wurde akustischer Scannerschall verwendet, und als sekundärer Stimulus wurde ein einzelnes Blitzlicht mit einer Verzögerung (ISI) dazwischen verwendet. Sieben EPI-Schnitte, die den primären visuellen Kortex abdecken, wurden aufgenommen, wobei jeder akustische Scannerton (schraffierter Balken) erzeugt wurde, und diese Bildaufnahme wurde in jeder Aufgabenperiode 10 Mal wiederholt.

Experimentelle Verfahren für jedes fMRI-Experiment. Jeder Aufgabenblock repräsentiert 10 Präsentationen des Stimulus. Für die Analyse der BOLD-Intensität wurden für Lauf 1 die gemeinsamen aktivierten Pixel für die Aufgaben D, E, F, A, B und C generiert. Basierend auf den Daten dieser gemeinsamen aktivierten Pixel wurden sechs Zeitverläufe für die Aufgaben D generiert, E, F, A, B bzw. C. Ein ähnliches Verfahren wurde für die Läufe 2–6 durchgeführt. Folglich wurden für jedes Experiment insgesamt sechs Zeitverläufe für jede Aufgabe erhalten. Die abschließende Quantifizierung für jede Aufgabe basierte auf dem Durchschnitt der sechs Zeitverläufe. Für die Analyse der Anzahl aktivierter Pixel wurden entsprechende Bildvolumina über sechs Durchläufe (Durchläufe 1–6) für Aufgabe A gemittelt. Auf Basis dieser gemittelten Bildvolumina und der Anzahl aktivierter Pixel für Aufgabe . wurde eine aktivierte Karte in V1 generiert Auf Basis dieser generierten Karte wurde A berechnet. Ein ähnliches Verfahren wurde für die Aufgaben B–F durchgeführt.

Zwei Parameter – die BOLD-Signalintensität und die Anzahl der aktivierten Pixel – wurden analysiert, um die Wirkung von akustischem Rauschen auf die Aktivierung des visuellen Kortex zu untersuchen. Die Datenanalyse wurde unter Verwendung des STIMULATE-Softwarepakets (MRR, University of Minnesota) durchgeführt.

Die Analyse der BOLD-Signalintensität basierte auf den gemeinsamen aktivierten Pixeln in V1 aus allen sechs Aufgaben für jeden Lauf. Basierend auf diesem Kriterium wurde für jeden Durchlauf (z. B. Durchlauf 1 in Abb. 2) die gemeinsame aktivierte Region von Interesse (ROI) im visuellen Kortex aus den Pixeln generiert, die für alle sechs Aufgaben eine statistische Signifikanz bestanden (z. B. Aufgaben D, E, F, A, B und C) unter Verwendung der periodischen Kreuzkorrelationsmethode mit einem Kreuzkorrelationskoeffizienten von ≥0,4. Der fMRT-Zeitverlauf für jede Aufgabe und zwei benachbarte Kontrollperioden wurde dann basierend auf diesem gemeinsamen aktivierten ROI generiert (z. B. wurden in Lauf 1 sechs Zeitverläufe für Aufgaben D, E, F, A, B bzw. C generiert. . Für jedes Experiment wurden für jede Aufgabe (z. B. Aufgabe A) insgesamt sechs Zeitverläufe aus allen sechs Läufen (Läufe 1–6) generiert, die dann für diese Aufgabe gemittelt wurden. Die BOLD-Signalintensität wurde als Integral des BOLD-Signals quantifiziert, wobei die Grundlinie der Kontrollperiode vom gemittelten Zeitverlauf für jede Aufgabe abgezogen wurde. Die Ergebnisse wurden als Normalisierung auf die durchschnittliche BOLD-Intensität für alle sechs Aufgaben ausgedrückt.

Für die Anzahl der aktivierten Pixel basierte die Analyse für jede Aufgabe (z. B. Aufgabe A) auf den aktivierten Pixeln dieser einzelnen Aufgabe (d. h. Aufgabe A). Daher wurden zunächst alle entsprechenden Bildvolumina derselben Aufgabe im Bild gemittelt k-Raum über die sechs Durchläufe, und dann wurde für jede Aufgabe eine Aktivierungskarte basierend auf den gemittelten Bildvolumina unter Verwendung der Kreuzkorrelationsmethode mit dem gleichen Kreuzkorrelationskoeffizienten von ≥0,4 erstellt. Als Ergebnis wurden in jedem fMRI-Experiment sechs Aktivierungskarten für sechs verschiedene Aufgaben erstellt. Die Anzahl der aktivierten Pixel wurde dann basierend auf der für jede Aufgabe generierten Aktivierungskarte berechnet. Der ROI, der die Kalkarinafissur im visuellen Kortex abdeckt, wurde basierend auf den anatomischen Bildern bestimmt, die vor dem fMRT-Experiment aufgenommen wurden. Es wurden nur die aktivierten Pixel gezählt, die sich innerhalb der ROI befanden. Die Anzahl der aktivierten Pixel wurde auch auf die durchschnittliche Anzahl aktivierter Pixel für alle sechs Aufgaben normalisiert.


Inhalt

Die funktionelle Magnetresonanztomographie (funktionelle MRT oder fMRT) ist ein spezifisches Verfahren der Magnetresonanztomographie (MRT), das die Gehirnaktivität misst, indem sie die damit verbundenen Veränderungen des Blutflusses erkennt. Genauer gesagt wird die Gehirnaktivität durch ein niederfrequentes BOLD-Signal im Gehirn gemessen. [11]

Das Verfahren ähnelt der MRT, verwendet jedoch als grundlegendes Maß die Änderung der Magnetisierung zwischen sauerstoffreichem und sauerstoffarmem Blut. Dieses Maß wird häufig durch Rauschen aus verschiedenen Quellen verfälscht und daher werden statistische Verfahren verwendet, um das zugrunde liegende Signal zu extrahieren. Die resultierende Gehirnaktivierung kann grafisch dargestellt werden, indem die Stärke der Aktivierung im gesamten Gehirn oder in der untersuchten spezifischen Region farbkodiert wird. Die Technik kann die Aktivität auf Millimeter genau lokalisieren, aber mit Standardtechniken nicht besser als innerhalb eines Fensters von wenigen Sekunden. [12]

FMRI wird sowohl in der Forschung als auch in geringerem Maße im klinischen Bereich eingesetzt. Es kann auch mit anderen hirnphysiologischen Maßnahmen wie EEG und NIRS kombiniert und ergänzt werden. [13] [14] Arterielle Spin-Labeling-fMRT kann als ergänzender Ansatz zur Beurteilung der Ruhefunktionen des Gehirns verwendet werden. [fünfzehn]

Die physiologische Blutflussantwort entscheidet maßgeblich über die zeitliche Sensitivität, wie gut aktive Neuronen in der BOLD-fMRT gemessen werden können. Der grundlegende Zeitauflösungsparameter ist die Abtastrate oder TR, die vorschreibt, wie oft ein bestimmter Hirnschnitt erregt wird und seine Magnetisierung verlieren darf. TRs können von sehr kurz (500 ms) bis sehr lang (3 Sekunden) variieren. Speziell für die fMRT wird angenommen, dass die hämodynamische Reaktion über 10 Sekunden dauert, multiplikativ ansteigt (d. Veränderungen im Blutflusssystem, dem Gefäßsystem, integrieren im Laufe der Zeit Reaktionen auf neuronale Aktivität. Da es sich bei dieser Reaktion um eine glatte kontinuierliche Funktion handelt, hilft die Abtastung mit schnelleren TRs nur dabei, schnellere Schwankungen wie Atem- und Herzfrequenzsignale abzubilden. [16]

Während fMRT bestrebt ist, die neuronale Aktivität im Gehirn zu messen, kann das BOLD-Signal neben der neuronalen Aktivität durch viele andere physiologische Faktoren beeinflusst werden. Beispielsweise beeinflussen Atemschwankungen und Herz-Kreislauf-Zyklen das im Gehirn gemessene BOLD-Signal und werden daher in der Regel während der Verarbeitung der fMRT-Rohdaten entfernt. Aufgrund dieser Lärmquellen gab es viele Experten, die der Idee der Ruhezustands-fMRT während der frühen Anwendung der fMRT sehr skeptisch gegenüberstanden. Forscher sind sich erst seit kurzem sicher, dass das gemessene Signal kein Artefakt ist, das durch andere physiologische Funktionen verursacht wird. [17]

Die funktionelle Konnektivität im Ruhezustand zwischen räumlich unterschiedlichen Hirnregionen spiegelt die wiederholte Geschichte von Koaktivierungsmustern innerhalb dieser Regionen wider und dient somit als Maß für die Plastizität. [18]

1992 begann Bharat Biswal seine Arbeit als Doktorand am Medical College of Wisconsin unter der Leitung seines Beraters James S. Hyde und entdeckte, dass das Gehirn auch im Ruhezustand Informationen über seine funktionelle Organisation enthält. Er hatte fMRT verwendet, um zu untersuchen, wie verschiedene Regionen des Gehirns kommunizieren, während das Gehirn in Ruhe ist und keine aktive Aufgabe ausführt. Obwohl Biswals Forschung zu dieser Zeit größtenteils vernachlässigt und einer anderen Signalquelle zugeschrieben wurde, wurde seine Ruhe-Neurobildgebungstechnik heute weit verbreitet und gilt als gültige Methode zur Kartierung funktioneller Gehirnnetzwerke. Die Kartierung der Gehirnaktivität im Ruhezustand birgt viele Potenziale für die Hirnforschung und hilft Ärzten sogar bei der Diagnose verschiedener Erkrankungen des Gehirns. [3]

Experimente des Labors des Neurologen Marcus Raichle an der Washington University School of Medicine und anderer Gruppen zeigten, dass der Energieverbrauch des Gehirns um weniger als 5% seines Ausgangsenergieverbrauchs erhöht wird, während eine fokussierte geistige Aufgabe ausgeführt wird. Diese Experimente zeigten, dass das Gehirn ständig mit hoher Aktivität aktiv ist, auch wenn die Person nicht konzentriert gedanklich arbeitet (Ruhezustand). Sein Labor hat sich hauptsächlich darauf konzentriert, die Grundlage dieser Ruheaktivität zu finden, und es werden viele bahnbrechende Entdeckungen zugeschrieben. Dazu gehören die relative Unabhängigkeit von Blutfluss und Sauerstoffverbrauch bei Veränderungen der Hirnaktivität, die die physiologische Grundlage der fMRT bildet, sowie die Entdeckung des bekannten Default Mode Network. [19]

Funktionale Bearbeitung

Funktionelle Konnektivität ist die Konnektivität zwischen Gehirnregionen, die funktionelle Eigenschaften teilen. Genauer gesagt kann es als die zeitliche Korrelation zwischen räumlich entfernten neurophysiologischen Ereignissen definiert werden, ausgedrückt als Abweichung von der statistischen Unabhängigkeit über diese Ereignisse in verteilten neuronalen Gruppen und Bereichen. [20] Dies gilt sowohl für Ruhezustands- als auch für Task-State-Studien. Während sich die funktionelle Konnektivität auf Korrelationen zwischen Probanden, Läufen, Blöcken, Versuchen oder einzelnen Zeitpunkten beziehen kann, konzentriert sich die funktionelle Konnektivität im Ruhezustand auf die Konnektivität, die über einzelne BOLD-Zeitpunkte während Ruhebedingungen bewertet wird. [21] Die funktionelle Konnektivität wurde auch unter Verwendung der Perfusionszeitreihen bewertet, die mit arteriellen spinmarkierten Perfusions-fMRT abgetastet wurden. [22] Die funktionelle Konnektivitäts-MRT (fcMRT), die Ruhezustands-fMRT und aufgabenbasierte MRT umfassen kann, könnte eines Tages dazu beitragen, definitivere Diagnosen für psychische Störungen wie bipolare Störungen zu stellen und kann auch helfen, die Entwicklung und das Fortschreiten von Post- Traumatische Belastungsstörung sowie die Bewertung der Wirkung der Behandlung. [23] Funktionale Konnektivität wurde als Ausdruck des Netzwerkverhaltens angenommen, das kognitiven Funktionen auf hohem Niveau zugrunde liegt, teilweise weil sich die funktionelle Konnektivität im Gegensatz zur strukturellen Konnektivität oft in der Größenordnung von Sekunden ändert, wie im Fall der dynamischen funktionalen Konnektivität.

Standardmodus Netzwerk Bearbeiten

Andere Ruhezustandsnetzwerke Bearbeiten

Verarbeitungsdaten Bearbeiten

Für die Verarbeitung und Analyse von Ruhezustands-fMRI-Daten gibt es viele Programme. Zu den am häufigsten verwendeten Programmen gehören SPM, AFNI, FSL (insbesondere Melodic für ICA), CONN, C-PAC und Connectome Computation System (CCS).

Analysemethoden Bearbeiten

Es gibt viele Methoden zur Erfassung und Verarbeitung von rsfMRT-Daten. Die gängigsten Analysemethoden konzentrieren sich entweder auf unabhängige Komponenten oder auf Korrelationsbereiche.

Unabhängige Komponentenanalyse Bearbeiten

Regionalanalyse Bearbeiten

Andere Methoden zur Charakterisierung von Ruhezustandsnetzwerken umfassen Teilkorrelation, Kohärenz und Teilkohärenz, Phasenbeziehungen, dynamische Zeitverzerrungsdistanz, Clusterbildung und Graphentheorie. [35] [36] [37]

Zuverlässigkeit und Reproduzierbarkeit Bearbeiten

Die funktionelle Magnetresonanztomographie (rfMRT) im Ruhezustand kann niederfrequente Fluktuationen in den spontanen Gehirnaktivitäten abbilden und stellt ein beliebtes Werkzeug für die funktionelle Konnektomik im Makromaßstab zur Charakterisierung interindividueller Unterschiede in der normalen Gehirnfunktion, Geist-Gehirn-Assoziationen und der verschiedene Störungen. Dies deutet auf Zuverlässigkeit und Reproduzierbarkeit für häufig verwendete rfMRI-abgeleitete Messungen der funktionellen Konnektomik des menschlichen Gehirns hin. Diese Metriken bergen ein großes Potenzial zur Beschleunigung der Identifizierung von Biomarkern für verschiedene Hirnerkrankungen, bei denen die Zuverlässigkeit und Reproduzierbarkeit an erster Stelle stehen müssen. [38]

FMRT mit EEG Bearbeiten

Viele Bildgebungsexperten sind der Meinung, dass sowohl fMRT als auch Elektroenzephalographie (EEG) gleichzeitig verwendet werden sollten, um die beste Kombination von räumlichen und zeitlichen Informationen aus der Gehirnaktivität zu erhalten. Diese duale Technik kombiniert die gut dokumentierte Fähigkeit des EEG, bestimmte Gehirnzustände mit hoher zeitlicher Auflösung zu charakterisieren und pathologische Muster aufzudecken, mit der Fähigkeit des fMRI (in jüngerer Zeit entdeckt und weniger gut verstanden), die Blutdynamik durch das gesamte Gehirn mit hoher räumlicher Auflösung abzubilden. Bisher wurde die EEG-fMRT hauptsächlich als fMRT-Technik angesehen, bei der das synchron erfasste EEG verwendet wird, um die Gehirnaktivität („Brain State“) über die Zeit zu charakterisieren und die zugehörige Hämodynamik (z. B. durch statistisches parametrisches Mapping) abzubilden Änderungen. [39]

Der klinische Wert dieser Ergebnisse ist Gegenstand laufender Untersuchungen, aber neuere Forschungen legen eine akzeptable Zuverlässigkeit für EEG-fMRT-Studien und eine bessere Sensitivität in Hochfeld-Scannern nahe. Außerhalb des Bereichs der Epilepsie wurde EEG-fMRT verwendet, um ereignisbezogene (durch externe Stimuli ausgelöste) Gehirnreaktionen zu untersuchen und wichtige neue Einblicke in die grundlegende Gehirnaktivität während des Ruhezustands und des Schlafs zu liefern. [40]

FMRT mit TMS Bearbeiten

Transkranielle Magnetstimulation (TMS) verwendet kleine und relativ präzise Magnetfelder, um Regionen des Kortex ohne gefährliche invasive Verfahren zu stimulieren. Wenn diese Magnetfelder einen Bereich des Kortex stimulieren, erhöht sich der fokale Blutfluss an der Stimulationsstelle sowie an entfernten Stellen, die anatomisch mit der stimulierten Stelle verbunden sind. Positronen-Emissions-Tomographie (PET) kann dann verwendet werden, um das Gehirn und Veränderungen des Blutflusses abzubilden . [41]

Potenzielle Fallstricke bei der Verwendung von rsfMRT zur Bestimmung der funktionellen Netzwerkintegrität sind die Kontamination des BOLD-Signals durch physiologische Geräuschquellen wie Herzfrequenz, Atmung [42] [43] und Kopfbewegungen. [44] [45] [46] [47] Diese Störfaktoren können die Ergebnisse in Studien, in denen Patienten mit gesunden Kontrollpersonen verglichen werden, in Richtung hypothetischer Effekte oft verzerren, zum Beispiel könnte eine geringere Kohärenz im Standardnetzwerk des Patienten gefunden werden Gruppe, während sich auch die Patientengruppen während des Scans mehr bewegten. Es wurde auch gezeigt, dass die Verwendung der globalen Signalregression künstliche Korrelationen zwischen einer kleinen Anzahl von Signalen (z. B. zwei oder drei) erzeugen kann. [48] ​​Glücklicherweise hat das Gehirn viele Signale. [49]

Die Forschung mit fMRT im Ruhezustand hat das Potenzial, im klinischen Kontext angewendet zu werden, einschließlich der Verwendung bei der Beurteilung vieler verschiedener Krankheiten und psychischer Störungen. [50]

Krankheitszustand und Veränderungen der funktionellen Konnektivität im Ruhezustand Bearbeiten

    : verminderte Konnektivität [51] : abnormale Konnektivität [52] : veränderte Konnektivität [53][54] und Auswirkungen einer antidepressiven Behandlung: abnormale Konnektivität [55][56][57][58] und Auswirkungen von Stimmungsstabilisatoren: abnormale Konnektivität und Netzwerkeigenschaften [59][60][61][62] : gestörte Netzwerke [63] (ADHS): veränderte "kleine Netzwerke" und Thalamusveränderungen [64] : Störung des Gehirnsystems und des motorischen Netzwerks [51] : Störung und Abnahme / Erhöhung der Konnektivität [65] : veränderte Konnektivität [66] : Zunahme/Abnahme der Konnektivität [67] : veränderte Konnektivität [68 [69] : Konnektivitätsänderungen innerhalb der kortikolimbischen Schaltkreise und des Inselkortex [70]

Andere Arten aktueller und zukünftiger klinischer Anwendungen für die fMRT im Ruhezustand umfassen die Identifizierung von Gruppenunterschieden bei Hirnerkrankungen, die Gewinnung diagnostischer und prognostischer Informationen, Längsschnittstudien und Behandlungseffekte, das Clustern bei heterogenen Krankheitszuständen sowie die präoperative Kartierung und gezielte Intervention. [71] Da Ruhezustandsmessungen keine kognitiven Anforderungen stellen (anstelle von psychologischen Experimenten mit Aufgaben), können auch kognitiv beeinträchtigte Personen leicht gemessen werden.


Neonatale Gehirnreaktion auf abweichende auditive Reize und Beziehung zur mütterlichen Eigenschaftsangst

Eine übermäßige Reaktion auf unerwartete oder „abweichende“ Reize im Säuglings- und Kleinkindalter stellt einen frühen Risikomarker für Angststörungen dar. Die Forschung muss jedoch noch die spezifischen Gehirnregionen, die der neonatalen Reaktion auf abweichende Reize in der Nähe der Geburt zugrunde liegen, und die Beziehung zum Risiko für Angststörungen abgrenzen. Die Autoren verwendeten eine aufgabenbasierte funktionelle MRT (fMRT), um die neonatale Reaktion auf abweichende Reize und ihre Beziehung zur mütterlichen Merkmalsangst zu beschreiben.

Methoden:

Die Autoren verwendeten fMRT, um die Gehirnaktivität zu messen, die durch abweichende Hörreize bei 45 schlafenden Neugeborenen (Durchschnittsalter 27,8 Tage 60 % weiblich 64 % Afroamerikaner) hervorgerufen wurde. Bei 41 der Säuglinge wurde die neuronale Reaktion auf abweichende Reize in Bezug auf die mütterliche Angst im State-Trait Anxiety Inventory, einem familiären Risikofaktor für die Angst bei Nachkommen, untersucht.

Ergebnisse:

Neugeborene zeigten eine robuste und weit verbreitete neuronale Reaktion auf abweichende Reize, die Mustern ähnelt, die zuvor bei Erwachsenen gefunden wurden. Höhere mütterliche Angst war mit höheren Reaktionen in mehreren Gehirnregionen verbunden, einschließlich der linken und rechten vorderen Insel, des ventrolateralen präfrontalen Kortex und mehrerer Bereiche innerhalb des vorderen cingulären Kortex. Diese Bereiche überschneiden sich mit Hirnregionen, die zuvor mit Angststörungen und anderen psychiatrischen Erkrankungen bei Erwachsenen in Verbindung gebracht wurden.

Schlussfolgerungen:

Die neuronale Architektur, die für abweichende Reize empfindlich ist, funktioniert bei Neugeborenen robust. Übermäßige Reaktionsfähigkeit einiger Schaltkreiskomponenten bei der Geburt kann ein Risiko für Angstzustände und andere psychiatrische Störungen signalisieren.


METHODEN

Generierung von Reizen

Die Sprachlaute waren stimmlose Konsonanten bestehend aus Plosiven (/t/, /k/), einem Frikativ (/f/) und einem Affrikat (/t∫/ das Phonem am Anfang von „Käse“). Die Plosive (/t/, /k/) sind nicht-kontinuierlich, d. h., sie werden auf natürliche Weise mit einem kurzen post-obstruent stimmlosen Luftstrom erzeugt. Die nichtsprachlichen Mundgeräusche umfassten vier ingressive Klickgeräusche: ein Zahnklick (/|/), ein postalveoläres Klicken (/!/), ein seitliches Klicken (/∥/) und ein bilabiales Klicken (/⊙/). Diese ähneln jeweils einem „Tutting“-Laut (im Allgemeinen als „tsk-tsk“ oder „tut-tut“ geschrieben), einem „Clop“, wie in dem Clip-Clop-Geräusch, das bei der Nachahmung eines trabenden Pferdes entsteht, einem „Schwindel“. -up“-Geräusch, das Klick-Geräusch, das „Los geht“ oder „Geh schneller“ (zB auf einem Pferd) anzeigt, und ein „Küssen“-Geräusch. Diese wurden alle von einem britischen Muttersprachler produziert. In dem Experiment wurden 30 Tokens jedes Tons verwendet, und jeder Token wurde nur einmal präsentiert (Abbildung 1).

Sprache, ingressive Klicks und SCN-Sounds haben ähnliche Amplitudenhüllkurven. Beispiele für Token aus der Sprache, ingressive Klickgeräusche und SCN-Bedingungen, die im Experiment verwendet wurden. Oben sind die Wellenformversionen der Klänge zu sehen, während die Mitte ihre spektrotemporale Struktur in Form eines Spektrogramms zeigt. Unten ist die Amplitudenhüllkurve dargestellt, die die mittlere Amplitude der Klänge über die Zeit beschreibt. Beachten Sie, dass die drei Token eine ähnliche Amplitudenhüllkurve besitzen und dass der SCN-Token eine viel einfachere spektrale Struktur hat als die Sprach- und Klickgeräusche (wie im Spektrogramm gezeigt).

Sprache, ingressive Klicks und SCN-Sounds haben ähnliche Amplitudenhüllkurven. Beispiele für Token aus der Sprache, ingressive Klickgeräusche und SCN-Bedingungen, die im Experiment verwendet wurden. Oben sind die Wellenformversionen der Klänge zu sehen, während die Mitte ihre spektrotemporale Struktur in Form eines Spektrogramms zeigt. Unten ist die Amplitudenhüllkurve dargestellt, die die mittlere Amplitude der Klänge über die Zeit beschreibt. Beachten Sie, dass die drei Token eine ähnliche Amplitudenhüllkurve besitzen und dass der SCN-Token eine viel einfachere spektrale Struktur hat als die Sprach- und Klickgeräusche (wie im Spektrogramm gezeigt).

Die Töne wurden mit einem Festkörperrekorder (Edirol, R-09HR, Roland, Hosoe-cho, Hamamatsu, Japan) mit 24 Bit, 96 kHz aufgenommen und als .wav-Dateien gespeichert. Die Tondateien wurden in Praat auf dieselbe Spitzenamplitude normalisiert (Boersma & Weenink, 2010). Die Geräusche wurden von einem britischen Muttersprachler vorgetragen, der 30 Token für jede Sprachkategorie und jedes ingressive Klickgeräusch produzierte. Als Grundlinienstimuli wurden SCN-Versionen (Schroeder, 1968) verwendet, und diese wurden durch Multiplizieren der ursprünglichen Wellenformen mit Breitbandrauschen zwischen 50 Hz und 10 kHz erzeugt.

Verhaltenstests

Die Stimuli wurden vorab getestet, um sicherzustellen, dass die Probanden die Geräusche korrekt als Sprache oder Nicht-Sprache kategorisieren konnten. Acht Probanden (fünf Männer, Durchschnittsalter = 25,7 Jahre) hörten die gleichen Tonfolgen, die im fMRT-Abschnitt dieses Experiments verwendet wurden, bevor sie gefragt wurden, ob es sich bei den Tonfolgen um Sprach- oder Nicht-Sprachlaute handelte (insgesamt 60 Versuche, 30 Sprache .). , und 30-Klick-Testversionen). In einem zweiten Pretest wurde das Experiment mit einzelnen Exemplaren jeder Sprache und jedes ingressiven Lauts wiederholt (insgesamt 80 Versuche, jeder der acht Laute wurde 10 Mal getestet). In beiden Tests wurde der gleiche Token nie mehr als einmal präsentiert.

Themen

An der vorliegenden Studie nahmen 22 gesunde Rechtshänder (Mittelwert = 26,9 Jahre, 11 Männer) teil. Alle waren englische Muttersprachler, und wir schlossen alle Probanden aus, die Erfahrung mit Klicksprachen hatten (z. B. diejenigen, die in Südafrika gelebt haben). Alle gaben ihr Einverständnis gemäß den Richtlinien der Ethikkommission des University College London, die für diese Studie die lokale Ethikgenehmigung erteilte.

Ein 1,5-T-Siemens-System mit einer 32-Kanal-Kopfspule wurde verwendet, um 183 . zu erfassen T2*-gewichtete EPI-Daten (3 × 3 × 3 mm 3 , Repetitionszeit = 10.000 ms, Erfassungszeit = 3 s, Echozeit = 50 ms, Flip = 90°) mit BOLD-Kontrast. Es hat sich gezeigt, dass die Verwendung einer 32-Kanal-Kopfspule das Signal-Rausch-Verhältnis für die fMRT im 1,5-T-Feld signifikant verbessert (Parikh et al., 2011 Fellner et al., 2009). Ein sparsames Scanning-Protokoll wurde verwendet, um die auditiven Stimuli in Abwesenheit von Scannerrauschen zu verabreichen. Die ersten beiden Funktionsvolumina wurden verworfen, um den Effekt von T . zu beseitigen1 Gleichgewicht. Hochauflösendes T1 Anatomische Volumenbilder (160 Sagittalschnitte, Voxelgröße = 1 mm 3 ) wurden auch für jede Person aufgenommen. Während des Hauptexperiments lagen die Probanden im Dunkeln in Rückenlage im Scanner und wurden gebeten, die Augen zu schließen und den vorgespielten Geräuschen zu lauschen. Es war keine Aufgabe involviert, um jegliche Form von motorischem Priming zu vermeiden, die eine Reaktionsaufgabe wie ein Knopfdruck mit sich bringen könnte (Abbildung 2).

Die Wahrnehmung von Sprache und eindringlichen Klickgeräuschen ist mit einer erhöhten Aktivität in Hörregionen verbunden. Die Wahrnehmung von Sprachgeräuschen im Vergleich zu ingressiven Klickgeräuschen (A, weiß) war mit einer erhöhten BOLD-Aktivität im linken mittleren und hinteren STG verbunden (P < 0,005, Clusterschwelle = 30). Die Wahrnehmung von Sprachlauten im Vergleich zu SCN war mit einer signifikanten Aktivität in denselben Regionen verbunden, die sich jedoch nach vorne in die linke Hemisphäre erstreckte (A, schwarz) [Sprache vs. SCN: −58 −48 19, −44 −6 −11, 62 −14 −4, 60 −34 6 Sprache vs. ingressive Klicks: −66 16 0, 60 −20 −2, −68 −36 8, −22 −32 32]. Diese Aktivierungen lagen beide innerhalb des Kortex, der durch einen unabhängigen Sprachlokalisierungslauf (A, weiße Linie) als sprachsensitiv identifiziert wurde. Das Hören von ingressiven Klickgeräuschen im Vergleich zu Sprachgeräuschen war mit einer signifikanten Aktivität in den präfrontalen Regionen und dem rechten okzipitalparietalen Kortex (B, schwarz) verbunden. [Ingressive Klicks vs. SCN: 50 –60 28, –32 –34 8, –32 –20 –10, 42 26 50, 28 8 40, 64 –36 8 Ingressive Klicks vs. Sprache: 22 32 42, –30 58 0, 44 28 24, 40 10 46, 26 64 14, 44 -64 38]. Weder der Vergleich von Klickgeräuschen mit Sprachgeräuschen noch mit SCN zeigte eine signifikante Aktivität in den motorischen Regionen des Mundes, die durch einen unabhängigen motorischen Lokalisierungslauf identifiziert wurden (B, weiße Linie). (C) Die gemeinsame Aktivität während der Wahrnehmung beider Arten von Geräuschen im Vergleich zu SCN im rechten STG (P < 0,005). Diese Daten weisen auf teilweise getrennte Netzwerke für die Verarbeitung von Sprache und ingressiven Klickgeräuschen hin, wobei Sprachgeräusche bevorzugt im linken mittleren STG verarbeitet werden und ingressive Klickgeräusche mit erhöhter Aktivität in linken posterioren medialen Hörbereichen verbunden sind, von denen bekannt ist, dass sie einen Teil des dorsalen „Wie“-Pfads ausmachen . Im Gegensatz dazu gibt es bei beiden Schallklassen eine überlappende Aktivität im rechten oberen temporalen Kortex. (D) Regionen, in denen eine bevorzugte Reaktion auf Sprache in bilateralen dorsolateralen Schläfenlappen vorliegt, mit ausgedehnterer Aktivierung auf der linken Seite. Diese Aktivierungen wurden durch den Kontrast [1 –0,01 –0,99, für Sprache > Klicks > SCN, weiß dargestellt] identifiziert. Der gleiche Kontrast für Klicks [Klicks > Sprache > SCN] zeigte keine Wirkung in sprachempfindlichen Hörbereichen im linken temporalen Kortex (schwarz).

Die Wahrnehmung von Sprache und eindringlichen Klickgeräuschen ist mit einer erhöhten Aktivität in Hörregionen verbunden. Die Wahrnehmung von Sprachgeräuschen im Vergleich zu ingressiven Klickgeräuschen (A, weiß) war mit einer erhöhten BOLD-Aktivität im linken mittleren und hinteren STG verbunden (P < 0,005, Clusterschwelle = 30). Die Wahrnehmung von Sprachlauten im Vergleich zu SCN war mit einer signifikanten Aktivität in denselben Regionen verbunden, die sich jedoch nach vorne in die linke Hemisphäre erstreckte (A, schwarz) [Sprache vs. SCN: −58 −48 19, −44 −6 −11, 62 −14 −4, 60 −34 6 Sprache vs. ingressive Klicks: −66 16 0, 60 −20 −2, −68 −36 8, −22 −32 32]. Diese Aktivierungen lagen beide innerhalb des Kortex, der durch einen unabhängigen Sprachlokalisierungslauf (A, weiße Linie) als sprachsensitiv identifiziert wurde. Das Hören von ingressiven Klickgeräuschen im Vergleich zu Sprachgeräuschen war mit einer signifikanten Aktivität in den präfrontalen Regionen und dem rechten okzipitalparietalen Kortex (B, schwarz) verbunden. [Ingressive Klicks vs. SCN: 50 –60 28, –32 –34 8, –32 –20 –10, 42 26 50, 28 8 40, 64 –36 8 Ingressive Klicks vs. Sprache: 22 32 42, –30 58 0, 44 28 24, 40 10 46, 26 64 14, 44 -64 38]. Weder der Vergleich von Klickgeräuschen mit Sprachgeräuschen noch mit SCN zeigte eine signifikante Aktivität in den motorischen Regionen des Mundes, die durch einen unabhängigen motorischen Lokalisierungslauf identifiziert wurden (B, weiße Linie). (C) Die gemeinsame Aktivität während der Wahrnehmung beider Arten von Geräuschen im Vergleich zu SCN im rechten STG (P < 0,005). Diese Daten weisen auf teilweise getrennte Netzwerke für die Verarbeitung von Sprache und ingressiven Klickgeräuschen hin, wobei Sprachgeräusche bevorzugt im linken mittleren STG verarbeitet werden und ingressive Klickgeräusche mit erhöhter Aktivität in linken hinteren medialen Hörbereichen verbunden sind, von denen bekannt ist, dass sie einen Teil des dorsalen „Wie“-Pfads ausmachen . Im Gegensatz dazu gibt es bei beiden Schallklassen eine überlappende Aktivität im rechten oberen temporalen Kortex. (D) Regionen, in denen eine bevorzugte Reaktion auf Sprache in bilateralen dorsolateralen Schläfenlappen vorliegt, mit ausgedehnterer Aktivierung auf der linken Seite. Diese Aktivierungen wurden durch den Kontrast [1 –0,01 –0,99, für Sprache > Klicks > SCN, weiß dargestellt] identifiziert. Der gleiche Kontrast für Klicks [Klicks > Sprache > SCN] zeigte keine Wirkung in sprachempfindlichen Hörbereichen im linken temporalen Kortex (schwarz).

Sounds for the main run and instructions for the localizer run were presented using MATLAB with the Psychophysics Toolbox extension (Brainard, 1997), via a Denon amplifier (Denon UK, Belfast, UK) and electrodynamic headphones (MR Confon GmbH, Magdeburg, Germany) worn by the participant. Instructions were projected from a specially configured video projector (Eiki International, Inc., Margarita, CA) onto a custom-built front screen, which the participant viewed via a mirror placed on the head coil.

Each trial was a train of four different speech or click sounds, lasting 3 sec (e.g., /t/–/k/–/t∫/–/f/). The order of sounds was randomized within trial and the ordering of sound category (speech, nonspeech, SCN) was randomized across trials. Across the whole experiment, none of the 30 recorded tokens of each speech/mouth sound were repeated. A ±500 msec onset jitter was used. This main run lasted approximately 30 min.

We carried out a separate localizer run to identify in each subject the cortical regions responsible for executing mouth movements and for speech perception. This employed a block design using a continuous acquisition protocol (repetition time = 3 sec). Subjects were cued via instructions on a screen to execute mouth movements (alternating lip and tongue movements) or to listen to sentences taken from the BKB list (Bench, Kowal, & Bamford, 1979). The baseline condition was silent rest. Each block lasted 21 sec and was repeated four times. This localizer scan lasted approximately 11 min.

Preprocessing and Analyses

Functional data were analyzed using SPM8 (Wellcome Department of Imaging Neuroscience, London, UK) running on Matlab 7.4 (Mathworks, Inc., Sherborn, MA). All functional images were realigned to the first volume by six-parameter rigid body spatial transformation. Functional and structural (T1-weighted) images were then normalized into standard space using the Montreal Neurological Institute (MNI) template. Functional images were then coregistered to the T1 structural image and smoothed using a Gaussian kernel of FWHM at 8 mm. The data were high-pass filtered at 128 Hz. First-level analysis was carried out using motion parameters as regressors of no interest at the single-subject level. A random-effects model was employed in which the data were thresholded at P < .005. Voxelwise thresholding was carried out at 30 voxels to limit potential Type I errors.

Individual contrasts were carried out to investigate the BOLD response to each condition minus the silent rest or SCN, Speech versus Clicks and Clicks versus Speech. Diese T contrasts were taken up to a second level model. A null conjunction was used to identify significantly active voxels common to more than one condition by importing contrasts at the group level (e.g., Speech > SCN and Clicks > SCN at a threshold of P < .005, cluster threshold of 10). Significant BOLD effects were rendered on a normalized template.

A set of four 10-mm spherical ROIs were created from peak coordinates identified from separate motor and auditory localizer runs. These ROIs lay within left and right superior temporal gyri (STG) and within left and right mouth primary motor cortex (−60 −24 6, 72 −28 10, −53 −12 34, 64 0 28). Mean parameter estimates were extracted for speech and clicks compared with SCN. These are seen in Figure 3.

An additional set of 8-mm spherical ROIs were created from coordinates reported in two previous studies (Pulvermuller et al., 2006 Wilson & Iacoboni, 2006). These studies both reported significant activity in premotor regions during the perception of speech sounds (−62 −4 38, 56 −4 38, −54 −3 46, −60 2 25 Figure 4B). A diameter of 8 mm was chosen here to replicate the analyses done in these previous experiments. In these regions, mean parameter estimates were extracted for speech and clicks compared with SCN.

Finally, two cluster ROIs in ventral sensorimotor cortices were generated by the contrast of all sounds (speech, nonspeech, and SCN) over silent rest. This contrast identified a peak in ventral primary sensorimotor cortex in both hemispheres (Figure 4A). To allow statistical analyses of these data (Kriegeskorte, Simmons, Bellgowan, & Baker, 2009 Vul, Harris, Winkleman, & Pashler, 2008), ROIs were created in an iterative “hold-one-out” fashion (McGettigan et al., 2011), in which the cluster ROIs for each individual participant were created from a group contrast of [All Sounds vs. Rest inclusively masked by the motor localizer] (masking threshold P < .001, cluster threshold = 30) from the other 21 participants. Mean parameter estimates were extracted for speech, clicks, and SCN compared with silent rest.

Left auditory areas preferentially encode speech sounds, but there is no speech specific activity in primary motor cortices. Parameter estimates for speech and ingressive click sounds compared with SCN were calculated within four ROIs generated from peak coordinates from an independent localizer. A and B display the left and right speech ROIs generated from the comparison of listening to sentences against a silent rest condition (FWE = 0.05, cluster threshold = 30) with the parameter estimates displayed below. C and D show the left and right mouth motor ROIs generated from alternating lip and tongue movements compared with silent rest (FWE = 0.05, cluster threshold = 30). Speech sounds were associated with significantly increased activity in left auditory cortex compared with ingressive click sounds. There was nonsignificant difference in levels of activity in right auditory cortex or in the mouth motor regions. In all three of these regions, there was a nonsignificant increase in activity for ingressive click sounds over SCN compared with speech sounds over SCN. Error bars indicate REM.

Left auditory areas preferentially encode speech sounds, but there is no speech specific activity in primary motor cortices. Parameter estimates for speech and ingressive click sounds compared with SCN were calculated within four ROIs generated from peak coordinates from an independent localizer. A and B display the left and right speech ROIs generated from the comparison of listening to sentences against a silent rest condition (FWE = 0.05, cluster threshold = 30) with the parameter estimates displayed below. C and D show the left and right mouth motor ROIs generated from alternating lip and tongue movements compared with silent rest (FWE = 0.05, cluster threshold = 30). Speech sounds were associated with significantly increased activity in left auditory cortex compared with ingressive click sounds. There was nonsignificant difference in levels of activity in right auditory cortex or in the mouth motor regions. In all three of these regions, there was a nonsignificant increase in activity for ingressive click sounds over SCN compared with speech sounds over SCN. Error bars indicate REM.

Auditory-sensitive sensorimotor regions do not discriminate between speech and ingressive click sounds. The whole-brain contrast of all sounds compared with rest revealed significant activity in bilateral auditory cortices and ventral sensorimotor cortices (A, transparent white). Using this contrast, masked inclusively by the motor localizer (A, black), cluster ROIs were generated in both left and right hemispheres (A, white). Mean parameter estimates were extracted for these two regions using an interactive “leave-one-out” approach (see Methods), and these are displayed in the bottom left. The only significant comparison was that of [Speech > Rest] compared with [SCN > Rest] [Speech > Rest] compared with [Clicks > SCN] was not significantly different. To investigate whether there may be regions in premotor cortex that are specifically activated during the perception of speech compared with other sounds, we then generated 8-mm spherical ROIs on the basis of the coordinates reported in two previous studies Wilson and Iacoboni (2006) represented in B by solid white circles (−62 −4 38 and 56 −4 38), and Pulvermuller et al. (2006) represented by dotted white lines in the left hemisphere involved in movement and perception of lip and tongue movements (−54 −3 46 and −60 2 25, respectively). Mean parameter estimates for these five regions are plotted below for speech sounds compared with SCN and for ingressive clicks compared with SCN. There were no significant differences in any of these regions between the mean response to speech sounds and ingressive clicks demonstrating that activity in these areas is not specific to speech sounds. This was also the case for all subpeaks identified by the motor localizer. Error bars indicate REM.

Auditory-sensitive sensorimotor regions do not discriminate between speech and ingressive click sounds. The whole-brain contrast of all sounds compared with rest revealed significant activity in bilateral auditory cortices and ventral sensorimotor cortices (A, transparent white). Using this contrast, masked inclusively by the motor localizer (A, black), cluster ROIs were generated in both left and right hemispheres (A, white). Mean parameter estimates were extracted for these two regions using an interactive “leave-one-out” approach (see Methods), and these are displayed in the bottom left. The only significant comparison was that of [Speech > Rest] compared with [SCN > Rest] [Speech > Rest] compared with [Clicks > SCN] was not significantly different. To investigate whether there may be regions in premotor cortex that are specifically activated during the perception of speech compared with other sounds, we then generated 8-mm spherical ROIs on the basis of the coordinates reported in two previous studies Wilson and Iacoboni (2006) represented in B by solid white circles (−62 −4 38 and 56 −4 38), and Pulvermuller et al. (2006) represented by dotted white lines in the left hemisphere involved in movement and perception of lip and tongue movements (−54 −3 46 and −60 2 25, respectively). Mean parameter estimates for these five regions are plotted below for speech sounds compared with SCN and for ingressive clicks compared with SCN. There were no significant differences in any of these regions between the mean response to speech sounds and ingressive clicks demonstrating that activity in these areas is not specific to speech sounds. This was also the case for all subpeaks identified by the motor localizer. Error bars indicate REM.


Sadato, N. et al. Natur 380, 526–528 (1996).

Weeks, R. et al. J. Neurosci. 20, 2664–2672 (2000).

Kujala, T. et al. Trends Neurosci 23, 115–120 (2000).

Cox, R. W. Computer und biomedizinische Forschung 29, 162–173 (1996).

Talairach, J. & Tournoux, P. Co-Planar Stereotaxic Atlas of the Human Brain (Thieme Medical, New York, 1988).

Christman, S. Cerebral Asymmetries in Sensory and Perceptual Processing (Elsevier Science B.V., 1997).

Westbury, C. F. et al. Cereb. Kortex 9, 392–405 (1999).

Rademacher, J. et al. Neuroimage 13, 669–683 (2001).

Martinez, A. et al. Nat. Neurosci. 2, 364–369 (1999).

Gandhi, S. P. et al. Proz. Natl. Akad. Wissenschaft Vereinigte Staaten von Amerika 96, 3314–3319 (1999).

Petitto, L.A. et al. Proz. Natl. Akad. Wissenschaft Vereinigte Staaten von Amerika 97, 13961–13966 (2000).

Nishimura, H. et al. Natur 397, 116 (1999).

Calvert, G. A. et al. Wissenschaft 276, 593–596 (1997).

Neville, H. J. Ann. NY Akad. Wissenschaft 608, 71–91 (1990).

Baumgart, F. et al. Natur 400, 724–726 (1999).


Methoden

Themen

All subjects were privately owned pet dogs (for details see Supplementary Table S1). The sample of subjects used for the behavioural preference test (Experiment 3) consisted of 24 dogs. Twenty of those had been used for the fMRI task (Experiment 1), and 15 for the eye-tracking test (Experiment 2).

Dog–human relationship

To evaluate the intensity and probable quality of the dog–human relationship, we conducted a caregivers’ survey (N = 15 14 females, 1 male) to assess the dogs’ age at the time when they have adopted them and how many hours per day the caregiver and the familiar person (N = 15 6 females, 9 males) on average actively spent with the dog during the week and on the weekends (see Supplementary Table S1a).

Ethical statement

All reported experimental procedures were reviewed and approved by the institutional ethics and animal welfare committee in accordance with the GSP guidelines and national legislation (ETK-21/06/2018, ETK-31/02/2019, ETK-117/07/2019) based on a pilot study at the University of Vienna (ETK-19/03/2016-2, ETK-06/06/2017). The dogs’ human caregivers gave written consent to participate in the studies before the tests were conducted. Additionally, informed consent was given for the publication of identifying images (see Fig. 4, S2 Supplementary Movie S1, S2) in an online open-access publication.

The portrait of a subjects’ caregiver shown with neutral (middle), happy (left) and angry expression (right). The respective video is shown in Supplementary Movie S1, S2.

Stimuli

We created short (3 s) videos showing human faces that are changing emotional facial expressions (see Fig. 4), transforming (morphing) from neutral to either happy or angry expression (see Movie S1, S2). The face pictures were taken from the human caregiver of each dog, a familiar person, and a stranger (for details, see Supplementary Material).

Experiment 1: fMRI task

Before the experiment, dogs had received extensive training by a professional dog trainer to habituate to the scanner environment (sounds, moving bed, ear plugs etc. see 108 ). For data acquisition, awake and unrestrained dogs laid down in prone position on the scanner bed with the head inside the coil, but could leave the scanner at any time using a custom-made ramp. The dog trainer stayed inside the scanner room throughout the entire test trial (run) outside of the dog’s visual field. Data acquisition was aborted if the dog moved extensively, or left the coil. After the scan session, the realignment parameters were inspected. If overall movement exceeded 3 mm, the run was repeated in the next test session. To additionally account for head motion, we calculated the scan-to-scan motion for each dog, referring to the frame wise displacement (FD) between the current scan t and its preceding scan t-1. For each scan exceeding the FD threshold of 0.5 mm, we entered an additional motion regressor to the first-level GLM design matrix 115,116 . On average, 3.3% (run 1) and 9.8% (run 2) scans were removed (run 1:

26/270 scans). If more than 50% of the scans exceeded the threshold, the entire run was excluded from further analyses. This was the case for one run (56%/151 scans). We truncated a run for one dog to 190 scans due to excessive motion because the dog was not available for another scan session.

The task alternated between the morph videos (500 × 500 pixels) and a black fixation cross in the centre of the screen that served as visual baseline (3–7 s jitter, mean = 5 s white background) each run started and ended with 10 s of visual baseline. The presentation order of the morph videos was randomized, but the same human model × emotion combination (i.e., angry stranger) was never directly repeated. The task was split into two runs with a duration of 4.5 min (270 volumes) each, but with a short break in-between if dogs completed both runs within one session. One run contained 60 trials (30 per emotion 20 trials per human model). Scanning was conducted with a 3 T Siemens Skyra MR-system using a 15-channel human knee-coil. Functional volumes were acquired using an echo planar imaging (EPI) sequence (multiband factor: 2) and obtained from 24 axial slices in descending order, covering the whole brain (interleaved acquisition) using an echo planar imaging (EPI) sequence (multiband factor: 2) with a voxel size of 1.5 × 1.5 × 2 mm 3 and a 20% slice gap (TR/TE = 1000 ms/38 ms, field of view = 144 × 144 × 58 mm 3 ). An MR-compatible screen (32 inch) at the end of the scanner bore was used for stimulus presentation. An eye-tracking camera (EyeLink 1000 Plus, SR Research, Ontario, Canada) was used to monitor movements of the dogs during scanning. The structural image was acquired in a prior scan session with a voxel size of 0.7 mm isotropic (TR/TE = 2100/3.13 ms, field of view = 230 × 230 × 165 mm 3 ). Data analysis and statistical tests are described in the Supplementary Material.

Experiment 2: Eye-tracking task

The eye-tracking task consisted of two tests (Experiment 2a and b) of four trials each, with at least seven days between them. In each trial the morph video of the human caregiver was presented together with either a stranger (Experiment 2a) or a familiar person (Experiment 2b). Both videos were shown with the same, either happy (two trials) or angry (two trials), facial expression. The location (left, right) of the caregiver as well as the emotion (happy, angry) was counterbalanced across the four trials of each test. The dogs went through a three-point calibration procedure first and then received two test trials in a row. At the beginning of each trial the dog was required to look at a blinking white trigger point (diameter: 7.5 cm) in the centre of the screen to start the 15-s (5 × 3 s) stimulus presentation. After a 5–10 min break, this sequence was repeated once. The dogs were rewarded with food rewards at the end of each two-trial block. Data analysis and statistical tests are described in the Supplementary Material.

Experiment 3: Behavioural preference task

The behavioural preference tests consisted of the measuring of the dogs’ movement patterns inside a rectangular arena facing two videos that were presented simultaneously on two computer screens. The screens were placed opposite to the arena entrance, at a distance of 165 cm on the floor, 135 cm apart from each other (for more details, see Supplementary Material). The dog entered the arena centrally through a tunnel with a trap door and could then move freely for the whole duration of stimulus presentation (10 × 3 s, continuous loop). Like in Experiment 2, the experiment consisted of two tests (Experiment 3a and b) of four trials each, with 1-min breaks between trials and at least seven days between the two experiments. The morph videos were shown in the exact same order and on the same sides (left, right) as in Experiment 2. After each trial, the experimenter called the dog back and went to the corridor outside the test room until the onset of the next trial. The dog was rewarded with a few pieces of dry food at the end of each experiment.

First, we manually cut out the period of stimuli presentation (30 s test trial) from the experiment recordings and then analysed the obtained videos with K9-Blyzer, a software tool which automatically tracked the dog and detected its body parts to analyse the potential behavioural preferences of the dogs towards the different displayed stimuli. Based on the dogs’ body part tracking data (head location, tail and centre of mass in each frame), the system was configured to produce measurements of specified parameters (areas of interest, dogs’ field of view, dog-screen distance) related to the dogs’ stimuli preference. We specified six parameters related to the right and left side/ screen preference (mapped to caregiver, stranger, familiar person), which are described in Supplementary Table S2. The details of the data analysis and statistical values are also provided in the Supplementary Material section.


Schau das Video: fMRI - How it Works and What its Good For (Kann 2022).