Information

4.2: Analyse von Renaturierungskurven mit mehreren Komponenten - Biologie

4.2: Analyse von Renaturierungskurven mit mehreren Komponenten - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

In diesem Abschnitt wird die Analyse in Abschnitt 4.2 quantitativ an einem Beispiel der Renaturierung genomischer DNA angewendet. Wenn eine unbekannte DNA eine einzige kinetische Komponente hat, was bedeutet, dass die renaturierte Fraktion von 0,1 auf 0,9 steigt, wenn der Wert von C0T 100-fach erhöht, dann kann man seine Komplexität leicht berechnen. Wenn man Gleichung (6) verwendet, muss man nur wissen, dass C0T1/2, plus (C_0t_{1/2}) und Komplexität eines unter identischen Bedingungen renaturierten Standards (Anfangskonzentration der DNA, Salzkonzentration, Temperatur usw.).

Die gleiche Logik gilt für die Analyse eines Genoms mit mehreren kinetischen Komponenten. Einige Genome annealen über einen Bereich von C0TWerte, die viele Größenordnungen abdecken, z.B. ab 10-3 bis 104. Einige der DNA renaturieren sehr schnell; es hat eine geringe Komplexität und, wie wir sehen werden, eine hohe Wiederholungsfrequenz. Andere Komponenten in der DNA renaturieren langsam; diese haben eine höhere Komplexität und eine niedrigere Wiederholungsfrequenz. Die einzige neue Schwierigkeit bei der Analyse besteht jedoch darin, jede kinetische Komponente unabhängig zu behandeln. Dies ist ein vernünftiger Ansatz, da die DNA in kurze Fragmente, z.B. 400 bp, und es ist unwahrscheinlich, dass eine schnell renaturierende DNA Teil desselben Fragments ist wie eine langsam renaturierende DNA.

Hier müssen einige Begriffe und Abkürzungen definiert werden.

  • F = Genomanteil, der von einer Komponente eingenommen wird
  • (C_0t_{1/2}) für reine Komponente = (F) ((C_0t_{1/2}) gemessen im Komponentengemisch)
  • R = Wiederholungsfrequenz
  • G = Genomgröße. G kann chemisch (z. B. DNA-Menge pro Zellkern) oder kinetisch (siehe unten) gemessen werden.

Man kann die (C_0t)-Kurve wie folgt lesen und interpretieren. Man muss die Anzahl der Komponenten in der Mischung, aus der das Genom besteht, schätzen. Im hypothetischen Beispiel in Abbildung 4.5 sind drei Komponenten zu sehen, und eine weitere wird abgeleitet, weil 10 % des Genoms so schnell renaturiert wurden, wie der erste Assay durchgeführt werden kann. Die drei beobachtbaren Komponenten sind die drei Segmente der Kurve, jedes mit einem Wendepunkt in der Mitte eines Teils der Kurve, der einen 100-fachen Anstieg von (C_0t) abdeckt (manchmal auch 2 Logarithmen von (C_0t) genannt. Der Anteil des Genoms, der von einer Komponente eingenommen wird, F, wird als Anteil des Genom-Annealing in dieser Komponente gemessen. Der gemessene (C_0t_{1/2}) ist der Wert von (C_0t), bei dem die Hälfte der Komponente renaturiert wurde. In Abbildung 4.5 renaturiert Komponente 2 zwischen (C_0t)-Werten von 10-3 und 10-1, und der Anteil des renaturierten Genoms stieg in diesem Bereich von 0,1 auf 0,3. Daher F ist 0,3–0,1 = 0,2. Die C0T Wert bei halber Renaturierung für diese Komponente ist der Wert, der gesehen wird, wenn die renaturierte Fraktion 0,2 erreicht hat (d. h. auf halbem Weg zwischen 0,1 und 0,3; dies C0T Wert ist 10-2, und es wird als bezeichnet C0T1/2für Komponente 2 (gemessen im Komponentengemisch). Die Werte für die anderen Komponenten sind in Abbildung 4.5 tabellarisch dargestellt.

Abbildung 4.5.

Alle Bestandteile des Genoms sind in der anfangs denaturierten genomischen DNA vorhanden. Somit ist der Wert für C0 gilt für die gesamte genomische DNA, nicht für die einzelnen Komponenten. Kennt man aber den Anteil des Genoms, den eine Komponente einnimmt, kann man die C0 für jede einzelne Komponente, einfach als C0 ´ F. Damit ist (C_0t_{1/2}) für die Einzelkomponente (C_0t_{1/2}) (gemessen im Komponentengemisch) ´ F. Zum Beispiel ist (C_0t_{1/2}) für die einzelne (reine) Komponente 2 10-2 ´ 0.2 = 2 ´ 10-3 .

Wenn man den gemessenen (C_0t_{1/2}) für einen DNA-Standard kennt, kann man die Komplexität jeder Komponente berechnen.

[ Nn= C_0t_{1/2}_{rein}, n ] ´

  • wobei n sich auf die jeweilige Komponente bezieht, d. h. (1, 2, 3 oder 4)

Die Wiederholungsfrequenz einer gegebenen Komponente ist die Gesamtzahl der Basenpaare in dieser Komponente dividiert durch die Komplexität der Komponente. Die Gesamtzahl der Basenpaare in dieser Komponente ist gegeben durch fn ´ g.

Rn =

Für die Daten in Abbildung 4.5 kann man folgende Werte berechnen:

KomponenteF(C_0t_{1/2}), mischen(C_0t_{1/2}), reinN (bp)RR
1 Foldback0.1< 10-4< 10-4
2 schnell0.210-22 x 10-3600105
3 Mittelstufe0.110.13 x 104103
4 langsam (Einzelkopie)0.61036001,8 x 1081
std bakterielle DNA103 x 1061

Die Genomgröße, g, lässt sich aus dem Verhältnis von Komplexität und Wiederholfrequenz berechnen.

g=

Z.B. Wenn G = 3 x 108 bp ist und Komponente 2 0,2 ​​davon belegt, dann enthält Komponente 2 6 x 107 bp. Die Komplexität von Komponente 2 beträgt jedoch nur 600 bp. Daher wären 105 Kopien dieser 600 bp-Sequenz erforderlich, um 6 x 10 . zu umfassen7 bp, und wir vermuten, dass R = 105 ist.

Übung 4.1

Wenn man die Gleichung durch . ersetzt nn und für g in die Gleichung für Rn, eine einfache Beziehung für R kann in Form von (C_0t_{1/2})-Werten abgeleitet werden, die für die Mischung der Komponenten gemessen wurden. Was ist es?

DNA-Typen in jeder kinetischen Komponente für komplexe Genome

Eukaryotische Genome bestehen normalerweise aus mehreren Komponenten, wodurch komplexe C0T Kurven. Abbildung 4.6 zeigt ein Schema C0T Kurve, die die verschiedenen kinetischen Komponenten der menschlichen DNA veranschaulicht, und die folgende Tabelle gibt einige Beispiele für Mitglieder der verschiedenen Komponenten.

Abbildung 4.6.

Tabelle 4.2. Vier kinetische Hauptkomponenten komplexer Genome
RenaturierungskinetikC0T BeschreibungWiederholungshäufigkeitBeispiele
zu schnell zu messen"aufklappen"unzutreffendinvertierte Wiederholungen
schnelle Renaturierungniedrig C0Tstark wiederholt, > 105 Kopien pro Zelleeingestreute kurze Wiederholungen (z.B. Mensch Alu wiederholt); Tandemwiederholungen kurzer Sequenzen (Zentromere)
ZwischenrenaturierungMitte C0Tmäßig wiederholt, 10-104 Kopien pro ZelleFamilien von eingestreuten Wiederholungen (z. B. menschliche L1-Long-Wiederholungen); rRNA, 5S-RNA, Histon-Gene
langsame Renaturierunghoch C0Tgering, 1-2 Kopien pro Zelle, "Einzelkopie"die meisten Strukturgene (mit ihren Introns); ein Großteil der intergenen DNA

n, R für wiederholte DNAs sind Durchschnitte für viele Familien von Wiederholungen. Einzelne Mitglieder von Wiederholungsfamilien sind einander ähnlich, aber nicht identisch.

Das entstehende Bild des menschlichen Genoms zeigt etwa 30.000 Gene, die für Proteine ​​und strukturelle oder funktionelle RNAs kodieren. Diese verteilen sich auf 22 Autosomen und 2 Geschlechtschromosomen. Fast alle haben Introns, einige mit wenigen kurzen Introns und andere mit sehr vielen langen Introns. Fast immer trennt eine beträchtliche Menge intergener DNA die Gene.

Mehrere unterschiedliche Familien repetitiver DNA sind in den intergenen und intronischen Sequenzen verstreut. Fast alle dieser Wiederholungen sind Überbleibsel von Transpositionsereignissen, und in einigen Fällen wurden die Quellgene für diese Transposons gefunden. Einige der am häufigsten vorkommenden Familien von Repeats, die über ein RNA-Intermediat transponiert werden, und können als . bezeichnet werden Retrotransposons. Die am häufigsten vorkommende sich wiederholende Familie beim Menschen sind Alu wiederholt, benannt nach einer gemeinsamen Restriktionsendonukleasestelle in ihnen. Sie sind etwa 300 bp lang und etwa 1 Million Kopien befinden sich im Genom. Sie stammen wahrscheinlich von einem modifizierten Gen für eine kleine RNA namens 7SL-RNA ab. (Diese RNA ist an der Translation von sezernierten und membrangebundenen Proteinen beteiligt). Genome von Arten aus anderen Säugetierordnungen (und tatsächlich alle untersuchten Vertebraten) haben ungefähr vergleichbare Zahlen von kurzen eingestreuten Wiederholungen, die unabhängig von Genen abgeleitet sind, die andere kurze RNAs, wie Transfer-RNAs, kodieren.

Eine weitere prominente Klasse repetitiver Retrotransposons sind die langenL1 wiederholt. Kopien in voller Länge von L1-Wiederholungen sind etwa 7000 bp lang, obwohl viele Kopien vom 5'-Ende abgeschnitten sind. Etwa 50.000 Kopien befinden sich im menschlichen Genom. Kopien in voller Länge von kürzlich transponierten L1s und ihren Quellgenen haben zwei offene Leseraster (d. h. können zwei Proteine ​​kodieren). Eines ist ein multifunktionales Protein ähnlich dem pol Gen von Retroviren. Es kodiert für eine funktionelle reverse Transkriptase. Dieses Enzym könnte eine Schlüsselrolle bei der Transposition aller Retrotransposons spielen. Wiederholungen, die L1s ähnlich sind, werden in allen Säugetieren und in anderen Arten gefunden, obwohl die L1s innerhalb jeder Säugetierordnung Merkmale aufweisen, die für diese Ordnung charakteristisch sind. Somit haben sich sowohl kurze eingestreute Wiederholungen (oder SINEs) als auch die langen L1-Einstreuungen (oder LINEs) unabhängig in verschiedenen Säugetierordnungen ausgedehnt und vermehrt.

Beide Arten von Retrotransposons sind derzeit aktiv und erzeugen de novoMutationen beim Menschen. Eine kleine Untergruppe von SINEs wurde als funktionelle Elemente des Genoms impliziert, die posttranskriptionelle Verarbeitungssignale sowie proteinkodierende Exons für eine kleine Anzahl von Genen liefern.

Andere Klassen von Wiederholungen, wie L2s (lange Wiederholungen) und MIRS (kurze Wiederholungen, die als Säuger-Interspersed-Repeats bezeichnet werden), scheinen der Säuger-Strahlung voraus zu sein, d. Andere Klassen von Wiederholungen sind transponierbare Elemente, die sich über ein DNA-Zwischenprodukt bewegen.

Andere häufig eingestreute wiederholte Sequenzen beim Menschen


Renaturierung

Der Liganden-Overlay-Assay basiert auf der Renaturierung von Proteinen, die auf einem Nitrocellulosefilter immobilisiert sind, um potenzielle Protein-Protein-Wechselwirkungen mit einem leicht nachweisbaren löslichen Liganden zu testen. In diesem Fall wird gereinigtes EEA1 auf Nitrozellulose renaturiert und mit löslichem GST-Rab5: GTPγS oder GST-Rab5: GDP inkubiert, gefolgt vom Nachweis von gebundenem GST-Rab5 mit Anti-GST-Antikörpern. Aktive (GTPγS) und inaktive (GDP) Formen von GST-Rab5 werden wie oben für die Herstellung der Affinitätssäule beschrieben hergestellt. Das stabile Nukleotid-gebundene Rab5 wird von den Kügelchen mit Glutathion-Elutionspuffer mit 1 ml eluiert m des entsprechenden Nukleotids. Glutathion wird durch Entsalzen auf einer PD-10-Säule entfernt, die mit NS-Puffer mit 100 . voräquilibriert wurde μM des entsprechenden Nukleotids. Dieses Verfahren führte typischerweise zu 3 mg/ml GST-Rab5 jeder Form.

Gereinigtes EEA1 (Superose 6-Säule, Fraktion 18) wird auf ein SDS-PAGE-Gel (ohne vorheriges Kochen) geladen und auf eine Nitrozellulosemembran übertragen. Der Blot wird dann 2x 10 min lang mit PBS, enthaltend 0,1% Tween 20, gewaschen und über Nacht durch Inkubation mit Blockierungspuffer blockiert (alle Inkubationen werden bei 4° durchgeführt, sofern nicht anders angegeben). Anschließend werden die Blots 2× 1 h mit Bindungspuffer inkubiert, gefolgt von einer Inkubation mit 1 µg/ml GST-Rab5 : GTPγS oder GST-Rab5 : GDP in Bindungspuffer mit 100 μM GTPγS oder GDP und 1% BSA für 1 Stunde. Anschließend werden die Blots 5x für 5 min mit Bindungspuffer mit 10 μM des entsprechenden Nukleotids (alle nachfolgenden Waschungen enthielten diese Nukleotidkonzentration) und inkubiert mit Anti-GST-Antikörper (Pharmacia) bei einer Verdünnung von 1:2000 in Bindungspuffer, der 1% BSA enthält. Die Blots werden 5x für 5 min mit Bindungspuffer gewaschen und mit Kaninchen-Anti-Ziegen-IgG konjugiert an HRP bei einer Verdünnung von 1:1500 in Bindungspuffer mit 1 % BSA inkubiert, gefolgt von fünf 5-minütigen Waschungen mit Bindungspuffer und 2 Quick wäscht mit PBS. Schließlich werden die Blots mit dem ECL (Enhanced Chemiluminescence)-Detektionssystem (Amersham) behandelt und einer Autoradiographie ausgesetzt. Dieses Verfahren zeigt, dass gereinigtes EEA1 in der Lage ist, GST-Rab5: GTPγS, aber nicht GST-Rab5: GDP zu binden ( 5A ).

Abb. 5 . Assays von gereinigtem EEA1. (A) Gereinigtes EEA1 (Fraktion 18, 400 ng) wurde auf einen 7–17% Gradienten SDS–PAGE geladen, gefolgt von der Übertragung auf einen Nitrozellulosefilter. Dann wurden die Blots renaturiert, mit der angegebenen Form von Rab5 (1 μg/ml) inkubiert und die Position von gebundenem GST-Rab5 mit Ziegen-Anti-GST-Antikörpern identifiziert, gefolgt von Inkubation mit Kaninchen-Anti-Ziege-IgG gekoppelt an HRP und Erkennung durch ECL. Das erwartete Molekulargewicht von EEA1 (auf der linken Seite) und Molekulargewichtsstandards (auf der rechten Seite) sind in der Abbildung dargestellt. (B) Fusion zwischen frühen Endosomen in Gegenwart von Zytosol (basal) oder Puffer oder unterschiedlichen Konzentrationen von EEA1 in Gegenwart oder Abwesenheit von ZnCl2. Das Ausmaß der Fusion wird in Prozent des Grundwertes ausgedrückt.

Die Aktivität von EEA1 wird auch in einem in vitro früher beschriebener früher Endosomenfusionsassay. 26 In diesem Fall werden isolierte frühe Endosomen mit gereinigtem EEA1 gemischt 11 und der Prozentsatz der Fusion wird mit einem Origen-Analysator (IGEN, Gaithersburg, MD) gemessen. Die Fraktion aus der Größenausschlusschromatographie, die EEA1 enthält (Fraktion 18), ist in der Lage, die Fusion zwischen frühen Endosomen in Abwesenheit von Cytosol zu unterstützen ( 5B ). Wenn EEA1 in Abwesenheit von ZnCl . verwendet wird2, wird die Fusion deutlich reduziert und erfordert eine viel höhere Konzentration der Fraktion, die EEA1 enthält, um die Reduktion von ZnCl . zu kompensieren2. Es ist wahrscheinlich, dass das Reinigungsverfahren (Behandlung mit 20 mm EDTA während der Elution von der Affinitätssäule) hat die Zn 2+ -Ionen vom FYVE-Finger von EEA1 gestrippt, in Übereinstimmung mit früheren Berichten. 27, 28 Unsere Bemühungen, die Effektoren in Abwesenheit von EDTA mit hohen Salzkonzentrationen und Detergens von der Affinitätssäule zu eluieren, waren erfolglos.

Die obigen beiden Kriterien, die zum Testen der Aktivität von EEA1 verwendet wurden (Bindung an aktives Rab5 und Stimulation der Endosomenfusion) zeigen, dass das beschriebene Reinigungsverfahren zu einer aktiven Zubereitung dieses Rab5-Effektors führt.


4.1 Ziele für dieses Kapitel

Generieren Sie unsere eigenen Mischungsmodelldaten aus Verteilungen, die aus zwei Normalpopulationen bestehen.

Sehen Sie, wie der Algorithmus Expectation-Maximization (EM) es uns ermöglicht, die zugrunde liegenden Mischungen im Datensatz „reverse engineering“ zu machen.

Verwenden Sie für Daten wie ChIP-Seq-Daten, die viele zusätzliche Nullen enthalten, einen speziellen Mischungstyp, der als Null-Inflation bezeichnet wird.

Entdecken Sie die empirische kumulative Verteilung: eine spezielle Mischung, die wir aus beobachteten Daten aufbauen können. Auf diese Weise können wir sehen, wie wir die Variabilität unserer Schätzungen mithilfe des Bootstrap simulieren können.

Bauen Sie die Laplace-Verteilung als Instanz eines unendlichen Mischungsmodells mit vielen Komponenten auf. Wir werden es verwenden, um Promotorlängen und Microarray-Intensitäten zu modellieren.

Erleben Sie unsere erste Begegnung mit der Gamma-Poisson-Verteilung, einem hierarchischen Modell, das für RNA-Seq-Daten nützlich ist. Wir werden sehen, dass dies natürlich durch das Mischen verschiedener verteilter Poisson-Quellen entsteht.

Sehen Sie, wie Mischungsmodelle es uns ermöglichen, Datentransformationen auszuwählen.


Einführung

Multi-Label-Learning (MLL) beschäftigt sich mit der Problematik, dass eine Instanz gleichzeitig mehreren Klassen zugeordnet werden kann [1], [2]. Bei einem gegebenen Label-Set L = < l 1 , l 2 , … , l M > konstruiert das traditionelle Single-Label-Learning (SLL) [3], [4] ein Modell, das die Instanzen aus dem Merkmalsraum auf das diskrete Label-Set abbildet , dh h : x → L , während MLL ein Modell konstruiert, das die Instanzen aus dem Merkmalsraum auf die Potenzmenge des Label-Sets abbildet, dh h : x → 2 L . In den letzten Jahrzehnten wurde MLL umfassend untersucht und auf eine Vielzahl von Anwendungsdomänen wie Textklassifizierung [5], [6], [7], Bilderkennung [8], [9], [10] und . angewendet Musikkategorisierung [11] usw.

Eine einfache Lösung für MLL ist das Label Powerset (LP)-Verfahren. Es wandelt das ursprüngliche Multi-Label-Problem in ein Single-Label-Problem um, indem jedes Element in 2 L als eine einzelne Klasse behandelt wird. Die Komplexität der LP-Methode ist jedoch hoch, da die Anzahl der Klassen mit der Zunahme von | . exponentiell wächst L | . Es ist eine große Herausforderung, effektive MLL-Modelle mit vertretbarem Zeitaufwand zu trainieren. Im Allgemeinen wurden drei Gruppen von Näherungsverfahren vorgeschlagen, nämlich Problemtransformationsmethoden (PTMs) [2], Ensemble-Methoden (EMs) [12], [13] und Algorithmusanpassungsmethoden (AAMs) [14], [15 ], [16]. Unter diesen sind PTMs die effizientesten Methoden, indem sie das Multi-Label-Problem in einen Satz kleinerer Einzel-Label-Probleme entweder im Binär- oder im Mehrklassen-Fall zerlegen. Zu den grundlegendsten PTMs zählen die Binary Relevance (BR) [17] und das kalibrierte Label-Ranking (CLR) [18]. BR trainiert einen binären Klassifizierer für jedes Label unabhängig, während CLR einen binären Klassifizierer für jedes Paar von Labels trainiert. Diese beiden Methoden sind mit relativ geringem Zeitaufwand einfach zu implementieren, ignorieren jedoch die gegenseitigen Einflüsse zwischen den Labels [19], [20], [21], die sich auf die endgültige Leistung auswirken können. Bei einem Bilderkennungsproblem mit fünf Labels mit L = < Village , Rural , Paddy , High building , Technology > kann es beispielsweise bestimmte Beziehungen geben, die anzeigen, dass die Entscheidung eines Labels (bezeichnet als ls ∈ L ) einen Einfluss auf . hat die Entscheidung eines anderen Labels (bezeichnet als le L ). Wenn wir jedes Label als einen Knoten behandeln und gerichtete Kanten verwenden, um verwandte Knoten zu verbinden, zB ls → le , dann kann ein gerichtetes Netzwerk konstruiert werden, das alle Labels verbindet, wie in Abb. 1 gezeigt ein besseres MLL-Modell.

Normalerweise gibt es zwei Arten von Beziehungen zwischen Labels, d. h. positive Beziehung und negative Beziehung. Positive Beziehung bezieht sich auf das gemeinsame Vorkommen oder gemeinsames Verschwinden von Labels, wie in Abb. 2(a) gezeigt, wenn Ländlich in einem Bild erscheint, wird wahrscheinlich auch Village oder Paddy auftauchen, während sich negative Beziehung auf die sich gegenseitig ausschließenden Beziehungen bezieht Etiketten, wie in Abb. 2(b) gezeigt, wenn Ländlich erscheint, ist es unwahrscheinlich, dass Hochbau oder Technologie angezeigt wird. Sowohl positive als auch negative Beziehungen sind für die Modellierung der Label-Korrelationen nützlich.

Classifier Chain (CC) ist ein PTM, das versucht, die Label-Korrelationen zu nutzen [22]. Ähnlich wie BR konstruiert CC | L | binäre Klassifikatoren und jeder Klassifikator ist für die Vorhersage der Relevanz eines Labels verantwortlich. Die Klassifikatoren werden jedoch sequentiell trainiert, indem einer vordefinierten Labelreihenfolge gefolgt wird, und der Eingabemerkmalsvektor für ein Label wird um die davor geordneten Labels erweitert. Das Hauptproblem beim CC-Ansatz besteht darin, die optimale Etikettenreihenfolge zu finden. Wenn die Vorgänger eines Labels stark mit diesem korrelieren, können die erweiterten Funktionen dazu beitragen, die Leistung des entsprechenden Klassifikators zu verbessern, andernfalls nicht. Der ursprüngliche CC-Ansatz bestimmt die Etikettenreihenfolge zufällig, was das Risiko einer geringen Leistung und einer geringen Robustheit birgt. Später wurden viele Varianten der CC-Methode vorgeschlagen, wie Ensemble CC (ECC) [23], Doppel-Monte Carlo CC (M2CC) [24], gruppensensitive CC (GCC) [25], Enhanced CC with k-bedeutet Clustering-Algorithmus (km-CC) [26] und kostensensibles CC (CSCC) [27] usw. Diese Methoden können dazu beitragen, die Leistung des CC-Ansatzes zu verbessern, aber der Zeitaufwand ist normalerweise hoch. Außerdem analysieren die meisten von ihnen Label-Korrelationen basierend auf Kookkurrenz, während die sich gegenseitig ausschließenden Beziehungen vernachlässigt werden. Aufgrund dieser Nachteile ist ein umfassendes Modell für die Label-Korrelationsanalyse erwünscht.

Das Bayessche Netzwerk (BN), bekannt als gerichteter azyklischer Graph (DAG), ist ein probabilistisches grafisches Modell, das die Eigenschaften einer Reihe von Zufallsvariablen und ihre bedingten Wahrscheinlichkeitsverteilungen lernt [28]. Im Allgemeinen repräsentieren Knoten in BN Zufallsvariablen und Kanten, die zwei Knoten verbinden, repräsentieren die Beziehungen zwischen Variablen. Gibt es keine Kante, die zwei Knoten verbindet, dann sind die beiden Zufallsvariablen unabhängig voneinander. Umgekehrt, wenn zwei Knoten durch eine Kante verbunden sind, dann gilt Elternteil Knoten (d. h. Startpunkt der Kante) und die Kind Knoten (d. h. Endpunkt der Kante) sind kausal oder nicht bedingt abhängig, was einen bedingten Wahrscheinlichkeitswert erzeugt. Durch Auferlegen einer BN-Beschränkung auf die zufällige Reihenfolge wurde ein verbesserter CC-Ansatz mit baumbasierter Struktur vorgeschlagen [29]. Darüber hinaus werden BN-erweiterte naive Bayes-Klassifikatoren als Basismodelle für den CC-Ansatz verwendet [30]. Nach unserem besten Wissen wurde die Verwendung des BN-Modells für eine umfassende Label-Korrelationsanalyse jedoch noch nicht untersucht, was das Hauptaugenmerk dieser Arbeit sein wird. Durch die weitere Einführung eines schnellen Label-Order-Verfahrens wird ein neuer BN-basierter CC-Ansatz (BNCC) vorgeschlagen. Die Beiträge dieses Papiers sind wie folgt aufgelistet: •

Bedingte Entropie wird verwendet, um den Grad der Abhängigkeit eines Labels von anderen Labels zu modellieren, was sowohl positive als auch negative Beziehungen beinhaltet. Als Ausgangsstruktur wird ein vollständig verbundener gerichteter zyklischer Graph (DCG) aufgebaut, bei dem Knoten Labels repräsentieren und Kantengewichte die Abhängigkeitsgrade zwischen verbundenen Labels anzeigen.

Es wird ein Algorithmus vorgeschlagen, um einen DCG durch iteratives Brechen von Zyklen zu einem DAG zu verfeinern, was die Erzeugung einer effektiven BN-Struktur garantiert. Wir schlagen auch vor, topologische Sortierung an den Knoten einer DAG zu verwenden, um eine wirksame Label-Reihenfolge aus einer BN-Struktur zu erhalten.

Es wird eine neue Bewertungsfunktion vorgeschlagen, um die Qualität von BN zu bewerten, die den durch bedingte Entropie berechneten Abhängigkeitsgrad und einen Komplexitätsbestrafungsterm umfasst. Da das Erlernen des optimalen BN nicht inferenzierbar ist, wird ein heuristischer Algorithmus vorgeschlagen, um Näherungslösungen basierend auf der Bewertungsfunktion zu erhalten.

Wir führen umfangreiche experimentelle Vergleiche zwischen der vorgeschlagenen Methode und mehreren modernen MLL-Ansätzen durch. Empirische Studien zeigen, dass die vorgeschlagene Methode ein effektives CC-Modell mit relativ geringem Zeitaufwand sowohl beim Training als auch beim Testen generieren kann.

Der Rest dieser Arbeit ist wie folgt gegliedert: in Abschnitt 2 stellen wir das Hintergrundwissen und verwandte Arbeiten vor, in Abschnitt 3 stellen wir unsere vorgeschlagene Methode in Abschnitt 4 vor, umfangreiche experimentelle Vergleiche werden durchgeführt, um schließlich die Vorteile der vorgeschlagenen Methode aufzuzeigen, Schlussfolgerungen werden in Abschnitt 5 gegeben.


Ergebnisse

Die Berechnungen der Mutationsrate für SARS-CoV-2, basierend auf dem Wuhan-Referenzgenom, ergaben, dass die Nukleotidänderung pro Monat 1,7 (95%-KI 1,4–2,0) beträgt, ähnlich wie bei anderen Schätzungen 11 , wobei Substitutionen bei 0,9 × 10 auftreten – 3 (95%-KI 0,5–1,4 × 10 –3) Substitutionen pro Standort und Jahr. Dies gab uns die Gewissheit, dass das Referenzgenom für diese Studie angemessen war, und so fuhren wir fort, die Ausbruchsdynamik der COVID-19-Pandemie zu bestimmen, indem wir den Status jedes Landes nach dem Epikurvenstadium mit einem Stufenrahmen klassifizierten: (a) Index (b) Start ( c) exponentielle (d) Abnahme als klare Methode, die verwendet werden kann, um Metriken zu vergleichen, die eine konsistente Integration von R und der Messung der viralen Genomdiversität ermöglichen. Zuerst wurde R mit der Momentanmethode mit zwei verschiedenen seriellen Intervallen bestimmt – 2 und 7 Tage (Tabelle 1). Zum 1. März 2020 definierte dieser Rahmen globale Epicurves als weltweit an Dynamik gewinnend mit 52 Ländern in der Indexphase. Drei Länder befanden sich in der exponentiellen Phase und fünf Länder in der Startphase (Abb. 1). China war das einzige Land, das den Höhepunkt der Epikurve erreichte und sich im Niedergang befand. Es wurden keine Hinweise auf ein anderes Land in der Nähe des Niedergangsstadiums festgestellt, und einige Länder standen kurz davor, in die Startphase überzugehen, und es wurde allein auf der Grundlage der Epikurve eine exponentielle Phase beobachtet.

Verteilung der Länderklassifizierung basierend auf dem SARS-CoV-2-Epikurvenstatus.

Instantaneous R beschreibt sensitiv Echtzeit-Verschiebungen der Inzidenz, die innerhalb jeder Epikurvenstufe erfasst wurden (Abb. 2). Das Stadium des Rückgangs in China spiegelte sich in einem Rückgang der R-Schätzungen in den letzten Stadien des Ausbruchs und im Vergleich zu den frühen Schätzungen wider: 1,6 (95%-KI 0,4–2,9) und 1,8 (95%-KI 1,0–2,7) für 2- und 7 -Tage serielles Intervall. Superspreading-Ereignisse erhöhten die R-Schätzungen im exponentiellen Stadium, das in Südkorea beobachtet wurde: 2,8 (95%-KI 0,6–5,3) und 25,6 (95%-KI 3,0–48,2) für das 2- bzw. 7-Tage-Reihenintervall. In Singapur wurde eine ausgeprägte Krankheitskontrolle eingeführt, die es ermöglichte, im Indexstadium zu bleiben, während Japan in die Startphase überging, die durch erhöhte R-Schätzungen gekennzeichnet war 3,6 (95%-KI 0,4–7,3) 2,2 (95%-KI 1,3–3,0) für 2- und 7-tägiges serielles Intervall. Die R-Schätzungen überlappten sich für alle beispielhaften Länderausbruchsstadien in den beiden seriellen Intervallszenarien, was darauf hindeutet, dass die Übertragung nur 2 Tage dauern könnte. Diese Schätzungen waren relativ niedriger als zuvor gemeldet, was die Möglichkeit einer Übertragung während der Inkubationszeit ans Licht brachte, die mit schnell wachsenden Ausbrüchen verbunden ist, die zu dieser Zeit während der Pandemie in vielen europäischen Ländern beobachtet wurde.

Schätzungen der momentanen Reproduktionszahl für verschiedene Stadien der SARS-CoV-2-Epidemiekurve: ein Index (Singapur), B Start (Japan), C exponentiell (Südkorea), D Rückgang (China) in kurzen (2 Tage) und Standard (7 Tage) Serienintervallen. Das verlangsamende Stadium der Epidemiekurve führt zu einer Reproduktionszahl von weniger als 2 für beide Reihenintervalle, eine Epidemiekurve mit mehreren Einführungen ergibt ein 2-tägiges Reihenintervall mit einer höheren Fortpflanzungszahl und ein exponentielles Reihenintervall ergibt eine höhere Fortpflanzungszahl für das 7-tägige Reihenintervall. Der Anstieg der Epidemiekurve in China entspricht der Änderung der Falldefinition von SARS-CoV-2 durch die Ausweitung bestätigter Fälle mit Lungenentzündung, die mit einer Computertomographie bestätigt wurden. Südkoreas höhere Reproduktionszahl ist auf eine kryptische Übertragung zurückzuführen, die mit einem geheimen Kult mit verändertem Gesundheitsverhalten verbunden ist.

In repräsentativen Ländern im Indexstadium mit R-Werten < 2, die auf eine effektive soziale Distanzierung (dh Hongkong) zurückgeführt wurden, oder in Ländern mit begrenzten Tests (z. B. USA) nicht ausreichend erkannt wurde (Abb. 3 .) -Index). Eine anhaltende lokale Übertragung trat in fünf Ländern auf, die sich in der Startphase befanden (Japan, Deutschland, Spanien, Kuwait und Frankreich) bei R-Werten > 2 (Abb. 3 Start). Das Ausmaß der Ausbreitung war mit relativ höheren R-Schätzungen (> 10) in Italien, Iran und Südkorea offensichtlich, die plötzliche Anstiege der Inzidenz aufgrund früherer unentdeckter Fallcluster zeigten (Abb. 3). Dies erhöhte die momentanen R-Schätzungen im Vergleich zu anderen Schätzmethoden erheblich, ermöglichte jedoch eine deutlichere Darstellung der Flut von Fällen, die die Startphase genau von der exponentiellen Phase unterschied.

Epicurve-Schätzungen mit unterschiedlichen seriellen Intervallen. Der Panel-Index stellt Epicurves und momentane R-Werte für Länder der Indexstufe dar, die 2- und 7-Tage-Reihenintervalle verwenden. Panel-Takeoff Globale Dynamik von SARS-CoV-2 mit sofortiger Schätzung der Reproduktionszahl mit 2-tägigem seriellem Intervall. Im Szenario der Infektiosität vor der Inkubationszeit steigt weltweit R > 2. Italiens R = 8 ist aufgrund der späten Erkennung von Infektionsclustern am höchsten. Diese höhere R-Schätzung ist auf einen großen Anstieg in Fällen in Kombination mit einer diagnostischen Lücke mit geringer Inzidenz zurückzuführen. Die gleiche Anstiegsdynamik ist in Südkorea zu beobachten. Globale Dynamik von SARS-CoV-2 mit sofortiger Schätzung der Reproduktionszahl mit 7-tägigem seriellem Intervall. Italiens R-Wert erhöht sich mit der Annahme des 7-tägigen seriellen Intervalls auf 57 und überschneidet sich mit der unteren Schwelle der 2-tägigen seriellen Intervall-R-Schätzung. Diese Schätzung zeigt ein abnehmendes Muster für Länder mit Mehrfacheinführungen wie Singapur, Hongkong.

Wir untersuchten ferner die Assoziation länderspezifischer momentaner R-Schätzungen, indem wir verschiedene lokale Temperaturbereiche (tropisch gegenüber gemäßigt) und die Bevölkerungsdichte repräsentativer Städte mit Ausbrüchen verglichen. Für ausgewählte Länder wurden der höhere Temperaturbereich und die Bevölkerungsdichte verwendet, jedoch wurde kein direkter Zusammenhang beobachtet (Tabelle 2). Die Zunahme der Fälle in Südkorea war weitgehend mit einem Ausbruch einer geheimen religiösen Gruppe Shinsheonji (73% Fälle von COVID-19 in Südkorea) verbunden, die sich hauptsächlich in Daegu mit einer geringeren Bevölkerungsdichte von 883/km 2 im Vergleich zum Rest der Region befindet Gebiete mit einem Ausbruch 25 und kann eher die Ausbreitung des Ausbruchs zu Beginn der Epikurve als die Bevölkerungsdichte des Gebiets erklären. Während die meisten repräsentativen Länder (Tabelle 2) kühlere Temperaturen haben (10–6 °C), deuteten die höheren Temperaturen in Singapur darauf hin, dass die lokale Übertragung bei höheren Temperaturen stattfand, und legt nahe, dass Temperaturverschiebungen die Übertragung wahrscheinlich nicht ändern werden. Die Temperatur und Bevölkerungsdichte erklärten keine Veränderungen in der Epikurve. Dies führte uns zu der Hypothese, dass die virale Genomvariation Veränderungen in der Epikurve in jedem Land untermauerte.

Wir haben die Beziehung des Epicurve-Stadiums zur viralen genetischen Variation mit einer Metrik bestimmt, die die absolute Genomvariation mit der Rate der Genomveränderung zusammenführt, um den GENI-Score zu erstellen. Dieser Ansatz verankerte die virale Genomdiversität mit der Evolutionsrate für SARS-CoV-2, um einen Index zu erstellen, der zwischen Ländern und dem Verlauf des Ausbruchs vergleichbar ist. Um zu untersuchen, wie die virale Genomdiversität mit den Epicurve-Stadien zusammenhängt, haben wir zuerst das Indexstadium (Singapur) und das Exponentialstadium (Südkorea) untersucht. Durch die Integration der GENI-Scores wurden erfolgreich die Index- und Exponentialstufen unterschieden (Abb. 4). Ein Anstieg des GENI-Scores war mit dem exponentiellen Stadium bei einem Median-Score = 4 verbunden, was darauf hindeutet, dass die virale Diversität und die Mutationsrate während dieses Stadiums direkt proportional zu den Fallanstiegen waren. Singapur (Indexstadium) hatte einen GENI-Score = 2. Dies wurde zu mehreren Zeitpunkten während des Ausbruchs festgestellt, wo mehrere Mutationsereignisse direkt mit einer Zunahme der Fälle verbunden waren. Während sich China im Niedergang befand, lieferten die retrospektive Assoziation mit R, Fällen und der GENI-Score Längsschnittbeweise für multiple Fallexpansionen mit viralen Mutationsereignissen. Diese Beobachtung war zu Beginn der Epikurve besonders deutlich und deutete darauf hin, dass SARS-CoV-2 mindestens 1 Monat vor der offiziellen Ausrufung des Ausbruchs in China zirkulierte (Abb. 4). Die Zusammenführung dieser Schätzungen lieferte den Beweis, dass wiederholte virale Mutationen auf eine Veränderung der Epikurve hindeuteten. Diese Metriken wurden zu jedem Zeitpunkt über 3 Monate hinweg in drei Ländern und in drei verschiedenen Ausbruchsstadien zugeordnet. Dieser Befund ist nützlich, um die Vielfalt des Virusgenoms und die Evolutionsrate in die Bewertung des Ausbruchsstatus zu integrieren. Der Ansatz replizierte erfolgreich die Beobachtung der Virusbewegung zwischen Ländern und innerhalb eines Landes, wenn die Epikurve zu einer Triade mit sofortigen R-Schätzungen kombiniert wurde. Die Proportionalität der GENI-Scores zum Epicurve-Stadium zeigte sowohl das Stadium des Ausbruchs als auch den Ausbruchsstatus an (Tabelle 3).

Beziehung der Pathogengenomidentität (GENI) mit dem zeitlichen Signal entlang der Epidemiekurve. Die lokale Übertragung wird durch Virusmutation erfasst, die in den GENI-Score-Werten ausgedrückt wird. GENI-Scores von SARS-CoV-2-Isolaten sind relativ zum Wuhan-Referenzstamm Wuhan-Hu-1 NC_045512.2. Die rote Linie in der China-Epikurve stellt die Zeit dar, bevor ein Ausbruch festgestellt wurde, obwohl Genomsequenzen im Umlauf waren. Die blau schattierten Kurven zeigen GENE-Scores an, die direkt mit der Ausbruchskurve überlagert sind. Die gestrichelte Linie stellt den gemeinsamen Zeitpunkt als Referenz für die Visualisierung dar. Der GENI-Score und die Epikurve zeigen Ähnlichkeiten, außer in China, da der Ausbruch bis zum Start voranschritt und der GENI-Score exponentiell zunahm, während im Beispiel der Indexphase von Singapur der Ausbruch eingedämmt wurde und der GENI-Score < 2 blieb.

Eine weitere Untersuchung dieses Ansatzes wurde von Februar bis April 2020 anhand von Genomen und Epidemiologiekurven durchgeführt, die mit der SNP-Variation, nicht der Abstammungsvariation, gekoppelt waren. Diese Analyse führte zu einer weiteren Validierung, dass genomische Variationen sogar während des Lockdowns auftraten, der darauf abzielte, den Ausbruch zu reduzieren und wiederkehrende Infektionsschübe mit > 20.000 Genomen vorhersagten (Abb. 5). Niedrige Neuerkrankungen wurden beobachtet (Abb. 5 Einschub) war mit einem variablen GENI-Score (Februar 2020) verbunden. Als die Zahl der Fälle im April 2020 anstieg, stieg der GENI-Score mit einer konstanten Rate, was darauf hindeutet, dass die genomische Variation mit zunehmender Zahl der Fälle zunahm. Die Einführung einer staatlichen Sperrung zur Verringerung der Exposition führte zu variablen Veränderungen in der Ausbruchskurve, hatte jedoch keinen Einfluss auf den GENI-Score, der weiter anstieg, was darauf hindeutet, dass das Virus bei einer Exposition die Person leicht infizieren konnte. Dies deutet darauf hin, dass die zugrunde liegenden Ursachen neuer Fälle zwei Komponenten haben – virale Genomvariation (Evolution) und individuelle Exposition. Mit diesem Konzept im Hinterkopf kann es „Superspreading“-Ereignisse erklären, die auf der fortgesetzten Genom-Evolution basieren, um das Wirtsspektrum aufrechtzuerhalten oder zu erweitern, die leicht Menschen infizieren, die große Gruppen bilden, um schnell zu neuen Fällen zu führen. Der Nachweis dieser wiederholten Beobachtung durch eine Längsschnittanalyse mit > 13.000 Genomen und Hunderten von Fällen unterstützt die Annahme, dass die Messung der Alleldiversität eine höhere Übertragung vorhersagt, und wird beobachtet, wenn die entsprechenden Bedingungen in großen Gruppen oder Expositionen mithilfe von Ausbruchskurven vorliegen . Es sind jedoch zusätzliche Arbeiten erforderlich, um speziell die genauen Mutationen anzugeben, die schneller neue Fälle auslösen werden, wie mit dem Auftauchen der B.1.1.7-Linie Ende 2020 in Großbritannien gezeigt und sich schnell weltweit verbreitet hat.

Der GENI-Score wurde anhand von 20.000 13.419 SARS-CoV-2-Sequenzen aus dem Vereinigten Königreich (oben) zusammen mit der entsprechenden Epikurve abgeleitet. Die eingefügte Epikurve zeigt die niedrige Zahl der Fälle im Februar, die darauf hindeuten, dass sich der Ausbruch in der Indexphase befand. Ein hoher anfänglicher GENI-Score deutet auf eine kryptische Virusübertragung hin, während ein konsistenter GENI-Score auf eine Zunahme der Übertragung im Verlauf der Pandemie hinweist. Dies weist auch darauf hin, dass fortgesetzte Mutationen die Diversifizierung des viralen Genoms erhöhen. Während die Epikurve nach dem Lockdown variierte, stieg der GENI-Score kontinuierlich an, was eine anhaltende Produktion genetischer Variationen belegt.

Diese Studie zeigte einen Fortschritt bei der Verwendung von Populationsgenomik unter Verwendung der SNP-Variation (dh der zugrunde liegenden genetischen Ursache neu auftretender Varianten) bei einer Infektionskrankheit, insbesondere wenn die Mutationsrate hoch und die Genomdiversität der Population groß ist, wie z. CoV-2. GENI-Scores lieferten ein fehlendes Beweiselement, das definierte, wie neue Fälle ungefähr 2–5 Tage vor ihrem Auftreten einzuschätzen sind. Die Genauigkeit der Schätzung des GENI-Scores erhöht sich mit der Analyse einer großen Anzahl von Genomen (d. h. Populationen von Genomen und Populationen von SNPs) und von verschiedenen globalen Standorten, wie gezeigt (Abb. 5). Folglich wurde aus dieser Studie ein Rahmen für die Zusammenführung von Epidemiologie und Populationsgenomik als Methode zur systematischen Integration der molekularen Epidemiologie in die öffentliche Gesundheit abgeleitet (Abb. 6). Es erforderte dynamische Messungen für R und Überwachungsbemühungen, um WGS für jedes Virus zu bestimmen. Im Idealfall würde jeder Fall mit Fortschreiten der Krankheit mehrere WGS aufweisen, dies war jedoch nicht verfügbar. Die genaue und schnelle Verwendung dieser Trias von Messungen lieferte Erkenntnisse zur Messung des Ausbruchsfortschritts, lieferte aber auch eine evidenzbasierte Methode zur Beurteilung der Wirksamkeit von Interventionen.

Integration von genomischer und klassischer Epidemiologie zur Ausbruchsuntersuchung. Grundlage der Epidemiologie ist die genaue und zeitnahe Meldung von Fällen, die eine Berechnung der Zahl ermöglicht. Der Genomic Identity (GENI)-Score wird aus genomischen Daten von Krankheitserregern formuliert, um importierte Fälle von lokaler Übertragung zu unterscheiden und die Zeit der kryptischen Ausbreitung zu messen. Zusammen liefern diese beiden epidemischen Werte Erkenntnisse, die direkt zur Aufstellung von Entscheidungskriterien für Interventionen im Bereich der öffentlichen Gesundheit verwendet werden können.


Optimierung der Mg 2+-Konzentration

Magnesium spielt bei der PCR mehrere Rollen. Es ist ein erforderliches zweiwertiges kationisches Gegenion für dNTPs und ein Cofaktor für alle Polymerasen. Zweiwertige Kationen beeinflussen die DNA-Doppelstranghybridisierung stark. Eine Erhöhung der Magnesiumkonzentration erhöht die Stabilität oder Schmelztemperatur eines DNA-Duplex. Daraus folgt, dass hohe Magnesiumspiegel die Affinität von Primern zur Hybridisierung erhöhen, einschließlich Fehl-Priming-Ereignissen und Primer-Primer-Wechselwirkungen. Die falsch geprimten DNA-Duplexe werden zu Substraten für die DNA-Polymerase, wodurch Nebenprodukte entstehen und die PCR-Effizienz untergraben wird. Daher ist die Konzentration von MgCl2 wirkt sich sowohl auf die Spezifität als auch auf die Ausbeute der PCR aus, da Magnesium die Hybridisierung des Primers an das Ziel, die Prozessivität der Taq-DNA-Polymerase sowie die Hydrolysegeschwindigkeit durch die Exonuklease-Einheit beeinflusst, wenn es für die Sondenspaltung in der qPCR verwendet wird. Daher unzureichendes MgCl2 führt zu schlechten Ausbeuten aufgrund einer geringen Polymerisationsgeschwindigkeit der DNA-Polymerase, einer beeinträchtigten Primerbindung und einer ineffizienten Sondenspaltung. Wenn die Konzentration von MgCl2 zu hoch ist, wird die Spezifität der Reaktion beeinträchtigt, da dies zu einer größeren Stabilität der unspezifischen Primerhybridisierung führt.

Im Gegensatz zu herkömmlichen PCR-Assays, die 1,5–2 mM Standard-MgCl . verwenden2 Konzentrationen erfordern Hydrolysesonden-qPCR-Assays höhere Konzentrationen von etwa 3–5 mM, um eine effiziente Spaltung der Sonde zu erreichen. Das Vorhandensein von MgCl2 erhöht auch die DNA-Hybridisierungsrate, was eine effiziente Hybridisierung während der schnellen Zyklenbedingungen ermöglicht, die von vielen Instrumenten verwendet werden. Optimierung von MgCl2 Konzentrationen werden bei der Durchführung von Multiplex-Reaktionen wichtiger.

Salze wie KCl oder (NH4)2SO4, wird auch den DNA-Duplex T . verändernm, bei diesen einwertigen Kationen ist der Effekt jedoch weniger drastisch.

Abbildung 9.5. Auswirkungen der Magnesiumkonzentration.

Die Effekte, gezeigt in Abbildung 9.5, werden bei der Durchführung einer Multiplex-PCR vergrößert. Die gleichzeitige Durchführung mehrerer Reaktionen führt zu einer Konkurrenz um Reagenzien und verschlimmert alle suboptimalen Bedingungen, was zu großen Veränderungen der PCR-Effizienz führt.

Rampenraten

In seltenen Fällen erfordert eine schwierige Reaktion weitere Modifikationen. Wenn alle anderen Optionen ausgeschöpft sind, kann es möglich sein, eine verlorene Situation durch empirisches Testen und Modifizieren der PCR-Rampenrate wiederherzustellen.


METHODIK

Basisreferenzsystem

Die Wahl des Basisbezugssystems ist das auf dem Tsukuba-Treffen festgelegte ( 13). Siehe die Arbeit von Lu und Olson (25) für eine vollständige Diskussion des Einflusses einer solchen Wahl. Die graphische Position dieses Referenzsystems in Bezug auf Standardpurine und Pyrimidine kann der Tsukuba-Referenz entnommen werden. Um nicht für jede Standardbasis das Bezugssystem in kartesischen Koordinaten angeben zu müssen, berechnen wir es mit ausgewählten Basisatomen. Diese sind C1', N1(Y)/N9(R) und C2(Y)/C4(R) in Standardbasen (wobei Y ein Pyrimidin und R ein Purin ist). Benutzer können diese Atome ändern, um nicht standardmäßige Fälle zu behandeln. Um beispielsweise die RNA-Base Pseudouridin zu behandeln, die über C5 an das Phosphodiester-Rückgrat gebunden ist, wären die äquivalenten Atome C1', C5 und C4.Der Vollständigkeit halber stellen wir unsere Konstruktionsmethode zur Verfügung: Diese beinhaltet die Atome, die die glycosidische Bindung zwischen jeder Base und dem Zucker-Phosphat-Rückgrat bilden, N1–C1' für Pyrimidine und N9–C1' für Purine und die Normale zur mittleren Ebene der Base (genannt Bn unter). Die Richtung der Normalen ergibt sich aus dem Kreuzprodukt (N1–C1') × (N1–C2) für Pyrimidine und (N9–C1') × (N9–C4) für Purine. Der Basisbezugspunkt (genannt BR unten) erhält man durch Drehen eines Vektors der Länge D (anfänglich mit der Richtung N–C1' ausgerichtet) im Uhrzeigersinn um einen Winkel τ1 um den Normalenvektor, der durch das N-Atom geht. Der nächste Vektor des Referenzsystems, der auf das mit der Base verbundene Phosphodiester-Rückgrat zeigt (genannt BL unten) wird durch eine ähnliche Drehung erhalten, aber unter Verwendung eines Einheitsvektors und des Winkels τ2. Der letzte Vektor des Referenzsystems, der in die Hauptrille zeigt, BD, erhält man aus dem Kreuzprodukt BL × Bn. Für die Tsukuba-Konvention, τ1 = 141.47°, τ2 = −54,41° und D = 4,702 . Das frühere Curves-Programm verwendete Werte von 132,19°, −54,51° bzw. 4,503 Å. Die Hauptwirkung dieser Änderung ist eine Verschiebung des Basisreferenzpunktes in Richtung der großen Furche, was bedeutet, dass die Xdisp-Werte (die die Verschiebung von Basen oder Basenpaaren entlang der Pseudodyade in Bezug auf die Helixachse messen) um 0,77 Å positiver werden mit das neue Referenzsystem. Es gibt auch eine Änderung im Slide, die mit der neuen Referenz um 0,47 Å positiver ausfällt. Für Vergleiche mit früheren Ergebnissen ermöglicht Curves+ dem Benutzer, optional das alte Referenzsystem auszuwählen.

Da Strukturen mit niedriger Auflösung und auch Schnappschüsse von MD-Trajektorien deformierte Basen enthalten können, ist es ratsam, mit der Methode der kleinsten Quadrate ( 26) einer Standardbasisgeometrie an die Atome in der Eingabestruktur zu beginnen, bevor das Basisbezugssystem definiert wird. Curves+ stellt die Standardgeometrien für eine Reihe von DNA- und RNA-Basen in einer Datendatei (standard_b.lib) bereit, die vom Benutzer modifiziert und erweitert werden kann. Es müssen jeweils nur Ringatome (plus das gebundene C1') definiert werden. Unter Verwendung dieser Daten führt Curves+ automatisch Anpassungen der kleinsten Quadrate an die Eingabedaten durch, aber diese Anpassung kann auf Wunsch vom Benutzer verhindert werden.

Intra-Basenpaar-Parameter

Die Parameter innerhalb des Basenpaares umfassen drei Translationen, Scherung, Dehnung und Staffelung, und drei Drehungen, Buckel, Propeller und Öffnung. Gemäß der Tsukuba-Konvention beschreiben Nullwerte dieser Parameter kanonische Watson-Crick-Basenpaare und Nicht-Null-Werte beschreiben Verformungen in Bezug auf die kurze Achse der Basenpaare, ihre lange Achse bzw. ihre Normale (siehe ergänzende Abbildung S1). Die Parameter werden berechnet, indem die Starrkörpertransformation bestimmt wird, die ein Basisbezugssystem auf das andere abbildet. Zur Diskussion ähnlicher Ansätze und der zugrunde liegenden Mathematik siehe Lit. (27–29). Um jedoch der pseudodyadischen Symmetrie der Watson-Crick-Basenpaare Rechnung zu tragen (mit einer 180°-Drehung um den Pseudodyadenvektor, ausgerichtet auf die kurze Achse der Basenpaare und in die DNA-Rillen weisend), ist das Bezugssystem der zweiten Base zuerst transformiert durch Invertierung der BL und Bn Vektoren, bevor die Starrkörpertransformation berechnet wird. Bei umgekehrten Watson-Crick-Paaren entspricht die Pseudodyadenachse der Basenpaarnormalen und die Inversion beinhaltet folglich die BD und BL Vektoren.

Die Starrkörpertransformation zwischen den Basen des Basenpaares ist so definiert, dass sie das erste Basisbezugssystem verschiebt b1 auf das zweite (dyadische invertierte) System b2 über einen Translationsvektor λEIN = b2Rb1R kombiniert mit einer Drehung um einen Winkel θEIN um einen Einheitsachsenvektor UEIN. Es ist zweckmäßig, diese Vektoren in Bezug auf Komponenten in einem mittleren Referenzsystem auszudrücken B assoziiert mit dem Basenpaar (bezeichnet durch die orthogonalen Vektoren BL, BD, Bn und der punkt BR). Um dies möglichst symmetrisch zu machen, wählen wir einen Mittelwertrahmen, der sich durch Rotation und Translation des ersten Basisbezugssystems ergibt, nun aber durch den halben Winkel θEIN/2, um den gleichen Achsenvektor UEIN, und mit der halben Übersetzung λEIN/2.

Wir müssen in der Lage sein, den Einheitsrotationsachsenvektor zu extrahieren UEIN und Winkel θEIN aus Kenntnis der beiden Frames b1 und b2 und umgekehrt in der Lage sein, bei gegebener Drehachse und Drehwinkel einen Rahmen aus dem anderen zu rekonstruieren.


7.4 Normalisierung durch Spike-Ins

Die Spike-in-Normalisierung basiert auf der Annahme, dass jeder Zelle die gleiche Menge an Spike-in-RNA zugesetzt wurde (A. T. L. Lun et al. 2017). Systematische Unterschiede in der Abdeckung der Spike-in-Transkripte können nur auf zellspezifische Verzerrungen zurückzuführen sein, z. B. in der Einfangeffizienz oder der Sequenzierungstiefe. Um diese Verzerrungen zu beseitigen, gleichen wir die Spike-in-Abdeckung über die Zellen hinweg aus, indem wir mit „Spike-in-Größenfaktoren“ skalieren. Im Vergleich zu den vorherigen Methoden erfordert die Spike-in-Normalisierung keine Annahmen über die Biologie des Systems (d. h. das Fehlen vieler DE-Gene). Stattdessen wird davon ausgegangen, dass die Spike-in-Transkripte (i) in einer konstanten Menge zu jeder Zelle hinzugefügt wurden und (ii) auf Verzerrungen in der gleichen relativen Weise wie endogene Gene reagieren.

Praktisch sollte eine Spike-in-Normalisierung verwendet werden, wenn Unterschiede im Gesamt-RNA-Gehalt einzelner Zellen von Interesse sind und in nachfolgenden Analysen erhalten bleiben müssen. Für eine gegebene Zelle wird eine Erhöhung ihrer Gesamtmenge an endogener RNA ihren Spike-in-Größenfaktor nicht erhöhen. Dies stellt sicher, dass die Auswirkungen des Gesamt-RNA-Gehalts auf die Expression in der gesamten Population beim Skalieren nicht entfernt werden. Im Vergleich dazu interpretieren die anderen oben beschriebenen Normalisierungsmethoden einfach jede Änderung des Gesamt-RNA-Gehalts als Teil des Bias und entfernen sie.

Wir demonstrieren die Verwendung der Spike-in-Normalisierung an einem anderen Datensatz, der die T-Zell-Aktivierung nach Stimulation mit T-Zell-Rezeptorliganden unterschiedlicher Affinität beinhaltet (Richard et al. 2018).

Wir wenden die Methode computeSpikeFactors() an, um die Spike-in-Größenfaktoren für alle Zellen zu schätzen. Dies wird definiert, indem die Gesamtzahl der Spike-Ins pro Zelle in einen Größenfaktor umgewandelt wird, wobei die gleiche Argumentation wie in librarySizeFactors() verwendet wird. Die Skalierung entfernt anschließend alle Unterschiede in der Spike-in-Abdeckung zwischen den Zellen.

Wir beobachten eine positive Korrelation zwischen den Spike-in-Größenfaktoren und den Dekonvolutionsgrößenfaktoren innerhalb jeder Behandlungsbedingung (Abbildung 7.3), was darauf hinweist, dass sie ähnliche technische Verzerrungen in der Sequenzierungstiefe und der Einfangeffizienz erfassen. Wir beobachten jedoch auch, dass eine zunehmende Stimulation des T-Zell-Rezeptors – im Sinne einer zunehmenden Affinität oder Zeit – zu einer Abnahme der Spike-in-Faktoren im Verhältnis zu den Faktoren der Bibliotheksgröße führt. Dies steht im Einklang mit einer Zunahme der biosynthetischen Aktivität und des Gesamt-RNA-Gehalts während der Stimulation, was die relative Spike-in-Abdeckung in jeder Bibliothek verringert (wodurch die Spike-in-Größenfaktoren verringert), aber die Abdeckung endogener Gene erhöht (und damit die Bibliotheksgröße erhöht) Faktoren).

Abbildung 7.3: Größenfaktoren aus der Spike-in-Normalisierung, aufgetragen gegen die Bibliotheksgrößenfaktoren für alle Zellen im T-Zell-Datensatz. Jedes Diagramm stellt eine andere Ligandenbehandlung dar und jeder Punkt ist eine Zelle, die entsprechend der Zeit nach der Stimulation gefärbt ist.

Die Unterschiede zwischen diesen beiden Sätzen von Größenfaktoren haben echte Konsequenzen für die nachgelagerte Interpretation. Wenn die Spike-in-Größenfaktoren auf die Zählungen angewendet würden, würden die Expressionswerte in unstimulierten Zellen hochskaliert, während die Expression in stimulierten Zellen herunterskaliert würde. Das Gegenteil würde jedoch eintreten, wenn die Entfaltungsgrößenfaktoren verwendet würden. Dies kann sich als Verschiebungen in der Größe und Richtung von DE zwischen den Bedingungen manifestieren, wenn wir zwischen den Normalisierungsstrategien wechseln, wie unten gezeigt für Malat1 (Abbildung 7.4).

Abbildung 7.4: Verteilung der log-normalisierten Ausdruckswerte für Malat1 nach Normalisierung mit den Dekonvolutionsgrößenfaktoren (links) oder Spike-in-Größenfaktoren (rechts). Die Zellen werden nach der Ligandenaffinität geschichtet und nach der Zeit nach der Stimulation gefärbt.

Ob der Gesamt-RNA-Gehalt relevant ist – und damit die Wahl der Normalisierungsstrategie – hängt von der biologischen Hypothese ab. In den meisten Fällen sind Änderungen des Gesamt-RNA-Gehalts nicht interessant und können durch Anwendung der Bibliotheksgröße oder Dekonvolutionsfaktoren normalisiert werden. Dies ist jedoch möglicherweise nicht immer angemessen, wenn Unterschiede in der Gesamt-RNA mit einem biologischen Prozess von Interesse verbunden sind, z. B. Zellzyklusaktivität oder T-Zell-Aktivierung. Die Spike-in-Normalisierung bewahrt diese Unterschiede, so dass alle Expressionsänderungen zwischen biologischen Gruppen das richtige Vorzeichen haben.

Jedoch! Unabhängig davon, ob uns der Gesamt-RNA-Gehalt wichtig ist, ist es wichtig, dass die Spike-in-Transkripte mit den Spike-in-Größenfaktoren normalisiert werden. Größenfaktoren, die aus den Zählungen für endogene Gene berechnet werden, sollten nicht auf die Spike-in-Transkripte angewendet werden, gerade weil erstere Unterschiede im Gesamt-RNA-Gehalt erfassen, die von letzteren nicht erfahren werden. Der Versuch, die Spike-in-Zahlen mit den genbasierten Größenfaktoren zu normalisieren, führt zu einer Übernormalisierung und einer falschen Quantifizierung. Wenn also normalisierte Spike-in-Daten erforderlich sind, müssen wir einen separaten Satz von Größenfaktoren für die Spike-in-Transkripte berechnen, dies wird automatisch von Funktionen wie modelGeneVarWithSpikes() durchgeführt.


Multivoxel-Musteranalyse für fMRT-Daten: Ein Rückblick

1 Laboratoire d'Informatique, Mathématique, Intelligence Artificielle et Reconnaissance de Formes (LIMIARF), Faculté des Sciences, Université Mohammed V-Agdal, 4 Avenue Ibn Battouta, BP 1014, Rabat, Marokko

2 Institut de Neurosciences de la Timone (INT), UMR 7289 CNRS, und Aix Marseille Université, 27 boulevard Jean Moulin, 13385 Marseille, Frankreich

3 Institut de Neurosciences des Systèmes (INS), UMR 1106 INSERM und Faculté de Médecine, Aix Marseille Université, 27 boulevard Jean Moulin, 13005 Marseille, Frankreich

Abstrakt

Die funktionelle Magnetresonanztomographie (fMRT) nutzt blutsauerstoffabhängige (BOLD) Kontraste, um neurale Aktivitäten zu kartieren, die mit einer Vielzahl von Gehirnfunktionen verbunden sind, einschließlich sensorischer Verarbeitung, motorischer Kontrolle sowie kognitiver und emotionaler Funktionen. Der Ansatz des General Linear Model (GLM) wird verwendet, um aufgabenbezogene Hirnareale aufzudecken, indem nach linearen Korrelationen zwischen dem fMRT-Zeitverlauf und einem Referenzmodell gesucht wird. Eine der Einschränkungen des GLM-Ansatzes ist die Annahme, dass die Kovarianz über benachbarte Voxel keine Aussage über die untersuchte kognitive Funktion macht. Die Multivoxel-Musteranalyse (MVPA) stellt eine vielversprechende Technik dar, die derzeit genutzt wird, um die in verteilten Mustern neuronaler Aktivität enthaltenen Informationen zu untersuchen, um die funktionelle Rolle von Gehirnbereichen und -netzwerken abzuleiten. MVPA wird als überwachtes Klassifikationsproblem betrachtet, bei dem ein Klassifikator versucht, die Beziehungen zwischen dem räumlichen Muster der fMRI-Aktivität und den experimentellen Bedingungen zu erfassen. In diesem Papier überprüfen wir MVPA und beschreiben die mathematische Grundlage der Klassifikationsalgorithmen, die zum Dekodieren von fMRI-Signalen verwendet werden, wie beispielsweise Support Vector Machines (SVMs). Darüber hinaus beschreiben wir den Arbeitsablauf der für MVPA erforderlichen Verarbeitungsschritte wie Merkmalsauswahl, Dimensionsreduktion, Kreuzvalidierung und Klassifikatorleistungsschätzung basierend auf Receiver Operating Characteristic (ROC)-Kurven.

1. Klassische statistische Inferenz in der fMRT-Forschung

Die funktionelle Magnetresonanztomographie (fMRT) nutzt blutsauerstoffgehaltabhängige (BOLD) Kontraste, um die neuronale Aktivität zu kartieren, die mit einer Vielzahl von Gehirnfunktionen verbunden ist, einschließlich sensorischer Verarbeitung, motorischer Kontrolle sowie kognitiver und emotionaler Funktionen [1, 2]. BOLD-Signaländerungen sind auf hämodynamische und metabolische Modulationen zurückzuführen, die mit der neuralen Aktivität verbunden sind. BOLD-Antworten spiegeln hauptsächlich synaptische Eingänge wider, die neuronale Baugruppen antreiben, und nicht ihre Ausgangsaktivität [3]. Eine typische fMRI-Datenbank enthält BOLD-Signalzeitverläufe, die an mehreren Voxeln im Gehirn aufgezeichnet wurden. Ein Voxel ist ein dreidimensionaler rechteckiger Quader, dessen Abmessungen im Millimeterbereich liegen. Um die an einer bestimmten kognitiven Funktion beteiligten Hirnareale abzubilden, wird das BOLD-Signal an jedem Voxel analysiert [4]. Statistische Inferenz wird üblicherweise mit dem GLM-Ansatz (General Linear Model) durchgeführt, um aufgabenbezogene (oder „aktivierte“) Hirnareale aufzudecken, indem nach linearen Korrelationen zwischen dem fMRT-Zeitverlauf und einem vom Experimentator definierten Referenzmodell gesucht wird [5–9 ]. Eine statistische Analyse wird dann iterativ an allen Voxeln durchgeführt, um Gehirnregionen zu identifizieren, deren BOLD-Antworten signifikante statistische Effekte zeigen. Dieser Ansatz wird oft als massenunivariate modellbasierte Analyse bezeichnet und stellt den Goldstandard in der fMRT-Forschung dar. Dieser Ansatz leidet jedoch unter mehreren Einschränkungen. Eines der überzeugendsten Dinge ist die Annahme, dass die Kovarianz zwischen benachbarten Voxeln keine Aussagekraft über die untersuchte kognitive Funktion hat. Wir werden die in der GLM-Analyse verwendeten statistischen Methoden überprüfen und dann präsentieren, wie multivariate und modellfreie statistische Werkzeuge, die auf Methoden des maschinellen Lernens basieren, diese Einschränkungen überwinden und einen neuen Ansatz in der Neuroimaging-Forschung bieten.

1.1. Der GLM-Ansatz: Massenunivariate und modellbasierte Analyse von fMRT-Daten

Der GLM wird normalerweise in Matrixformulierung ausgedrückt durch

ist die abhängige Variable und ist ein Spaltenvektor, der das BOLD-Signal an einem einzelnen Voxel enthält ist der Fehlervektor, dessen Elemente unabhängige und identisch verteilte normalverteilte Zufallsvariablen mit Null-Mittelwert und Varianz sind

ist der Spaltenvektor der Modellparameter wobei ist die Anzahl der Modellparameter ist

Entwurfsmatrix, die eine nahezu vollständige Beschreibung des Modells darstellt. Es enthält erklärende Variablen (eine Zeile pro Zeitpunkt und eine Spalte pro erklärende Variable), die das experimentelle Wissen über das erwartete Signal quantifizieren.

Die Parameterschätzungen des Modells, die wir als

erhält man durch Minimieren der quadrierten Differenzen zwischen und dem geschätzten Signal

. Die Restsumme der Quadrate

ist die Summe der quadrierten Differenzen zwischen den tatsächlichen und den angepassten Werten und misst somit die Anpassung des Modells an diese Parameterschätzungen. Die Kleinste-Quadrate-Schätzungen sind die -Werte, die minimieren. Dies wird erhalten, wenn

Um die Versuchsbedingungen zu vergleichen, T- oder F-Statistiken ermöglichen es, auf eine Linearkombination von -Werten zu testen, die Nullhypothesen entsprechen [10]. Zum Beispiel, um zu testen, ob die Aktivierung in der Bedingung

unterscheidet sich deutlich von der Aktivierung im Zustand

, eine zweiprobe T-Test verwendet werden kann. In diesem Fall würde die Nullhypothese aussagen, dass sich die -Werte der beiden Bedingungen nicht unterscheiden würden, d.h.

Um dieses Argument zu verallgemeinern, betrachten wir lineare Funktionen der Beta-Schätzungen:

sind die Koeffizienten einer Funktion, die den Beta-Schätzungen „kontrastiert“. Der Vektor wird als bezeichnet Kontrast Vektor. Mit dieser Definition kann dann mit einem Skalarprodukt geschrieben werden.

Um zu testen, ob die in angegebenen Bedingungskombinationen signifikant von der Nullhypothese abweichen, wird die T-Statistik wird bei jedem Voxel als . berechnet

Klassische statistische Methoden wie F-Test oder ANOVA (Varianzanalyse), sind Spezialfälle der GLM-Analyse und können verwendet werden, um statistische Inferenz an jedem Voxel durchzuführen. Die resultierende statistische parametrische Karte (SPM) entsteht aus dem Testen mehrerer Hypothesen (d. h. an allen Voxeln). Klassisch wird das Signifikanzniveau für familienbezogene Fehler durch geeignete Mehrfachvergleichsverfahren (z. B. Bonferroni-Korrektur) kontrolliert. Zusätzlich wird die Gaußsche Zufallsfeldtheorie (RFT) [11] verwendet, um die räumliche Glätte der statistischen Karte zu berücksichtigen. Anstatt jedem Voxel einen Wert zuzuweisen, werden Voxel-Cluster auf der Grundlage eines anfänglichen Schwellenwerts erstellt, und dann wird jedem Cluster ein Wert zugewiesen [5, 12]. Die resultierenden statistischen Karten mit Schwellenwerten zeigen die Hirnregionen, deren BOLD-Aktivität signifikant mit den untersuchten kognitiven Funktionen korreliert (Abbildung 1).


1.2. Die Suche nach multivariater und modellfreier fMRT-Datenanalyse

Eine der Einschränkungen des massenunivariaten GLM-Ansatzes ist die Annahme, dass die Kovarianz über benachbarte Voxel keine Aussagekraft über die untersuchte kognitive Funktion hat. Eine solche Kovarianz wird als unkorreliertes Rauschen betrachtet und normalerweise unter Verwendung von Raumfiltern reduziert, die BOLD-Signale über benachbarte Voxel glätten. Darüber hinaus wird der GLM-Ansatz zwangsläufig durch das für die statistische Inferenz verwendete Modell eingeschränkt.

Multivariate und modellfreie fMRT-Methoden stellen vielversprechende Techniken dar, um diese Einschränkungen zu überwinden, indem die funktionale Rolle verteilter neuronaler Aktivitätsmuster untersucht wird, ohne ein bestimmtes Modell anzunehmen. Multivariate modellfreie Verfahren basieren auf maschinellen Lern- und Mustererkennungsalgorithmen. Heutzutage hat sich die Multivoxel-Musteranalyse (MVPA) zu einer führenden Technik bei der Analyse von Neuroimaging-Daten entwickelt und wird umfassend verwendet, um die neuronalen Substrate kognitiver Funktionen zu identifizieren, die von der visuellen Wahrnehmung bis zur Gedächtnisverarbeitung reichen [13-16].

Ziel der vorliegenden Arbeit ist es, den mathematischen Formalismus, der der MVPA von fMRT-Daten zugrunde liegt, im Rahmen von überwachten Klassifikationswerkzeugen zu überprüfen. Wir werden die derzeit verwendeten statistischen Tools überprüfen und die Schritte skizzieren, die zur Durchführung einer multivariaten Analyse erforderlich sind.

2. Multivoxel-fMRT-Analyse als überwachtes Klassifikationsproblem

Die Multi-Voxel-Musteranalyse (MVPA) beinhaltet die Suche nach hoch reproduzierbaren räumlichen Aktivitätsmustern, die sich zwischen experimentellen Bedingungen unterscheiden. MVPA wird daher als überwachtes Klassifikationsproblem betrachtet, bei dem ein Klassifikator versucht, die Beziehungen zwischen räumlichen Mustern der fMRT-Aktivität und experimentellen Bedingungen zu erfassen [17].

Allgemeiner gesagt besteht die Klassifikation darin, eine Entscheidungsfunktion zu bestimmen

das die Werte verschiedener "Features" in einem Daten-"Beispiel" nimmt

und sagt die Klasse dieses „Beispiels“ voraus. „Features“ ist ein allgemeiner Begriff, der im maschinellen Lernen verwendet wird, um die Menge von Variablen oder Attributen zu sein, die ein bestimmtes „Beispiel“ beschreiben. Im Kontext von fMRI kann ein „Beispiel“ einen gegebenen Versuch im Versuchsdurchlauf darstellen, und die „Merkmale“ können die entsprechenden fMRI-Signale in einem Cluster von Voxeln darstellen. Die experimentellen Bedingungen können die verschiedenen Klassen repräsentieren.

Um die Entscheidungsfunktion zu erhalten, müssen die Daten (d. h. Beispiele und die entsprechenden Klassenlabels) in zwei Sätze aufgeteilt werden: „Trainingssatz“ und „Testsatz“. Der Klassifikator wird unter Verwendung des Trainingssatzes trainiert. Das Training besteht darin, die Beziehung zwischen den Merkmalen und der Klassenbezeichnung zu modellieren, indem eine Gewichtung zugewiesen wird

zu jeder Funktion. Diese Gewichtung entspricht dem relativen Beitrag des Features, um zwei oder mehr Klassen erfolgreich zu klassifizieren. Wenn mehr als zwei Klassen im experimentellen Design vorhanden sind, kann die Analyse in eine Kombination mehrerer Zweiklassenprobleme umgewandelt werden (d. h. jede Klasse gegen alle anderen). Der Klassifikator wird dann mit dem Testsatz ausgewertet, um seine Leistung beim Erfassen der Beziehung zwischen Features und Klassen zu bestimmen. Da es mehrere Möglichkeiten zur Datenaufteilung gibt (siehe Abschnitt 4), kann man viele Klassifikatoren trainieren und testen und am Ende einen mit maximaler Leistung erhalten.

Support Vector Machines (SVMs) [18, 19] sind in letzter Zeit aufgrund ihrer hohen Leistung, ihrer Fähigkeit, mit großen hochdimensionalen Datensätzen umzugehen, und ihrer Flexibilität bei der Modellierung unterschiedlicher Datenquellen als überwachte Klassifikatoren von fMRT-Daten populär geworden [20– 22]. Darüber hinaus sind Standardbibliotheken verfügbar, die SVMs implementieren, wie SVM-light [23], LIBSVM [24] und PyMVPA [25]. Wir werden daher die mathematischen Grundlagen von SVMs überprüfen.

2.1. Mathematische Grundlagen von Support Vector Machines
2.1.1. Lineare SVM

In der einfachsten linearen Form von SVMs für zwei Klassen besteht das Ziel darin, eine Entscheidungsgrenze (eine Hyperebene) zu schätzen, die eine Menge positiver Beispiele von einer Menge negativer Beispiele mit maximalem Spielraum trennt (Abbildung 2). Jedes Beispiel ist ein Eingabevektor ( ) mit

) und ist einer von zwei Klassen oder zugeordnet. In der fMRT-Forschung enthalten die Datenvektoren beispielsweise BOLD-Werte zu diskreten Zeitpunkten (oder Durchschnitten von Zeitpunkten) während des Experiments, und Merkmale könnten ein Satz von Voxeln sein, die zu jedem Zeitpunkt extrahiert wurden, zeigt Bedingung an und zeigt Bedingung B an.


(ein)
(B)
(ein)
(B) 2D-Raumdarstellung der Entscheidungsgrenze des linearen Klassifikators der Support Vector Machine (SVM). (a) der harte Rand bei linear trennbaren Beispielen, bei denen keine Trainingsfehler erlaubt sind. (b) der weiche Spielraum, bei dem zwei Trainingsfehler eingeführt werden, um Daten nichtlinear trennbar zu machen. Gestrichelte Beispiele werden als Unterstützungsvektoren bezeichnet (sie bestimmen den Abstand, durch den die beiden Klassen getrennt werden).

Wenn wir davon ausgehen, dass die Daten linear trennbar sind, was bedeutet, dass wir eine Linie in einem Graphen des Features gegenüber dem Feature zeichnen können, die die beiden Klassen wann trennt, und eine Hyperebene in Graphen von wann

, erzeugt die SVM die Diskriminanzfunktion mit dem größtmöglichen Spielraum:

ist der Normalgewichtsvektor der trennenden Hyperebene, wird als „Bias“ bezeichnet und verschiebt die Hyperebene vom Ursprung des Merkmalsraums weg und ist das innere Produkt:

SVM versucht, die optimale Hyperebene zu finden, die die Randgröße maximiert

, d. h. es findet und löst folgendes ursprünglich Optimierungsproblem:

In der Praxis sind Daten jedoch oft nicht linear trennbar. Um Trainingsfehler zuzulassen und dann die Leistung des Klassifikators zu erhöhen, losen Variablen

Wenn , , (d. h. (7)), ist die Marge die Breite der Lücke zwischen den Klassen, die keine Trainingsfehler erlaubt, und wird als „harte Marge“ bezeichnet.

bedeutet, dass die entsprechenden Trainingsbeispiele innerhalb der Lücke liegen dürfen, die durch die Hyperebene und den Rand definiert wird. ermöglicht, dass einige Trainingsbeispiele falsch klassifiziert werden. In einem solchen Fall wird die Marge als „Soft Margin“ bezeichnet (Abbildung 2).

Um den Kompromiss zwischen der Hyperebenenkomplexität und Trainingsfehlern zu kontrollieren, wird ein Straffaktor

ist vorgestellt. Die ursprünglich Optimierungsproblem wird

Hohe Werte erzwingen kleinere Slack-Variablen, was sich dem Verhalten von Hard-Margin-SVM ( ) annähert. Abbildung 3 zeigt die Auswirkung von auf die Entscheidungsgrenze. Large lässt keine Trainingsfehler zu. Small ( ) erlaubt jedoch einige Trainingsfehler. In dieser Figur wird typischerweise bevorzugt, weil es einen Kompromiss zwischen akzeptabler Klassifikatorleistung und Verallgemeinerung auf unsichtbare Beispiele (d. h. Überanpassung) darstellt.


an der Entscheidungsgrenze. Die durchgezogene Linie (

) erlaubt einige Trainingsfehler (rotes Beispiel oben links ist falsch klassifiziert). Die gestrichelte Linie (

) lässt keine Trainingsfehler zu. Obwohl die

Um das erwähnte zu lösen ursprünglich Optimierungsproblem, bei dem eine Funktion unter bestimmten äußeren Randbedingungen minimiert werden muss, wird die Methode der Lagrange-Multiplikatoren verwendet. Dieses Verfahren bietet eine Strategie zum Finden der lokalen Maxima und Minima einer Funktion, die Gleichheitsbeschränkungen unterliegt. Diese sind im Minimierungsziel enthalten, und Lagrange-Multiplikatoren ermöglichen es zu quantifizieren, wie stark diese betont werden (siehe z. B. [26] für weitere Details).

zwei Lagrange-Multiplikatoren sein. Wir leiten das sogenannte Dual Problem mit der folgenden Lagrange-Funktion

des ursprünglich Problem:

Die Lagrange-Funktion muss bezüglich , , und unter den Randbedingungen , , und minimiert werden. Folglich müssen die Ableitungen von nach diesen Variablen verschwinden:

Wenn wir die obigen Ergebnisse in die Lagrange-Form einsetzen, erhalten wir Folgendes:

Nach der Lagrange-Theorie genügt es, um das Optimum zu erhalten, bezüglich , : . zu maximieren

Weil das Dual Problem eine quadratische Form hat, kann die Lösung iterativ durch quadratische Programmierung (QP), sequentielle minimale Optimierung (SMO) oder kleinste Quadrate (LS) gefunden werden. Diese Lösung hat die Eigenschaft, die eine Linearkombination einiger Trainingsbeispiele ist: Das Hauptmerkmal dieser Gleichung ist, dass für alle außer denen, die innerhalb des Randes liegen. Die heißen die Stützvektoren. Sie liegen der Entscheidungsgrenze am nächsten und bestimmen die Marge. Beachten Sie, dass wenn alle Nichtunterstützungsvektoren entfernt würden, würde dieselbe Hyperebene mit maximalem Rand gefunden werden.

In der Praxis verwenden die meisten fMRI-Experimentierer lineare SVMs, da sie im ursprünglichen Merkmalsraum lineare Grenzen erzeugen, was die Interpretation ihrer Ergebnisse vereinfacht. Tatsächlich ermöglicht die direkte Untersuchung der Gewichtungskarten in diesem Fall die Identifizierung der diskriminierendsten Merkmale [27].

2.1.2. Nichtlineare SVM

Nichtlineare SVMs werden häufig für Diskriminierungsprobleme verwendet, wenn die Daten nichtlinear trennbar sind. Vektoren werden mit einer Funktion auf einen hochdimensionalen Merkmalsraum abgebildet

In nichtlinearen SVMs basiert die Entscheidungsfunktion auf der Hyperebene:

Auf diese Gleichung kann ein mathematisches Werkzeug namens „Kernel-Trick“ angewendet werden, das ausschließlich vom Skalarprodukt zwischen zwei Vektoren abhängt. Es erlaubt, einen nichtlinearen Operator als linearen Operator in einen Raum höherer Dimension zu schreiben. In der Praxis wird das Punktprodukt durch eine „Kernelfunktion“ ersetzt.

was nicht explizit berechnet werden muss und das Optimierungsproblem auf den linearen Fall reduziert:

In SVMs-Modellen können verschiedene Kerneltypen verwendet werden. Die gebräuchlichsten Kernel sind polynomiale Kernel und radiale Basisfunktionen (RBFs).

Der Polynomkern ist definiert durch

Die Parameter und werden eingestellt, um die Krümmung der Entscheidungsgrenze zu steuern. Abbildung 4 zeigt die Entscheidungsgrenze mit zwei verschiedenen Werten von und . Wir bemerken, dass der Fall mit und ein linearer Kernel ist.


(ein)
(B)
(ein)
(B)

Der Kernel der radialen Basisfunktion (RBF) ist definiert durch

wobei ist ein Hyperparameter. Ein großer Wert entspricht einer großen Kernelbreite. Dieser Parameter steuert die Flexibilität des resultierenden Klassifikators (Abbildung 5).


(ein)
(B)
(ein)
(B)

Im fMRT-Bereich bieten nichtlineare Transformationen zwar manchmal eine höhere Vorhersageleistung, ihre Verwendung schränkt jedoch die Interpretation der Ergebnisse ein, wenn die Merkmalsgewichtungen in den Eingaberaum zurücktransformiert werden [28].

2.2. Vergleich von Klassifikatoren und Vorverarbeitungsstrategien

Obwohl SVMs effizient mit großen hochdimensionalen Datensätzen umgehen können, werden sie wie viele andere Klassifikatoren durch Vorverarbeitungsschritte wie räumliche Glättung, zeitliche Trendentfernung und Bewegungskorrektur beeinflusst. LaConte et al. [27] verglichen SVMs mit der kanonischen Variablenanalyse (CVA) und untersuchten ihre relative Sensitivität in Bezug auf zehn Kombinationen von Vorverarbeitungsschritten. Die Studie zeigte, dass sowohl für SVM als auch für CVA eine Klassifizierung einzelner Zeitproben von Ganzhirndaten ohne Mittelwertbildung über die Scans hinweg durchgeführt werden kann. Kuet al. [29] verglichen vier Mustererkennungsmethoden (SVM, Fisher Lineare Diskriminante (FLD), Korrelationsanalyse (CA) und Gaussian Naive Bayes (GNB)) und fanden heraus, dass die Klassifikatorleistung durch Eliminierung von Ausreißern verbessert werden kann. Misakiet al. [30] verglichen sechs Klassifikatoren, die versuchten, Reize aus Antwortmustern zu dekodieren: Musterkorrelation, k-nächste Nachbarn (KNN), FLD, GNB und lineare und nichtlineare SVM. Die Ergebnisse legen nahe, dass die Normalisierung des Mittelwerts und der Standardabweichung der Antwortmuster entweder über Stimuli oder über Voxel keinen signifikanten Effekt hatte.

Andererseits kann die Klassifiziererleistung verbessert werden, indem die Datendimensionalität verringert oder ein Satz von Unterscheidungsmerkmalen ausgewählt wird. Es wurde festgestellt, dass die Decodierungsleistung durch Anwendung der Dimensionalitätsreduktion unter Verwendung des rekursiven Merkmalseliminierungs-(RFE)-Algorithmus [31] oder nach Auswahl unabhängiger Voxel mit der höchsten Gesamtreaktionsfähigkeit unter Verwendung von a-priori-Kenntnissen von GLM-Messungen [29] steigt. LaConte et al. [27] zeigten, dass die Klassifizierung von Ganzhirndaten ohne vorherige Merkmalsauswahl durchgeführt werden kann, während Mourão-Miranda et al. [32] fanden heraus, dass SVM im Vergleich zu FLD genauer war, wenn Gehirnzustände ohne vorherige Auswahl räumlicher Merkmale klassifiziert wurden. Schmahet al. [33] verglichen in Bezug auf die Leistung eine Reihe von Klassifikationsmethoden (adaptive FLD, adaptive quadratische Diskriminante (QD), GNB, lineare und nichtlineare SVM, logistische Regression (LR), eingeschränkte Boltzmann-Maschinen (RBM) und KNN)). zu den fMRT-Volumina ohne Verringerung der Dimensionalität und zeigte, dass die relative Leistung je nach Probanden und Klassifikationsaufgaben erheblich variierte.

Andere Studien versuchten, Klassifikatoren hinsichtlich ihrer Leistung oder Ausführungszeit zu vergleichen. Cox und Savoy [14] untersuchten Lineare Diskriminante (LD) und SVMs, um Muster der fMRT-Aktivierung zu klassifizieren, die durch die visuelle Präsentation verschiedener Kategorien von Objekten hervorgerufen werden. Es wurde festgestellt, dass die Genauigkeit des Klassifikators sowohl für lineare als auch für polynomiale SVMs im Vergleich zum LD-Klassifikator signifikant ist. Pereira und Botvinick [34] stellten fest, dass der GNB-Klassifikator eine vernünftige Wahl für eine schnelle Kartierung ist, LD wahrscheinlich vorzuziehen ist, wenn mehr Zeit zur Verfügung steht, und lineare SVM das gleiche Leistungsniveau erreichen kann, wenn die Klassifikatorparameter durch Kreuzvalidierung gut eingestellt sind (siehe Abschnitt 4).

3. Merkmalsauswahl und Dimensionsreduktion

Bei der univariaten Einzelsubjektanalyse können Merkmale aus den mit einem GLM geschätzten Karten erstellt werden. Ein typisches Merkmal besteht aus dem Muster von -Werten über Voxel hinweg. Die Analyse wird normalerweise an räumlich ungeglätteten Daten durchgeführt, um feinkörnige fachspezifische Informationen zu erhalten [35]. In einem solchen Fall sind Merkmale einfach die Voxel. Andere Autoren empfehlen die Anwendung der räumlichen Glättung [36]. Diese Idee wird in der fMRT-Literatur stark diskutiert [30, 37] (siehe auch Abschnitt 2.2). In beiden Fällen kann der Merkmalsraum immer noch als hochdimensional angesehen werden, wenn alle Hirnvoxel (oder zumindest zu große interessierende Bereiche) verwendet werden. Daher muss die Dimensionalität der Daten deutlich reduziert und informative Merkmale (Voxel) mit Bedacht ausgewählt werden, um die Klassifikationsaufgabe durchführbar zu machen. Wenn kleine interessierende Bereiche verwendet werden, muss die Dimensionalität normalerweise nicht reduziert werden (siehe folgenden Abschnitt 3.1).

Mehrere Studien zeigten die Relevanz der Merkmalsauswahl. Pearson und Kendall

Rangkorrelationskoeffizienten wurden verwendet, um die Elemente der funktionellen Konnektivitätsmatrix zwischen jedem Paar von Gehirnregionen als Klassifikationsmerkmale zu bewerten [38], während Voxelzuverlässigkeit und gegenseitige Informationsmetriken verglichen wurden, um Untergruppen von Voxeln in den fMRI-Daten zu identifizieren, die sich optimal unterscheiden Objektidentität [39]. Åberg und Wessberg [40] untersuchten die Wirksamkeit evolutionärer Algorithmen bei der Bestimmung einer begrenzten Anzahl von Voxeln, die optimal zwischen einzelnen fMRT-Volumina unterscheiden. Das Verfahren basiert auf einem einfachen multiplen linearen Regressionsklassifikator in Verbindung mit nur fünf ausgewählten Voxeln, der die Merkmalsauswahl basierend auf statistischem parametrischem Mapping (SPM) übertrifft [41].

In jüngerer Zeit wurden neuartige Techniken entwickelt, um informative Merkmale zu finden und dabei nicht informative Rauschquellen zu ignorieren, wie die Hauptkomponentenanalyse (PCA) und die unabhängige Komponentenanalyse (ICA) [42, 43]. Solche Methoden funktionieren gut, wenn es um die Einzelsubjektanalyse geht. In letzter Zeit wurden Versuche unternommen, diese Methoden auf die Analyse auf Gruppenebene auszudehnen, indem Gruppen-ICA-Ansätze entwickelt wurden, um unabhängige Komponenten aus der Analyse der Gruppendaten der Probanden zu extrahieren [44, 45].

Es ist erwähnenswert, dass die Merkmalsauswahl durch den Einsatz von Kreuzvalidierung verbessert werden kann (siehe Abschnitt 4). Der beste Klassifikator enthält im Allgemeinen nur eine Teilmenge von Merkmalen, die als wirklich informativ erachtet werden. Tatsächlich können SVM-Klassifikatoren auch verwendet werden, um eine Merkmalsauswahl durchzuführen. Dazu haben Martino et al. [31] entwickelten den Algorithmus zur rekursiven Merkmalseliminierung (RFE), der iterativ die am wenigsten diskriminierenden Merkmale basierend auf multivariaten Informationen eliminiert, wie sie vom Klassifikator erkannt wurden. Für jede Voxelauswahlebene besteht das RFE aus zwei Schritten. Zuerst wird ein SVM-Klassifizierer an einer Teilmenge von Trainingsdaten unter Verwendung des aktuellen Satzes von Voxeln trainiert. Zweitens wird ein Satz von Voxeln gemäß ihrer während des Trainings geschätzten Unterscheidungsgewichte verworfen. Als Test verwendete Daten werden klassifiziert und die Generalisierungsleistung wird bei jeder Iteration bewertet. RFE wurde kürzlich für die Analyse von fMRT-Daten verwendet und verbessert nachweislich die Generalisierungsleistung bei der Unterscheidung visueller Reize während zweier verschiedener Aufgaben [31, 46].

3.1. Interessengebiete (ROI): Suchscheinwerferanalyse

Multivariate Klassifizierungsverfahren werden verwendet, um zu identifizieren, ob die fMRI-Signale von einem gegebenen Satz von Voxeln ein dissoziierbares Aktivitätsmuster gemäß experimenteller Manipulation enthalten. Eine Möglichkeit besteht darin, das Aktivitätsmuster über alle Hirnvoxel hinweg zu analysieren. In einem solchen Fall übersteigt die Anzahl der Voxel die Anzahl der Trainingsmuster, was die Klassifizierung rechnerisch aufwendig macht.

Ein typischer Ansatz besteht darin, Annahmen über die anatomischen Regionen von Interesse (ROI) zu treffen, von denen vermutet wird, dass sie mit der Aufgabe korrelieren [14, 47, 48]. In solchen Fällen repräsentiert die ROI räumlich zusammenhängende Sätze von Voxel, aber nicht notwendigerweise benachbart.

Eine Alternative besteht darin, weniger Voxel auszuwählen (z. B. diejenigen innerhalb einer auf ein Voxel zentrierten Kugel) und die Analyse an allen Voxeln im Gehirn zu wiederholen. Diese Methode wurde von Kriegeskorte et al. [49], und es wurde „Suchscheinwerfer“ genannt. Es erzeugt eine multivariate Informationskarte, bei der jedem Voxel die Leistung des Klassifikators zugewiesen wird. Mit anderen Worten bewertet das Suchlichtverfahren ein Voxel danach, wie genau der Klassifizierer eine Bedingung jedes Beispiels auf dem Trainingssatz basierend auf den Daten von dem Voxel und seinen unmittelbar benachbarten Nachbarn vorhersagen kann. Abbildung 6 zeigt eine 2D-Darstellung des Suchlichtverfahrens angewendet auf 120 simulierte Karten von 10 × 10 Pixeln. Die Pixel für die Bedingungen sind Zufallszahlen, und die Pixel der Bedingung werden aus denen von gebildet, außer in einigen Mustern, bei denen ein Wert von 1 hinzugefügt wird. Wir haben vier Durchläufe verwendet, wobei jeder Durchlauf 30 Beispiele enthält (15 für Bedingung und 15 für Bedingung ).


Pixel. Für jedes Pixel in der Aktivitätskarte werden 5 Nachbarn (ein Suchscheinwerfer) extrahiert, um einen Merkmalsvektor zu bilden. Extrahierte Scheinwerfer aus den Aktivitätskarten jeder Bedingung (

) bilden dann die Eingabebeispiele. Ein Klassifikator wird anhand von Trainingsbeispielen (entsprechend den 3 ersten Durchläufen) trainiert und anhand der Beispiele des vierten Durchlaufs getestet. Das Verfahren wird dann entlang der Aktivitätskarten für jedes Pixel wiederholt, um schließlich eine Leistungskarte zu erstellen, die zeigt, wie gut das Signal in den lokalen Nachbarschaften die experimentellen Bedingungen unterscheidet

In jüngerer Zeit haben Björnsdotter et al. [50] schlugen eine Monte-Carlo-Approximation des Suchscheinwerfers vor, die für eine schnelle Gesamthirnkartierung entwickelt wurde. Eine Iteration des Algorithmus besteht darin, dass das Gehirnvolumen zufällig in eine Anzahl von Clustern (Suchsphären) unterteilt wird, so dass jedes Voxel in einem (und nur einem) Cluster enthalten ist, und eine Klassifikatorleistung dafür berechnet wird. Somit wird diesem Voxel eine mittlere Leistung über alle Konstellationen, an denen das Voxel teilnahm, zugewiesen (im Gegensatz zum Suchscheinwerfer, bei dem jedem Voxel der eine Wert zugewiesen wird, der berechnet wurde, als die Kugel darauf zentriert war) (Abbildung 7).


Illustration der Monte Carlo fMRI Brain Mapping Methode in einem Voxel (in Schwarz). Anstatt das Suchvolumen (gestrichelter Kreis) wie bei der Suchscheinwerfermethode auf das Voxel zu zentrieren und eine einzelne Leistung dafür zu berechnen, wird hier das Voxel in fünf verschiedene Konstellationen mit anderen benachbarten Voxeln (dunkelgrau) aufgenommen. In jeder Konstellation wird dafür eine Klassifikationsleistung berechnet. Am Ende wird die durchschnittliche Leistung über alle Konstellationen dem dunklen Voxel zugeordnet.

4. Leistungsschätzung und Kreuzvalidierung

Um ein unverzerrtes Testen zu gewährleisten, müssen die Daten in zwei Sätze aufgeteilt werden: einen Trainings- und einen Testsatz.Außerdem: Es wird im Allgemeinen empfohlen, einen größeren Trainingssatz zu wählen, um die Konvergenz der Klassifikatoren zu verbessern. Tatsächlich hängt die Leistung des gelernten Klassifikators davon ab, wie die Originaldaten in Trainings- und Testsatz aufgeteilt werden, und vor allem von ihrer Größe. Mit anderen Worten, je mehr Instanzen wir zum Testen verlassen, desto weniger Stichproben verbleiben für das Training und desto ungenauer wird der Klassifikator. Andererseits verallgemeinert ein Klassifikator, der einen Datensatz gut erklärt, nicht unbedingt auf andere Datensätze, selbst wenn die Daten aus derselben Verteilung stammen. Tatsächlich neigt ein übermäßig komplexer Klassifikator zur Überanpassung (d. h. er lässt sich nicht auf unsichtbare Beispiele verallgemeinern). Dies kann beispielsweise auftreten, wenn die Anzahl der Merkmale in Bezug auf die Anzahl der Beispiele zu groß ist (d. h.

). Diese Problematik ist als „Fluch der Dimensionalität“ bekannt [51]. Eine Möglichkeit, dieses Problem zu überwinden, ist die Verwendung der „Kreuzvalidierung“. Dieses Verfahren ermöglicht eine effiziente Bewertung der Klassifikatorleistung [52–54]. Das Ziel besteht darin, die besten Parameter für den Klassifikator (z. B. Parameter , , und ) zu identifizieren, die unbekannte Daten genau vorhersagen können (Abbildung 8). Durch Kreuzvalidierung kann der gleiche Datensatz sowohl für das Training als auch für das Testen des Klassifikators verwendet werden, wodurch die Anzahl der Beispiele mit der gleichen Anzahl von Merkmalen erhöht wird .


(ein)
(B)
(ein)
(B) Mittlere Genauigkeit nach 4-facher Kreuzvalidierung zur Klassifizierung der in Abbildung 3 gezeigten Daten. Die Parameter mit der besten Genauigkeit sind

für Polynomkern und

4.1. N-fach Kreuzvalidierung

Bei der -fachen Kreuzvalidierung werden die Originaldaten zufällig in Teilstichproben aufgeteilt. Von den Teilproben wird eine einzelne Teilprobe zur Validierung des Modells zurückbehalten und die verbleibenden Teilproben werden als Trainingsdaten verwendet. Das Kreuzvalidierungsverfahren wird dann mehrmals wiederholt, wobei jede der Teilproben zum Testen verwendet wird. Die Ergebnisse können gemittelt (oder anderweitig kombiniert) werden, um eine einzelne Leistungsschätzung zu erstellen. Für die Einzelsubjekt-MVPA werden zwei Schemata der Kreuzvalidierung verwendet (Abbildung 9). Die erste ist die Leave-One-Run-Out-Kreuzvalidierung (LORO-CV). Bei dieser Prozedur liefern die Daten eines Laufs die Testproben und die verbleibenden Läufe liefern die Trainingsproben. Die zweite Methode ist die Leave-One-Sample-Out-Kreuzvalidierung (LOSO-CV), bei der aus jeder Klasse eine Stichprobe als Teststichprobe genommen wird und alle verbleibenden Stichproben für das Klassifikatortraining verwendet werden. Die Stichproben werden zufällig so ausgewählt, dass jede Stichprobe mindestens einmal im Testset vorkommt. LOSO-CV erzeugt höhere Leistungen als LORO-CV, ist aber aufgrund einer größeren Anzahl von Trainingsprozessen rechenaufwendiger [30].


Leave-One-Run-out-Kreuzvalidierung (LORO-CV) und Leave-One-Sample-out-Kreuzvalidierung (LOSO-CV). Ein Klassifikator wird mit dem Trainingsset (blau) trainiert und dann mit dem Testset (rot) getestet, um eine Leistung zu erhalten. Dieses Verfahren wird für jeden Lauf in LORO-CV und für jede Probe in LOSO-CV wiederholt, um am Ende eine gemittelte Leistung zu erhalten.
4.2. Klassifiziererleistung

Algorithmen für maschinelles Lernen verfügen über mehrere Parameter, die ihr Verhalten und ihre Leistung ändern können. Die Bewertung eines gelernten Modells wird traditionell durch Maximieren einer Genauigkeitsmetrik durchgeführt. Betrachten wir ein grundlegendes Klassifikationsproblem mit zwei Klassen

seien die wahren positiven und negativen Klassenlabels und seien die vorhergesagten positiven und negativen Klassenlabels. Dann kann eine Darstellung der Klassifikationsleistung formuliert werden durch a Verwechslung Matrix (Kontingenztabelle), wie in Abbildung 10 dargestellt. Bei einem Klassifikator und einem Beispiel gibt es vier mögliche Ergebnisse. Wenn das Beispiel positiv ist und als positiv eingestuft wird, wird es als richtig positiv (TP) gezählt, wenn es als negativ eingestuft wird, wird es als falsch negativ (FN) gezählt. Wenn das Beispiel negativ ist und als negativ eingestuft wird, wird es als richtig negativ (TN) gezählt, wenn es als positiv eingestuft wird, wird es als falsch positiv (FP) gezählt. Gemäß dieser Konvention ist die Genauigkeitsmetrik definiert als

wobei und die Anzahl der positiven bzw. negativen Beispiele sind (

). Die Genauigkeit kann jedoch in bestimmten Situationen täuschen und reagiert sehr empfindlich auf Datenänderungen. Mit anderen Worten, in Gegenwart von unausgeglichen Datensätze (d. h. mit ), wird es schwierig, eine relative Analyse durchzuführen, wenn die Bewertungsmetrik empfindlich auf Datenverteilungen reagiert. Bei fMRT-Aufgaben sind die experimentellen Designs oft ausgewogen (derselbe Anteil an Bedingungen jedes Typs in jedem Durchlauf), aber es gibt Fälle, in denen sie unausgeglichen. Darüber hinaus kann jede Verwendung eines zufälligen Kreuzvalidierungsverfahrens zur Bewertung eines Klassifikators dazu führen, dass Datensätze Unwucht.


4.2.1. Receiver Operating Characteristic (ROC)-Kurve

Aus der Receiver Operating Characteristic (ROC)-Kurve extrahierte Metriken können eine gute Alternative für die Modellbewertung sein, da sie die Dissoziation von Fehlern bei positiven oder negativen Beispielen ermöglichen. Die ROC-Kurve wird gebildet, indem die True-Positive-Rate (TPR) über die False-Positive-Rate (FPR) aufgetragen wird, die sowohl aus dem Verwechslung Matrix nach

im ROC-Raum entspricht der Leistung eines einzelnen Klassifikators bei einer gegebenen Verteilung. Der ROC-Raum ist nützlich, da er eine visuelle Darstellung der relativen Kompromisse zwischen den Vorteilen (reflektiert durch ) und den Kosten (reflektiert durch ) der Klassifizierung in Bezug auf die Datenverteilung bietet.

Im Allgemeinen ist die Ausgabe des Klassifikators ein kontinuierlicher numerischer Wert. Die Entscheidungsregel wird ausgeführt, indem ein Entscheidungsschwellenwert ausgewählt wird, der die positiven und negativen Klassen trennt. In den meisten Fällen wird dieser Schwellenwert unabhängig von der Klassenverteilung der Daten festgelegt. Da jedoch der optimale Schwellenwert für eine Klassenverteilung über einen großen Wertebereich variieren kann, wird somit bei jedem Schwellenwert ein Paar (FPR TPR) erhalten. Somit wird durch Variieren dieses Schwellenwerts eine ROC-Kurve erzeugt.

Abbildung 11 zeigt ein typisches ROC-Diagramm mit den Punkten A, B und C, die ROC-Punkte und -Kurven darstellen und ROC-Kurven darstellen. Gemäß der Struktur des ROC-Graphen repräsentiert Punkt A (0,1) eine perfekte Klassifikation. Im Allgemeinen ist ein Klassifikator besser als ein anderer, wenn der entsprechende Punkt im ROC-Raum näher an der oberen linken Ecke liegt. Jeder Klassifikator, dessen entsprechender ROC-Punkt auf der Diagonalen liegt, wie beispielsweise Punkt B, ist repräsentativ für einen Klassifikator, der eine zufällige Schätzung der Klassenbezeichnungen liefert (d. h. einen zufälligen Klassifikator). Daher schneidet jeder Klassifikator, der im unteren rechten Dreieck des ROC-Raums erscheint, schlechter ab als zufälliges Erraten, wie beispielsweise der Klassifikator, der Punkt C im schattierten Bereich zugeordnet ist.


Um die Leistungen verschiedener Klassifikatoren zu beurteilen, verwendet man im Allgemeinen die Fläche unter der ROC-Kurve (AUC) als Bewertungskriterium [55]. Zum Beispiel liefert die Kurve in Abbildung 11 ein größeres AUC-Maß im Vergleich zu dem von, daher bietet der entsprechende Klassifikator, der mit verbunden ist, eine bessere Leistung im Vergleich zu dem Klassifikator, der mit verbunden ist. Die AUC hat eine wichtige statistische Eigenschaft: Sie entspricht der Wahrscheinlichkeit, dass der Klassifikator ein zufällig ausgewähltes positives Beispiel höher bewertet als ein zufällig ausgewähltes negatives Beispiel. Smith und Nichols [56] haben gezeigt, dass die AUC ein besseres Maß für die Klassifikatorleistung ist als das Genauigkeitsmaß.

Die Verarbeitung der AUC würde im kontinuierlichen Fall die Berechnung eines Integrals erfordern, im diskreten Fall ist die Fläche jedoch durch [57] . gegeben

wo ist die Entscheidungsfunktion des diskreten Klassifikators, und bezeichnen die positiven und negativen Beispiele, und

wird als 1 definiert, wenn das Prädikat gilt, andernfalls 0. Diese Gleichung besagt, dass, wenn ein Klassifikator so ist, dass die AUC dieses Klassifikators maximal ist. Jedes negative Beispiel, das zufällig höher eingestuft wird als positive Beispiele, lässt die AUC sinken.

4.2.2. Ein Beispiel für eine ROC-Kurve, die auf den SVM-Klassifikator angewendet wird

SVMs können als Klassifikatoren verwendet werden, die einen kontinuierlichen numerischen Wert ausgeben, um die ROC-Kurve zu zeichnen. Tatsächlich wird in Standard-SVM-Implementierungen die kontinuierliche Ausgabe eines Testbeispiels (d. h. ) im Allgemeinen in eine Vorzeichenfunktion eingespeist: if

, das Beispiel gilt als positiv und umgekehrt, wenn , als negativ betrachtet wird (als ob ein Schwellenwert bei eingefroren und positiv ist, wenn , und negativ ist, wenn

). In diesem Fall wird ein einzelnes Paar von FPR TPR erhalten. Wenn man also den Schwellenwert in einem Bereich zwischen dem Maximum und dem Minimum aller Ausgaben des Testsatzes (min() max()) variieren könnte, könnte die ROC-Kurve erhalten werden. Der Algorithmus wird daher den folgenden Schritten folgen. (ich)

. Berechnen Sie den Ausgabevektor für alle Beispiele in der Testmenge. (ii) . Für jeden Wert eines Schwellenwerts zwischen Minimum und Maximum von (a) Schritt 2.1. berechnen und den entsprechenden Klassen Beispiele zuordnen (b) Schritt 2.2. Plotten Sie den entsprechenden Punkt (FPR TPR).

Wir haben dieses Verfahren an den simulierten Daten durchgeführt, die für die Scheinwerferanalyse verwendet wurden. Die Daten waren jedoch unausgewogen, um den Schwellenwerteffekt zu zeigen (wir verwendeten vier Durchläufe mit jeweils 30 Beispielen, 10 für die Bedingung und 20 für die Bedingung). Abbildung 12 zeigt die ROC-Kurven, die verschiedenen Voxeln entsprechen. Die Fläche unter der ROC-Kurve wird für alle Voxel berechnet, was die AUC-Karte in Abbildung 12 ergibt.


(ein)
(B)
(ein)
(B) ROC-Analyse von unausgeglichen simulierte Daten. Die Daten in Abbildung 6 waren unausgeglichen um den Schwelleneffekt zu zeigen. (a) ROC-Kurven, die einigen Koordinaten (Voxeln) entsprechen, die in farbigen Kreisen in der AUC-Karte in (b) dargestellt sind.

Ein letzter erwähnenswerter Punkt ist, dass die Klassifikatorleistung seine Fähigkeit misst, auf unsichtbare Daten zu verallgemeinern, unter der Annahme, dass Trainings- und Testbeispiele aus derselben Verteilung gezogen werden. Diese Annahme könnte jedoch durch die Kreuzvalidierung verletzt werden [34]. Eine Alternative könnte der Einsatz Bayesscher Strategien zur Modellauswahl sein, da diese sowohl hinsichtlich der Rechenkomplexität als auch hinsichtlich der verfügbaren Freiheitsgrade effizient sind [58].

4.2.3. Nichtparametrische Permutationstestanalyse

Die nichtparametrische Permutationstestanalyse wurde in funktionellen Neuroimaging-Studien eingeführt, um eine flexible und intuitive Methodik zur Überprüfung der Gültigkeit der Klassifikationsergebnisse bereitzustellen [59, 60]. Die Signifikanz einer Statistik, die den experimentellen Effekt ausdrückt, kann durch Vergleich mit der Verteilung der Werte beurteilt werden, die erhalten werden, wenn die Labels permutiert werden [61].

Konkret kann man die folgenden Schritte ausführen, um die Hypothese zu überprüfen, dass es keinen Unterschied zwischen den Bedingungen gibt und wenn die Klassenlabels zufällig permutiert werden: permutiere die Labels in der Stichprobe berechne das Maximum T-statistische Wiederholung über viele Permutationen erhalten eine Verteilung der Werte für die T-Die Statistik findet den Schwellenwert, der einem bestimmten Wert entspricht, der den Ablehnungsgrad der Hypothese bestimmt [62, 63].

Unter bestimmten experimentellen Bedingungen, wenn die fMRT-Daten eine zeitliche Autokorrelation aufweisen [64], ist eine Annahme der „Austauschbarkeit“ von Scans (d. Um in diesem Fall eine Gruppe von Subjekten für die Populationsinferenz zu analysieren, wird ausschließlich die Austauschbarkeit von Subjekten angenommen. Nichols und Holmes [60] präsentierten praktische Beispiele aus dem funktionellen Neuroimaging sowohl in Einsubjekt- als auch Mehrsubjektexperimenten sowie Golland und Fischl. [62] schlugen praktische Empfehlungen zur Durchführung von Permutationstests zur Klassifikation vor.

5. Schlussfolgerung

In diesem Artikel haben wir untersucht, wie die Machine-Learning-Klassifikatoranalyse auf die Analyse funktioneller Neuroimaging-Daten angewendet werden kann. Wir berichteten über die Grenzen der univariaten modellbasierten Analyse und stellten die multivariate modellfreie Analyse als Lösung vor. Bei der Durchsicht der Literatur zum Vergleich verschiedener Klassifikatoren konzentrierten wir uns auf Support Vector Machine (SVM) als überwachten Klassifikator, der als effizientes Werkzeug zur Durchführung multivariater Musteranalysen (MVPA) betrachtet werden kann. Wir berichteten über die Bedeutung der Merkmalsauswahl und Dimensionsreduktion für den Erfolg des ausgewählten Klassifikators in Bezug auf die Leistung und die Bedeutung eines Kreuzvalidierungsschemas sowohl bei der Auswahl der besten Parameter für den Klassifikator als auch bei der Berechnung der Leistung. Die Verwendung von ROC-Kurven scheint genauer zu sein, um die Klassifikatorleistung zu bewerten, während nichtparametrische Permutationstests eine flexible und intuitive Methodik bieten, um die Gültigkeit der Klassifikationsergebnisse zu überprüfen.

Danksagung

Diese Arbeit wurde durch das Neuromed-Projekt, das GDRI-Projekt und das vom CNRS, Frankreich, finanzierte PEPS-Projekt „GoHaL“ unterstützt.

Verweise

  1. S. Ogawa, T. M. Lee, A. R. Kay und D. W. Tank, „Magnetresonanztomographie des Gehirns mit Kontrast abhängig von der Sauerstoffversorgung des Blutes“, Proceedings of the National Academy of Sciences of the United States of America, Bd. 87, nein. 24, S. 9868–9872, 1990. Ansicht auf: Verlagsseite | Google Scholar
  2. K. K. Kwong, J. W. Belliveau, D. A. Chesler et al., „Dynamische Magnetresonanztomographie der menschlichen Gehirnaktivität während der primären sensorischen Stimulation“, Proceedings of the National Academy of Sciences of the United States of America, Bd. 89, Nr. 12, S. 5675–5679, 1992. Ansicht auf: Verlagsseite | Google Scholar
  3. N. K. Logothetis, J. Pauls, M. Augath, T. Trinath und A. Oeltermann, „Neurophysiologische Untersuchung der Grundlagen des fMRT-Signals“, Natur, Bd. 412, Nr. 6843, S. 150–157, 2001. View at: Publisher Site | Google Scholar
  4. P. Jezzard, M. P. Matthews und M. S. Smith, „Funktionelles MRT: eine Einführung in die Methoden“, Zeitschrift für Magnetresonanztomographie, Bd. 17, nein. 3, S. 383–383, 2003. Ansicht bei: Google Scholar
  5. K. J. Friston, C. D. Frith, P. F. Liddle und R. S. J. Frackowiak, „Comparing Functional (PET) images: the assessment of signifikant change“, Journal of Cerebral Blood Flow and Metabolism, Bd. 11, nein. 4, S. 690–699, 1991. Ansicht bei: Google Scholar
  6. A. R. McIntosh, C. L. Grady, J. V. Haxby, J. M. Maisog, B. Horwitz und C. M. Clark, „Innere-Subjekt-Transformationen der regionalen zerebralen Blutflussdaten der PET: ANCOVA, Ratio und Z-Score-Anpassungen auf empirischen Daten“, Human Brain Mapping, Bd. 4, nein. 2, S. 93–102, 1996. Ansicht bei: Google Scholar
  7. K. J. Friston, A. P. Holmes, C. J. Price, C. B࿌hel und K. J. Worsley, „Multisubject fMRI Studies and Konjunktionsanalysen“, NeuroImage, Bd. 10, nein. 4, S. 385–396, 1999. View at: Publisher Site | Google Scholar
  8. M. J. McKeown, S. Makeig, G. G. Brown et al., „Analyse von fMRT-Daten durch blinde Trennung in unabhängige räumliche Komponenten“, Human Brain Mapping, Bd. 6, nein. 3, S. 160–188, 1998. Ansicht bei: Google Scholar
  9. U. Kjems, L. K. Hansen, J. Anderson et al., „Die quantitative Bewertung funktioneller Neuroimaging-Experimente: gegenseitige Informationslernkurven“, NeuroImage, Bd. 15, nein. 4, S. 772–786, 2002. View at: Publisher Site | Google Scholar
  10. R. S. J. Frackowiak, K. J. Friston, C. Frith et al., Funktion des menschlichen Gehirns, Academic Press, 2. Auflage, 2003.
  11. M. Brett, W. Penny und S. Kiebel, Einführung in die Random Field Theory, Elsevier Press, 2004.
  12. D. R. Cox und H. D. Miller, Die Theorie stochastischer Prozesse, Chapman und Hall, 1965.
  13. K. A. Norman, S. M. Polyn, G. J. Detre und J. V. Haxby, „Beyond mind-reading: multi-voxel pattern analysis of fMRI data“, Trends in den Kognitionswissenschaften, Bd. 10, nein. 9, S. 424–430, 2006. View at: Publisher Site | Google Scholar
  14. D. D. Cox und R. L. Savoy, „Funktionelle Magnetresonanztomographie (fMRI) 𠇋rain Reading”: Detektieren und Klassifizieren verteilter Muster der fMRI-Aktivität im menschlichen visuellen Kortex“, NeuroImage, Bd. 19, nein. 2, S. 261–270, 2003. Ansicht auf: Publisher Site | Google Scholar
  15. J. V. Haxby, M. I. Gobbini, M. L. Furey, A. Ishai, J. L. Schouten und P. Pietrini, „Verteilte und überlappende Darstellungen von Gesichtern und Objekten im ventralen temporalen Kortex“, Wissenschaft, Bd. 293, Nr. 5539, S. 2425–2430, 2001. View at: Publisher Site | Google Scholar
  16. P. E. Downing, A. J. Wiggett und M. V. Peelen, „Funktionelle Magnetresonanztomographie-Untersuchung überlappender lateraler occipitotemporaler Aktivierungen mit Multi-Voxel-Musteranalyse“, Zeitschrift für Neurowissenschaften, Bd. 27, nein. 1, S. 226–233, 2007. View at: Publisher Site | Google Scholar
  17. C. Davatzikos, K. Ruparel, Y. Fan et al., „Klassifizierung räumlicher Muster der Gehirnaktivität mit Methoden des maschinellen Lernens: Anwendung auf Lügenerkennung“, NeuroImage, Bd. 28, Nr. 3, S. 663–668, 2005. Ansicht auf: Verlagsseite | Google Scholar
  18. C. Cortes und V. Vapnik, „Support-Vektor-Netzwerke“, Maschinelles Lernen, Bd. 20, nein. 3, S. 273–297, 1995. View at: Publisher Site | Google Scholar
  19. V. N. Vapnik, Das Wesen der statistischen Lerntheorie, Bd. 8, Springer, 1995.
  20. M. Timothy, D. Alok, V. Svyatoslav et al., „Support Vector Machine Klassifikation und Charakterisierung der altersbedingten Reorganisation funktioneller Gehirnnetzwerke“, NeuroImage, Bd. 60, nein. 1, S. 601–613, 2012. Ansicht bei: Google Scholar
  21. E. Formisano, F. De Martino und G. Valente, „Multivariate Analyse von fMRI-Zeitreihen: Klassifizierung und Regression von Gehirnreaktionen mit maschinellem Lernen“, Magnetresonanztomographie, Bd. 26, nein. 7, S. 921–934, 2008. View at: Publisher Site | Google Scholar
  22. S. J. Hanson und Y. O. Halchenko, „Gehirnlesen mit Full Brain Support Vector Machines zur Objekterkennung: Es gibt keinen �”-Identifikationsbereich“ Neuronale Berechnung, Bd. 20, nein. 2, S. 486–503, 2008. View at: Publisher Site | Google Scholar
  23. T. Joachims, Lernen, Text mit Hilfe von Support Vector Machines zu klassifizieren, Kluwer, 2002.
  24. C. C. Chang und C. J. Lin, „LIBSVM: eine Bibliothek für Support Vector Machines“, ACM-Transaktionen zu intelligenten Systemen und Technologien, Bd. 2, nein. 3, Artikel 27, 2011. View at: Publisher Site | Google Scholar
  25. M. Hanke, Y. O. Halchenko, P. B. Sederberg, S. J. Hanson, J. V. Haxby und S. Pollmann, „PyMVPA: a Python Toolbox for multivariate pattern analysis of fMRI data“, Neuroinformatik, Bd. 7, nein. 1, S. 37–53, 2009. View at: Publisher Site | Google Scholar
  26. S. Boyd und L. Vandenberghe, Konvexe Optimierung, Cambridge University Press, New York, NY, USA, 2004.
  27. S. LaConte, S. Strother, V. Cherkassky, J. Anderson und X. Hu, „Support Vector Machines for temporal Classification of Block Design fMRI data“, NeuroImage, Bd. 26, nein. 2, S. 317–329, 2005. View at: Publisher Site | Google Scholar
  28. K. H. Brodersen, T. M. Schofield, A. P. Leff et al., „Generative Embedding for Model-Based Classification of FMRI data“, PLoS Computerbiologie, Bd. 7, nein. 6, Artikel-ID e1002079, 2011. Ansicht auf: Publisher-Site | Google Scholar
  29. S. P. Ku, A. Gretton, J. Macke und N. K. Logothetis, „Vergleich von Mustererkennungsmethoden bei der Klassifizierung hochauflösender BOLD-Signale, die bei hohem Magnetfeld bei Affen erhalten wurden“, Magnetresonanztomographie, Bd. 26, nein. 7, S. 1007–1014, 2008. View at: Publisher Site | Google Scholar
  30. M. Misaki, Y. Kim, P. A. Bandettini und N. Kriegeskorte, „Comparison of multivariate classifiers and response normalizations for pattern-information fMRI“, NeuroImage, Bd. 53, nein. 1, S. 103–118, 2010. Ansicht auf: Website des Herausgebers | Google Scholar
  31. F. De Martino, G. Valente, N. Staeren, J. Ashburner, R. Goebel und E. Formisano, „Combining multivariate voxel selection and Support Vector Machines for Mapping and Classification of fMRI Spatial Patterns“, NeuroImage, Bd. 43, nein. 1, S. 44–58, 2008. Ansicht auf: Verlagsseite | Google Scholar
  32. J. Mourão-Miranda, A. L. W. Bokde, C. Born, H. Hampel und M. Stetter, „Klassifizierung von Hirnzuständen und Bestimmung der diskriminierenden Aktivierungsmuster: Unterstützungsvektormaschine für funktionelle MRT-Daten“, NeuroImage, Bd. 28, Nr. 4, S. 980–995, 2005. Ansicht auf: Publisher Site | Google Scholar
  33. T. Schmah, G. Yourganov, R. S. Zemel, G. E. Hinton, S. L. Small und S. C. Strother, „Vergleich von Klassifizierungsmethoden für longitudinale fMRI-Studien“, Neuronale Berechnung, Bd. 22, nein. 11, S. 2729–2762, 2010. Ansicht auf: Verlagsseite | Google Scholar
  34. F. Pereira und M. Botvinick, „Information Mapping mit Musterklassifikatoren: eine vergleichende Studie“, NeuroImage, Bd. 56, nein. 2, S. 476–496, 2011. View at: Publisher Site | Google Scholar
  35. Y. Kamitani und Y. Sawahata, „Räumliche Glättung schadet der Lokalisierung, aber nicht der Information: Fallstricke für Brain-Mapper“ NeuroImage, Bd. 49, nein. 3, S. 1949–1952, 2010. Ansicht auf: Verlagsseite | Google Scholar
  36. H. P. Op de Beeck, „Gegen Hyperacuity in Brain Reading: Räumliche Glättung schadet multivariaten fMRT-Analysen nicht?“ NeuroImage, Bd. 49, nein. 3, S. 1943–1948, 2010. Ansicht auf: Verlagsseite | Google Scholar
  37. J. D. Swisher, J. C. Gatenby, J. C. Gore et al., „Multiskalige Musteranalyse der orientierungsselektiven Aktivität im primären visuellen Kortex“, Zeitschrift für Neurowissenschaften, Bd. 30, nein. 1, S. 325–330, 2010. Ansicht unter: Verlagsseite | Google Scholar
  38. H. Shen, L. Wang, Y. Liu und D. Hu, „Diskriminative Analyse der funktionellen Konnektivitätsmuster im Ruhezustand der Schizophrenie mit niedrigdimensionaler Einbettung von fMRT“, NeuroImage, Bd. 49, nein. 4, S. 3110–3121, 2010. Ansicht auf: Verlagsseite | Google Scholar
  39. R. Sayres, D. Ress und K. G. Spector, „Identifizieren von verteilten Objektdarstellungen im menschlichen extrastriatischen visuellen Kortex“, in Proceedings of the Neural Information Processing Systems (NIPS '05), 2005. Ansicht bei: Google Scholar
  40. M. B. 얾rg und J. Wessberg, „Ein evolutionärer Ansatz zur Identifizierung informativer Voxel-Cluster für die Unterscheidung des Gehirnzustands“, IEEE Journal zu ausgewählten Themen der Signalverarbeitung, Bd. 2, nein. 6, S. 919–928, 2008. View at: Publisher Site | Google Scholar
  41. S. J. Kiebel und K. J. Friston, „Statistical parametric mapping for event related potentials: I. Generic Considerations“, NeuroImage, Bd. 22, nein. 2, S. 492–502, 2004. View at: Publisher Site | Google Scholar
  42. A. Hyvärinen und E. Oja, „Unabhängige Komponentenanalyse: Algorithmen und Anwendungen“, Neuronale Netze, Bd. 13, nein. 4-5, S. 411–430, 2000. Ansicht auf: Verlagsseite | Google Scholar
  43. D. B. Rowe und R. G. Hoffmann, „Multivariate statistische Analyse in fMRI“, IEEE Engineering in Medicine and Biology Magazine, Bd. 25, nein. 2, S. 60–64, 2006. View at: Publisher Site | Google Scholar
  44. V. Schöpf, C. Windischberger, S. Robinson et al., „Modellfreie fMRI-Gruppenanalyse mit FENICA“, NeuroImage, Bd. 55, Nr. 1, S. 185–193, 2011. View at: Publisher Site | Google Scholar
  45. S. A. R. B. Rombouts, J. S. Damoiseaux, R. Goekoop et al., „Modellfreie Gruppenanalyse zeigt veränderte BOLD FMRI-Netzwerke bei Demenz“, Human Brain Mapping, Bd. 30, nein. 1, S. 256–266, 2009. View at: Publisher Site | Google Scholar
  46. C. Chu, A.-L. Hsu, K.-H. Chou, P. Bandettini und C. Lin: „Verbessert die Merkmalsauswahl die Klassifikationsgenauigkeit? Einfluss von Stichprobengröße und Merkmalsauswahl auf die Klassifikation mit anatomischen Magnetresonanzbildern“, NeuroImage, Bd. 60, nein. 1, S. 59–70, 2011. Ansicht bei: Google Scholar
  47. J. D. Haynes und G. Rees, „Vorhersage der Orientierung unsichtbarer Reize aus der Aktivität im primären visuellen Kortex des Menschen“, Natur Neurowissenschaften, Bd. 8, nein. 5, S. 686–691, 2005. View at: Publisher Site | Google Scholar
  48. Y. Kamitani und F. Tong, „Entschlüsselung der visuellen und subjektiven Inhalte des menschlichen Gehirns“, Natur Neurowissenschaften, Bd. 8, nein. 5, S. 679–685, 2005. View at: Publisher Site | Google Scholar
  49. N. Kriegeskorte, R. Goebel und P. Bandettini, „Information-based Functional Brain Mapping“, Proceedings of the National Academy of Sciences of the United States of America, Bd. 103, Nr. 10, S. 3863–3868, 2006. View at: Publisher Site | Google Scholar
  50. M. Björnsdotter, K. Rylander und J. Wessberg, „A Monte Carlo method for local multivariate brain mapping“, NeuroImage, Bd. 56, nein. 2, S. 508–516, 2011. View at: Publisher Site | Google Scholar
  51. R. E. Bellmann, Adaptive Steuerungsprozesse𠅊 Guided Tour, Princeton University Press, Princeton, NJ, USA, 1961.
  52. R. Kohavi, „. Eine Studie über Kreuzvalidierung und Bootstrap zur Genauigkeitsschätzung und Modellauswahl“, in Tagungsband der International Joint Conference on Artificial Intelligence, Bd. 14, S. 1137–1143, Citeseer, 1995. Ansicht bei: Google Scholar
  53. S. Lemm, B. Blankertz, T. Dickhaus und K. R. Müller, „Einführung in das maschinelle Lernen für die Bildgebung des Gehirns“, NeuroImage, Bd. 56, nein. 2, S. 387–399, 2011. View at: Publisher Site | Google Scholar
  54. T. Hastie, R. Tibshirani und J. Friedman, Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage, Bd. 27, Springer, 2009.
  55. T. Fawcett, „Eine Einführung in die ROC-Analyse“, Mustererkennungsbuchstaben, Bd. 27, nein. 8, S. 861–874, 2006. View at: Publisher Site | Google Scholar
  56. S. M. Smith und T. E. Nichols, „Threshold-free Cluster Enhancement: Adressing Probleme der Glättung, Schwellenabhängigkeit und Lokalisierung bei der Cluster-Inferenz“, NeuroImage, Bd. 44, nein. 1, S. 83–98, 2009. Ansicht auf: Verlagsseite | Google Scholar
  57. L. Yan, R. Dodier, M. C. Mozer und R. Wolniewicz, „Optimizing classifier performance through an approximation to the Wilcoxon-Mann-Whitney Statistic“, in Tagungsband der 20. Internationalen Konferenz zum maschinellen Lernen (ICML '03), Bd. 20, s. 848, AAAI Press, August 2003. Ansicht bei: Google Scholar
  58. J. Ashburner und S. Klöppel, „Multivariate Modelle der anatomischen Variabilität zwischen den Subjekten“, NeuroImage, Bd. 56, nein. 2, S. 422–439, 2011. View at: Publisher Site | Google Scholar
  59. A. P. Holmes, R. C. Blair, J. D. G. Watson und I. Ford, „Nonparametric analysis of statistic images from Functional Mapping Experiments“, Journal of Cerebral Blood Flow and Metabolism, Bd. 16, nein. 1, S. 7–22, 1996. Ansicht bei: Google Scholar
  60. T. E. Nichols und A. P. Holmes, „Nichtparametrische Permutationstests für funktionelle Neurobildgebung: eine Einführung mit Beispielen“, Human Brain Mapping, Bd. 15, nein. 1, S. 1–25, 2002. Ansicht auf: Verlagsseite | Google Scholar
  61. A. Eklund, M. Andersson und H. Knutsson: „Schnelle Zufallspermutationstests ermöglichen eine objektive Bewertung von Methoden für die fMRT-Analyse eines einzelnen Probanden.“ Internationale Zeitschrift für biomedizinische Bildgebung, Bd. 2011, Beitrags-ID 627947, 15 Seiten, 2011. Ansicht bei: Google Scholar
  62. P. Golland und B. Fischl, „Permutationstests zur Klassifikation: hin zur statistischen Signifikanz in bildbasierten Studien“, in Tagungsband der Konferenz für Informationsverarbeitung in der medizinischen Bildgebung, S. 330–341, August 2003. Ansicht bei: Google Scholar
  63. P. Golland, F. Liang, S. Mukherjee und D. Panchenko, „Permutationstests zur Klassifizierung“, in Tagungsband der 18. Jahreskonferenz für Lerntheorie (COLT '05), S. 501–515, August 2005. Ansicht bei: Google Scholar
  64. A. M. Smith, B. K. Lewis, U. E. Ruttimann et al., „Untersuchung der Niederfrequenzdrift im fMRT-Signal“, NeuroImage, Bd. 9, nein. 5, S. 526–533, 1999. View at: Publisher Site | Google Scholar

Urheberrechte ©

Copyright © 2012 Abdelhak Mahmoudi et al. Dies ist ein Open-Access-Artikel, der unter der Creative Commons Attribution License vertrieben wird und die uneingeschränkte Verwendung, Verbreitung und Reproduktion in jedem Medium erlaubt, vorausgesetzt, das Originalwerk wird ordnungsgemäß zitiert.


Ein Anwendungsbeispiel

Da die DLS-Methode in vielen Bereichen zur Größenverteilung wie Polymere, Proteine, Metall-Nanopartikel oder Kohlenstoff-Nanomaterialien eingesetzt werden könnte, wird hier ein Beispiel für die Anwendung von DLS in der größenkontrollierten Synthese von monodispersen Gold-Nanopartikeln gegeben.

Die Größe und Größenverteilung von Goldpartikeln wird durch eine subtile Variation der Struktur des Polymers gesteuert, das verwendet wird, um die Goldnanopartikel während der Reaktion zu stabilisieren. Diese Variationen umfassen Monomertyp, Polymermolekulargewicht, Endgruppenhydrophobie, Endgruppenzähnigkeit und Polymerkonzentration. Auf der Grundlage dieser Variationen wurden insgesamt 88 verschiedene Versuche durchgeführt. Mit der DLS-Methode können die Autoren die Goldpartikelgrößenverteilung für alle diese Versuche relativ einfach bestimmen und auch die Korrelation zwischen Polymerstruktur und Partikelgröße kann ohne weitere Verarbeitung der Daten aufgetragen werden. Obwohl in diesem Artikel auch andere Größenbestimmungstechniken wie UV-V-Spektroskopie und TEM verwendet werden, ist es die DLS-Messung, die einen viel einfacheren und zuverlässigeren Ansatz für die Größenverteilungsanalyse bietet.

Vergleich mit TEM und AFM

Da DLS nicht die einzige verfügbare Methode zur Bestimmung der Größenverteilung von Partikeln ist, ist es auch notwendig, DLS mit den anderen gebräuchlichen allgemeinen Größenbestimmungsverfahren, insbesondere TEM und AFM, zu vergleichen.

Zunächst muss klargestellt werden, dass sowohl TEM als auch AFM Partikel messen, die auf einem Substrat abgeschieden sind (Cu-Gitter für TEM, Glimmer für AFM), während DLS Partikel misst, die in einer Lösung dispergiert sind. Auf diese Weise wird DLS die Eigenschaften der Bulkphase messen und umfassendere Informationen über die Größenverteilung der Probe geben. Und bei AFM oder TEM ist es sehr üblich, dass ein relativ kleiner Probenbereich analysiert wird und die Größenverteilung auf dem Probenbereich möglicherweise nicht mit der Größenverteilung der ursprünglichen Probe übereinstimmt, je nachdem, wie die Partikel abgelagert werden.

Auf der anderen Seite hängt der Berechnungsprozess für DLS jedoch stark von den mathematischen und physikalischen Annahmen und Modellen ab, d Verteilungen oder nicht-sphärische Partikel. Da der Größenbestimmungsprozess für AFM oder TEM jedoch nichts anderes ist, als die Größe aus dem Bild zu messen und dann die Statistik zu verwenden, können diese beiden Methoden viel zuverlässigere Daten liefern, wenn es sich um &ldquoirreguläre&rdquo-Stichproben handelt.

Ein weiterer wichtiger Punkt, den es zu berücksichtigen gilt, ist der Zeitaufwand und die Komplikation der Größenmessung. Generell sollte die DLS-Messung eine viel einfachere Technik sein, die weniger Betriebszeit und auch billigere Geräte erfordert. Und es könnte wirklich mühsam sein, die Größenverteilungsdaten aus TEM- oder AFM-Bildern ohne speziell programmierte Software zu analysieren.

Darüber hinaus sind bei der Auswahl von Größenanalysetechniken einige Besonderheiten zu beachten. Wenn sich beispielsweise die ursprüngliche Probe bereits auf einem Substrat befindet (durch das CVD-Verfahren synthetisiert) oder die Partikel nicht stabil in der Lösung dispergiert werden konnten, ist das DLS-Verfahren offensichtlich nicht geeignet. Auch wenn die Partikel dazu neigen, einen ähnlichen Abbildungskontrast gegenüber dem Substrat (Kohlenstoff-Nanomaterialien auf TEM-Gitter) aufzuweisen oder dazu neigen, sich selbst zu organisieren und auf der Oberfläche des Substrats zu aggregieren, könnte der DLS-Ansatz die bessere Wahl sein.

In der allgemeinen Forschungsarbeit ist die Analyse der Größenverteilung jedoch der beste Weg, diese Analysemethoden zu kombinieren und sich ergänzende Informationen aus verschiedenen Aspekten zu erhalten. Eine Sache ist zu beachten, da das DLS tatsächlich den hydrodynamischen Radius der Partikel misst, ist die Größe der DLS-Messung immer größer als die Größe der AFM- oder TEM-Messung. Abschließend ist der Vergleich zwischen DLS und AFM/TEM in Tabelle (PageIndex<1>) dargestellt.

Tabelle (PageIndex<1>) Vergleich zwischen DLS, AFM und TEM.
DLS AFM/TEM
Probenvorbereitung Lösung Substrat
Messung Einfach Schwierig
Probenahme Schüttgut Kleiner Bereich
Form der Partikel Kugel Keine Anforderung
Polydispersität Niedrig Keine Anforderung
Größenbereich nm zu um nm zu um
Größeninfo. Hydrodynamischer Radius Physische Größe


Schau das Video: Biologie - Was ist eine Zelle? (Kann 2022).


Bemerkungen:

  1. Aron

    Eh, halte mich sieben!

  2. Townsend

    Stimmen Sie zu, Ihre Idee ist einfach ausgezeichnet

  3. Wulfhere

    Herrlich

  4. Morlee

    Bravo, eine andere Nachricht

  5. Krischen

    wunderbar wertvolle Informationen

  6. Radi

    Ausgezeichneter, sehr hilfreicher Beitrag

  7. Able

    Danke für den Post, warum nicht die letzten paar Tage posten?



Eine Nachricht schreiben