Information

Warum erscheinen Sigmoidkurven bei der quantitativen Analyse vieler biologischer Phänomene?

Warum erscheinen Sigmoidkurven bei der quantitativen Analyse vieler biologischer Phänomene?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich kenne zwei Beispiele:

1-Die Bindung von Hämoglobin an Sauerstoff (die Bindung von Sauerstoff an eine Stelle des Hämoglobins induziert Konformationsänderungen, die die Affinität der anderen Stellen für Sauerstoff erhöhen – die Kurve könnte als Übergang von einem T-Zustand mit niedriger Affinität zu einem R-Zustand mit hoher Affinität interpretiert werden ). Die Handlung ist hier zu sehen

2-Die Denaturierung von DNA durch Temperatur (wenn sich ein Segment der Doppelhelix öffnet, wird die Basenstapelung unterbrochen, was die Denaturierung des Rests des Moleküls erleichtert); Eine andere Handlung

Die beiden Beispiele, die ich angeführt habe, waren tatsächlich positive kooperative Phänomene, dh das Auftreten eines ersten Ereignisses begünstigt das nächste Ereignis. Es gibt auch die Titrationskurve, die ein Sigmoid ist, aber ich glaube nicht, dass sie korreliert ist. Ich frage das, weil ich es erstaunlich fand, dass die gleiche Art von Kurve beim Studium so unterschiedlicher Fächer auftrat. Sind diese Beispiele irgendwie korreliert, dh für welche Art von Phänomenen werden Sigmoidkurven erwartet?


Ich würde folgendes vorschlagen: Nehmen Sie einen beliebigen eindimensionalen Prozess, der durch eine Gaußsche Funktion beschrieben wird. Wenn Sie einen solchen Prozess entlang einer Variablen integrieren, erhalten Sie eine sigmoidale Kurve. Details siehe Normal- und Summenverteilung.

Nun stellt sich die Frage: Wie viele biologische Prozesse werden durch die Gaußsche Verteilung und Abhängigkeiten beschrieben/modelliert? Viel!

Werfen wir einen Blick auf das Dinosaurierwachstum von Revisiting the Estimation of Dinosaurier Growth Rates

Diese Abbildung beschreibt, wie sich die Größe eines Dinosauriers mit der Zeit ändert (Modell, nehme ich an). Erinnern Sie sich an die Verbindung zwischen Gauß- und Sigmoidalfunktionen? Wenn Sie differenzieren, dh wie schnell sich die oben genannte sigmoidale Funktion ändert, erhalten Sie eine Gaußsche Glockenkurve! Was Ihnen sagt: Dinosaurier wachsen im mittleren Alter schneller und davor und danach langsamer.

Die DNA-Denaturierungskurve ist sigmoidal, da die Denaturierungseffizienz wiederum gaußförmig ist. Bei niedrigen Temperaturen denaturieren nur sehr wenige Moleküle, aber bei hohen Temperaturen gibt es keine Moleküle mehr zum Denaturieren, so die Glockenkurve. Eine andere Erklärung geht so: Bei niedriger Temperatur ändert sich die zusätzliche Wärme nicht viel, weil es noch zu "kalt" ist, bei höheren Temperaturen ist die gleiche Wärmemenge nur ein Tropfen auf den heißen Stein, kaum wahrnehmbar.


Deskriptive und prädiktive Wachstumskurven in der Energiesystemanalyse

Diese Studie untersucht eine Vielzahl von Wachstumskurvenmodellen und die zugrunde liegenden theoretischen Rahmenbedingungen. In vielen Systemen sind oder müssen Wachstumsmuster letztendlich irgendeiner Form von Beschränkung unterworfen werden. Eine Reihe von Kurvenmodellen wurde entwickelt, um solche Verhaltensweisen zu beschreiben und vorherzusagen. Symmetrische Wachstumskurven wurden häufig für die Vorhersage der Produktion fossiler Brennstoffe verwendet, aber andere haben den Bedarf an flexibleren und asymmetrischen Modellen geäußert. Eine Reihe von Beispielen zeigt Unterschiede und Anwendungen verschiedener Wachstumskurvenmodelle. Es wird der Schluss gezogen, dass diese Wachstumskurvenmodelle als Prognosewerkzeuge verwendet werden können, aber sie liefern nicht unbedingt bessere Vorhersagen als jede andere Methode. Folglich sollten Wachstumskurvenmodelle und andere Prognosemethoden zusammen verwendet werden, um eine triangulierte Prognose zu erstellen. Darüber hinaus bietet die Wachstumskurvenmethode ein einfaches Werkzeug für das Ressourcenmanagement, um zu bestimmen, was mit der zukünftigen Produktion passieren könnte, wenn die Ressourcenverfügbarkeit ein Problem darstellt. Angesichts des Peak Oil und des Bewusstseins, dass natürliche Ressourcen als Grundlage für das weitere Wohlergehen der Gesellschaft und der Menschheit betrachtet werden, sollte Ressourcenmanagement als wichtiger Faktor in der zukünftigen Sozialplanung betrachtet werden.

Dies ist eine Vorschau von Abonnementinhalten, auf die Sie über Ihre Institution zugreifen können.


Entwerfen eines rigorosen Mikroskopieexperiments: Methoden validieren und Verzerrungen vermeiden

Von einem Mikroskop erzeugte Bilder sind nie eine perfekte Darstellung der biologischen Probe. Mikroskope und Methoden zur Probenvorbereitung sind fehleranfällig und können Bildern unbeabsichtigte Eigenschaften verleihen, die fälschlicherweise als zum biologischen Präparat gehörend gedeutet werden könnten. Darüber hinaus ist unser Gehirn darauf ausgelegt, schnell zu interpretieren, was wir sehen, und mit einer unbewussten Neigung zu dem, was nach unserem derzeitigen Verständnis für uns am sinnvollsten ist. Unadressierte Fehler in Mikroskopiebildern in Kombination mit der Verzerrung, die wir bei der visuellen Interpretation von Bildern mit sich bringen, können zu falschen Schlussfolgerungen und nicht reproduzierbaren Bilddaten führen. Hier besprechen wir wichtige Aspekte des Entwurfs eines rigorosen Lichtmikroskopie-Experiments: Validierung von Methoden zur Probenvorbereitung und der Leistung des Bildgebungssystems, Identifizierung und Korrektur von Fehlern und Strategien zur Vermeidung von Verzerrungen bei der Aufnahme und Analyse von Bildern.

Einführung

Moderne Lichtmikroskope stoßen an ihre theoretischen Grenzen und werden heute routinemäßig nicht nur zur qualitativen Betrachtung, sondern auch zur quantitativen Messung fluoreszenzmarkierter biologischer Proben eingesetzt. Obwohl die Mikroskopie eine unglaublich leistungsstarke und förderliche Technologie ist, ist es wichtig zu bedenken, dass wir beim Betrachten von Mikroskopiebildern nicht auf die Probe schauen. Typischerweise wird in der Zellbiologie die biologische Probe zuerst manipuliert, um Fluorophore einzuführen, die normalerweise an ein interessierendes Molekül konjugiert sind (Allan, 2000 Goldman et al., 2010). Ein Mikroskop erzeugt ein vergrößertes optisches Bild der räumlichen Verteilung der Fluorophore in der Probe (Inoué und Spring, 1997, Murphy und Davidson, 2012). Das optische Bild wird von einem elektronischen Detektor (z. B. einer Kamera) aufgenommen, um ein digitales Bild zu erstellen, das aus einem Pixelraster mit zugewiesenen Intensitätswerten besteht (Wolf et al., 2013 Stuurman und Vale, 2016). Da ein fluoreszenzmikroskopisches Bild daher eine digitale Darstellung eines optischen Bildes der Verteilung des in die Probe eingebrachten Fluorophors ist, müssen wir Fehlerquellen im Prozess berücksichtigen und wenn das Bild die untersuchten biologischen Phänomene genau wiedergibt.

Für die quantitative Mikroskopie ist es wichtig zu validieren, dass eine Methode in der Lage ist, das Ziel zu erkennen und eine genaue Messung zu liefern. Bildgebende Systeme sind komplex und anfällig für systematische Fehler, die sich selten in einer Weise darstellen, die während des routinemäßigen Gebrauchs leicht identifiziert werden kann ( Abb. 1, A und B Hibbs et al., 2006 North, 2006 Zucker, 2006 Joglekar et al., 2008 Waters, 2009 Wolf et al., 2013). Daher müssen Forscher die Arten von Fehlern berücksichtigen, die die Interpretation von Bildgebungsdaten beeinflussen könnten, bekannte Proben und Kontrollexperimente verwenden, um Methoden zu validieren und Fehler zu identifizieren, und Ansätze zur Fehlerkorrektur testen. Mikroskope, die als Stand der Technik oder als einfach zu bedienen vermarktet oder wahrgenommen werden, sind immer noch fehleranfällig es gibt kein Mikroskop, kommerziell oder selbstgebaut, das Bilder frei von allen Fehlerquellen erzeugt oder für jede quantitative Anwendung funktioniert . Während Entwicklungen bei Techniken wie Super-Resolution und Light-Sheet-Mikroskopie einige frühere Einschränkungen überwinden können, bringen sie auch zusätzliche Fehlerquellen mit sich und erfordern eine strenge Validierung (Hibbs et al., 2006 North, 2006 Joglekar et al., 2008 Waters, 2009 Wolf et al., 2013 Lambert und Waters, 2017).

Bildfehler können zu falschen Ergebnissen führen. (EIN) Durchbluten führt zu einem falsch positiven Kolokalisationsergebnis. Grüne und rote Perlen wurden gemischt und zusammen montiert. Es gibt keine Kügelchen in diesen Proben/Bildern, die sowohl mit grünem als auch mit rotem Farbstoff markiert sind. Bei dieser Filter- und Probenkombination tritt ein signifikantes Durchbluten von den grünen Kügelchen in den roten Kanal auf (siehe grüne Kreise). Pearson’s R für Kolokalisation ist 0,67. Da kein Pixel, das grünes Fluorophor enthält, auch rotes Fluorophor enthält, sollte es keine Korrelation geben. (B) Eine falsche Kanalregistrierung führt zu einem falsch-negativen Kolokalisierungsergebnis. Tetraspeck-Kügelchen sind mit vier Farbstoffen markiert, darunter Farbstoffe, die hier in den grünen und roten Kanälen abgebildet sind. Da jede Perle mit beiden Farbstoffen markiert ist, sollte eine vollständige Kolokalisation zwischen den Kanälen erfolgen, mit einem erwarteten Pearson’s R von 1. Das Bildgebungssystem hat jedoch eine erhebliche Fehlausrichtung zwischen den Kanälen eingeführt, was zu einem Pearson’s R von 0,66 führt. (C) Eine unspezifische Farbstoffbindung führt zu einem falsch positiven Ergebnis. Ein signifikanter Grad an unspezifischer Bindung von SNAP-Farbstoff an Zellen, die kein SNAP-Tag (WT + SNAP-Farbstoff) enthalten, sieht qualitativ ähnlich aus sowohl Zellen, die ein SNAP-Tag fusioniert an den POI enthalten, als auch Immunfluoreszenz gegen POI. Weiße gepunktete Linien zeigen Zellenumrisse an.

Mikroskopieexperimente werden durch Verzerrungen, die der visuellen Beurteilung von Bildern innewohnen, weiter kompliziert (Lee et al., 2018). Wir alle unterliegen in unserer Wahrnehmung der Bedeutung von Bildern, Mustern in Bildern und der Interpretation von Daten im Allgemeinen einer Verzerrung (Nickerson, 1998 Russ, 2004 Lazic, 2016). Aufgrund der inhärenten unbewussten Natur von Vorurteilen können wir uns nicht zuverlässig dafür entscheiden, angeborene Vorurteile zu vermeiden. Experimente sollten daher so gestaltet werden, dass die Auswirkungen von Verzerrungen minimiert werden, die sich in jedem Schritt eines Experiments ansammeln können, das eine visuelle Inspektion und Entscheidungsfindung umfasst, von der Bildaufnahme bis zur Analyse.

Die Genauigkeit der Bildgebungsdaten und die Reproduzierbarkeit eines Experiments hängen zusammen, sind jedoch unterschiedlich (Lazic, 2016). Unter präzisen Bildgebungsdaten verstehen wir, dass das Bild und die daraus resultierenden Schlussfolgerungen die Probe korrekt darstellen und Reproduzierbarkeit als die Fähigkeit, mit denselben Materialien und Methoden wiederholt dieselben Ergebnisse zu erzielen. Ein Experiment kann genaue Daten erzeugen, die nicht reproduziert werden können, beispielsweise aufgrund unzureichender Validierung oder Methodenberichterstattung. Umgekehrt kann ein Experiment reproduzierbar, aber ungenau sein, wenn systematische Fehler in der Methode nicht korrigiert werden. Darüber hinaus variieren die Fehlerquellen zwischen den Mikroskopen (Murray et al., 2007 Murray, 2013 Wolf et al., 2013), die weiter zur Irreproduzierbarkeit beitragen, wenn sie ignoriert werden.

Unser Ziel in diesem Review ist es, die Skepsis gegenüber der Genauigkeit von Mikroskopiebildern und die Einschätzung der Auswirkungen von Verzerrungen auf Mikroskopiedaten zu fördern. Anstatt zu versuchen, auf die vielen verschiedenen Arten von Mikroskopieexperimenten einzugehen, die in der zellbiologischen Forschung verwendet werden, stellen wir Richtlinien zur Verfügung, die für die meisten Mikroskopieexperimente gelten, und geben Beispiele für deren Umsetzung. Wir bieten auch ausgewählte Bildungsressourcen an, die als Ausgangspunkt für diejenigen dienen, die mehr über spezifische Mikroskopietechniken erfahren möchten ( Tabelle 1 ). Wir diskutieren einige häufige Quellen systematischer Fehler in Mikroskopiebildern, zeigen auf, wie Fehler zu falschen Schlussfolgerungen führen können, und besprechen Methoden zur Identifizierung und Korrektur von Fehlern. Wir diskutieren Schritte in Mikroskopieexperimenten, die Verzerrungen unterliegen, und die Bedeutung von Verblindung und Automatisierung bei der Reduzierung von Verzerrungen bei der Bildaufnahme und -analyse. Diese Übersicht konzentriert sich auf Probleme und Missverständnisse, denen wir bei der Beratung und Ausbildung von Postdoktoranden und Doktoranden in unserer Mikroskopie-Kerneinrichtung und -Kursen häufig begegnen.

Tabelle 1.

ThemaRessourcen
Mikroskopie-Texte      • Buch: Videomikroskopie, Inoué und Frühling, 1997
      • Buch: Handbuch der biologischen konfokalen Mikroskopie, Pawley, 2006b
      • Buch: Grundlagen der Lichtmikroskopie und der elektronischen Bildgebung, Murphy und Davidson, 2012
Mikroskopie-Kurse      • Eine umfassende Auflistung der Mikroskopiekurse finden Sie unter https://www.microlist.org
        • iBiology Microscopy Series (https://www.ibiology.org/online-biology-courses/microscopy-series/ ein kostenloser Online-Mikroskopiekurs)
      • Mikrokurse YouTube-Kanal: Kurze Lehrvideos zur Mikroskopie
      • Kurs: Quantitative Imaging: From Acquisition to Analysis, Cold Spring Harbor Laboratory, NY
      • Kurse und Workshops der European Molecular Biology Organization in Europa
      • Kurse und Workshops der Royal Microscopical Society im Vereinigten Königreich
      • Kurs: Bangalore Microscopy Course, National Center for Biological Sciences, Bangalore, Indien
Quantitative Mikroskopie      • Review: Waters, 2009. Eine Einführung in Fehlerquellen in der Mikroskopie
      • Review: Wolf et al., 2013. Protokolle zur Fehlererkennung und -korrektur
      • Buch: Quantitative Bildgebung in der Zellbiologie, Waters und Wittmann, 2014
Live-Cell-Imaging      • Review: Ettinger und Wittmann, 2014. Eine praktische Einführung in die Fluoreszenz-Lebendzell-Bildgebung
      • Rezension: Magidson und Khodjakov, 2013. Strategien zur Reduzierung von Lichtschäden
      • Buch: Live Cell Imaging: Ein Laborhandbuch, Goldman et al., 2010
Kolokalisierung      • Review: Bolte und Cordelières, 2006. Validierung und Fehlerkorrektur bei der Kolokalisationsbildaufnahme und -analyse
Ratiometrische Bildgebung, einschließlich Förster Resonance Energy Transfer (FRET)      • Rezensionen: Hodgson et al., 2010 O𠆜onnor und Silver, 2013 Spiering et al., 2013 Grillo-Hill et al., 2014. Validierung und Fehlerkorrektur in Bildaufnahme und Analyse ratiometrischer Sonden
Fluoreszenzwiederherstellung nach Photobleichen (FRAP)       • Reviews: Phair et al., 2003 Bancaud et al., 2010. Protokolle zur Erfassung, Korrektur und Analyse von FRAP-Daten
Einzelmolekül-Bildgebung      • Buch: Einzelmolekül-Techniken: Ein Laborhandbuch, Selvin und Ha, 2008
Probenvorbereitung      • Buch: Proteinlokalisierung durch Fluoreszenzmikroskopie: ein praktischer Ansatz, Allan, 2000
      • Review: Shaner, 2014. Protokoll zum Testen von FPs in Säugetierzellen
         • Review: Rodriguez et al., 2017. Zusammenfassung der jüngsten Entwicklungen und neuen Richtungen im FP-Bereich
      • Website: http://fpbase.org. Zum Auswählen und Vergleichen von FPs
Bildanalyse       • Review: Eliceiri et al., 2012. Ein allgemeiner Überblick über die Schritte bei der Bildanalyse enthält auch Optionen für kostenlose und Open-Source-Bildanalysesoftware
      • Website: https://image.sc. Ein Online-Forum für Fragen und Diskussionen zu Bildanalyse und Open-Source-Software
      • eBook: Analysieren von Fluoreszenzmikroskopiebildern mit ImageJ, Bankhead, 2016
Experimentelles Design      • Buch: Experimentelles Design für Laborbiologen: Maximierung der Informationen und Verbesserung der Reproduzierbarkeit, Lazic, 2016
      • Buch: Experimentelles Design für Biologen, Glas, 2014

Validierung und Fehlerkorrektur

Die Validierung von Methoden unter Verwendung bekannter Proben und Kontrollen zeigt, dass ein Werkzeug oder eine Technik verwendet werden kann, um das beabsichtigte Ziel genau zu erkennen, zu identifizieren und zu messen. Robuste und reproduzierbare Mikroskopieexperimente erfordern eine Validierung des Bildgebungsprotokolls, der spezifischen Technik zur Fluoreszenzmarkierung der Probe und der Art des Bildgebungssystems, das zur Messung der Intensität und räumlichen Verteilung der Fluoreszenz verwendet wird (Zucker, 2006 Murray et al., 2007 Joglekar et al., 2008 Wolf et al., 2013). Die Validierung kann ergeben, dass ein bestimmter Ansatz für den beabsichtigten Zweck nicht funktioniert und eine Alternative benötigt wird, oder die Validierung kann zeigen, dass Bildkorrekturen oder ein Wechsel der Optik erforderlich sind, um systematische Fehler zu korrigieren.

Markierungsmethode und Probenvorbereitung

Es kann nicht davon ausgegangen werden, dass ein Antikörper, ein organischer Farbstoff oder ein fluoreszierendes Protein (FP) als inerte, spezifische Markierung fungieren. Alle Methoden zur Markierung biologischer Proben mit Fluorophoren haben das Potenzial zur Unspezifität und zur Störung der Lokalisation oder Funktion der markierten Komponente oder assoziierter Strukturen, Bindungspartner usw. (Couchman, 2009 Burry, 2011 Bosch et al., 2014 Ganini et al.) ., 2017). Immunfluoreszenz- und FP-Konjugate sind in der Zellbiologie so allgegenwärtig geworden, dass die Validierung der Bindungsspezifität und die Biologie, die durch die Markierung nicht beeinflusst wird, häufig unterlassen werden (Freedman et al., 2016). Unserer Erfahrung nach sind diese Probleme oft problematischer als angenommen, und es gibt viele veröffentlichte Beispiele für häufig verwendete Sonden, die unter bestimmten experimentellen Bedingungen Artefakte einbringen (Allison und Sattenstall, 2007 Couchman, 2009 Costantini et al., 2012 Landgraf et al., 2012 Schnell et al., 2012 Bosch et al., 2014 Norris et al., 2015 Ganini et al., 2017).

Autofluoreszenz

Viele endogene biologische Komponenten sind fluoreszierend (z. B. Aubin, 1979, Koziol et al., 2006). Unmarkierte Kontrollen (Proben ohne zugesetztes Fluorophor, aber ansonsten identisch behandelt) sind erforderlich, um zu bestätigen, dass die Fluoreszenz spezifisch für das beabsichtigte Ziel ist und dass Autofluoreszenz nicht als Fluoreszenzmarkierung fehlinterpretiert wird (ein berühmtes Beispiel siehe De Los Angeles et al., 2015).

Antikörper

Derzeit gibt es keine standardisierten Anforderungen an die Validierung der Spezifität von kommerziellen Antikörpern (Couchman, 2009 Uhlen et al., 2016).Das Verhalten von Antikörpern variiert in verschiedenen Kontexten, ein Antikörper, der an denaturierte Proteine ​​auf einem Western-Blot bindet, bindet möglicherweise nicht an chemisch fixierte Proteine ​​in einer biologischen Probe (Willingham, 1999). Auch wenn die Spezifität von einem Unternehmen oder einem anderen Labor validiert wurde, sollte die Antikörpervalidierung bei jedem Probentyp wiederholt werden. Trotz ihrer Bedeutung ist die Antikörpervalidierung nicht die Norm (Freedman et al., 2016). Bei gut charakterisierten Zielen kann die Validierung so einfach sein wie der Vergleich mit früheren Beschreibungen. Bei der Charakterisierung der Lokalisation eines neuen Epitops sollte der Balken viel höher sein. Mehrere Antikörper gegen ein Epitop können für ein ähnliches Lokalisierungsmuster verglichen werden. Die Lokalisierung kann auch mit einem FP-Konjugat verglichen werden (Schnell et al., 2012 Stadler et al., 2013). Gen-of-Interest-Knockout und Proteinexpressions-Knock-down bieten ausgezeichnete Spezifitätskontrollen (Willingham, 1999, Burry, 2011).

Die Sekundärantikörperspezifität muss mit “secondary-only”-Kontrollen validiert werden, bei denen der Primärantikörper aus dem Markierungsprotokoll herausgelassen wird (Hibbs et al., 2006 Burry, 2011 Manning et al., 2012). Die unspezifische sekundäre Antikörperbindung kann als helle Puncta oder diffuse Fluoreszenz erscheinen und sich auf bestimmte Kompartimente oder Strukturen lokalisieren, die als biologische Befunde missverstanden werden können. Sekundärantikörper können in einigen Zelltypen eine unspezifische Bindung aufweisen, in anderen jedoch nicht und müssen daher in jedem verwendeten Zelltyp kontrolliert werden. Sekundärantikörper, die in der gleichen Spezies wie die Probe erzeugt wurden (z. B. unter Verwendung eines anti-Maus-Sekundärantikörpers in einem Mausgewebe) weisen mit hoher Wahrscheinlichkeit eine unspezifische Bindung auf und erfordern spezielle Techniken (Goodpaster und Randolph-Habecker, 2014). Die unspezifische Sekundärantikörperbindung ist fast immer uneinheitlich und kann daher rechnerisch nicht genau “subtrahiert”. Stattdessen sollte die unspezifische Bindung, wenn sie in reinen Sekundärkontrollen nachgewiesen wird, reduziert werden, indem verschiedene Sekundärantikörper verwendet oder die Inkubationsbedingungen für Sekundärantikörper (Konzentration, Dauer oder Temperatur), Blockierung (Typ, Temperatur oder Dauer) und/oder die Anzahl angepasst werden und Länge der Wäschen (Allan, 2000).

In einigen Fällen wurde gezeigt, dass FPs biologische Systeme signifikant stören (Allison und Sattenstall, 2007 Landgraf et al., 2012 Swulius und Jensen, 2012 Han et al., 2015 Norris et al., 2015 Ganini et al., 2017 Sabuquillo et al al., 2017). Die Fusion eines FP mit einem Protein-of-Interest (POI) kann die Funktion des POI oder seine Fähigkeit, mit Bindungspartnern zu interagieren, verändern oder hemmen (Shaner et al., 2005 Snapp, 2009). Die Expression eines FP-konjugierten POI zusätzlich zu einem endogenen POI kann aufgrund höherer POI-Werte biologische Prozesse beeinflussen. Darüber hinaus müssen FP-Konjugate mit endogenem Protein um Bindungsstellen usw. konkurrieren, was die Lokalisierung und das Verhalten von FP-Konjugaten oder endogenen Proteinen beeinflussen kann (Han et al., 2015). Als monomer beschriebene FPs (oft mit “m” bezeichnet) können ihre Affinität beibehalten, insbesondere wenn sie an einen POI mit der Fähigkeit zur Oligomerisierung fusioniert sind (Snapp, 2009 Landgraf et al., 2012). Sowohl die FP-Reifung als auch die Fluoreszenzreaktion erzeugen reaktive Sauerstoffspezies, die biologisches Material schädigen können (Remington, 2006, Ganini et al., 2017). Trotz dieser potenziellen Probleme werden FPs oft ohne Nebenwirkungen verwendet, aber eine Validierung von FP-Konjugaten ist unbedingt erforderlich.

Die sorgfältige Auswahl eines geeigneten FP ist essentiell (Snapp, 2009). Online-Ressourcen wie die Fluorescent Protein Database (http://fpbase.org) können zusammen mit der Primärliteratur verwendet werden, um mehrere FPs mit Spezifikationen auszuwählen, die Ihrer Anwendung entsprechen (Lambert, 2019). FPs weisen Umweltempfindlichkeiten auf und müssen daher in Ihrem Versuchssystem getestet werden (Shaner et al., 2005 Snapp, 2009 Ettinger und Wittmann, 2014 Costantini et al., 2015 Heppert et al., 2016). Der Vergleich mehrerer Optionen erhöht die Chancen, FPs zu identifizieren, die in wichtigen Parametern für Ihre Experimente (z. Idealerweise sollten Experimente mit mehreren FPs bis zum Abschluss durchgeführt werden, da FP-bezogene Artefakte bei jedem Schritt in einem experimentellen Protokoll auftreten können. Das Testen von FPs vor der Erzeugung von CRISPR- oder Mauslinien oder anderen Reagenzien, die viel Zeit und Ressourcen erfordern, ist besonders ratsam.

Selbstmarkierungsproteine ​​(HALO, SNAP und CLIP)

Diese Tags können ein nützlicher Hybridansatz sein, der die Spezifität genetisch kodierter Fusionsproteine ​​mit der Helligkeit und Photostabilität organischer Farbstoffe kombiniert (Keppler et al., 2003 Los et al., 2008). Alle Tags und Liganden müssen jedoch in Ihrem experimentellen System validiert werden. Es wurde beispielsweise gezeigt, dass einige SNAP-Liganden eine signifikante unspezifische Bindung aufweisen (Bosch et al., 2014). Ähnlich wie bei sekundären Antikörpern muss eine Kontrolle mit einem SNAP-Liganden in Zellen ohne jeglichen SNAP-markierten POI eingeschlossen werden, um die Spezifität des Signals sicherzustellen ( 1C ).

Fest gegen Live

Fixations- und Extraktions-/Permeabilisierungsartefakte können biologische Strukturen und Lokalisierungsmuster verändern (Melan und Sluder, 1992 Halpern et al., 2015 Whelan und Bell, 2015). Es gibt kein immunzytochemisches Protokoll, das für jede Probe und Sonde gut funktioniert. Dauer und Konzentration mehrerer Fixiermittel und Extraktions-/Permeabilisierungsreagenzien sollten für jeden primären Antikörper und Zelltyp getestet werden (Allan, 2000). Die Fixierung kann die Fluoreszenz von FPs verringern oder sogar eliminieren, daher sollten Protokolle durch Vergleich der Intensität von FPs in lebenden und fixierten Zellen validiert werden (Johnson und Straight, 2013). Der Vergleich der FP-Lokalisierung vor und nach der Fixierung kann auch helfen, Fixierungsartefakte zu identifizieren. Bei der Bildgebung lebender Proben kann die Phototoxizität biologische Prozesse verändern (Icha et al., 2017 Laissue et al., 2017). Lebendzell-Imaging-Kontrollen ohne Fluoreszenzbeleuchtung sollten durchgeführt werden, um zu bestätigen, dass das Bildaufnahmeprotokoll keine nachweisbaren Zellschäden verursacht (Magidson und Khodjakov, 2013 Ettinger und Wittmann, 2014).

Validierung des Bildgebungssystems

Sobald eine 𠇎rwartete” biologische Struktur im aufgenommenen Bild sichtbar wird, wird allgemein davon ausgegangen, dass keine weitere Validierung erforderlich ist. Die Genauigkeit von Mikroskopiebildern kann jedoch nicht vorausgesetzt werden und muss validiert werden. Routinemäßige Wartung des Bildgebungssystems und Leistungstests werden empfohlen (Petrak und Waters, 2014), aber selbst gut gewartete Bildgebungssysteme führen zu Fehlern in Bildern, die tiefgreifende Auswirkungen auf die Dateninterpretation haben können ( Abb. 1, A und B ). Um ein Bildgebungssystem zu validieren, verwenden Sie bekannte Proben, die darauf ausgelegt sind, systematische (d. h. wiederholbare) Fehler aufzudecken und dann die Fehler in Bildern biologischer Proben zu korrigieren. Es kann auch erforderlich sein, zu validieren, dass das Bildgebungssystem das Ziel erkennen kann.

Die Validierung von Bildgebungssystemen umfasst im Allgemeinen Folgendes: (1) Sammeln von Bildern bekannter Proben (Tabelle 2) (2) Identifizieren systematischer Fehler, die in Bildern bekannter Proben vorhanden sind (Abb. 2) (3) Korrigieren von Fehlern, entweder rechnerisch oder durch Anpassung Proben, Optik oder Aufnahmeparameter ( Abb. 2 und ​ und3) 3 ) und (4) Testen von Korrekturmethoden ( Abb. 2 , ​ ,3, 3 und ​ und4). 4 ). Es gibt keine bekannte Muster- oder Korrekturmethode, die alle möglichen Fehler aufdeckt und korrigiert. Stattdessen sollten Forscher beurteilen, ob ein bestimmter Fehler die Interpretation ihrer experimentellen Ergebnisse beeinflussen kann, und Fehlerkorrekturmethoden testen. Es ist wichtig, Korrekturmethoden zu validieren, die ungenaue Korrekturen durchführen können die Situation noch verschlimmern ( Abb. 4 ). Die Fehler variieren von einem Mikroskop zum nächsten und wenn unterschiedliche Optiken oder Filter im selben Mikroskop verwendet werden. Wird die Korrektur systematischer Bildfehler vernachlässigt, kann dies daher zu ungenauen und nicht reproduzierbaren Daten führen ( Abb. 1, A und B ). Häufige Fehlerquellen bei Mikroskopiebildern werden an anderer Stelle ausführlich diskutiert (Stelzer, 1998 Hibbs et al., 2006 North, 2006 Zucker, 2006 Waters, 2009 Wolf et al., 2013). Hier diskutieren wir Beispiele für die Validierung von Detektion, Beleuchtung und Optik, die in vielen Experimenten zu berücksichtigen sind.

Tabelle 2.

StichprobeFehlerReferenzen für Korrekturprotokolle
(a) Fluoreszierende Mikrokügelchen (Kügelchen), die unterhalb der Beugungsauflösungsgrenze des Abbildungssystems liegenOptische AberrationenHiraoka et al., 1990 Goodwin, 2013
(b und c) Perlen mit mehreren Wellenlängen unterhalb der Beugungsauflösungsgrenze des AbbildungssystemsKanalregistrierungHibbs et al., 2006 Spiering et al., 2013 Wolf et al., 2013
(d) TischmikrometerIn Vergrößerung/PixelgrößeWolf et al., 2013
Flatfield-FolieUngleichmäßige BeleuchtungModell, 2006
Einfach markierte biologische ProbeDurch blutenSpiering et al., 2013
Bolte und Cordelières, 2006
Stabile biologische ProbePhotobleichenBancaud et al., 2010
Unmarkierte biologische ProbeAutofluoreszenzHibbs et al., 2006

Wir verwendeten (a) Molecular Probes FluoSpheres (b) für hochauflösende Bildgebung, Invitrogen TetraSpeck Microspheres, 0,1 µm (c) für niedrigauflösende Bildgebung, Invitrogen FocalCheck Beads, 6 µm oder 15 µm und (d ) MicroScope World, 25 mm KR812.

Messung und rechnerische Korrektur von Bildfehlern. Bekannte Proben werden verwendet, um systematische Fehler in Mikroskopiebildern zu messen. Aus der Messung kann eine Korrektur generiert, getestet und auf experimentelle Bilder angewendet werden. Korrekturverfahren sind hier zusammengefasst und einige Schritte (z. B. Hintergrundsubtraktion) wurden weggelassen. Verweise, die diese Korrekturen detaillierter behandeln, finden Sie im Haupttext. (EIN) Beleuchtungsungleichmäßigkeit. Konzentrierter Farbstoff wird zwischen einem Deckglas und einem Objektträger angebracht und versiegelt. Dieser Farbstoff wirkt bei ausreichender Konzentration als dünne, gleichmäßig fluoreszierende Probe (siehe Model und Burkhardt, 2001 Model, 2006). Dieses 𠇏lat-Field-Bild” kann verwendet werden, um einen Bereich mit minimaler Beleuchtungsvariation (grünes Kästchen) zu bestimmen, oder kann verwendet werden, um experimentelle Bilder zu korrigieren. Die Korrektur wird getestet, indem auf eine biologische Probe von ungefähr gleichförmiger Intensität über das Sichtfeld aufgetragen wird, hier ein Nierenabschnitt, der mit AlexaFluor568 Phalloidin beschriftet ist. Linienscans unter jedem Bild zeigen die Intensität entlang der angezeigten weiß gepunkteten Linie. (B) Kanalregistrierung. Tetraspeck-Kügelchen sind mit vier fluoreszierenden Farbstoffen infundiert, einschließlich der hier abgebildeten grünen und roten Farbstoffe (pseudofarbenes Grün bzw. Magenta). Da sich die Bilder der Perlen in jedem Kanal perfekt überlagern sollten, können sie verwendet werden, um eine Transformationsmatrix zu generieren, die die Transformation beschreibt, die zum Ausrichten der Bilder erforderlich ist. Diese Matrix wird dann getestet, indem sie verwendet wird, um ein anderes Bild von Tetraspeck-Kügelchen zu korrigieren. Nach dem Testen kann die Matrix verwendet werden, um Kanäle experimenteller Bilder zu registrieren. (C) Durch bluten. Mit einem einzelnen Fluorophor markierte Proben werden verwendet, um das Durchbluten zu messen, indem alle Kanäle mit den gleichen Einstellungen abgebildet werden, die für die Akquisition im Experiment verwendet wurden. Hier werden 2,5-µm Perlen verwendet, die mit einem Farbstoff markiert sind, der Kanal 1 entspricht. Die Intensität des Durchblutens in Kanal 2 wird als Funktion der Intensität von Kanal 1 aufgetragen, und eine lineare Regression dieses Diagramms wird verwendet, um einen Durchblutungskoeffizienten zu erzeugen. Dieser Koeffizient wird dann getestet, indem er auf ein anderes einfach markiertes Kontrollbild angewendet wird und überprüft wird, dass das Durchbluten in Kanal 2 reduziert wird. Nach dem Test kann der Durchblutungskoeffizient verwendet werden, um das Durchbluten in experimentellen Bildern zu korrigieren (vorausgesetzt, die Kanäle sind richtig registriert, wie oben beschrieben). (D) Photobleichen. Proben mit stationärer Fluoreszenz werden verwendet, um eine Photobleaching-Kurve unter den geplanten experimentellen Bedingungen zu erzeugen. Diese Kurve wird an eine Exponentialfunktion angepasst, die dann getestet wird, indem ein anderer Satz von Bildern der stationären Probe korrigiert wird. Nach dem Test kann die Korrektur auf experimentelle Bilder unter ähnlichen Bedingungen angewendet werden, d, Wenn die Korrektur über mehrere Tage oder Sitzungen hinweg verwendet werden soll, sollte sie anhand von Bildern validiert werden, die an mehreren Tagen gesammelt wurden. FRET, Förster-Resonanz-Energieübertragung.

Bildfehler können auf verschiedene Weise korrigiert werden. (EIN) Ohne Korrektur gibt es deutliches Durchbluten von Kanal 1 in Kanal 2 (Dimmerflecken im Bild von Kanal 2). (B) Durchscheinen kann rechnerisch korrigiert werden ( Abb. 2 C ), aber die Korrektur kann zu Artefakten führen, die Intensitätsmessungen verzerren (siehe kontrastverstärkter Einschub). Durch Justieren der Probe (C) oder Justieren der Optik (D) im Mikroskop kann auch das Durchbluten reduziert werden. Ob ein Durchbluten für ein bestimmtes Experiment ein Problem darstellt oder nicht, hängt von der relativen Intensität der Fluorophore ab. In A sind die Kügelchen in Kanal 1 𾌀× heller als die Kügelchen in Kanal 2 in C, Kügelchen mit ähnlicher Intensität werden verwendet und ein Durchbluten ist nicht mehr nachweisbar. In D wird ein spektral verschobener Filtersatz (E) verwendet, um das Durchschlagen zu reduzieren. Auf den ersten Blick scheint keiner dieser Filtersätze eine signifikante Überlappung mit dem Anregungsspektrum des Farbstoffs zu haben, aber die geringe Überlappung wird durch den großen Intensitätsunterschied zwischen den Kanälen verschlimmert.

Bildkorrekturen müssen sorgfältig getestet werden. (A𠄼) Flatfield-Korrektur. (B) Wenn das Flatfield-Bild die Beleuchtungsverteilung wirklich wiedergibt, wird die Gleichmäßigkeit des Testbildes (Nierenabschnitt mit AlexaFluor568 WGA beschriftet) verbessert (siehe Zeilenscans unter den Bildern, gemessen an der durch die gepunktete weiße Linie in A gekennzeichneten Stelle). (C) Wenn die Korrektur mit einem Flatfield-Bild durchgeführt wird, das die Beleuchtungsverteilung nicht wiedergibt oder falsch normiert wurde, ist das Testbild nach der Korrektur weniger gleichmäßig. Das Korrigieren mit einem ungenauen Flatfield-Bild kann zu Fehlern bei quantitativen Intensitätsmessungen führen. Wenn das Flatfield-Bild in Tests nicht gut abschneidet, besteht eine bessere Lösung darin, einen Unterbereich mit weniger variabler Intensität zu definieren (siehe Abb. 2 A ). (D) Durchblutungskorrektur. Wenn der geschätzte Durchblutungskoeffizient ungenau ist, kann die Durchblutungskorrektur zu Artefakten im Bild führen, die den quantitativen Intensitätsmessungen einen Fehler hinzufügen. Da diese Bilder keine Überlappung zwischen den Kanälen enthalten (gemischte Perlen wie in den vorherigen Durchblutungsfiguren, Kanal 2 gezeigt), zeigen falsche Durchblutungskoeffizienten offensichtliche Artefakte Artefakte werden in experimentellen Bildern mit einer gewissen Überlappung des Signals weniger offensichtlich sein. Der Durchblutungskoeffizient sollte an einfach beschrifteten Probenbildern getestet werden, bevor er auf experimentelle Bilder angewendet wird. (E) Photobleaching-Korrektur. Die Probe in diesem Beispiel ist fixiert, was bedeutet, dass die Intensitätsänderung nur auf Photobleaching und Detektorrauschen zurückzuführen ist. Bei korrekter Messung der Photobleichungsrate bleiben die korrigierten Intensitätswerte über die Zeit konstant. Wird die Photobleichungsrate über- oder unterschätzt, sind die korrigierten Intensitätswerte nicht mehr konstant. Ungenaue Korrekturen sind offensichtlich, wenn sie auf eine stationäre Probe angewendet werden, aber eine Über- oder Unterkorrektur ist möglicherweise nicht zu erkennen, wenn sie auf ein Signal angewendet wird, das sich im Laufe der Zeit ändert. Maßstabsleisten: (A) 100 μm, (D) 5 μm.

Erkennung

Mikroskope unterscheiden sich stark in der Effizienz der Photonendetektion (Swedlow et al., 2002 Pawley, 2006a Murray et al., 2007). Jedes gegebene Abbildungssystem erfordert ein Mindestniveau an Fluoreszenzintensität, damit die Fluoreszenz nachweisbar ist, und ein Fehlen einer Detektion kann als Abwesenheit von Fluorophor fehlinterpretiert werden. Der Nachweis von Autofluoreszenz in unmarkierten Kontrollen kann verwendet werden, um optische und Erfassungsparameter festzulegen, die niedrige Fluoreszenzniveaus erkennen können, und um Ergebnisse zu validieren, in denen kein Fluorophor nachgewiesen wird.

Die Nachweisgrenze wird teilweise durch den Messfehler des Detektors bestimmt, der oft als Detektorrauschen bezeichnet wird (z. B. Leserauschen Lambert und Waters, 2014). Rauschen verursacht Intensitätsschwankungen sowohl oberhalb als auch unterhalb des Ground-Truth-Wertes, was bedeutet, dass es nicht von einem Bild subtrahiert werden kann. Die Größe dieser Schwankungen begrenzt sowohl die minimale Intensität als auch die kleinste erkennbare Intensitätsänderung. Die Rauscheigenschaften des Detektors variieren zwischen den Detektortypen (z., ladungsgekoppelte Gerätekameras, sCMOS-Kameras und Photomultiplier-Röhren Lambert und Waters, 2014 Stuurman und Vale, 2016). Die meisten Detektoren fügen den Intensitätswerten im Bild auch eine Konstante “offset” hinzu, um ein Abschneiden der Daten bei niedrigen Intensitäten zu verhindern. Der Offset kann durch Aufnahme eines Bildes ohne auf den Detektor gerichtetes Licht gemessen werden und muss von allen Intensitätsmessungen abgezogen werden.

Ungleichmäßige Beleuchtung

Die Fluoreszenzintensität hängt sowohl von der Beleuchtungsintensität als auch von der Fluorophorverteilung und der Eigenhelligkeit ab, und kein Mikroskop hat eine perfekt gleichmäßige Beleuchtung über das Sichtfeld. Wir können daher ohne Messung der Beleuchtungsverteilung nicht davon ausgehen, dass Unterschiede in der Fluoreszenzintensität zwischen den Bildern auf Änderungen des Fluorophors zurückzuführen sind. Der Effekt einer ungleichmäßigen Beleuchtung kann durch eine qualitative Bewertung nicht offensichtlich sein, kann jedoch zu ungenauen quantitativen Intensitätsmessungen führen ( 2A ) und eine genaue Bildsegmentierung (z. B. Schwellenwertbildung) erschweren.

Um das Beleuchtungsmuster aufzudecken, werden gleichmäßig fluoreszierende Proben verwendet, um Bilder zu erzeugen, in denen Intensitätsschwankungen über das Sichtfeld auf Beleuchtungsschwankungen und nicht auf Schwankungen der Fluorophorkonzentration zurückzuführen sind ( Abb. 2 A und Tabelle 2 Modell, 2006 Zucker, 2006 Wolf et al., 2013). Model und Burkhardt (2001) stellten eine clevere, kostengünstige und einfach herzustellende Probe zur Messung der Beleuchtungsgleichmäßigkeit vor, die unserer Meinung nach für quantitative Anwendungen konsistenter und genauer ist als andere häufig verwendete Proben (z. B. farbstoffinfundierte Kunststoff-Objektträger). Bilder von einheitlichen Proben werden als 𠇏latfield-Bilder” (IF) und werden verwendet, um Bilder von biologischen Proben zu korrigieren (IB) rechnerisch (Abb. 2 A Model, 2006) oder um Bildunterbereiche mit minimaler Beleuchtungsvariation zu identifizieren, auf die die Erfassung oder Analyse beschränkt werden kann. Rechnerische Korrekturen von IB werden mit Bildarithmetik durchgeführt. Die Bildintensität ist ein Produkt aus Beleuchtungsintensität und Fluorophorkonzentration, also Division von IB von ichF auf einer Pixel-für-Pixel-Basis zeigt die Intensitätsverteilung des Fluorophors (Bolte und Cordelières, 2006 Model, 2006 Hodgson et al., 2010 Spiering et al., 2013).Das Flatfield-Bild muss validiert werden. Eine Korrektur mit einem ungenauen Flatfield-Bild kann den Fehler im korrigierten Bild erhöhen ( 4C ).

Kanal-(Fehl-)Registrierung

Bilder unterschiedlicher Wellenlängen (z. B. Fluoreszenzkanäle), die von derselben Probe aufgenommen wurden, werden aufgrund von Unterschieden zwischen Fluoreszenzfiltern (Waters, 2009) und/oder chromatischer Aberration in Linsen (Keller, 2006 Ross et al.) nicht perfekt in XY oder Z ausgerichtet. , 2014). Multikamera- und Bildteilungssysteme können zusätzliche XY- und Z-Verschiebungen einführen. Eine Kanalfehlausrichtung aufgrund des Abbildungssystems ist in Bildern wiederholbar, die mit einem gegebenen Satz von Optiken (z. B. einer Kombination aus Filtersätzen und Objektivlinse) aufgenommen wurden, variiert jedoch, wenn die Optik gewechselt wird. Eine bekannte Probe kann verwendet werden, um Kanalfehlregistrierungen zu messen und zu korrigieren ( Abb. 2 B und Tabelle 2 Hodgson et al., 2010 Wolf et al., 2013). Für ein gegebenes Bildgebungssystem kann das Ausmaß der Verschiebung vernachlässigbar sein, für einige Experimente kann eine Kanalfehlregistrierung, die viel kleiner ist als die gemessenen Distanzen, die Ergebnisse nicht beeinflussen. Bei der Messung der Kolokalisation zwischen Objekten unterhalb der Auflösungsgrenze können jedoch selbst sehr kleine Verschiebungen zu ungenauen Daten führen ( Abb. 1 B ).

Die Kanalregistrierung wird unter Verwendung von Proben gemessen, bei denen die Verteilung des Fluorophors in jedem Kanal bekanntermaßen identisch ist, wie beispielsweise Kügelchen, die mit mehreren fluoreszierenden Farbstoffen infundiert sind ( 2B und Tabelle 2). Die seitliche Kanalregistrierung kann rechnerisch korrigiert werden ( Abb. 2 B Hodgson et al., 2010 Wolf et al., 2013). Eine axiale (Z) Kanal-Fehlausrichtung kann rechnerisch korrigiert werden, wenn eine 3D-z-Serie von Bildern gesammelt wird, oder kann durch Verwenden eines motorisierten Fokussiermotors kompensiert werden, um die Distanz der gemessenen Verschiebung zwischen der Erfassung von Kanälen zu verschieben.

Durch bluten

Obwohl allgemein anerkannt wird, dass Signale von einem Fluorophor durch Filter bluten können, die für die Abbildung eines anderen Fluorophors ausgelegt sind, wird das Ausmaß, in dem dies selbst bei häufig verwendeten Fluorophoren auftreten kann, unterschätzt (Bolte und Cordelières, 2006 Hodgson et al., 2010 Spiering et al al., 2013). Das Testen und Korrigieren auf Durchbluten ist besonders wichtig für Kolokalisationsexperimente, wo es zu falsch positiven Ergebnissen kommen kann ( Abb. 1 A ). Das Durchbluten wird mit “single-marked Kontrollen” gemessen: Proben, die mit nur einem Fluorophor markiert sind (Abb. 2 C). Um ein Durchbluten zu erkennen, sollten einfach markierte Kontrollen mit jedem Fluoreszenzkanal, der für die mehrfach markierten Proben verwendet wird, und mit den gleichen Erfassungseinstellungen wie für die mehrfach markierten Proben abgebildet werden.

Durchbluten ist definiert als der Prozentsatz des Fluorophor-A-Signals, das mit einem Fluorophor-B-Filtersatz gesammelt wurde. Daher hängt die Intensität des Durchblutens von der Intensität des Fluorophors A ab ( Fig. 3, A und C). Da die Intensität des Fluorophors A zwischen Zellen oder Strukturen variieren kann, können auch die Detektion und Intensität des Durchblutens über das gesamte Sichtfeld variieren.

Mit einer einfach markierten Kontrollprobe kann der Prozentsatz des Durchblutens von Fluorophor A als Steigung einer linearen Regression durch ein Diagramm der Intensität von Fluorophor B als Funktion der Intensität von Fluorophor A geschätzt werden (z. B. unter Verwendung von Coloc2 in Fidschi Schindelin et al., 2012 siehe Abb. 2 C für ein Beispieldiagramm). Dieser gemessene Durchblutungskoeffizient muss validiert werden, indem eine Korrektur an einem anderen einfach markierten Kontrollbild durchgeführt wird. Wenn der Koeffizient ungenau ist, kann die Durchblutungskorrektur Fehler in das korrigierte Bild einbringen ( 4D ).

Durchscheinen kann rechnerisch auf Pixel-für-Pixel-Basis korrigiert werden (Fig. 2C und 3B). Wenn eine einfach markierte Kontrolle zeigt, dass 10 % des Fluorophor-A-Signals durch einen Fluorophor-B-Filtersatz bluten, dann können 10 % der im Fluorophor-A-Bild gemessenen Intensität vom Fluorophor-B-Signal abgezogen werden (Abb. 2 C). Wenn jedoch das Durchbluten signifikant ist, kann der Wechsel zu Fluorophoren mit weiter spektraler Trennung oder die Verwendung spektral restriktiverer Filtersätze zu genaueren Daten führen ( 3D ).

Photobleichen

Fluoreszierende Proben bleichen bei Beleuchtung aus. Die Photobleichungsrate variiert zwischen verschiedenen Fluorophoren und mit der lokalen Umgebung des Fluorophors, der Umsatzrate und der Beleuchtungsintensität (Diaspro et al., 2006). In quantitativen Mikroskopieexperimenten sollten die Aufnahmeparameter sorgfältig angepasst werden, um die Beleuchtung und damit das Photobleichen zu minimieren. Selbst wenn das Photobleichen minimiert wurde, kann es erforderlich sein, Intensitätsänderungen aufgrund von Photobleaching zu messen und zu korrigieren, wenn quantitative Intensitätsmessungen im Zeitverlauf durchgeführt werden. Zusätzlich zum Photobleichen während der Akquisition kann Photobleaching vor dem Akquirieren von Bildern auftreten, wenn ein Sichtfeld fokussiert oder ausgewählt wird, und kann zu Fluoreszenzintensitätsmessungen führen, die die Menge der markierten Komponente nicht genau angeben. Um diesen Fehler zu minimieren, verwenden Sie beim Fokussieren und Auswählen von Sichtfeldern Durchlicht oder nehmen Sie einzelne Fluoreszenzbilder auf.

Eine Photobleichungskontrollprobe, die Fluorophor im Steady-State enthält, kann verwendet werden, um das Photobleichen, das während eines Zeitrafferexperiments auftritt, zu messen und zu korrigieren. Die Fluorophor-Intensität in dieser Kontrolle muss konstant sein, damit jegliche Intensitätsänderungen, die während der Aufnahme auftreten, auf Photobleaching zurückgeführt werden können. Intensitätswerte in der Kontrolle werden über die Zeit gemessen, und die resultierende Photobleaching-Kurve wird an eine einfache oder doppelte Exponentialkurve angepasst (Vicente et al., 2007), die dann zur Korrektur verwendet werden kann ( Abb. 2 D ). Die Photobleaching-Kontrolle muss der experimentellen Probe so ähnlich wie möglich sein (dh dasselbe FP-POI-Konjugat exprimiert im selben Zelltyp, aber mit einem Medikament behandelt, das den Steady-State induziert) und identische Aufnahmebedingungen müssen für die Bildgebung der Kontrolle verwendet werden und Versuchsproben. Ein idealer Versuchsaufbau besteht darin, eine Multi-Well-Platte und einen motorisierten Tisch für die Bildaufnahme zu verwenden, so dass Bilder der Photobleaching-Kontrolle und der Versuchsprobe im gleichen Zeitraffer aufgenommen werden können. Alternativ kann als Photobleaching-Kontrolle ein Bereich innerhalb eines Bildes verwendet werden, dessen Intensität sich im Verlauf des Experiments nicht ändern sollte. Diese Art der Korrektur kann mit dem ImageJ Bleach Correction-Plugin durchgeführt werden, wenn die Option Exponential Fit ausgewählt ist (Miura und Rietdorf, 2014). In FRAP-Experimenten kann die Intensitätsnormalisierung unter Verwendung einer interessierenden Region außerhalb der gebleichten Region zur Photobleaching-Korrektur verwendet werden (Phair et al., 2003 Bancaud et al., 2010).

Viele Variablen beeinflussen die Photobleichungsrate, einschließlich der lokalen Umgebung des Fluorophors, der Umsatzrate, der Position im Sichtfeld und der täglichen Variabilität der Beleuchtungsintensität (Diaspro et al., 2006), was eine genaue und präzise Korrektur für die Messung ermöglicht des Photobleichens anspruchsvoll und die Validierung von Korrekturmethoden kritisch. Die Korrektur kann validiert werden, indem man einen separaten Zeitraffer der fluoreszierenden Probe im stationären Zustand anwendet ( 2D ), sollte aber auch validiert werden, indem Proben mit gut charakterisierten oder bekannten Intensitätsänderungen korrigiert werden. Die Photobleaching-Korrektur unter Verwendung einer ungenauen Photobleaching-Kurve führt zu Fehlern in Intensitätsmessungen ( Fig. 4 E ). Berücksichtigen Sie bei der Durchführung einer Photobleaching-Korrektur, wie eine ungenaue Schätzung des Photobleachings die Ergebnisse verändern kann. Beispielsweise muss die Photobleaching-Korrektur eines Datensatzes zur Messung der Abbaurate eines fluoreszenzmarkierten POI genauer und präziser sein als die Photobleaching-Korrektur, die nur die Qualität der automatisierten Segmentierung im Zeitraffer verbessern soll.

Messvalidierung

Zusätzlich zur Fehlererkennung und -korrektur erfordert die quantitative Mikroskopie die Validierung, dass das Markierungsverfahren und das Bildgebungssystem verwendet werden können, um Messungen mit der Genauigkeit und Präzision durchzuführen, die zum Testen der experimentellen Hypothese erforderlich sind. Die Messvalidierung wird normalerweise unter Verwendung bekannter Proben, Manipulation des biologischen Systems (z. B. Arzneimittelbehandlungen, Mutanten) und/oder Positiv- und Negativkontrollen durchgeführt. Siehe Abb. 5 und Dorn et al. (2005), Joglekaret al. (2008) und Wu und Pollard (2005) für Beispiele der Messvalidierung.

Beispiel für die Validierung der Messung: Verwendung eines fluoreszierenden Biosensors zur Messung des subzellulären pH-Werts. Zur Validierung von Messungen werden bekannte Proben (grün) benötigt. Anhand dieser Kenngrößen lassen sich Dynamikbereich, Linearität und Wiederholbarkeit von Messungen (magenta) und Fehlerquellen in den Messungen (blau) charakterisieren. Weitere Informationen zu pH-Messungen finden Sie bei Grillo-Hill et al. (2014) und O𠆜onnor und Silver (2013).

Verzerrung, Verblindung und Randomisierung

Voreingenommenheit von Experimentatoren

Menschen sind anfällig für viele Arten unbewusster Voreingenommenheit, und Wissenschaftler sind keine Ausnahme (Nickerson, 1998 Ioannidis, 2014 Holman et al., 2015 Nuzzo, 2015 Lazic, 2016 Munafò et al., 2017). Jede subjektive Entscheidung, die in einem Experiment getroffen wird, ist eine Möglichkeit für Voreingenommenheit. Verzerrung ist ein noch größeres Problem bei Experimenten, die Bilder erzeugen, obwohl wir darauf vertrauen, dass unsere Augen uns genaue Informationen über die Welt um uns herum geben, ist die menschliche visuelle Wahrnehmung auf die Erkennung bestimmter Arten von Merkmalen ausgerichtet und nicht quantitativ (Russ, 2004). Die qualitative visuelle Beurteilung von Bildern ist subjektiv und daher anfällig für viele Arten von Verzerrungen, sowohl wahrnehmungsbezogen als auch kognitiv (Tabelle 3). Insbesondere können Schlussfolgerungen durch Apophenie (die Tendenz, Muster in der Zufälligkeit zu sehen) und Bestätigungsverzerrungen (die erhöhte Wahrscheinlichkeit, ein Ergebnis zu sehen, das unserem derzeitigen Verständnis entspricht, beeinflusst werden als eines, das nicht zutrifft) beeinflusst werden Lazic, 2016 Munafò et al., 2017 ). Abb. 6 zeigt ein Beispiel für Bilder, die aufgrund von Bestätigungsfehlern leicht fehlinterpretiert werden könnten. Glücklicherweise können Verzerrungen durch ein gutes experimentelles Design vermieden werden. Wir stellen zwei Schlüsselmethoden vor, die in Mikroskopieexperimenten nützlich sind: Verblindung und Automatisierung.

Tisch 3.

Art der VoreingenommenheitBeispiele in bildgebenden ExperimentenStrategien
Selektionsbias      • Scannen von Proben für Sichtfelder, die “gut aussehen” oder “worked” basierend auf subjektiven oder undefinierten Kriterien (auch Bestätigungsverzerrung)      • Verwenden Sie die Mikroskopautomatisierung, um Sichtfelder auszuwählen oder das gesamte Well zu scannen
      • Auswahl nur der hellsten Zellen/Proben (z. B. höchste Expressionsstufe)      • Alle Daten in die Analyse einbeziehen oder Kriterien zum Verwerfen eines Datensatzes vor dem Sammeln von Daten festlegen
      • Nur Daten aus Experimenten einschließen, die in der Analyse oder Veröffentlichung “worked”
Bestätigungsfehler      • Anpassungen der Analysestrategie basierend auf der Richtung, in die die Ergebnisse gehen      • Validierung der Analysestrategie mit bekannten Proben/Kontrollen im Voraus
      • Auswahl von Analyseparametern, die die gewünschten oder erwarteten Ergebnisse liefern, anstatt eine Validierung mit bekannten Proben vorzunehmen      • Analyse blind durchführen
      • P-Hacking (Head et al., 2015)
      • Auswählen von Zellen oder Teilen einer Probe, die auf der Grundlage des erwarteten Ergebnisses “merkennen”
Beobachter-Bias/Experimentierer-Effekte      • Mehr Zeit mit Augenfokussieren (und damit Photobleaching) bei einer Bedingung verbringen als bei den anderen      • Erfassung und Analyse blind durchführen
      • Treffen von subjektiven Schlussfolgerungen auf der Grundlage einer visuellen Untersuchung des Bildes statt quantitativer Messungen      • Ziehen Sie Schlussfolgerungen basierend auf quantitativen Messungen und nicht auf qualitativen visuellen Eindrücken (Länge/Breite/Seitenverhältnis messen, Anzahl, Intensität messen usw.)
Asymmetrischer Aufmerksamkeitsbias/Disconfirmation Bias      • Bildkorrekturen nur durchführen, wenn das Ergebnis falsch erscheint oder nicht den Erwartungen entspricht      • Fehlerquellen berücksichtigen, validieren und Korrekturen auf alle Bedingungen und Experimente gleichermaßen anwenden

Die visuelle Inspektion von Bildern ist anfällig für Bestätigungsfehler. (A und B) In diesem Beispiel existieren Zellen, die mit einem fluoreszierenden Kernmarker markiert sind, in zwei Populationen, eine mit sehr heller Kernmarkierung und die andere mit viel dunklerer Markierung. Wenn das Bild automatisch skaliert wird (A), ist die Dimmerpopulation unsichtbar, aber Helligkeits- und Kontrastanpassungen zeigen, dass es auch eine Population von Zellen mit geringerer Intensitätsmarkierung (B) gibt. Schlussfolgerungen auf der Grundlage von Bildern zu ziehen, die mit der automatischen Skalierung (der gebräuchlichsten Standardanzeige in Bilderfassungsprogrammen) angezeigt werden, anstatt Bildintensitätswerte zu messen, kann zu ungenauen Schlussfolgerungen führen. Ein Forscher, der von der Bilddarstellung überzeugt ist, weil sie das erwartete Ergebnis darstellt, und daher die Entscheidung trifft, keine vollständige quantitative Analyse durchzuführen, unterliegt einem Bestätigungsbias. Maßstabsleiste: 50 μm. (C) Gemessene Intensität der Kerne in den Bildern. Jeder Punkt repräsentiert die mittlere Intensität eines Kerns.

Wenn Sie darüber nachdenken, wie Sie Verzerrungen in einem Experiment am besten vermeiden können, ist es wichtig zu berücksichtigen, ob das Experiment zur Hypothesengenerierung (“learning”) oder zum Testen von Hypothesen (𠇌onfirming”) gedacht ist. Die beiden Arten von Experimenten haben unterschiedliche Designanforderungen, insbesondere in Bezug auf Methoden zur Vermeidung von Verzerrungen (Sheiner, 1997 Lazic, 2016). Bei hypothesenerzeugenden Experimenten geht es um Entdeckung und Erforschung und erfordern nicht unbedingt formale Methoden, um Verzerrungen zu vermeiden, aber sobald eine Hypothese erstellt wurde, muss sie mit einem Experiment getestet werden, das diese Methoden enthält. Dieselben Daten können nicht verwendet werden, um eine Hypothese zu generieren und zu unterstützen (Kerr, 1998, Lazic, 2016). Menschen erkennen oft Muster sogar in wirklich zufälligen Daten (Lazic, 2016), was zu Hypothesen führt, die durch den ursprünglichen Datensatz unterstützt werden können, aber bei unabhängiger Prüfung nicht standhalten. Wenn es mit einem unabhängigen Experiment getestet wird, sollten wahre Phänomene weiterhin auftreten, während überinterpretierte Muster nicht auftreten. Natürlich können Hypothesen aus jedem Datensatz entstehen, einschließlich eines Hypothesentestexperiments. Dies ist akzeptabel, solange sie klar als Post-hoc-Hypothesen präsentiert und anschließend unabhängig getestet werden (Kerr, 1998). Bei hypothesenprüfenden Mikroskopieexperimenten müssen alle Anstrengungen unternommen werden, um Verzerrungen durch eine oder mehrere der unten diskutierten Methoden zu vermeiden.

Strategien zum Abbau von Verzerrungen

Blendung

Verblindung bezieht sich auf Methoden, die die Identität der Probe oder des Bildes vor Forschern verbergen und ist in einigen Bereichen ein erforderlicher Standard (MacCoun und Perlmutter, 2015). Trotz Beweisen dafür, dass Verblindung den Effekt von Verzerrungen verringert (Holman et al., 2015), wird in Mikroskopieexperimenten in der Zellbiologie selten über Verblindung berichtet.

Eine häufige Begründung für nicht blinde Mikroskopieexperimente ist, dass der Unterschied zwischen Bildern unter verschiedenen Bedingungen offensichtlich ist, sodass selbst neu markierte Proben leicht zu unterscheiden sind. Die Natur der Verzerrung deutet jedoch darauf hin, dass der Unterschied zwischen den Bedingungen nach dem Entfernen der Etiketten möglicherweise weniger offensichtlich ist. Zusätzliche Behandlungen oder Kontrollen können den Datensätzen auch hinzugefügt werden, um die Vielfalt zu erhöhen und die Unterschiede zwischen den Bedingungen weniger offensichtlich zu machen. Ein weiteres Argument ist, dass Verblindung die Entdeckung neuer Phänomene behindern kann (MacCoun und Perlmutter, 2015). Die Unterscheidung zwischen hypothesenerzeugenden und hypothesenprüfenden Experimenten ist hier wichtig: Das Ziel eines hypothesenprüfenden Experiments ist nicht die Entdeckung. Andere interessante Phänomene können vor der Verblindung oder nach Entblindung der Ergebnisse sichtbar werden, was zur Generierung neuer Hypothesen führt, die dann unabhängig getestet werden können.

Die Verblindung während der Bildanalyse kann auf verschiedene Weise angegangen werden. Es kann so einfach sein wie das Umbenennen von Dateien. Forscher sollten vermeiden, experimentelle Bilder für die manuelle Auswahl von Regionen/Pixeln für die Analyse (d. h. Segmentierung) zu verwenden. Verwenden Sie stattdessen einen Fluoreszenzkanal oder ein Durchlichtbild, aus dem nicht auf den Inhalt des Versuchsbildes geschlossen werden kann. Wenn ein Experiment beispielsweise die Messung von Veränderungen der Lokalisation eines fluoreszenzmarkierten POI an einer Organelle beinhaltet, sollten Organellen direkt mit einem fluoreszierenden Marker markiert werden, der verwendet werden kann, um Organellen zu segmentieren, ohne auf den Kanal mit dem POI zu schauen.

Automatisierung

Ein weiterer Ansatz zur Reduzierung von Verzerrungen ist die Automatisierung von Schritten im Erfassungs- oder Analyseworkflow, die Verzerrungen unterliegen könnten (Lee et al., 2018). Die Automatisierung reduziert Verzerrungen, da die Forscher vor der Erfassung oder Analyse Auswahlparameter definieren müssen, die dann auf alle Proben/Bilder gleichermaßen angewendet werden.

Beim Erfassen von Bildern suchen Forscher häufig nach Proben und wählen manuell zu erfassende Sichtfelder aus. Dies kann in einigen Fällen hilfreich sein, um die Erfassungszeit und die Datengröße zu reduzieren, beispielsweise bei der Identifizierung und Beschränkung der Erfassung auf bestimmte Zelltypen in Gewebeschnitten. In vielen Fällen kann jedoch die visuelle Auswahl von Sichtfeldern für die Abbildung (und nicht für die Abbildung) während der Aufnahme zu Verzerrungen führen, die bei späterem Verdacht nicht ohne wiederholte Experimente behoben werden können. Wir empfehlen daher die Mikroskopautomatisierung zur Bildaufnahme zu verwenden. Softwarepakete für die Mikroskopaufnahme bieten Werkzeuge zur zufälligen Auswahl von Sichtfeldern oder zum Kacheln eines gesamten Deckglases oder einer Vertiefung. Bei Verwendung eines Mikroskops, dem die notwendigen motorisierten Komponenten fehlen, kann die Verzerrung durch Befolgen eines streng vorgegebenen Auswahlprotokolls reduziert werden, genau wie es der Computer in einem automatisierten Experiment tun würde. Wählen Sie beispielsweise Sichtfelder unabhängig vom Bildinhalt, indem Sie die Objektivlinse zunächst grob auf die Mitte des Deckglases ausrichten und dann eine bestimmte Anzahl von Sichtfeldern verschieben, bevor jedes nachfolgende Bild aufgenommen wird. Diese Methode funktioniert nur, wenn das Protokoll für jede experimentelle Bedingung strikt befolgt wird und eine Wiederholungsverblindung durch Neuetikettierung und Zufallsauswahl von Proben/Bedingungen hilft, die Konsistenz sicherzustellen.Kriterien zum Überspringen eines Sichtfelds oder zum Verwerfen von Daten sollten vor der Erfassung des Datensatzes ausgewählt und validiert werden.

Die manuelle Auswahl von Bildmerkmalen, die in die Analyse einbezogen werden sollen, kann ebenfalls zu Verzerrungen führen. Anstatt qualitativ Merkmale aus jedem Bild auszuwählen, die in die Analyse einbezogen werden sollen, sollten Forscher Auswahlkriterien definieren, die in den Methodenabschnitten berichtet werden können. Wie bei der Akquisition kann die Auswahl automatisiert oder manuell nach strengen Kriterien erfolgen. Dies kann beispielsweise so einfach sein, dass nur die Pixel mit Intensitätswerten von zwei Standardabweichungen über dem Hintergrund eingeschlossen werden. Häufiger ist es jedoch eine Herausforderung, ausreichende Kriterien für die automatisierte Auswahl von Bildmerkmalen zu definieren. Ansätze des maschinellen Lernens können sehr nützlich sein, um Auswahlkriterien zu generieren und sind in kostenlosen und Open-Source-Paketen verfügbar (Caicedo et al., 2017 Kan, 2017 http://ilastik.org/ [Sommer et al., 2011] https:/ /imagej.net/Trainable_Weka_Segmentation [Arganda-Carreras et al., 2017]). Bei der Bestimmung der Parameter, die für eine automatisierte Analyseroutine verwendet werden, sollten Sie nicht genau die Datensätze verwenden, die Sie letztendlich analysieren möchten. Unabhängig von der Methode zur Generierung von Auswahlkriterien sollten die Kriterien validiert werden. Beispiele für Verfahren zur Validierung von Auswahlkriterien der Bildanalyse umfassen die Verwendung bekannter Datensätze oder den Vergleich der Ergebnisse mehrerer Forscher, die mit der Anwendung von Auswahlkriterien auf denselben Satz von Bildern beauftragt sind, oder die manuelle und automatische Auswahl von Merkmalen. Weder die Bildanalysesoftware noch die Forscher werden Funktionen mit 100%iger Genauigkeit auswählen, aber die Automatisierung reduziert sowohl Verzerrungen als auch die Analyse größerer Datensätze, die für die Erstellung aussagekräftiger Statistiken nützlich sind.

Die Verwendung automatisierter Erfassungs- oder Analysetools zur Vermeidung von Verzerrungen schließt eine visuelle Überprüfung der Daten zur Qualitätskontrolle nicht aus. Regelmäßige Kontrollen sind notwendig, um sicherzustellen, dass automatisierte Prozesse wie erwartet funktionieren und erfordern in den meisten Fällen, dass ein Forscher mit den Bildern oder Daten interagiert. Beispielsweise ist die visuelle Überprüfung der Ergebnisse der automatisierten Segmentierung nützlich, um sicherzustellen, dass die Pipeline für alle Daten funktioniert, nicht nur für die Daten, die zum Entwerfen und Testen der Pipeline verwendet wurden. Um Verzerrungen zu vermeiden, sollten jedoch vor der Analyse Methoden zur Qualitätskontrolle und Kriterien zur Anpassung von Parametern oder zum Verwerfen von Daten geplant werden.

Die Automatisierung der Bildaufnahme und -analyse hilft Forschern auch bei der Reproduktion von Experimenten. Klar definierte automatisierte Auswahlverfahren können implementiert werden, wenn neue Forscher einem Labor beitreten, und können im Methodenteil einer Veröffentlichung klar beschrieben werden. Das Gleiche gilt nicht für die subjektive, nicht validierte manuelle Auswahl von Merkmalen durch einen einzelnen Forscher.

Methodenberichterstattung

Damit Mikroskopieexperimente reproduzierbar sind, müssen die Hardware- und Softwarekonfigurationen des Mikroskops genau und vollständig gemeldet werden. Einige Zeitschriften bieten detaillierte Listen mit Informationen an (die Zeitschrift für Zellbiologie enthalten), aber vielen fehlen spezifische Anweisungen. Nach unserer Lektüre der Literatur enthalten nur wenige Veröffentlichungen ausreichende Informationen, um Mikroskopieexperimente zu replizieren. Eine Checkliste der Punkte, die in einen Abschnitt über Mikroskopiemethoden aufgenommen werden sollten, finden Sie bei Lee et al. (2018).

Führen Sie während der Erfassung und Analyse detaillierte Aufzeichnungen über alle verwendeten Protokolle, Hardwarekonfigurationen, Softwareversionen und Einstellungen. Einige Aufnahmeinformationen werden in Bildmetadaten aufgezeichnet, aber Vorsicht: Metadaten können ungenau sein, wenn die Konfiguration des Mikroskops ohne Änderung der Software geändert wurde. Verwenden Sie nach Möglichkeit Bildverwaltungstools, die Bildspeicherung und Annotation an derselben Stelle kombinieren (Allan et al., 2012). Erstellen Sie mindestens einen Datenmanagementplan, bevor Sie mit einem Projekt beginnen, damit Sie Rohdaten, Aufnahmeeinstellungen, Bildverarbeitungsschritte usw. beim Erstellen einer Publikation leicht aufspüren können (Lee et al., 2018). Die Reproduzierbarkeit von Mikroskopieexperimenten wird mit ziemlicher Sicherheit durch den freien und offenen Austausch detaillierter Bildgebungsprotokolle (über Plattformen wie https://bio-protocol.org und https://www.protocols.io) und Primärdaten (über das Image Datenressource [Williams et al., 2017] und offene Datenformate [Linkert et al., 2010]).

Selbst Abschnitte zu Mikroskopiemethoden, die detaillierte Informationen über Akquisition und Analyse enthalten, vernachlässigen oft die Beschreibung der Methodenvalidierung. Wir ermutigen Forscher, alle Validierungsschritte zu melden, die sie bei der Entwicklung quantitativer Mikroskopie-Assays unternommen haben. Es ist ein weit verbreitetes Missverständnis, dass Bilder für bare Münze genommen werden können, und dies wird durch das Fehlen von Berichten über Validierungsschritte noch verschlimmert. Quantitative Mikroskopiearbeiten lesen sich oft als einfache Experimente, weil die komplexen Validierungsschritte nicht beschrieben (oder vielleicht nicht durchgeführt wurden). Dies verstärkt nicht nur die falschen Vorstellungen, dass Mikroskopie einfach ist und “Sehen ist Glauben,” macht es unmöglich, die Qualität der Ergebnisse zu beurteilen.

Abschluss

Die Bedeutung quantitativer bildgebender Verfahren in der zellbiologischen Forschung wird allgemein anerkannt. Die Quantifizierung hat viele Vorteile gegenüber der qualitativen Darstellung einer Handvoll Bilder aus einem Datensatz, einschließlich der strengen Definition von Auswahlkriterien und der einfachen Einbeziehung größerer Datensätze und statistischer Tests. Unserer Erfahrung nach unterschätzen Forscher jedoch oft die Schwierigkeit rigoroser quantitativer Mikroskopieexperimente. Bei der Beratung von Forschern zum experimentellen Design der Mikroskopie schlagen wir routinemäßig Verfahren zur Validierung von Methoden und Kontrollexperimenten vor. Manchmal erhalten wir die Rückmeldung, dass eine bestimmte Kontrolle oder Validierung nicht möglich ist, weil beispielsweise erforderliche Proben nicht vorbereitet werden können. Es ist wichtig zu verstehen, dass das Auslassen von Methodenvalidierungs- und Kontrollexperimenten genaue Schlussfolgerungen, die aus einem Experiment gezogen werden können, einschränkt, oft in einem Ausmaß, das den Zeit- und Arbeitsaufwand des Experiments nicht wert macht. Eine frühzeitige und gründliche Planung, einschließlich der Untersuchung der erforderlichen bekannten Proben und Kontrollproben vor der Vorbereitung von Versuchsproben, kann helfen, diese Situation zu umgehen. Wann immer möglich, ist es ratsam, fachkundige Mikroskopiker und Bildanalytiker zu konsultieren oder die Zusammenarbeit mit ihnen zu suchen. Quantitative Bildgebungsexperimente können schwierig zu entwerfen und zu validieren sein, und selbst für Experten sind oft mehrere Test- und Optimierungsrunden erforderlich, um Vertrauen in die Reproduzierbarkeit eines Protokolls zu erlangen. Leider können Forscher nicht davon ausgehen, dass ein Bildgebungsprotokoll, das in einem Abschnitt über veröffentlichte Methoden beschrieben ist, alle Validierungen und Kontrollen enthält, die zur Interpretation der Ergebnisse erforderlich sind Anpassung eines veröffentlichten Protokolls zur Verwendung in Ihren eigenen Experimenten.

Materialen und Methoden

Abb. 1 Methoden

(A) Bilder von 2,5-µm Inspeck-Kügelchen (100 % Intensität grün, 0,3 % Intensität rot ThermoFisher), die in Glycerin montiert waren, wurden mit einem Nikon Ti2-Mikroskop unter Verwendung eines Plan-Apochromat 20× 0,75-NA-Objektivs (Nikon ) und Orca-Flash 4.0 LT Kamera (Hamamatsu Photonics), gesteuert von NIS Elements (Nikon). Grünkanalbilder wurden mit einem Semrock-Filtersatz (466/40 Anregung, 495 dichroitisch und 525/50 Emission) aufgenommen. Rotkanalbilder wurden mit einem Chroma Cy3-Filtersatz gesammelt (siehe Fig. 3E, Filtersatz A, für Spektren). Grüne Kreise bezeichnen ausgewählte grüne Perlen und magentafarbene Kreise bezeichnen ausgewählte rote Perlen. Die Bilder werden mit Fidschi kontrastgedehnt (Helligkeit und Kontrast “reset”) (Schindelin et al., 2012). (B) 0,2-µm Tetraspeck-Kügelchen wurden auf einem DeltaVision OMX Blaze Mikroskop (GE) mit einem Plan Apo 60× 1,42-NA Objektiv (Olympus) und den FITC- und mCherry-Presets (488 Laser, 528/58 Emission) abgebildet Filter und 568 Laser, 609/37 Emissionsfilter). Die Kanäle wurden auf separaten Kameras (pco.edge PCO) abgebildet. Bilder wurden in Fidschi pseudo-farbig, überlagert und Helligkeit und Kontrast angepasst (Schindelin et al., 2012). (C) HeLa-Zellen wurden entweder fixiert und gegen POI immunfluoreszenzmarkiert oder nach Behandlung mit SNAP-Surface AlexaFluor647 (New England BioLabs) und Waschen live abgebildet. POI-SNAP-Zellen enthalten eine POI-SNAP-Tag-Fusion WT-Zellen enthalten kein SNAP-Tag. Alle Zellen wurden auf einem Nikon Ti TIRF-Mikroskop mit einem Apo TIRF 100× 1.49-NA Ölobjektiv (Nikon) und einer ImagEM EMCCD-Kamera (Hamamatsu Photonics), gesteuert von Metamorph (Molecular Devices), abgebildet. Die Aufnahmeeinstellungen für SNAP-Farbstoffbedingungen sind identisch, jedoch nicht für Immunfluoreszenzbilder aufgrund der unterschiedlichen verwendeten Farbstoffe. Gamma 0,5 wurde auf Bilder in C unter Verwendung von Fidschi angewendet.

Abb. 2 Methoden

(A) Ein konzentrierter Fluorescein-Objektträger wurde gemäß Modell (2006) hergestellt. Die Bilder wurden mit einem Nikon Ti2-Mikroskop aufgenommen, das mit einem Plan Fluor 10× 0.3-NA Ph1 DLL-Objektiv (Nikon) und einer ORCA Flash 4.0 LT-Kamera (Hamamatsu Photonics) ausgestattet war, die von NIS Elements (Nikon) gesteuert wurde. FluoCells vorbereiteter Objektträger #3 (ThermoFisher) wurde für Testbilder verwendet. Fiji wurde verwendet, um Zeilenscans zu erstellen, den Kameraversatz zu subtrahieren, eine Korrektur durchzuführen (Bildrechnerfunktion) und Helligkeit und Kontrast anzupassen. (B) 0,2-µm Tetraspeck-Kügelchen wurden auf einem DeltaVision OMX Blaze Mikroskop (GE) abgebildet, wie in 1B beschrieben. Bilder wurden pseudo-farbig und überlagert, und Helligkeit und Kontrast wurden in Fidschi angepasst (Schindelin et al., 2012). Die Transformationsmatrix wurde mit den Funktionen imregtform und imwarp in MATLAB (Image Processing Toolbox) generiert und angewendet. (C) 2,5-µm Inspeck-Kügelchen (100 % Intensität grün, 0,3 % Intensität rot ThermoFisher) wurden in Glycerin montiert und auf dem gleichen Aufbau wie in Abb. 1A abgebildet. Der Bleed-Through-Koeffizient wurde anhand der Steigung der Korrelationsregressionslinie geschätzt, die vom Coloc2-Plugin in Fidschi generiert wurde. Die Korrektur wurde mit Fiji (Math > Multiply and Image Calculator Funktionen) durchgeführt. (D) LLC-PK1-Zellen, die H2B-mCherry exprimieren, wurden auf einer 35-mm-Schale #1.5 mit Deckglasboden (MatTek) ausplattiert, mit Formaldehyd fixiert und auf einem Nikon Ti-Eclipse-Mikroskop mit einer Yokogawa CSU-X1-Drehscheibe abgebildet konfokaler Kopf, gesteuert von Metamorph (Molecular Devices). Die Bilder wurden mit einer Hamamatsu Flash 4.0 V3 sCMOS-Kamera unter Verwendung eines Plan Apo 20× 0.75-NA-Objektivs aufgenommen. Zur Beleuchtung wurde ein 561-nm-Laser verwendet. Die Emission wurde mit einem 620/60-nm-Filter (Chroma) ausgewählt. Helligkeit und Kontrast wurden in Fidschi angepasst (Schindelin et al., 2012). Die Intensität eines manuell ausgewählten ROI innerhalb eines Kerns wurde in Fidschi gemessen und in Microsoft Excel grafisch dargestellt. Eine einzelne exponentielle Anpassung mit Offset wurde mit dem Kurvenanpassungstool in Fidschi durchgeführt. Die Korrektur wurde in Microsoft Excel durchgeführt, indem der gemessene Intensitätswert zu jedem Zeitpunkt durch den Wert der normalisierten angepassten Exponentialfunktion geteilt wurde.

Abb. 3 Methoden

Bilder wurden mit dem gleichen Aufbau wie in Fig. 1A gesammelt, mit Ausnahme von Feld D, das den Filtersatz B verwendete, der im Spektrum dargestellt ist (545/30 Anregung, 570 dichroitisch und 610/75 Emissions-Chroma). Die Belichtungszeiten sind für alle Bilder von Kanal 2 gleich. Für Kanal 1 in Panel C wurde eine längere Belichtungszeit verwendet, da die verwendeten Perlen viel dunkler waren. Die rechnerische Durchblutungskorrektur in B wurde wie in 2 beschrieben durchgeführt. Die Bilder wurden in Fidschi hinsichtlich Helligkeit und Kontrast angepasst. Spektren wurden von ThermoFisher (Beads) und FPbase.org (Filter) heruntergeladen und dann in Excel geplottet.

Abb. 4 Methoden

(A𠄼) Bilder wurden gesammelt und wie in Abb. 2 A beschrieben korrigiert. Bilder werden mit der mpl-viridis LUT (Fidschi) angezeigt. (D) Bilder wurden gesammelt und korrigiert, wie in Fig. 2C beschrieben. (E) Bilder wurden gesammelt und korrigiert, wie in Fig. 2D beschrieben. Über- und unterkorrigierte Plots wurden unter Verwendung von Exponentialfunktionen erzeugt, die verändert wurden, um eine höhere oder niedrigere Photobleichungsrate widerzuspiegeln.

Abb. 6 Methoden

Bilder wurden wie in Fig. 2D beschrieben gesammelt. Kerne wurden in Fidschi durch Schwellenwerte, binäre morphologische Operationen und das Werkzeug „Partikel analysieren“ segmentiert. Mittlere Intensitätsmessungen pro Kern wurden mit PlotsOfData (https://huygens.science.uva.nl/PlotsOfData/Postma and Goedhart, 2018 .) aufgezeichnet Vordruck).


MODELLIERUNGSANSÄTZE

Übersicht über Ansätze zur räumlichen und stochastischen Modellierung und Simulation molekularer Reaktionen, die zellbiologischen Phänomenen zugrunde liegen

Computermodelle, die die Biochemie zellbiologischer Prozesse simulieren, müssen molekulare Akteure und ihre Reaktionen beschreiben können. Je nach Fragestellung kann jedoch die Berücksichtigung räumlicher Aspekte und stochastischer Effekte (Abbildung 1) wesentlich sein oder auch nicht, wie wir in zeigen Ergebnisse. Das Hinzufügen einer räumlichen Auflösung ist rechenintensiv, und stochastische Simulationen sind in der Regel teurer als ihre deterministischen Gegenstücke. Um beispielsweise eine Ganzzellensimulation zu versuchen, muss man wählen, ob mehr Komponenten und ein komplexeres Reaktionsnetzwerk erforderlich sind, was im Allgemeinen den Verlust der räumlichen Auflösung erfordert (Tomita et al., 1999 Sanghvi et al., 2013) oder wenn eine räumliche Auflösung erforderlich ist, muss das Reaktionsnetzwerk vereinfacht werden (Ghaemi et al., 2020). Wenn die räumliche Auflösung im Vordergrund steht, müssen Spezies als einzelne Partikel aufgelöst werden, wobei Fluktuationen in der Kopienzahl mit erheblichem Mehraufwand erfasst werden (Ergänzungstabelle S3), oder reicht ein effizienter deterministischer Ansatz aus?

ABBILDUNG 1: Übersicht über nichträumliche und räumliche Simulationsansätze zur Beschreibung der Zeitabhängigkeit von interagierenden und reagierenden Spezies. Verschiedene Farben repräsentieren verschiedene Arten. Räumliche Modelle werden zu einem Zeitpunkt dargestellt. Links: Deterministische Ansätze zur Modellierung biologischer Systeme lösen (a) gewöhnliche oder (c) partielle Differentialgleichungen (ODE/PDE) mit numerischen Standardmethoden und profitieren von einer umfassenden Methodenentwicklung in Naturwissenschaften, Mathematik und Ingenieurwissenschaften. PDEs können beispielsweise wie gezeigt numerisch auf einem Netz gelöst werden. Rechts: Stochastische Simulationsansätze Stichproben aus einer zeit- (und raum-)abhängigen Wahrscheinlichkeitsverteilung, die typischerweise unimolekulare und bimolekulare Reaktionen sowie Diffusion für räumliche Methoden modelliert. (d) Reaktions-Diffusions-Mastergleichungs(RDME)-Methoden sind die Erweiterung der (b) chemischen Mastergleichungs(CME)-Methoden auf ein räumliches Gitter, bei dem ganzzahlige Kopienzahlen von Spezies verfolgt werden und zwischen Gittersubvolumina diffundieren können. (e) Einzelpartikel-Methoden propagieren einzelne Partikel, die einer Diffusion im kontinuierlichen Raum unterliegen, wobei bimolekulare Reaktionen nur bei Kollision oder Kolokalisation im Raum auftreten können. Eine Anleitung zu den entsprechenden Softwaretools jedes Ansatzes finden Sie in der Zusatztabelle S1.

Ob die räumliche oder stochastische Auflösung berücksichtigt wird, beeinflusst auch die Art der erforderlichen Daten und (a priori bekannten) Parameter und die zu erwartenden Ergebnisse. Auf Differentialgleichungen basierende Modelle können phänomenologische Elemente wie Hill-Typ-Funktionen enthalten, die verschiedene Modellelemente überbrücken, deren gegenseitige Abhängigkeiten entweder nicht gut verstanden sind oder deren Details für die Gesamtqualität einer Modellierungsanstrengung als weniger wichtig angesehen werden. Darüber hinaus ermöglichen abstraktere Modelle manchmal die Identifizierung von Komponenten (Arten oder Mechanismen), deren Kinetik wenig zum Verhalten eines Modells beiträgt oder die mit anderen Arten in einen Topf geworfen werden können, um seine rechnerische Darstellung zu vereinfachen (Rao et al., 2014). Dies kann besonders bei sehr großen Systemen mit klar definierten Randbedingungen nützlich sein, wie z. B. metabolische Netzwerkmodelle (Masid et al., 2020). Mit abnehmender Komplexität eines Modells wird es auch einfacher, robuste Parameterschätzungen durchzuführen und zu bestimmen, wie gut das Modell auf Basis der verfügbaren Daten gerechtfertigt ist (Raue et al., 2009). Allerdings besteht bei Modellabstraktionen auch die Gefahr, dass sie die Fähigkeit verlieren, das Verhalten biologischer Einheiten (z et al., 2019).

Nichträumliche Modellierungsansätze

In vielen Situationen können wir ein biochemisches System in Bezug auf die Gesamtkonzentrationen wechselwirkender Molekültypen und -komplexe (zusammen „Spezies“ genannt) angemessen beschreiben, während wir die räumlichen Variationen dieser Konzentrationen vernachlässigen. Reaktionsgeschwindigkeitsgleichungen (siehe Kasten 1) beschreiben, wie sich die Spezieskonzentrationen im Laufe der Zeit entwickeln. Die Terme in diesen Gleichungen ergeben sich aus den Reaktionsgeschwindigkeiten, die im System auftreten können, die oft durch das Massenwirkungsgesetz beschrieben werden. Die Reaktionsgeschwindigkeit zwischen zwei wechselwirkenden Spezies kann durch das Produkt ihrer Konzentrationen und einer Geschwindigkeitskonstanten angegeben werden, z. kAn für die in Kasten 1 beschriebene Ligand-Rezeptor-Bindung. Die bimolekularen Geschwindigkeitskonstanten, die in diesen Gleichungen erscheinen, werden manchmal als „makroskopische“ Geschwindigkeitskonstanten bezeichnet, weil sie die durchschnittliche Reaktionsgeschwindigkeit unter Annahme einer homogenen Verteilung der reagierenden Spezies beschreiben. Im Gegensatz dazu können „mikroskopische“ Geschwindigkeitskonstanten, die die Reaktionskinetik auf der Skala wechselwirkender Partikel bestimmen, mehr Details über die Art und Weise berücksichtigen, wie sich die Moleküle einander nähern, wie unten diskutiert.

KASTEN 1: Reaktionsgeschwindigkeitsgleichungen

Technisch gesehen sind Reaktionsgeschwindigkeitsgleichungen gewöhnliche Differentialgleichungen (ODEs). Hier bezieht sich das „Gewöhnliche“ darauf, dass es sich nur um Zeit handelt (im Gegensatz zu beispielsweise Zeit und Platz). Um die zeitliche Entwicklung mehrerer interagierender Molekültypen zu beschreiben, verwendet man gekoppelte Differentialgleichungen, die ausdrücken, wie die Konzentrationsänderungen der Komponenten verknüpft (oder gekoppelt) sind. Für Anwendungen siehe zum Beispiel Aldridge et al. (2006) und Tyson et al. (2003). Aus numerischer/mathematischer Sicht sind ODEs, die biochemische Reaktionen beschreiben, typischerweise einfach, und es gibt viele Werkzeuge, die sie lösen können, um die zeitliche Entwicklung der Konzentrationen in ODE-Modellen zu erhalten.

Betrachten Sie ein einfaches Modell einer Rezeptorbindung an einen Liganden. Wir nennen R die Konzentration des Rezeptors, L die des Liganden und RL die des Komplexes, der durch die Bindung der beiden gebildet wird. Die Geschwindigkeitsgleichungen, die die Zeitableitungen von RL, R und L für diese Reaktion könnte man schreiben als

Hier, kAn und kaus sind die Assoziations- bzw. Dissoziationskonstanten. Der zeitliche Verlauf von RL ähnlich der roten Kurve in Abbildung 1a aussehen, während Zeitverläufe von R und L würde der blauen Kurve ähnlich sein. Diese Gleichungen können analytisch gelöst werden, aber die zusätzliche Komplexität der meisten biologisch relevanten Modelle erzeugt Gleichungen, die eine numerische Lösung durch Computer erfordern.

Die chemische Mastergleichung (CME McQuarrie, 1967 Gillespie, 1992 Ge und Qian, 2013) berücksichtigt die diskrete und stochastische Natur des biochemischen Systems, die Unterschiede zu deterministischen Geschwindigkeitsgleichungen (Samoilov und Arkin, 2006) verursachen kann. Die CME beschreibt, wie sich die Wahrscheinlichkeit, dass sich das System in einem bestimmten Zustand befindet, im Laufe der Zeit entwickelt, indem Reaktionswahrscheinlichkeiten (Eintrittswahrscheinlichkeit pro Zeiteinheit) anstelle der äquivalenten Reaktionsgeschwindigkeiten verwendet werden. Genau wie Reaktionsgeschwindigkeitsgleichungen geht die CME von gut gerührten (homogenen) Systemen aus. In den meisten praktischen Modellierungsanwendungen kann die CME nicht analytisch (d. h. mit einem geschlossenen Ausdruck) gelöst werden, aber Simulationen der CME sind konzeptionell einfach und weit verbreitet (siehe Kasten 2).

Sowohl der Reaktionsgeschwindigkeitsansatz als auch der CME-Ansatz können einfach nicht die Effekte inhomogener Molekülverteilungen im Raum erfassen, wie z. Für realistischere Simulationen zellulärer Prozesse müssen wir uns anderen rechnerischen Ansätzen zuwenden, die explizit den Weltraum einbeziehen.

Räumliche Modellierungsansätze

Die molekularen Komponenten lebender Systeme sind nicht homogen verteilt und die hohe räumliche Auflösung der heutigen Fluoreszenzmikroskopie liefert uns immer mehr Beispiele für biologische Phänomene, bei denen die räumliche Anordnung der zugrunde liegenden biochemischen Prozesse von grundlegender Bedeutung ist. Um solche Phänomene zu modellieren, müssen wir von nicht-räumlichen zu räumlichen Simulationen wechseln. Dieser Umstieg ist jedoch häufig nicht einfach, da immer mehr Modell- und Systemmerkmale spezifiziert werden müssen (Abbildung 2a). Der wichtigste Unterschied zwischen nichträumlichen und räumlichen Simulationen besteht darin, dass letztere die Translokation der wechselwirkenden Moleküle berücksichtigen. Im einfachsten Fall bedeutet dies, dass neben Reaktionen auch die Diffusion molekularer Spezies im Raum simuliert werden muss. Neben der Diffusion muss die Systemgeometrie festgelegt werden und was an den „Wänden“ passiert. Dies ist wesentlich schwieriger zu implementieren, wenn das räumliche System, das die wechselwirkenden Moleküle enthält, nicht einfach eine quadratische Box mit starren Wänden ist. Realistische räumlich aufgelöste Modelle zielen oft darauf ab, Aspekte wie bestimmte Zellmorphologien zu erfassen, Beispiele umfassen synaptische Strukturen mit schmalen Regionen, die mit größeren Zellkörpern verbunden sind (Rangamani et al., 2016 Cugno et al., 2019) oder Geometrien, die flach und fast zweidimensional sind, wie lamellipodiale Fortsätze in migrierenden eukaryotischen Zellen (Nickaeen et al., 2017) (Abbildung 2b). Geometrien für Zellsimulationen können von Hand entworfen werden, abgeleitet von Mikroskopbildern (Schaff et al., 2000) oder aus maschinell gelernten Zellmodellen generiert (Majarian et al., 2019). Derzeit gibt es nur wenige Simulationswerkzeuge, die zelluläre Biochemie innerhalb dynamischer Morphologien modellieren können (Angermann et al., 2012 Tanaka et al., 2015) und die computergestützte Behandlung von Reaktions-Diffusions-Prozessen innerhalb von Domänen mit beweglichen Grenzen ist immer noch ein sehr aktives Forschungsgebiet (Wolgemuth und Zajac, 2010, Novak und Slepchenko, 2014). Wir stellen fest, dass Modelle, die sich bewegende Grenzen zulassen (die normalerweise die Membran darstellen), nicht unbedingt die Biophysik der Membrandynamik erfassen (Abbildung 2d). Sie lassen sich methodisch entkoppeln, sind es aber grundsätzlich nicht.

ABBILDUNG 2: Anforderungen an räumliche Ansätze und deren Erweiterbarkeit. (a) Für alle räumlichen Modelle müssen sie zusätzlich zur Behandlung fundamentaler Reaktionstypen in allen Dimensionen (3D, 2D,1D) und zwischen allen Dimensionen (zum Beispiel molekularer Austausch zwischen Volumen [3D] und Oberflächen [2D]) einen Bewegungsgleichung, typischerweise Diffusion, und Randbedingungen der Systemgeometrie. (b) Fortgeschrittenere Behandlungen von gekrümmten und komplexen Grenzen erfordern zusätzliche Sorgfalt bei der Behandlung von Reaktionen und Diffusion. (c) Räumliche Ein-Teilchen-Methoden können basierend auf dem von ihnen verwendeten Modell klassifiziert werden und darüber hinaus, ob sie große Zeitschritte unterstützen. In beiden Modellen erfordert die Fähigkeit, große Zeitschritte zu machen, im Allgemeinen Reaktionswahrscheinlichkeiten (preagieren), die durch analytische Lösungen für den Anteil der reaktiven Diffusionstrajektorien bestimmt werden (nicht alle Kollisionen führen zu Reaktionen, wenn die mikroskopische Geschwindigkeit kein<∞). Bei den volumenreaktiven Verfahren werden hier Kurzzeitschritt-Approximationen verwendet, mit Ausnahme von MCell, die im Text beschrieben wird. (d) Einzelteilchenmethoden haben die Fähigkeit, höher aufgelöste Merkmale einzubauen, obwohl diese ihre Bewegungsgleichung ändern und neue Definitionen von p . erfordernreagieren. Wir stellen fest, dass PDE-basierte Modelle auch über die rein diffusive Dynamik hinausgehen können. In der ergänzenden Tabelle S2 fassen wir die Funktionen zusammen, die in häufig verwendeten Softwaretools verfügbar sind.

Räumliche Modelle können viele zusätzliche Funktionen wie Mechanik, Elektrostatik oder grobe Molekülstruktur einbauen, die für nützliche Simulationen zellbiologischer Prozesse besonders wichtig sein können (Abbildung 2d). Modellierungsbemühungen, die diese zusätzlichen Merkmale berücksichtigen, um ihre Simulationen des zellulären Verhaltens realistischer zu machen, sind jedoch äußerst selten. Ein Grund dafür ist, dass sie sowohl die numerische Implementierung als auch die mathematische Beschreibung des physikalischen Modells vor weitere Herausforderungen stellen. Ein weiterer Grund, diesen Detaillierungsgrad zu scheuen, ist, dass es häufig schwierig oder (derzeit) unmöglich wäre, genügend Parameter zu messen, um die verbleibenden, unbekannten Parameter durch rechnerisches „Fitting“ schätzen zu können. Mehrere Studien, die sich auf kleinere Regionen von Zellmembranen beschränken, haben (einfache) biochemische Prozesse in die Membranbiophysik integriert, um zu untersuchen, wie die Aktindynamik Membranvorsprünge antreibt (Mogilner und Rubinstein, 2005 Atilgan et al., 2006). Es besteht Grund zur Hoffnung, dass solche Bemühungen irgendwann auf größere Membrandomänen oder sogar ganze Zellen ausgeweitet werden können, da die Auflösung und der quantitative Informationsgehalt bei bildgebenden Messungen der zugrunde liegenden molekularen Diffusionsprozesse (Saha et al., 2016 Swaminathan et al., 2017).

Reaktions-Diffusions-Gleichungen stellen die einfachste Erweiterung von Reaktionsgeschwindigkeitsgleichungen zur Einbeziehung räumlicher Aspekte dar. Anstatt nur von der Zeit als Variable abhängig zu sein, hängt das Verhalten molekularer Spezies nun zusätzlich von Raumkoordinaten ab. Gleichungen, die diese Reaktionen beschreiben, müssen daher als partielle Differentialgleichungen (PDEs) und nicht als ODEs formuliert werden (Abbildung 1c). Wie bei mathematischen Modellen biologischer Phänomene häufig der Fall, können nur sehr einfache Situationen durch Gleichungen beschrieben werden, die explizit so gelöst werden können, dass die Lösung das Verhalten des modellierten Systems als stetige Funktion von Raum und Zeit beschreibt (Lipkow und Odde, 2008). In den meisten Fällen muss man Reaktions-Diffusions-Gleichungen durch numerische Simulationen untersuchen, die den Raum in Teilvolumina (häufig als „Voxel“ bezeichnet) aufteilen und berechnen, wie Diffusion zum Austausch zwischen den Teilvolumina führt. Reaktions-Diffusions-Gleichungen werden häufig verwendet, um die räumlich aufgelöste biomolekulare Dynamik und Wechselwirkungen zellbiologischer Systeme zu modellieren (Loew und Schaff, 2001). Die räumliche Dynamik kann über die reine Diffusion hinaus erweitert werden (z. B. um Advektion) und Reaktionen können phänomenologisch definiert werden (Hill-Typ oder Michaelis-Menten). Wie Reaktionsgeschwindigkeitsgleichungen erfassen auch deterministische PDE-Reaktions-Diffusions-Gleichungen keine stochastischen Fluktuationen der Speziesanzahl und können daher beispielsweise keine Musterbildung erfassen, die durch die Empfindlichkeit eines Systems gegenüber niedrigen Kopienzahlen angetrieben wird (Howard und Rutenberg, 2003).

Eine Möglichkeit, stochastische Reaktions-Diffusions-Gleichungen zu formulieren, ist die räumliche Ausdehnung der CME, bekannt als Reaktions-Diffusions-Mastergleichung (RDME) (Abbildung 1d). Anstatt nur zu definieren, wie ein System von einer Menge von Molekülen in bestimmten Zuständen zu einem anderen wechselt (z . Wichtig ist, dass die RDME genau wie die CME diskrete Änderungen beschreibt. Das heißt, es erfordert eine räumliche Diskretisierung in Teilvolumina, in denen jeweils wohldurchmischte Bedingungen vorherrschen. Diffusionsereignisse von Molekülen werden nur verfolgt, wenn sie zwischen benachbarten Teilvolumina auftreten, nicht innerhalb eines einzelnen Teilvolumens (Fange et al., 2010). Ähnlich wie im nichträumlichen Fall ist es normalerweise nicht möglich, die RDME analytisch zu lösen, sondern es ist gängige Praxis, Lösungen zu berechnen, indem eine bestimmte stochastische Zeitentwicklung des Systems simuliert wird, beispielsweise mit der SSA (siehe Kasten 2), die hinzufügt Diffusionssprünge auf die Liste der Ereignisse, die auftreten können, wie es bei Lattice Microbes (Roberts et al., 2013), StochSS (Drawert et al., 2016) und STEPS (Wils und De Schutter, 2009, Chen und De Schutter, 2017). Es muss jedoch darauf geachtet werden, den richtigen Grad an räumlicher Auflösung zu wählen, der das angemessene Gleichgewicht zwischen der Erfassung räumlicher Details und der Vermeidung von Subvolumengrößen findet, die so klein sind, dass die Diskretisierung die Moleküle so stark verdünnt, dass sie ihre potenzielle Reaktion im Wesentlichen nicht „sehen“ Partner mehr, weil die Moleküle über verschiedene Teilvolumina verteilt sind (siehe Kasten 3). Ein kürzlich erschienener Übersichtsartikel (Smith und Grima, 2019) diskutiert die Beziehung zwischen dem RDME-Modell und den partikelbasierten Reaktions-Diffusions-Modellen.

KASTEN 2: Chemische Mastergleichung (CME)

Die CME ist ein Satz gekoppelter linearer ODEs, die die Zeitabhängigkeit der Wahrscheinlichkeit beschreiben, jeden einzelnen Satz diskreter Zustände einzunehmen, wobei jeder Zustand durch die Kopienzahlen der Molekülspezies definiert ist. Die CME kann geschrieben werden als

wobei der Kompositionsvektor n besteht aus Kopienzahlen jeder molekularen Spezies, und somit hat man einen Satz von Gleichungen, eine für jede mögliche Instanzierung von n. Dabei läuft die Summe über alle möglichen Reaktionen R. Die υR ist der stöchiometrische Reaktionsvektor R das beschreibt, wie diese Reaktion die Anzahl der Moleküle im Zusammensetzungsvektor ändert n und αR (n) ist die Wahrscheinlichkeit pro Zeiteinheit, dass Reaktion R auftritt, vorausgesetzt, das System befindet sich in dem durch . beschriebenen Zustand n. Die CME ist aus konzeptioneller Sicht wichtig, da sie einen Rahmen zur Beschreibung probabilistischer Übergänge darstellt und somit die allen molekularen Wechselwirkungen zugrunde liegende Stochastik erfasst (Grima und Schnell, 2008 Schnoerr et al., 2017). Der Rechenaufwand für die Lösung der CME-Gleichungen skaliert exponentiell mit der Anzahl chemischer Spezies, und obwohl clevere Ansätze die Größe der Systeme, für die das CME gelöst werden kann, vergrößert haben (Munsky und Khammash, 2006), schränken die hohen Rechenkosten immer noch biologische Anwendungen ein . Eine intuitiv einfache Möglichkeit, eine Lösung des CME zu berechnen, besteht darin, eine Simulation aufzubauen, bei der die Zeit in kleinen diskreten Intervallen (Zeitschritten) vorwärts tickt. Der feste Zeitschritt in diesem Integrationsschema hat jedoch einen endlichen Fehler, der nur im Grenzwert eliminiert wird t → 0, da Reaktionen auch in kürzeren Zeitschritten auftreten können, als der gewählte, um das System in der Zeit auszubreiten.

Eine beliebte und präzise Methode, um Trajektorien durch den vom CME abgetasteten Zustandsraum zu generieren, ohne einen diskreten Zeitschritt wählen zu müssen, ist der stochastische Simulationsalgorithmus (SSA) (Gillespie, 1976 siehe Gillespie .). et al., 2013, für einen ausführlichen Überblick). In einer SSA-Simulation wird das Zeitintervall bis zum Auftreten der nächsten Reaktion selbst abgetastet, ebenso wie die Art der Reaktion, die auftreten wird (Gillespie, 1976). Molekülspezies, die schnell reagieren können und viele mögliche Interaktionspartner haben, werden häufig ausgewählt, während seltenere Moleküle, die mit langsameren Reaktionen verbunden sind, selten ausgewählt werden. Da die Simulationen mit jeweils einer Reaktion ablaufen, hängt der Rechenaufwand stark von der Anzahl der Partikel und den Reaktionsgeschwindigkeiten im System ab. Im Gegensatz dazu hängt der Aufwand zum Integrieren (oder Lösen) von Reaktionsgeschwindigkeitsgleichungen hauptsächlich davon ab, wie viele Molekültypen beteiligt sind und ob ihre Wechselwirkungen auf unterschiedlichen oder ähnlichen Zeitskalen stattfinden. Es wurden verschiedene Ansätze entwickelt, um die Effizienz sowohl der exakten (Gupta und Mendes, 2018) als auch der approximativen (Schnoerr et al., 2017) stochastische Simulationen des CME. Darüber hinaus wurden effiziente Methoden entwickelt, um Verteilungen und Momente direkt aus dem CME selbst zu berechnen (Hasenauer et al., 2014 Hellander et al., 2017). Eine stochastische Simulation des Beispielsystems aus Kasten 1 würde ähnlich wie in Abbildung 1b aussehen. Beachten Sie jedoch, dass eine solche Trajektorie nur einen möglichen Zeitverlauf darstellt, der mit der zugrunde liegenden CME kompatibel ist. Dies bedeutet, dass viele stochastische Simulationstrajektorien gesammelt werden müssen, um Wahrscheinlichkeitsverteilungen und Momente der CME zu bestimmen.

KASTEN 3: Räumliche Diskretisierung von Reaktions-Diffusions-Gleichungen

Um als PDEs modellierte Reaktions-Diffusions-Prozesse numerisch zu lösen, kann es schwierig sein, die geeignete räumliche Diskretisierung der modellierten biologischen Geometrie zu wählen. Eine zu grobe Diskretisierung unterdrückt viele räumliche Details und stellt eine schlechte Annäherung an die zugrunde liegende Biologie dar. Die Verfolgung des Inhalts vieler sehr kleiner Voxel wird jedoch nicht nur rechnerisch sehr aufwendig sein, sondern kann auch zu Situationen führen, in denen die Annahmen der Massenwirkungskinetik nicht mehr strikt gelten, da der Anteil der Moleküle im System, die ein einzelnes bevölkern Voxel wird so klein, dass schon das Konzept einer durchschnittlichen Konzentration problematisch wird. Darüber hinaus hängt die Genauigkeit und Effizienz von PDE-Lösern nicht nur von der Auflösung der räumlichen Diskretisierung (manchmal als Gitter oder Netz bezeichnet) ab, sondern auch vom Diskretisierungsschema, das sich beispielsweise in der Form der Voxel manifestiert. Die Praxis des Entwurfs adaptiver Netze, d. h. die Kombination von Voxeln unterschiedlicher Form und Größe in einer Simulation, um bei Bedarf kleinräumige räumliche Details zu erfassen und gleichzeitig die Gesamtzahl der Voxel so gering wie möglich zu halten, ist ein aktives Forschungsgebiet. Die Struktur des Netzes muss auch an die gewählte numerische Methode angepasst werden, um die Reaktions-Diffusions-PDEs zu lösen. Finite-Volumen-Methoden simulieren direkt den Diffusionsaustausch zwischen Voxeln. Im Gegensatz dazu optimieren Finite-Elemente-Algorithmen die Koeffizienten der Interpolationsfunktionen an den Knoten des Netzes, um gute Näherungen des Konzentrationsprofils zu erreichen, das sich aus der Kombination von Reaktionen und Diffusion ergibt. Siehe zum Beispiel Richmond et al. (2005). Wir stellen fest, dass netzfreie Ansätze zur Lösung von PDEs eine Alternative zu räumlichen Diskretisierungsmethoden darstellen.

Ähnlich wie bei PDEs sind die Genauigkeit und die Kosten des RDME vom räumlichen Netz abhängig. Dieses Problem ist allen räumlich diskretisierten Simulationen inhärent. Die Rechenkosten steigen mit zunehmender Netzauflösung schnell an. Wichtig ist, dass die Genauigkeit eines RDME-Modells nicht immer mit einem feineren Netz zunimmt. Eine sehr kleine Maschenweite widerspricht der Annahme, dass Arten verdünnt sind und ihr eigenes Molekülvolumen im Verhältnis zum Voxel klein ist (Erban und Chapman, 2009 Isaacson, 2009 Wolf et al., 2010 Isaacson und Zhang, 2018). Für bestimmte nichtfundamentale Reaktionstypen hat RDME eine zusätzliche Einschränkung, da es im Grenzbereich der schnellen Diffusion nicht immer gegen die CME-Lösungen konvergiert, wie erwartet (Smith und Grima, 2016). Daher kann die RDME als ein nicht konvergent Approximation von mikroskopischeren räumlich kontinuierlichen Modellen, wie dem unten diskutierten Smoluchowski-Modell. Wir stellen fest, dass eine Vielzahl von Gittermethoden entwickelt wurde, um das Problem der kleinen Voxelgröße zu überwinden (Chew et al., 2018) und die Konvergenz zu einem mikroskopischeren Modell anzugehen (Isaacson, 2013, Isaacson und Zhang, 2018).

Partikelbasierte räumliche Simulationsmethoden berücksichtigen die stochastische Bewegung und Wechselwirkungen einzelner Moleküle in kontinuierlicher Zeit und Raum und sind damit in der Lage, biochemische Prozesse mit geringen Kopienzahlen und stark heterogenen molekularen Raumverteilungen zu modellieren (Abbildung 1e). Diese Methoden haben die höchste Auflösung (Abbildung 2c), sind jedoch mit einem hohen Rechenaufwand verbunden. Wichtig ist, dass Simulationen, die jedes Partikel als Individuum behandeln, auch die Möglichkeit bieten, detailliertere molekulare Merkmale einzubauen (Abbildung 2d). Typischerweise lösen partikelbasierte Ansätze eine bimolekulare Reaktion A+B→C eines Molekülpaars als zwei physikalisch unterschiedliche stochastische Prozesse auf. Erstens führt die diffusive (Brownsche) Bewegung der Moleküle zu ihrer Begegnung. Dann gehen die Moleküle entweder eine Bindung mit einer durch die Reaktionsgeschwindigkeitskonstante und ihre Stromtrennung bestimmten Reaktionswahrscheinlichkeit ein oder diffundieren voneinander weg. Da die makroskopische Assoziationskinetik sowohl von Diffusions- als auch Reaktionsgeschwindigkeitskonstanten abhängen muss, führt dies im Allgemeinen zu einer Unterscheidung zwischen einer mikroskopischen und einer makroskopischen Geschwindigkeit (siehe Kasten 4). Numerische Ansätze für Einzelpartikel-Reaktions-Diffusions-Rechnungen für biologische Systeme lassen sich vielleicht am besten in Klassen einteilen, je nachdem, ob sie Reaktionen modellieren, die bei Kollisionen auftreten (von Smoluchowski, 1917 Collins und Kimball, 1949) oder ob sie Reaktionen modellieren, die innerhalb ein reaktives Volumen (Doi, 1976 Erban und Chapman, 2009). Innerhalb dieser beiden Klassen führen verschiedene Algorithmen Näherungen ein, die die Genauigkeit bei der Wiederherstellung des zugrunde liegenden physikalischen Modells, die Flexibilität und die Verbindung zu experimentellen (makroskopischen) Raten beeinflussen (Abbildung 2c).

KASTEN 4: Mikroskopische versus makroskopische Raten und die Empfindlichkeit starker Bindung gegenüber Diffusion

Für alle nichträumlichen Modelle sowie PDE- und RDME-Modelle werden bimolekulare Assoziationsreaktionen durch die makroskopischen Geschwindigkeitskonstanten k . parametrisiertAn, entsprechend den Raten, die man bei einem Bindungsexperiment in Bulklösung messen würde.Dies liegt daran, dass in all diesen räumlichen Modellen Spezies, die in einem kleinen Volumen lokalisiert sind, gut gemischt angenommen werden und somit der gleichen Massenwirkungskinetik gehorchen, die in nicht-räumlichen Modellen verwendet wird. Bei den Einzelpartikelverfahren wird die molekulare Wechselwirkungskinetik jedoch in zwei Schritte aufgeteilt, wie im Text beschrieben. Dies führt zu einem rein diffusiven Beitrag zur bimolekularen Begegnung und dann zu einem energetischen Beitrag, der durch eine mikroskopische On-Rate definiert wird. Im Smoluchowski-Modell erfolgt die Begegnung bei einer Kollision mit einem bestimmten Bindungsradius σ mit mikroskopischer Rate kein. In 3D ergibt sich daraus der seit langem bekannte Zusammenhang:

(EIN)

wo D ist die Summe der Diffusionskoeffizienten beider Spezies. Mit dieser Beziehung können wir den Einfluss der Diffusion auf die Kontrolle der makroskopischen Kinetik direkt beurteilen. Wie in der Abbildung links unten gezeigt, hängt die makroskopische Kinetik der A+B→∅-Reaktion bei großen makroskopischen Geschwindigkeiten deutlich von der Diffusion ab. Bei kleineren Raten, wie in der Abbildung rechts gezeigt, ist der Diffusionseffekt trotz D . vernachlässigbarEIN = DB von 100 auf 1 µm 2 /s fallend. Hier ein0 = B0 = 1000 Partikel (hier entsprechend 62 µM). Daher großes kein, oder starke Bindung, ist diffusionsbegrenzt, und kleine kein ist tariflich begrenzt.

In zwei und einer Dimension (z. B. auf Oberflächen und Filamenten) ist die Beziehung zwischen mikroskopischen und makroskopischen Parametern aufgrund der Diffusionseigenschaften in kleineren Dimensionen kleiner als drei komplizierter. Zwischen mikroskopischen und makroskopischen Raten besteht kein einzelner Zusammenhang (siehe z. B. Yogurtcu und Johnson, 2015a), aber unter Berücksichtigung der Systemgröße lassen sich sinnvolle theoretische Zusammenhänge definieren (Szabo et al., 1980), wobei wir in 2D die Systemdichte weiter korrigieren unter Verwendung von (Yogurtcu und Johnson, 2015a):

(B) Woher und

nEIN und nB sind die Kopienzahlen der Reaktanten A, B und die Systemgröße ist S.

Für unsere nachfolgenden Testfälle leiten wir daher immer die mikroskopischen Raten kein um die makroskopischen Raten mit Gl. A oder Gl. B. Dies liegt daran, dass aus nichträumlichen Modellen bereits klar ist, dass Änderungen der makroskopischen Geschwindigkeiten notwendigerweise die Reaktionskinetik verändern. Da wir uns nicht darauf konzentrieren, den Einfluss kinetischer Parameter auf das molekulare Verhalten zu untersuchen, sondern die Rolle expliziter räumlicher Darstellungen bei der Kontrolle von Artenverteilungen und Begegnungszeiten, behalten wir alle kAn Werte. Es ist jedoch erwähnenswert, dass für ein Reaktionspaar mit einem großen kein Wenn sich die Diffusion während der Simulation verlangsamt, z. B. aufgrund der Bildung großer Komplexe, verlangsamt sich auch die makroskopische Kinetik, ein Effekt, der bei GF-basierten Methoden natürlich erfasst wird.

Die Definition der Reaktionswahrscheinlichkeit ist die primäre Herausforderung und das Unterscheidungsmerkmal verschiedener Einzelpartikel-Algorithmen. Für die erste Klasse kollisionsbasierter numerischer Methoden werden die Reaktionswahrscheinlichkeiten abgeleitet oder an das Smoluchowski-Modell diffusionsbeeinflusster Reaktionen angepasst, das natürlich ausgeschlossenes Volumen erfasst (Abbildung 2c). Wir stellen fest, dass das ausgeschlossene Volumen ein kritisches Merkmal für dichte Systeme und für Einzelpartikel-Simulationen von Clustern oder Zusammenlagerungen ist, bei denen molekulare Struktur/Volumen Wechselwirkungen zwischen Spezies beeinflusst. Für beide Modellklassen bieten die Ansätze der Greenschen Funktion (GF) die genaueste Lösung, indem sie die Begegnungswahrscheinlichkeit für Partikelpaare basierend auf den Anfangspositionen der Partikel vorhersagen. GF-Methoden erlauben viel größere Zeitschritte, können aber jeweils nur die Begegnungswahrscheinlichkeit für zwei Partikel berechnen, was bedeutet, dass das simulierte System in Zwei-Partikel-Subsysteme segmentiert werden muss (siehe Kasten 5). In der Praxis erweist sich dies für viele interessante biologische Probleme als machbar. Zu den Frameworks, die entwickelt wurden, um diesen GF-Ansatz zu nutzen, gehören FPR (Johnson und Hummer, 2014), NERDSS (Varga et al., 2020), GFRD (van Zon und ten Wolde, 2005) und eGFRD (Sokolowski et al., 2019). Die SpatioCyte-Methoden werden auf einem Gitter durchgeführt und stellen die korrekte Kinetik (über kurze Zeiten hinaus) und das Gleichgewicht des Smoluchowski-Modells wieder her (Chew et al., 2018, 2019). Smoldyn wurde auch abgeleitet, um große Zeitschritte zu verwenden (wenn auch ohne ausgeschlossenes Volumen), und es ist einfacher zu implementieren als GF-Ansätze (Andrews und Bray, 2004a Andrews et al., 2010 Andrews, 2017). Die Reaktionsparameter sind jedoch an die Zeitschrittgröße gekoppelt, anstatt unabhängige Modellmerkmale (z.

KASTEN 5. Einzelpartikel-Reaktions-Diffusions-Simulationen

Einzelpartikelverfahren simulieren das stochastische Verhalten einzelner und (trotz des Namens) Paares wechselwirkender Moleküle. Jedes biochemische Netzwerk, dessen Beschreibung keine ad-hoc-phänomenologischen Prozesse enthält (wie beispielsweise Hill-Koeffizienten, die nichtlineare Dosis-Wirkungs-Eigenschaften beschreiben) kann als aus uni- und bimolekularen Reaktionen zusammengesetzt beschrieben werden. Da unimolekulare Reaktionen nur zeitabhängig sind, werden sie typischerweise als Poisson-Prozesse modelliert. Bei bimolekularen Reaktionen beeinflusst der Abstand zwischen einem Partikelpaar die Wahrscheinlichkeit, dass sie entweder zur Kollision oder zu ihrem reaktiven Volumen diffundieren und in einem Zeitschritt miteinander reagieren. Die zeitliche Entwicklung der Molekülpositionen wird durch eine stochastische Differentialgleichung, die überdämpfte Langevin-Gleichung (Van Kampen, 2007), beschrieben. Seine numerische Implementierung, bekannt als BD (Ermak und McCammon, 1978 Northrup et al., 1984), erfordert winzige Zeitschritte, um molekulare Begegnungen genau aufzulösen, was das BD-Schema sehr ineffizient macht. Es ist jedoch möglich, Reaktionswahrscheinlichkeiten für Molekülpaare abzuleiten, die dennoch mit BD-Updates propagiert werden, aber größere Schritte verwenden. GFRD ist die einzige Methode, die keine BD-Updates für reaktive Paare verwendet. Um die abstandsabhängigen Reaktionswahrscheinlichkeiten für Molekülpaare zu berechnen, ist der genaueste Ansatz die Verwendung des unten definierten GF. Dies kann die Effizienz von BD-Simulationen steigern, indem bimolekulare Reaktionen innerhalb eines großen Zeitschritts aufgelöst werden, ΔT, ohne Näherung.

Die GF P(R, ΔT|R0) erhält man als Lösung der Diffusionsgleichung, die ein Molekülpaar beschreibt A, B die mit Diffusionskonstanten diffundieren DEIN,DB, bzw. und können eine Reaktion eingehen EIN + B→ wie folgt

wo D = DEIN +DB und R, R0 beziehen sich auf den Abstand zwischen EIN und B nach bzw. vor dem Zeitschritt. Entsprechend dem im Haupttext beschriebenen zweistufigen Bild werden Reaktionen durch Auferlegen von Randbedingungen eingebunden, die die Physik in oder innerhalb einer Begegnungsdistanz spezifizieren R = . Im kollisionsbasierten Smoluchowski-Modell ist R ist immer ≥ σ, und die Collins-Kimball-Grenzbedingungen (Collins und Kimball, 1949) in 3D werden wie folgt geschrieben:

wo kein bezieht sich auf die intrinsische Reaktionskonstante. Im volumenreaktiven oder Doi-Modell treten Reaktionen immer dann auf, wenn R ≤ σ, mit Eigenrate λ, wodurch eine reaktive Senke zwischen den beiden Teilchen entsteht (Doi, 1976). Es ist erwähnenswert, dass es eine Herausforderung sein kann, den geeigneten GF zu finden, um die gewünschten Eigenschaften der molekularen Wechselwirkungen zu erfassen. Für den Fall von reversibel diffusionsbeeinflusste bimolekulare Reaktionen eines isolierten Molekülpaares in 2D, die GF wurde erst 2012 abgeleitet (Prüstel und Meier-Schellersheim, 2012).

Für die zweite Klasse volumenreaktiver numerischer Methoden werden die Reaktionswahrscheinlichkeiten basierend auf einem Abstandsgrenzwert zwischen Partikeln (oft als Doi-Modell bezeichnet) abgeleitet, dem daher natürlich das ausgeschlossene Volumen fehlt (Abbildung 2c). Für dieses Modell gibt es keine GF-basierten Algorithmen. Erban und Chapman haben für dieses Modell Reaktionswahrscheinlichkeiten und entsprechende mikroskopische Raten im Limit kleiner Zeitschritte abgeleitet (Erban und Chapman, 2009), die die Grundlage für die Implementierungen ReaDDy (Schoneberg und Noe, 2013) und SpringSaLaD (Michalski und Loew , 2016). Beide Implementierungen führen Methoden ein, um ausgeschlossenes Volumen beispielsweise über abstoßende Kurzstreckenkräfte zu erfassen, die letztendlich Anpassungen erfordern, um reversible Reaktionen richtig wiederherzustellen, wie in ReaDDY 2 (Hoffmann et al., 2019). Mit diesen Methoden hängt die Reproduzierbarkeit des zugrunde liegenden Modells von der Verwendung kleiner Zeitschritte und der Einschätzung ab, inwieweit die modellierten Kräfte Fehler in die Kinetik von Vielteilchensystemen einbringen. Schließlich ist die weit verbreitete Implementierung MCell (Kerr et al., 2008) basiert weder auf dem Smoluchowski- noch auf dem Doi-Modell, sondern leitet Reaktionswahrscheinlichkeiten ab, die Kollisionen innerhalb eines Volumens quantifizieren, wobei dieses Momentanvolumen von Zeitschritten und Diffusionskonstanten abhängt. MCell hat kein ausgeschlossenes Volumen, kann jedoch große Zeitschritte benötigen und das richtige Gleichgewicht in reversiblen Reaktionen wiederherstellen.

Die zukünftige Erweiterbarkeit aller Methoden hängt von der Möglichkeit ab, mathematische Ausdrücke für die entscheidenden Reaktionswahrscheinlichkeiten zu finden, die zusätzliche Merkmale und Details wie gekrümmte Oberflächen, intramolekulare Beschränkungen und externe und interne deterministische Kräfte beinhalten (Abbildung 2, b und d). Reaktionswahrscheinlichkeiten für Multisite-Moleküle wurden beispielsweise durch Annahme starrer Moleküle und Vereinfachung der Orientierungsabhängigkeit abgeleitet (Johnson, 2018). Das Hinzufügen von Wechselwirkungspotentialen (und damit Kräften) zwischen Partikeln kann die Reaktionskinetik signifikant verändern (Zhou, 1990), und die Quantifizierung von Reaktionswahrscheinlichkeiten erforderte entweder einen erheblichen Rechenaufwand (Johnson und Hummer, 2014) oder stationäre Annahmen in verdünnten Systemen ( Dibak et al., 2019). Eine sorgfältige Validierung dieser zusätzlichen Funktionen ist entscheidend für die Erstellung von Modellen, die über mehrere Simulationsplattformen quantitativ reproduziert werden können.


Grundtechniken der Insektenvirologie

D Auswertung von Mortalitätsdaten

Die gebräuchlichste Methode zur Analyse von Dosis-/Konzentrations-Mortalitätsdaten ist die Probit-Analyse (Finney, 1971), die die LC . bestimmt50 und LD50 Werte. Die Dosis-/Konzentrations-Mortalitäts-Reaktionskurven sind sigmoid. Einfacher zu vergleichen sind eine logarithmische Transformation der Dosen/Konzentrationen und eine Probit-Transformation der erhaltenen Mortalitäten. Daraus ergibt sich eine Regressionsgerade mit der Formel ja = Axt + B, wo ja ist die erwartete Sterblichkeit, ein die Piste, x die logarithmische Dosis/Konzentration und B das abfangen. Heterogenität basierend auf Chi-Quadrat-Schätzung und Referenzgrenzen werden bestimmt. Innerhalb der Fiducial-Grenzen dürften die wahren Werte mit einer ausgewählten Sicherheit von in der Regel 95 % liegen. Die Regressionsgeraden für verschiedene Behandlungen können hinsichtlich ihrer Steigung verglichen werden (Parallelitätshypothese). Wenn die Steigungen der Probit-Log-Dosislinien parallel sind, können zwei Virussuspensionen basierend auf ihrer LD . verglichen werden50 oder LC50. Wenn die Probitlinien nicht parallel sind, variiert der Unterschied zwischen den Suspensionen bei verschiedenen Sterblichkeitsniveaus. In diesem Fall LD50 oder LC50 und Beim Vergleich von Bioassays muss eine Steigung angegeben werden (Jones, 2000). Das gleiche gilt für den Vergleich von Proben auf der Grundlage ihrer relativen Potenzen, das ist das Verhältnis zwischen den LC50 einer Testsuspension und der LC50 eines Standards. Normalerweise werden die bei den Behandlungen beobachteten Sterblichkeiten unter Verwendung der Abbott-Formel (Abbott, 1925) um die Kontrollmortalität korrigiert. Gängige Programme für die Probit-Analyse sind in Softwarepaketen von SAS oder Toxrat Solutions implementiert.

Für Zeit-Mortalitäts-Assays ist die Probit-Analyse nur anwendbar, wenn die Beobachtungen unabhängig sind, d. h. wenn jede Beobachtung mit einer unabhängigen Kohorte von Versuchstieren erfolgt. Werden die Beobachtungen wiederholt mit den gleichen Versuchstieren (bis zum Tod) gemacht und verletzen damit die Voraussetzung der Datenunabhängigkeit, wie sie für die Probitanalyse erforderlich ist, muss die parameterfreie Überlebensanalyse mit dem Kaplan-Meier-Schätzer angewendet werden ( Kaplan und Meier, 1958).


Von der Genexpression zur Genregulation - Hinzufügen eines Repressors¶

Im Prinzip könnten Gene die ganze Zeit „an“ gelassen werden. Tatsächlich reguliert die Zellaktivität sie, indem sie ihre Expressionsniveaus je nach Umgebungsbedingungen und Zellzustand niedriger oder höher stellt. Repressoren stellen einen Schlüsselmechanismus für die Regulierung dar. Repressoren sind Proteine, die an verwandte spezifische Sequenzen an oder in der Nähe eines Promotors binden, um seine Expression zu ändern. Oft hängt die Stärke der Repressorbindung von externen Inputs ab. Zum Beispiel schaltet der LacI-Repressor normalerweise die Gene für die Laktoseverwertung in aus E coli. In Gegenwart von Lactose im Medium bindet jedoch eine modifizierte Form von Lactose an LacI und hemmt seine Fähigkeit, seine Zielgene zu unterdrücken. Somit kann ein Nährstoff (Laktose) die Expression von Genen regulieren, die es der Zelle ermöglichen, ihn zu verwenden. (Das Buch „Das Lac-Operon“ von B. Müller-Hill bietet die faszinierende wissenschaftliche und historische Saga dieses ikonischen Systems.)

Im folgenden Diagramm bezeichnen wir den Repressor R.

Start D + R ightleftharpoons D_ Ende

Innerhalb der Zelle bindet und entbindet der Repressor seine Zielstelle. Wir nehmen an, dass das Expressionsniveau des Gens niedriger ist, wenn der Repressor gebunden ist, und höher, wenn er ungebunden ist. Das mittlere Expressionsniveau des Gens ist dann proportional zu dem Zeitbruchteil, in dem der Repressor ungebunden ist.

Wir berechnen daher die „Konzentration“ von DNA-Plätzen in besetzten oder unbesetzten Zuständen. (Innerhalb einer einzelnen Zelle ist eine einzelne Stelle auf der DNA entweder gebunden oder ungebunden, aber gemittelt über eine Zellpopulation können wir über die durchschnittliche Belegung der Stelle sprechen). Sei (D) die Konzentration des unbesetzten Promotors, (D_mathrm) die Konzentration des besetzten Promotors und (D_mathrm) die Gesamtkonzentration des Promotors mit (D_mathrm = D + D_mathrm) , wie es die Massenerhaltung erfordert.

Wir können auch annehmen a Trennung der Zeitskalen zwischen den Bindungs- und Entbindungsraten des Repressors an die DNA-Bindungsstelle sind beide im Vergleich zu den Zeitskalen, über die mRNA- und Proteinkonzentrationen variieren, oft schnell. (Vorsicht jedoch, in einigen Zusammenhängen, wie z. B. bei Säugerzellen, ist dies nicht der Fall.)

Alles, was wir wissen müssen, ist die mittlere Konzentration unbesetzter Bindungsstellen, (D/D_mathrm) .

wobei (K_mathrm = k_- / k_+) . Daraus können wir die Produktionsrate als Funktion der Repressorkonzentration schreiben,


Verweise

Beck, J. M., Ma, W. J., Pitkow, X., Latham, P. E. & Pouget, A. Nicht laut, nur falsch: die Rolle der suboptimalen Inferenz bei der Verhaltensvariabilität. Neuron 74 (2012).

Marder, E. Variabilität, Kompensation und Modulation in Neuronen und Schaltkreisen. Vorgang. Natl. Akademie. Wissenschaft. 108, 15542–15548, https://doi.org/10.1073/pnas.1010674108, http://www.pnas.org/content/108/Supplement_3/15542.full.pdf (2011).

Bucher, D., Prinz, A. A. & Marder, E. Tier-zu-Tier-Variabilität in der motorischen Musterproduktion bei Erwachsenen und während des Wachstums. J. Neurosci. 25, 1611-1619, https://doi.org/10.1523/JNEUROSCI.3679-04.2005 (2005).

Hooper, S. L., Guschlbauer, C., von Uckermann, G. &. Büschges, A. Natürliche neurale Ausgabe, die sehr variable Bewegungsbewegungen erzeugt. J. Neurophysiologie. 96, 2072–2088, https://doi.org/10.1152/jn.00366.2006 (2006).

Schleidt, W. M. Wie „fixiert“ ist das Fixed Action Pattern? Zeitschrift für Tierpsychologie 36, 184–211, https://doi.org/10.1111/j.1439-0310.1974.tb02131.x (1974).

Ayroles, J.F. et al. Verhaltensidiosynkrasie zeigt die genetische Kontrolle der phänotypischen Variabilität. Proz. Natl. Akad. Wissenschaft 112, 6706–6711, https://doi.org/10.1073/pnas.1503830112 (2015).

Berman, G. J., Choi, D. M., Bialek, W. & Shaevitz, J. W. Mapping the stereotype behavior of free moving fruit fly. J. Der Königliche Soc. Schnittstelle 11, 20140672–20140672, https://doi.org/10.1098/rsif.2014.0672 (2014).

Leshner, A. & Pfaff, D.W. Quantifizierung des Verhaltens. Vorgang. Natl. Akademie. Wissenschaft. 108, 15537–15541, https://doi.org/10.1073/pnas.1010653108, http://www.pnas.org/content/108/Supplement_3/15537.full.pdf (2011).

Han, S., Taralova, E., Dupre, C. & Yuste, R. Umfassende maschinelle Lernanalyse des Hydra-Verhaltens zeigt ein stabiles basales Verhaltensrepertoire. eLife 7, 413, https://doi.org/10.7554/eLife.32605 (2018).

Kabra, M., Robie, A. A., Rivera-Alba, M., Branson, S. & Branson, K. JAABA: interaktives maschinelles Lernen zur automatischen Annotation von Tierverhalten. Nat. Methoden 10, 64–67, https://doi.org/10.1038/nmeth.2281 (2013).

Gomez-Marin, A. et al. Generative Regeln des Bewegungsverhaltens von Drosophila als Kandidatenhomologie zwischen Stämmen. Wissenschaft. Berichte 1–11, https://doi.org/10.1038/srep27555 (2016).

Srivastava, N., Clark, D.A. & Samuel, A.D.T. Zeitliche Analyse des stochastischen Drehverhaltens von schwimmenden C. elegans. J. Neurophysiologie. 102, 1172–1179, https://doi.org/10.1152/jn.90952.2008 (2009).

Hinz, R.C. & de Polavieja, G.G. Die Ontogenese des kollektiven Verhaltens offenbart eine einfache Anziehungsregel. Proz. Natl. Akad. Wissenschaft 114, 201616926–2300, https://doi.org/10.1073/pnas.1616926114 (2017).

Wiltschko, A. B. et al. Mapping der Sub-Second-Struktur im Mausverhalten. Neuron 88, 1121–1135, https://doi.org/10.1016/j.neuron.2015.11.031 (2015).

Gallagher, T., Bjorness, T., Greene, R., You, Y.-J. &Amp Avery, L. Die Geometrie der lokomotiven Verhaltenszustände in C. elegans. Plus eins 8, e59865, https://doi.org/10.1371/journal.pone.0059865 (2013).

Sebastian, T.B., Klein, P.N. & Kimia, B.B. über das Ausrichten von Kurven. IEEE-Transaktionen zur Musteranalyse Mach. Intellekt. 25, 116–125, https://doi.org/10.1109/TPAMI.2003.1159951 (2003).

Berndt, D.J. & Clifford, J. Verwenden von dynamischer Zeitverzerrung, um Muster in Zeitreihen zu finden. AAAI-Technologie. Vertreter. WS-94-03 (1994).

Shokoohi-Yekta, M., Hu, B., Jin, H., Wang, J. &. Keogh, E. Die Verallgemeinerung von DTW auf den mehrdimensionalen Fall erfordert einen adaptiven Ansatz. Data-Mining-Wissensentdeckung 31, 1–31, https://doi.org/10.1007/s10618-016-0455-0 (2016).

Rakthanmanon, T. et al. Durchsuchen und Mining von Billionen von Zeitreihen-Untersequenzen unter dynamischer Zeitverzerrung (ACM, New York, New York, USA, 2012).

Sakoe, H. &. Chiba, S. Optimierung des dynamischen Programmieralgorithmus für die Erkennung von gesprochenen Wörtern. IEEE-Transaktionen auf Acoust.Sprache, Signalprozess. 26, 43–49, https://doi.org/10.1109/TASSP.1978.1163055 (1978).

Caiani, E.G. et al. Schablonentechnik mit verzerrtem Durchschnitt, um die kardialen Füllphasen des linksventrikulären Volumens auf einer Zyklus-für-Zyklus-Basis zu verfolgen. In Computer in der Kardiologie, Bd. 25, 73–76, https://doi.org/10.1109/CIC.1998.731723 (IEEE, 1998).

Fripp, D. et al. Die Kälber des Großen Tümmlers (Tursiops truncatus) scheinen ihre charakteristischen Pfeifen den charakteristischen Pfeifen der Gemeindemitglieder nachzubilden. Tierkog. 8, 17–26, https://doi.org/10.1007/s10071-004-0225-z (2005).

Filatova, O.A. et al. Rufdiversität in den Killerwal-Populationen im Nordpazifik: Auswirkungen auf die Entwicklung des Dialekts und die Populationsgeschichte. Tierisches Verhalten. 83, 595–603, https://doi.org/10.1016/j.anbehav.2011.12.013 (2012).

Tan, L.N., Alwan, A., Kossan, G., Cody, M.L. & Taylor, C.E. Dynamische Zeitverzerrung und dünnbesetzte Darstellungsklassifizierung für die Klassifikation von Vogelstimmenphrasen unter Verwendung begrenzter Trainingsdatena. Die J. Acoust. Soz. Bin. 137, 1069–1080, https://doi.org/10.1121/1.4906168 (2015).

Castellano, G., Villalba, S.D. & Camurri, A. Erkennen menschlicher Emotionen aus Körperbewegungen und Gestendynamik. In Affective Computing und intelligente Interaktion, 71–82, https://doi.org/10.1007/978-3-540-74889-2_7 (Springer, Berlin, Heidelberg, Berlin, Heidelberg, 2007).

Gudmundsson, J., Laube, P. & Wolle, T. Computational Movement Analysis. In Springer Handbuch der Geographischen Informationen, 423–438, https://doi.org/10.1007/978-3-540-72680-7_22 (Springer, Berlin, Heidelberg, Berlin, Heidelberg, 2011).

Spivak, M. Eine umfassende Einführung in die Differentialgeometrie. Vol. V, zweite Aufl. (Veröffentlichen oder Perish, Inc., Wilmington, Del., 1979).

Wang, S., Wang, Y., Jin, M., Gu, X. D. & Samaras, D. Konforme Geometrie und ihre Anwendungen auf 3D-Formanpassung, Erkennung und Stitching. IEEE-Transaktionen zur Musteranalyse Mach. Intellekt. 29, 1209–1220, https://doi.org/10.1109/TPAMI.2007.1050 (2007).

Le, H., Chin, T. &. Suter, D. Konforme Oberflächenausrichtung mit optimaler Möbius-Suche. Im Jahr 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2507–2516, https://doi.org/10.1109/CVPR.2016.275 (2016).

Koehl, P. &. Hass, J. Landmark-free geometrische Methoden in der biologischen Formanalyse. J. Der Königliche Soc. Schnittstelle 12, 20150795, https://doi.org/10.1098/rsif.2015.0795 (2015).

Gu, X., Wang, Y., Chan, T.F., Thompson, P.M. & Yau, S.-T. Genus Zero Surface Conformal Mapping und seine Anwendung auf das Brain Surface Mapping. In Medizinische Bildverarbeitung und computergestützte Intervention – MICCAI’99, 172–184, https://doi.org/10.1007/978-3-540-45087-0_15 (Springer Berlin Heidelberg, Berlin, Heidelberg, 2003).

Angenent, S., Haker, S., Tannenbaum, A. & Kikinis, R. Conformal Geometry and Brain Flattening. In Medizinische Bildverarbeitung und computergestützte Intervention – MICCAI’99, 271–278, https://doi.org/10.1007/10704282_30 (Springer Berlin Heidelberg, Berlin, Heidelberg, 1999).

Hurdal, M. K. & Stephenson, K. Kortikale Kartographie unter Verwendung des diskreten konformen Ansatzes von Kreispackungen. NeuroImage 23, S119–S128, https://doi.org/10.1016/j.neuroimage.2004.07.018 (2004).

Hurdal, M.K. & Stephenson, K. Diskrete konforme Methoden zur Abflachung des kortikalen Gehirns. NeuroImage 45, S86–S98, https://doi.org/10.1016/j.neuroimage.2008.10.045 (2009).

Jesuthasan, S. J. & Mathuru, A. S. Die Alarmreaktion bei Zebrafischen: angeborene Angst in einem genetischen Wirbeltiermodell. J. Neurogenetik 22, 211–228, https://doi.org/10.1080/01677060802298475 (2008).

Mathuru, A. S. Die Verletzung einer Artgenossen löst in Medaka Alarm aus. Wissenschaft Berichte 6, 36615, https://doi.org/10.1038/srep36615 (2016).

Mathuru, A.S. et al. Chondroitinfragmente sind Geruchsstoffe, die bei Fischen Angstverhalten auslösen. Curr. Biologie: CB 22, 538–544, https://doi.org/10.1016/j.cub.2012.01.061 (2012).

Chivers, D. P. & Smith, R. Chemische Alarmsignalisierung in aquatischen Räuber-Beute-Systemen: eine Übersicht und ein Prospekt. Ökowissenschaften (1998).

Ferrari, M. C. O., Wisenden, B. D. &. Chivers, D. P. Chemische Ökologie von Räuber-Beute-Interaktionen in aquatischen Ökosystemen: eine Übersicht und ein Prospekt. Dürfen. J. Zool. 88, 698–724, https://doi.org/10.1139/Z10-029 (2010).

Wisenden, B.D., Karst, J., Miller, J. & Miller, S. Anti-Raubtierverhalten als Reaktion auf chemische Alarmsignale des Artgenossen in einem esociformen Fisch, Umbra limi (Kirtland 1840). Umgebung. Biol. Fische 83, 85–92 (2008).

von Frisch, K. Zur Psychologie des Fischschwarmes. Naturwissenschaften 26, 601–606 (1938).

Pfeiffer, W. Die Verteilung von Schreckreaktions- und Alarmstoffzellen bei Fischen. Copeia 4, 15 (1977).

Døving, K. B. & Lastein, S. Die Alarmreaktion bei Fischen – Geruchsstoffe, Modulationen von Reaktionen, Nervenbahnen. Annalen New York Acad. Wissenschaft 1170, 413–423, https://doi.org/10.1111/j.1749-6632.2009.04111.x (2009).

Nordell, S. E. Die Reaktion weiblicher Guppys, Poecilia reticulata, auf chemische Reize von verletzten Artgenossen. Umgebung. Biol. Fische 51, 331–338 (1998).

Rehnberg, B. G. & Schreck, C. B. Chemosensorischer Nachweis von Räubern durch Coho-Lachs (Oncorhynchus kisutch): Verhaltensreaktion und die physiologische Stressreaktion. Dürfen. J. Zool. 65, 481–485 (1987).

Barreto, R.E. et al. Blutsignale induzieren Anti-Raubtier-Verhalten bei Niltilapia-Arten. Plus eins 8, e54642, https://doi.org/10.1371/journal.pone.0054642 (2013).

Mirza, R.S. &. Chivers, D.P. Sind chemische Alarmsignale in Salmoniden konserviert? J.Chem. Öko. 27, 1641–1655 (2001).

Wisenden, B. D. & Smith, R. Eine Neubewertung der Wirkung von Schwarmgefährtenvertrautheit auf die Proliferation von Alarmstoffzellen bei ostariophysanen Fischen. J. Fisch Biol (1998).

Abreu, M. S. et al. Die Verhaltensreaktionen von Zebrafischen hängen von der Art der bedrohlichen chemischen Signale ab. J. Komp. Physiol. A: Neuroethol. Sensorisch, Neural, Verhalten. Physiol. 202, 895–901, https://doi.org/10.1007/s00359-016-1129-5 (2016).

LaFleur, B. & Greevy, R. Einführung in permutations- und resampling-basierte Hypothesentests. J. Klinische Kinderjugendpsychologie: Offizielle Zeitschrift für Soc. Klin. Kind Adolesz. Psychol. Bin. Psychol. Assoc. Abt. 53 38, 286–94, https://doi.org/10.1080/15374410902740411 (2009).

Frenet, M. F. Sur les courbes à double courbure. J. de mathématiques pures et appliquées 17, 437–447 (1852).

Serret, J. A. Sur quelques formules Verwandte à la théorie des courbes à double courbure. J. de mathématiques pures etappliquées 16, 193–207 (1851).

Albanisch, D. et al. Mlpy: Maschinelles Lernen Python, 1202.6548 (2012).

Müller, M. Informationsabruf für Musik und Bewegung (Springer-Verlag Berlin Heidelberg, Berlin, Heidelberg, 2007).

Oliphant, T. NumPy: Eine Anleitung zu NumPy. USA: Trelgol Publishing. [Online-Zugriff <today>] (2006–).

Jones, E. et al. SciPy: Wissenschaftliche Open-Source-Tools für Python. [Online-Zugriff <today>] (2001-).

Savitzky, A. & Golay, M.J.E. Glättung und Differenzierung von Daten durch vereinfachte Verfahren der kleinsten Quadrate. Anal. Chem.-Nr. 36, 1627–1639, https://doi.org/10.1021/ac60214a047 (1964).

Hass, J. &. Koehl, P. Vergleich der Formen von Oberflächen der Gattung Null. J. Appl. Berechnen. Topol. 1, 57–87, https://doi.org/10.1007/s41468-017-0004-y (2017).

Bers, L. Uniformization, Moduli und Kleinian Groups. Stier. Lange. Mathematik. Soz. 4, 257–300, https://doi.org/10.1112/blms/4.3.257 (1972).

Bowyer, A. Berechnung von Dirichlet-Tessellationen*. Der Computer. J. 24, 162–166, https://doi.org/10.1093/comjnl/24.2.162 (1981).

Watson, D. F. Berechnung der n-dimensionalen Delaunay-Tessellation mit Anwendung auf Voronoi-Polytope*. Der Computer. J. 24, 167–172, https://doi.org/10.1093/comjnl/24.2.167 (1981).

Beardon, A. F. & Stephenson, K. Der Uniformisierungssatz für Kreispackungen. Indiana Univ. Mathematik. J. 39, 1383–1425 (1990).

Collins, C. R. & Stephenson, K. Ein Kreispackungsalgorithmus. Berechnen. Geom. 25, 233–256, https://doi.org/10.1016/S0925-7721(02)00099-8 (2003).

Schwarz, H. A. Gesammelte mathematische Abhandlungen. Band I, II Nachdruck in einem Band der Auflage von 1890 (Chelsea Publishing Co., Bronx, N.Y., 1972).


SIND MORPHOMETRISCHE VARIABLEN ZEICHEN?

Es hat sich eine heftige Debatte darüber entwickelt, ob es legitim ist, morphometrische Variablen in der Systematik zu verwenden, insbesondere in charakterbasierten Methoden der Phylogenie-Rekonstruktion. Zu den Themen gehören die folgenden:

Die Verwendung von Zeichendaten in der kladistischen Sparsamkeitsanalyse beinhaltet die Abgrenzung und Codierung von diskreten Zeichenzuständen. Wie kann und sollte eine solche kategorische Entscheidung getroffen werden, wenn sich die Variationsbereiche verschiedener Taxa teilweise zu überlappen scheinen?

Die Variabilität der Charakterzustände ist am offensichtlichsten für Charaktere (wie viele morphometrische Variablen), die auf einer kontinuierlichen Skala gemessen werden, jedoch hat Stevens (1991) darauf hingewiesen, dass viele vermeintliche qualitative Charaktere grundsätzlicher als quantitativ angesehen werden können. Rae (1998) hat argumentiert, dass die gleiche Logik sowohl für kontinuierliche als auch für diskrete Zeichen gilt, wenn Daten mit objektiven und wiederholbaren Methoden kodiert werden.

Selbst für Merkmale, die klar in qualitativ unterschiedliche Zustände abgegrenzt sind, können Taxa überlappende Verteilungen aufweisen, wenn sie polymorph sind. Letztlich sind alle Taxa und Merkmale potenziell polymorph, obwohl das Erkennen, Dokumentieren oder Ausschließen von Polymorphismus eine umfassende Stichprobenziehung erfordern kann. Merkmale würden sich nicht entwickeln, wenn sie keine Variation aufweisen würden.

Obwohl in der Praxis einzelne Exemplare nach Merkmalen bewertet werden, ist die sich entwickelnde Einheit, deren Geschichte in systematischen Studien rekonstruiert wird, die Population oder das Taxon ( Roth, 1991 Thiele, 1993). Streng genommen sollten die Merkmale, die wir in einer phylogenetischen Analyse verwenden, Merkmale einer Population sein, und ein Merkmal auf Populationsebene (auch wenn die Population monomorph ist) ist immer eine statistische Verteilung.

Unterschiedliche Kodierungsschemata tragen unterschiedliche Annahmen und implizieren unterschiedliche Dinge über die Natur der Charaktertransformation in der Evolution. Sie haben auch unterschiedliche Konsequenzen für die Anzahl der Bäume, die Menge der Homoplasie und den Auflösungsgrad, die in der Analyse erhalten werden (Wiens, 1999). Eine Verschiebung in der statistischen Verteilung der Zustände eines Charakters kann als ein evolutionäres Ereignis angesehen werden: Eine Population ändert sich (entwickelt sich, wenn die Änderung vererbbar ist), selbst durch den Verlust einiger weniger Individuen an einem Ende eines Variationsbereichs. Wir können uns entscheiden, eine solche Verschiebung als ein Ereignis zu erkennen, das es wert ist, mit der Codierung einer Zeichenzustandsänderung zu unterscheiden, oder wir können es nicht tun. Wenn wir dies tun, geben wir diesem Charakter in der Analyse Gewicht, und wir müssen fragen, ob dieses Gewicht dem entspricht, was für andere Charaktere als Schritt erkannt wird.

Wir müssen uns auch fragen, ob wir vernünftigerweise eine Homologiebeziehung für Zustände verschiedener Populationen, die als ähnlich kodiert sind, annehmen können. Dies kann eine Homologie bestimmter Charakterwerte mit sich bringen, die von Individuen gezeigt werden, muss es aber nicht. Indem wir zwei Populationen gleich kodieren, weil sie ähnliche Verteilungen von (zum Beispiel) Femurlängen aufweisen, nehmen wir an, dass die gemeinsame Vorfahrenpopulation ebenfalls diese Verteilung aufwies. Diese Hypothese (wie jede Homologiehypothese) kann falsch sein, und wenn es gute Gründe für die Annahme gibt, dass eine solche Hypothese falsch ist, kann das Kodierungsschema oder sogar das gesamte Zeichen für eine Einbeziehung in eine Analyse als ungeeignet erachtet werden. Pimentel und Riggins (1987) hielten morphometrische Zeichen nicht nur wegen der überlappenden Variationsbreite für problematisch, sondern auch wegen ihrer „unbestimmten“ Größe: Es ist schwierig, darauf zu vertrauen, dass eine Länge von x mm bedeutet in zwei Fällen tatsächlich dasselbe, da es mehrere Möglichkeiten (mit unterschiedlicher Morphologie) gibt, diesen Zustand zu erreichen. Die Konsequenz für die phylogenetische Analyse der Einbeziehung einer falschen Hypothese kann eine zusätzliche Homoplasie in die Analyse sein oder eine zusätzliche Unterstützung für eine falsche Schlussfolgerung. Während sich morphometrische Daten im Prinzip nicht von Daten unterscheiden, die traditionell als Zeichen kodiert sind ( Swiderski et al., 1998), können sie besonders anfällig für Fehler bei der Homologiebewertung sein, und ihre Evolution kann sich leichter für die Modellierung in einem kontinuierlichen Rahmen eignen (Felsenstein, 1988). Die Schwierigkeit besteht hier natürlich darin, ein geeignetes Modell zu finden.

Das Problem der Homologisierung morphometrisch definierter Charakterzustände wird grundsätzlicher kritisiert: Ungeachtet ihrer Verteilungen oder Überschneidungen untereinander und abgesehen von der Möglichkeit eines Fehlers bei der Homologiebewertung, können morphometrische Variablen einfach nicht homologisiert werden und sind an sich ungeeignet für Verwendung in der phylogenetischen Analyse. Bookstein (1994) formulierte es nachdrücklich: „Die Sprachen der Systematik und Biometrie müssen inkommensurate bleiben“ (S. 198, S. 225) „keine biometrische Methode, die für die Analyse messbarer Merkmale einzelner Organismen entwickelt wurde… Rekonstruktion der Evolutionsgeschichte“ (S. 203) „Mein Argument ist … eine Erklärung, dass der Versuch, die eine [Morphometrie] mit der anderen [Systematik] zu verbinden, vergeblich ist.“ (S. 204) „die Sprachen der Homologie und der Morphometrie sind füreinander unverständlich“ (S. 224) usw.

Eine von Bookstein identifizierte Schwierigkeit besteht darin, dass Formänderungen nicht kommutativ sind: Wie Rohlf (1998, modifiziert ein Beispiel von Bookstein, 1994) erklärte, können wir uns zwei Formvariablen vorstellen, A und B, von denen jede eine Wertänderung erfährt. Ausgehend von einer einzelnen Anfangsform wird, wenn zuerst A und dann B geändert wird, das Ergebnis nicht dasselbe sein, als ob die beiden Ereignisse in unterschiedlicher Reihenfolge aufgetreten wären (B und dann A). „So hängt die biologische Bedeutung einer Formänderung einer Formvariablen von den Werten der anderen Formvariablen ab“ (Rolf, 1998, S. 156). Obwohl dies eine interessante und nützliche Beobachtung ist, ist nicht klar, welche Auswirkungen dies auf die Homologie- oder Phylogenie-Rekonstruktion hat. Das im Zitat beschriebene allgemeine Problem der Kontextabhängigkeit ist nicht morphometrischen Variablen vorbehalten: So hängt beispielsweise die Wirkung einer Mutation an einem Locus zu einem alternativen Allel oft von dem genetischen Hintergrund ab, in dem sie auftritt.

Ein zweites Problem mit Formvariablen wird durch die Tatsache veranschaulicht, dass es formal für jeden Satz von drei unterschiedlich geformten Dreiecken (jedes Dreieck ist eine OTU) eine unbestimmte Anzahl von Formmaßen gibt, die mit der Anordnung vereinbar sind (ermöglichen, sie zu rechtfertigen). der Dreiecke in jede mögliche Permutation. Geometrie allein scheint kein eindeutiges Ordnungsschema zu bieten, daher „muss man rechtfertigen, dass die ausgewählten Variablen im Vergleich zu einer unendlichen Anzahl anderer möglicher Formvariablen jeweils von besonderem biologischem Interesse sind“. (Rohlf, 1998, S. 156). Dieser fundierte Rat gilt gleichermaßen für alle Merkmale (qualitativ oder quantitativ), die an einem Organismus identifiziert wurden. Was wir am leichtesten als Orientierungspunkte oder anatomische Strukturen erkennen, sind nicht immer garantiert kohärente Einheiten in einem sich entwickelnden Phänotyp (Cartmill, 1982, siehe auch Diskussion des menschlichen Kinns in Gould, 1977). In einigen Fällen kann man mit gleicher Berechtigung Aspekte, Merkmale, Qualitäten und abstrakte Variablen homologisieren, wenn Hinweise auf eine phylogenetische Kontinuität der Information vorliegen (Roth, 1984, 1991).

Die Debatte über die Verwendung morphometrischer Variablen als Charaktere hat, obwohl sie manchmal strittig ist, konstruktiv mehrere Probleme in den Vordergrund gerückt. Rohlf und Bookstein haben wichtige mathematische Überlegungen geklärt Zelditch et al. (1998) haben darauf hingewiesen, dass sich die aus diesen Überlegungen resultierenden Komplikationen und die dafür erforderlichen Annahmen grundsätzlich nicht von denen anderer Datentypen unterscheiden, die von Systematikern regelmäßig verwendet werden. Weder die mathematischen noch die biologischen Fragen sind einfach und lassen sich auch nicht dogmatisch verschreiben. Da die Merkmale der Morphologie, die durch morphometrische Variablen repräsentiert werden, abstrakter werden und der unmittelbaren Intuition entzogen werden, und da sie Variationen auf neue Weise aufteilen, können Ergebnisse leichter mit Artefakten verwechselt werden. Ein Verständnis der mathematischen Eigenschaften morphometrischer Werkzeuge und der Variationsquellen, für die sie empfindlich sind und auf die sie nicht reagieren, ist für ihre ordnungsgemäße Verwendung von entscheidender Bedeutung, insbesondere jetzt, da schnelle Computer und eine weite Verbreitung von Software diese Werkzeuge in den Markt eingeführt haben Hände von Biologen verschiedenster Fachrichtungen. Dennoch sind Urteilsvermögen, Sorgfalt und Bewusstsein für Annahmen wichtige Bestandteile jeder Analyse komplexer Phänomene. Klarheit der Kommunikation wird unabdingbar.


Zugangsoptionen

Erhalten Sie vollen Zugriff auf Zeitschriften für 1 Jahr

Alle Preise sind Nettopreise.
Die Mehrwertsteuer wird später an der Kasse hinzugefügt.
Die Steuerberechnung wird während des Bezahlvorgangs abgeschlossen.

Erhalten Sie zeitlich begrenzten oder vollständigen Artikelzugriff auf ReadCube.

Alle Preise sind Nettopreise.


QYď g i V_BM f+ - "` ӝ ! + <>

d> w8V ?uh-ݾ z mi)C| *˨ ˙pNh2 k *_ 徹n>f S endstream endobj 103 0 obj >/ExtGState >/ProcSet[/PDF/Text]/Font >>> endobj 104 0 obj > endobj 105 0 obj > endobj xref 0 106 0000000000 65535 f 0000000015 00000 n 0000003627 00000 n 0000003800 00000 n 0000004894 00000 n 0000301916 00000 n 0000305990 00000 n 0000005031 00000 n 0000007730 00000 n 0000009071 00000 09 0000n 000000000000000000 0000 00000 n 0000302604 00000 n 0000302814 00000 n 0000302971 00000 n 0000303154 00000 n 0000303351 00000 n 0000303546 00000 n 0000303751 00000 n 0000303867 00000 n 0000304050 00000 n 0000304255 00000 0000 0305 0000 n 0000 0000 0000305602 00000 n 0000305807 00000 n 0000302183 00000 n 0000302720 00000 n 0000302930 00000 n 0000303088 00000 n 0000303271 00000 n 0000303468 00000 n 0000303662 00000 n 0000303984 00000 n 0000304166 00000 30000 n 0000304 370000 0000 n 0000304 0000 30000 n 0000304 000 n 0000304942 00000 n 0000305148 00000 n 0000305330 00000 n 0000305536 00000 n 0000305718 00000 n 0000305924 00000 n 0000306067 00000 n 0000389576 00000 n 0000306246 00000 n 0000307040 00000 n 0000 0000 n 0000n03 0000 0000307821 104 0000 0000307821 0000 0000313012 00000 n 0000313246 00000 n 0000315946 00000 n 0000316551 00000 n 0000317207 00000 n 0000317331 00000 n 0000318075 00000 n 0000326395 00000 n 0000339616 00000 n 0000349654 00000 n 0000360791 0000310000 0166 0000 n 000370003 0000 0000 n 3704003 0000 0000 n3740030000 n 0000316932 00000 n 0000317024 00000 n 0000317116 00000 n 0000317482 00000 n 0000318018 00000 n0000317680 00000 n 0000318349 00000 n 0000325806 00000 n 0000325928 00000 n 0000318623 00000 n 0000326765 00000 n 0000338761 00000 n 0000338998 00000 n 0000327153 00000 n 0000340396 00000 n 000340803 00000 0000n 0000 n 0000374860 00000 n 0000375517 00000 n 0000389707 00000 n 0000395510 00000 n 0000395665 00000 n 0000395727 00000 n Trailer ]/Root 104 0 R/Size 106>> startxref 395989 %%EOF


Antwort des Autors

Wesentliche Überarbeitungen:

1) Das Manuskript ignoriert umfangreiche frühere einschlägige Arbeiten zu ähnlichen Problemen. Die beschriebenen Analysemethoden sind einfach und nicht besonders innovativ. Belege für die Generalisierbarkeit fehlen. Durch die Nichtberücksichtigung und Einbeziehung früherer Ansätze wurden die potenziellen Fähigkeiten und die Anwendbarkeit der Software erheblich eingeschränkt. Bei der Beschreibung neuer Software ist es besonders wichtig, ihre Leistung mit bestehenden Ansätzen zu vergleichen. Diese Vergleiche sollten nicht nur eine ähnliche Methode (Kerneldichteschätzung), die nicht weit verbreitet ist, sondern auch andere Methoden umfassen (z. B. http://doi.org/10.1038/nmeth.1486). Obwohl beispielsweise für eine andere Anwendung entwickelt, kann das Softwaretool plusTipTracker (http://dx.doi.org/10.1016/j.jsb.2011.07.009) auch verschiedene Dynamikanalysen in Bezug auf die Zelllokalisierung durchführen und sollte diskutiert werden . Das gleiche gilt für TrackMate (http://doi.org/10.1016/j.ymeth.2016.09.016). Allgemeiner gesagt ist eine Diskussion darüber erforderlich, was genau mit bestehenden Tools erreicht werden kann und was nicht, um die Neuheiten und Vorteile des vorgeschlagenen Tools deutlicher zu machen.

Wir stimmen zu, dass plusTipTracker und TrackMate Analysen gezeigt haben, die dynamische Merkmale mit Lokalisierung in Verbindung bringen, und wir haben es versäumt, diese Studien in der ersten Version des Manuskripts zu berichten. PlusTipTracker und TrackMate bieten jedoch keinen Rahmen, um die dynamischen Merkmale in Bezug auf die intrazelluläre Lokalisierung quantitativ zu analysieren, was QuantEv tut. Tatsächlich stehen mit diesen Tracking-Methoden weder eine genaue Möglichkeit zur Lokalisierung noch ein statistisches Werkzeug zur Verfügung. Dennoch ist die Untersuchung dynamischer Merkmale wie des Einschlussverhältnisses oder der Lebensdauer in Bezug auf ihre intrazelluläre Lokalisation derzeit für Biologen nicht verfügbar, während dies möglicherweise eine Routineanalyse für Tracking-Experimente darstellt. Folglich haben wir den Entwicklern von TrackMate vorgeschlagen, ein QuantEv-Analysemodul in ihr Plugin aufzunehmen, und den Icy-Entwicklern, einen QuantEv-Trackprozessor hinzuzufügen. Beide stimmten zu und zeigten, dass diese Art von Analyse erforderlich ist. Derzeit arbeiten wir mit Jean-Yves Tinevez, TrackMate-Entwickler, an der Implementierung eines QuantEv-Analysemoduls (https://github.com/tpecot/QuantEvForTrackMate), der QuantEv-Trackprozessor wird folgen. Wir haben einen neuen Abschnitt hinzugefügt, der erklärt, wie wir Histogramme und Dichten dynamischer Merkmale in Bezug auf die Lokalisierung berechnen (Unterabschnitt „Dichteschätzung für dynamische Merkmale“). Wir haben auch den zweiten Absatz der Ergebnisse geändert, um die radiale Verteilung des Einschlussverhältnisses, der Gesamtpfadlänge und der Lebensdauer zu analysieren, anstatt diese Merkmale als Gewichte in den Dichten zu verwenden.

2) Es scheint, dass sich der von den Autoren vorgeschlagene statistische Test auf den Vergleich zweier Gruppen unter Verwendung des Wilcoxon-Vorzeichen-Rang-Tests konzentriert. Obwohl dies an sich in Ordnung ist, müssen in der Biologie oft mehr als zwei Gruppen miteinander verglichen werden, wie zum Beispiel wt, mutant und rescue. Auch die Möglichkeit, mehr als zwei Gruppen zu vergleichen, ist wichtig, um Probleme mit sich wiederholenden Tests zwischen den Gruppen zu vermeiden. Das Problem ist das Additiv pro Vergleichsfehler. Dieses Problem sollte angegangen werden, und mögliche Lösungen sollten in die nächste Version aufgenommen werden.

Wir danken den Gutachtern für diese Anmerkung, wir haben eigentlich nicht daran gedacht, mehr als zwei Gruppen miteinander zu vergleichen. Der statistische Test wird auf die Differenz zwischen der durchschnittlichen Zwischendistanz und der durchschnittlichen Intradistanz für jede Bildsequenz in der Studie angewendet. Die Berücksichtigung von mehr als zwei Gruppen ändert die durchschnittliche Intra-Distanz nicht und erweitert nur die durchschnittliche Inter-Distanz auf mehr als eine Gruppe. Dementsprechend haben wir den Text im Abschnitt „Unterschied zwischen den Bedingungen“ geändert und das Plugin modifiziert, um mehr als zwei Gruppen zu vergleichen.

3) Die Autoren schlagen vor, Intensität als Gewicht für die Analyse zu verwenden. In den Fällen, die im Test mit synthetischen Testbildern verwendet wurden, und wahrscheinlich in den experimentellen Daten hier sind die Intensitäten vergleichbar. Der potentielle Benutzer muss jedoch darauf hingewiesen werden, dass geeignete Normierungsverfahren angewendet werden müssen, falls Intensitäten als Gewicht verwendet werden. Ebenso muss die Segmentierung mit einer ähnlichen Auswahl beginnen. Die Autoren sollten zumindest diese Notwendigkeit diskutieren und die Voraussetzungen für den Input darlegen.

Wir erkennen an, dass die Intensitätsnormierung ein wichtiger Schritt bei der Analyse von Fluoreszenzbildern ist und diskutiert werden muss. Da die Intensität in der Fluoreszenzmikroskopie proportional zur Proteinmenge ist, liefert sie möglicherweise nützliche Informationen. Mehrere Phänomene wie Photobleaching, Phototoxizität, Schattierung oder ungleichmäßige Beleuchtung können diese Proportionalität jedoch möglicherweise ändern. Wenn der Benutzer diese Phänomene korrigieren kann, ist es vorzuziehen, Intensität als Gewichtung für die Analyse zu verwenden. Andernfalls ist es sicherer, es nicht zu verwenden. Wir haben der Diskussion (dritter Absatz) einen Absatz hinzugefügt, um diesen Punkt anzusprechen.

4) Die einzigen in Papier verwendeten Datensätze sind künstlich, da Zellen auf bestimmte Geometrien beschränkt waren. Dies reduziert die inhärente Komplexität mit unbekannten anderen Effekten. Die meisten Forscher würden sich nicht dafür entscheiden, künstliche geometrische Beschränkungen zu verwenden, und es wird keine Analyse für Bilder von Zellen vorgelegt, die eine natürliche Formvariation zeigen, weder in vitro noch in vivo. Eine solche Variation könnte die einfachen Ansätze, die die Autoren beschreiben, überfordern, und diese Möglichkeit sollte untersucht werden. Die Anwendung der Methoden auf einen Bilddatensatz für unbeschränkte Zellen sollte eingeschlossen werden.

Vielen Dank für diesen wertvollen Vorschlag. Im überarbeiteten Manuskript fügten wir eine Reihe von Bildsequenzen mit Rab6-positiven Membranen in Zellen ohne Einschränkung hinzu (Anhang 1 Abbildung 1A) und verglichen sie mit armbrust- und scheibenförmigen Zellen (Unterabschnitte „Visualisierung und Quantifizierung des Einflusses der Zellform auf die räumliche“ Verteilung von Rab6-positiven Membranen“ und „Nach innen und außen hin zeigen Rab6-positive Membranen zwei charakteristische dynamische Verhaltensweisen“, Abbildungen 2-4). Darüber hinaus wurden diese Sequenzen mit einer anderen Modalität aufgenommen, was zeigt, dass wir mit QuantEv Bildsequenzen mit unterschiedlichen Zellformen und mit unterschiedlichen Modalitäten vergleichen können. Diese Studie zeigt, dass QuantEv geeignet ist, Bilder aus verschiedenen Datenbanken und Labors zu vergleichen, die vor kurzem oder vor mehreren Jahren aufgenommen wurden.

5) Die Behauptung, dass der vorgeschlagene Rahmen „generisch und nicht parametrisch“ sei, scheint zu stark. In der Arbeit werden nur einige sehr spezifische Anwendungen untersucht. Und viele der zugrunde liegenden Komponenten des Frameworks sind nicht gerade nicht parametrisch. Zum Beispiel haben die an der gewichteten Dichteschätzung beteiligten Kerne Parameter, und die Entfernungsmaße hängen von der Anzahl der Bins ab. Dieser Anspruch sollte abgeschwächt werden.

Wie im Abschnitt „Gewichtete Dichteschätzung“ beschrieben, werden die Bandbreiten der Gaußschen Kerne mit der Silverman-Faustregel und die Konzentrationen der von Mises-Kerne mit der robusten Faustregel von Taylor et al. Diese üblichen Parameter bei der nichtparametrischen Dichteschätzung werden folglich automatisch geschätzt und müssen vom Benutzer nicht eingestellt werden. Da der im QuantEv-Framework verwendete statistische Test auf den Rangstufen einer Differenz zwischen den Entfernungen von Erdbewegungsmaschinen oder den Entfernungen von kreisförmigen Erdbewegungsmaschinen basiert, wird das Testergebnis durch die Wahl der Anzahl der Behälter nicht beeinflusst. Im Anhang haben wir den Einfluss des Binnings auf die Entfernung der Erdbewegungsmaschine ausgewertet (siehe Anhang 4), um diesen Punkt zu verdeutlichen. Tatsächlich muss der Benutzer nur das Koordinatensystem, den Mittelpunkt des Koordinatensystems und eine Referenzrichtung angeben. Aus all diesen Gründen kann QuantEv als „semi-parametrischer Rahmen“ für die Verkehrs-Phänotyp-Analyse betrachtet werden. Wir haben in der Diskussion zu diesem Punkt einen vollständigen Absatz hinzugefügt, um klar darzustellen, welche Eingaben vom Benutzer erforderlich sind (zweiter Absatz).

6) Die Autoren behaupten, dass ihr Framework sensitiver ist als die Kernel Density Maps. Damit stellt sich die Frage nach der Unterscheidungskraft der Methode. Das Potenzial zur Unterscheidung von Verteilungsmustern hängt von der Auflösung des Inputs ab, dies sollte diskutiert werden.

QuantEv ist in der Lage, Unterschiede signifikant zu erkennen, wenn sich die Phänotypen positiv unterscheiden. Der Ansatz von Kernel Density Maps ist zu empfindlich, da er fälschlicherweise Unterschiede für Bildsequenzen erkennt, die Rab6-Proteine ​​beim Transport in Zellen mit der gleichen Form zeigen (siehe Abbildung 2D). Der übliche ANOVA-Test schlägt ebenfalls fehl, wie die Simulationen in Anhang 3 zeigen. In diesem Experiment führt der ANOVA-Test zu statistischer Signifikanz beim Vergleich von Bildsequenzen mit unterschiedlichen Verteilungen, aber auch beim Vergleich von Bildsequenzen mit gleichen oder gemischten Verteilungen, wenn die Datenmenge groß wird (siehe Anhang 3). Das gleiche Experiment zeigt, dass QuantEv Unterschiede für Sequenzen mit unterschiedlichen Verteilungen mit einer kleinen Anzahl von Bildsequenzen genau identifiziert, aber zu keinen signifikanten Unterschieden für Sequenzen mit gleicher oder gemischter Verteilung führt, selbst bei einer großen Anzahl von Bildsequenzen, was eine gute Unterscheidung zeigt Energie.

7) Die Bedeutung der Ergebnisse der verschiedenen Analysen ist oft unklar und im Hinblick auf das Verständnis der Mechanismen für jedes der untersuchten Systeme sehr begrenzt. Da die Arbeit für ein allgemeines Publikum geschrieben ist, sollte dies verbessert werden.

Vielleicht haben wir den Kommentar falsch verstanden. Unsere Absicht war nicht, eine Methode zur Entschlüsselung von Mechanismen im Zusammenhang mit Rab6 und Rab11 vorzuschlagen. Tatsächlich ist bekannt, dass diese Proteine ​​an speziellen Molekülkomplexen beteiligt sind und mit anderen Molekülen interagieren (z. B. Rab11 interagiert mit Aktin über Myosin VB und Rab11FIP2). Die zugrunde liegenden Mechanismen von Rab-Proteinen können besser aufgeklärt werden, wenn zwei oder mehr Fluoreszenzmarker verwendet werden. Wahrscheinlich wäre ein generatives Modell hilfreich, um die Mechanismen zu analysieren. Stattdessen schlagen wir hier einen rechnerischen Rahmen vor, um Verkehrsphänotypen in Bezug auf Zellform, Zytoskelettorganisation und räumliche Organisation von Organellen zu vergleichen.

8) Einige spezifische Anmerkungen zum Text sind zu berücksichtigen:

Einleitung, erster Absatz „Automatische Verfahren haben den offensichtlichen Vorteil, dass sie schneller und reproduzierbar sind. Die meisten Computermethoden basieren jedoch auf der komplexen Kombination heterogener Merkmale wie statistischer, geometrischer, morphologischer und Frequenzeigenschaften (Peng, 2008), was es schwierig macht, eindeutige biologische Schlussfolgerungen zu ziehen.“ Diese Aussage ignoriert umfangreiche Arbeiten zu generativen oder mechanistischen Modellen, die interpretierbare Parameter erzeugen. Solche Arbeiten umfassen mechanistische Modelle der Dynamik endozytischer Vesikel (zB http://doi.org/10.1038/nmeth.1237) und Zytoskelettdynamik (http://doi.org/10.1126/science.1100533) und generative Modelle von Vesikelverteilung (zB http://doi.org/10.1371/journal.pcbi.1004614).

Einführung, erster Absatz „Außerdem bündeln die meisten experimentellen Designs, insbesondere auf Einzelzellebene, Daten, die aus replizierten Experimenten einer gegebenen Bedingung stammen (Schauer et al., 2010 Merouane et al., 2015 Biot et al., 2016), unter Vernachlässigung die biologische Variabilität zwischen einzelnen Zellen.“: Auch dies ignoriert die Arbeit an generativen Modellen, die speziell die Variation zwischen Zellen analysiert und erfasst. Beispiele aus der Vergangenheit sind Mikrotubuli-Netzwerke (z. B. http://doi.org/10.1371/journal.pone.0050292) und Zell- und Kernform (z. B. http://dx.doi.org/10.1091/mbc.E15-06 .). -0370). Auch traditionelle merkmalsbasierte Methoden analysieren häufig Heterogenität innerhalb von Populationen (z. B. http://doi.org/10.1371/journal.pone.0102678).

Wir haben den Stand der Technik verbessert und auf die oben genannten Modellierungsansätze verwiesen. Diese Methoden sind generative oder dedizierte Methoden zur Analyse spezifischer Dynamiken. QuantEv ist allgemeiner und ermöglicht die Analyse der räumlichen Verteilung intrazellulärer Ereignisse ohne vorherige Dynamik. Es kann als statistisches Werkzeug verstanden werden, um Signifikanznachweise zwischen Phänotypen für eine Vielzahl von Anwendungen zu erkennen. Wir haben der Diskussion (dritter Absatz) einen Absatz hinzugefügt, um den Benutzer darüber zu informieren, wann QuantEv und wann generative oder mechanistische Modelle verwendet werden sollten.

Einführung, dritter Absatz und Unterabschnitt „Gewichtete Dichteschätzung“, erster Absatz – Die Verwendung von kreisförmigen und/oder zylindrischen Koordinatensystemen zur Beschreibung von Objektpositionen innerhalb einer Zelle ist gut etabliert (z. B. http://doi.org/10.1002/cyto .a.20487 und http://doi.org/10.1002/cyto.a.21066) und in diesen Fällen wurde der Rotationswinkel stärker relativ zur Hauptachse jeder Zelle definiert als durch die Begrenzungsfelder. Alternative Lösungsansätze wie Morphing wurden nicht diskutiert.

Wir haben die oben genannten Referenzen wie vorgeschlagen aufgenommen (Anhang 2). Tatsächlich wurden sphärische und zylindrische Darstellungen bereits in vielen Ansätzen berücksichtigt. Der Mehrwert von QuantEv besteht hauptsächlich darin, räumliche und zeitliche Informationen in einem gemeinsamen und geeigneten Bezugssystem zu analysieren. Unser Ziel war es zudem nicht, einen punktuellen Verkehrsatlas zu erstellen. Die Morphing-Registrierung ist wahrscheinlich der beste Ansatz zum Ausrichten von Zellen in einer gemeinsamen Referenz, basiert jedoch im Allgemeinen auf Formmerkmalen und Konturen. In unserer Studie werten wir mehrere Vesikeltransporte aus und die Anzahl der nachgewiesenen Ereignisse ist in jeder Zelle unterschiedlich. Wir haben die Abstände normalisiert, um das Morphing von Zellen unterschiedlicher Form zu vermeiden.

Einleitung, dritter Absatz und Unterabschnitt „Abstand zwischen Dichten“, erster Absatz – Es gibt keine Diskussion über neuere Metriken in Bezug auf die Entfernung von Erdbewegungsmitteln, die beschrieben und verwendet wurden, um subzelluläre Muster zu vergleichen (http://doi.org/10.1007/s11263 -012-0566-z).

Vielen Dank, wir haben diesen Hinweis im ersten Absatz des Unterabschnitts „Abstand zwischen Dichten“ mit dem Hinweis auf https://doi.org/10.1073/pnas.1319779111 hinzugefügt.

„Der KD-Ansatz kommt zum Schluss… Stattdessen identifiziert QuantEv selektiv…“ Woher wissen wir, welche Methode der Wahrheit am nächsten kommt? Kann dies verifiziert werden? Wie können wir ohne ein Kontrollexperiment oder eine Simulation schlussfolgern, dass QuantEv anderen Methoden vorzuziehen ist?

Wir erkennen an, dass dieser Punkt in der vorherigen Version des Manuskripts nicht klar genug war. In dieser neuen Version des Manuskripts haben wir hervorgehoben, dass der KD-Ansatz beim Vergleich von Bildsequenzen mit Zellen gleicher Form zu statistisch signifikanten Ergebnissen führt (Unterabschnitt „Visualisierung und Quantifizierung des Einflusses der Zellform auf die räumliche Verteilung von Rab6-positiven Membranen“ , Abbildung 2D), was zeigt, dass der KD-Ansatz zu empfindlich ist, was bei QuantEv nicht der Fall ist.

Unterabschnitt „Visualisierung und Quantifizierung des Einflusses von Mikromustern auf die räumliche Verteilung von Rab6-positiven Membranen“ – Es gibt keinen klaren Peak an der Zweidrittelposition in Abbildung 2D und es werden keine Hinweise auf Signifikanz oder Reproduzierbarkeit vorgelegt.

Wir erkennen an, dass der Begriff „Peak“ irreführend sein kann. Wir haben es durch Maxima ersetzt, um Verwirrung zu vermeiden.

„Rab6-Trajektorien wurden in zwei Kategorien eingeteilt…“ Woher wissen wir, dass diese Trajektorien vertrauenswürdig sind? Welche Art von Kontrollexperiment wurde durchgeführt, um dies zu bestätigen? Dies ist besonders wichtig, da die Trajektorien anscheinend nicht mit den besten heute verfügbaren Methoden erhalten wurden (zum Beispiel scheint es laut http://doi.org/10.1038/nmeth.2808 bessere Tracking-Methoden zu geben als die in der Unterabschnitt „Ereigniserkennung und -lokalisierung“).

„Wir haben Rab11-Trajektorien extrahiert…“ Wie im vorherigen Kommentar.

Wir sind uns einig, dass es riskant ist, sich nur auf eine Tracking-Methode zu verlassen. Wir haben die Bildsequenzen auch mit den von Sbalzarini und Koutmoutsakos und TrackMate vorgeschlagenen Methoden verarbeitet, so dass wir nun ein multiples Hypothesen-Tracking-Verfahren, ein kombinatorisches Optimierungs-Tracking-Verfahren und einen hybriden Ansatz haben. Anschließend berechneten wir eine Gated Distance, wie sie in Chenouard et al. Zwischen allen mit den drei Methoden geschätzten Trajektorien haben wir die Trajektorien ausgewählt, bei denen dieser Abstand in mindestens zwei Methoden für die Analyse (Unterabschnitt „Ereigniserkennung und -lokalisierung“) kleiner als 2 Pixel war. Diese ausgewählten Spuren wurden verwendet, um Schlussfolgerungen zu ziehen und Hinweise auf Phänotypen zu erkennen.

„Bei den im vorherigen Abschnitt betrachteten Bildsequenzen (siehe Abbildung 4A) bleibt dieser Abstand stabil (siehe Abbildung 5A). Wir haben Zellen analysiert, die mit Latrunculin A behandelt wurden … die ERC-Position entfernt sich, da das Medikament die Zelle beeinflusst (siehe Abbildung 5B)". Aber die Zeitskalen sind in diesen beiden Fällen sehr unterschiedlich (Sekunden versus Minuten). Kontrollexperimente wären erforderlich, um zu bestätigen, dass die ERC-Position in unbehandelten Zellen über den gleichen Zeitraum wie in den behandelten Zellen stabil bleibt.

Vielen Dank für diese wertvolle Anmerkung. Wir stimmen zu und schlossen neue Experimente mit scheibenförmigen Zellen ohne Latrunculin-A-Behandlung ein, die alle 30 Sekunden für 20 Minuten aufgenommen wurden. Abbildung 6 wurde entsprechend geändert.

Die Behauptung, dass das vorgestellte Software-Tool „mit kleinen und großen Datenmengen effizient ist“, ist in der Arbeit nicht belegt. Es werden weder Datensatzgrößen noch Verarbeitungszeiten genannt.

In Anhang 3 zeigen wir, wie große Datenmengen ein Problem darstellen können, wenn eine reguläre ANOVA-Analyse verwendet wird. Dies ist bei QuantEv nicht der Fall, das Simulationen mit unterschiedlichen Verteilungen genau identifiziert, aber selbst bei einer großen Anzahl von Bildsequenzen keinen statistischen Unterschied zwischen Sequenzen mit gleichen oder gemischten Verteilungen aussagt. Wir haben auch Anhang 5 hinzugefügt, um die Bearbeitungszeiten für die verschiedenen in QuantEv vorgeschlagenen Analysen anzugeben.

Die Behauptung, dass „QuantEv ziemlich flexibel ist, da der Benutzer jede Entfernung angeben kann…“ widerspricht der Aussage, dass „es voll automatisiert und nicht parametrisch ist“.

„Ein Referenzpunkt… und eine Referenzrichtung müssen vom Benutzer angegeben werden…“ Wie voriger Kommentar.

Wir verweisen die Gutachter auf unsere Antwort zu Punkt 5 der wesentlichen Hauptrevision.

[Anmerkung der Redaktion: Vor der Annahme wurden weitere Überarbeitungen angefordert, wie unten beschrieben.]

Das Manuskript wurde verbessert, aber es gibt noch einige verbleibende Probleme, die vor der Annahme behoben werden müssen, wie unten beschrieben:

Es gab erhebliche Vorbehalte gegenüber der Verwendung von Constrained Cells, da die Verwendung solcher Zellen die Analyse stark vereinfacht. Die Autoren haben nun zusätzliche Arbeit geleistet, um Ergebnisse zum Vergleich von nicht eingeschränkten Zellen und zwei verschiedenen Arten von eingeschränkten Zellen hinzuzufügen. Die Ergebnisse zeigen, dass QuantEV zwischen den drei Gruppen unterscheiden kann. Es wurden jedoch keine Störungsstudien (z. B. Latrunculin B) mit nicht eingeschränkten Zellen durchgeführt.Daher bleibt die Hauptsorge hinsichtlich der Eignung von QuantEV für die Verwendung in zukünftigen Studien, von denen erwartet wird, dass die meisten mit nicht eingeschränkten Zellen durchgeführt werden. Dies ist ein wichtiger Punkt: Das Verfahren ist möglicherweise in der Lage, Veränderungen innerhalb eingeschränkter Zellen bei verschiedenen Behandlungen zu unterscheiden, kann jedoch möglicherweise nicht in der Lage sein, Störungen vor dem Hintergrund einer signifikanten Variation innerhalb nicht eingeschränkter Zellen zu unterscheiden. Es gibt keine Informationen über die Varianz der Profile in Abbildung 2F innerhalb der uneingeschränkten Population. Dies ist ein wichtiges Anliegen im Zusammenhang mit den im Manuskript (insbesondere in der Diskussion) sehr weit gefassten Behauptungen über die Leistungsfähigkeit und Allgemeingültigkeit von QuantEV. Um diese weitreichenden Behauptungen zu untermauern, müssen die Autoren schlüssige Beweise dafür liefern, dass QuantEV physiologisch relevante Veränderungen bei Störungen in nicht eingeschränkten Zellen unterscheiden kann. Da den Autoren zweifellos die notwendigen Datensätze zur Verfügung stehen, ist zu erwarten, dass keine Sammlung neuer experimenteller Daten erforderlich ist, um diesen Punkt zu adressieren.

Um zu zeigen, dass QuantEv in der Lage ist, durch Störungsstudien induzierte Veränderungen zu unterscheiden, haben wir eine neue Reihe von Experimenten durchgeführt, die aus dem Erwerb von Rab11-positiven Membranen in nicht eingeschränkten Zellen nach einer Behandlung mit Latrunculin A besteht. Da nicht eingeschränkte Zellen stärker ausgebreitet sind und ein weniger organisiertes Zytoskelett haben als Zellen auf Mikromustern, zeigen sie eine schwächere Latrunculin-A-Resistenz. Folglich schrumpfen nicht eingeschränkte RPE1-Zellen schneller als eingeschränkte Zellen, was zu einer vollständigen Ablösung vom Objektträger ungefähr 20 Minuten nach der Injektion von Latrunculin A führt. Dies geschieht nicht bei eingeschränkten RPE1-Zellen, da sie durch die Mikromuster stabiler am Objektträger befestigt sind. Um eingeschränkte und nicht eingeschränkte Zellen zu vergleichen, haben wir die Bildsequenzen nur 10 und 15 Minuten nach der Latrunculin A-Behandlung beibehalten und aus der vorherigen Version des Manuskripts die Bildsequenzen entfernt, die 20 und 25 Minuten nach der Latrunculin A-Behandlung für eingeschränkte Zellen aufgenommen wurden. Es ist anzumerken, dass die radialen Verteilungen, die 20 und 25 Minuten nach der Behandlung mit Latrunculin A für eingeschränkte Zellen beobachtet wurden, den radialen Verteilungen, die 15 Minuten nach der Behandlung beobachtet wurden, sehr ähnlich sind. Die Wirkung von Latrunculin A auf das dynamische Verhalten von Rab11-positiven Membranen ist in nicht eingeschränkten und eingeschränkten Zellen ähnlich (siehe Abbildung 7). Darüber hinaus induziert die Injektion von Latrunculin A eine Verschiebung der radialen Verteilung von Rab11-positiven Membranen von der Zellperipherie zum Zellzentrum in nicht eingeschränkten Zellen, ein Phänomen, das auch in eingeschränkten Zellen beobachtet wird (siehe Abbildung 8A). Schließlich ist der Unterschied zwischen den radialen Verteilungen von Rab11-positiven Membranen unter den drei verschiedenen Bedingungen (unbeschränkte, armbrust- und scheibenförmige Zellen) zum Zeitpunkt der Injektion von Latrunculin A statistisch signifikant (siehe Abbildung 8B), während die Unterschiede der gleichen radialen Verteilungen 10 und 15 Minuten nach der Injektion von Latrunculin A sind dies nicht (siehe Abbildung 8B). Dies unterstreicht, dass der Einfluss von Latrunculin A auf die radiale Verteilung für die drei Bedingungen ähnlich ist. Wir haben den Unterabschnitt mit dem Titel „Gelenkaktinstörung und Einfluss der Zellform auf die radiale Verteilung von Rab11“ entsprechend modifiziert. Wir glauben, dass das Hinzufügen einer Störungsstudie in unbeschränkten Zellen die Leistungsfähigkeit und Allgemeingültigkeit von QuantEv unterstützt und danken den Gutachtern für diesen wertvollen Vorschlag. Es gibt keine Informationen über die Varianz der Profile in Abbildung 2F innerhalb der uneingeschränkten Population. Dies ist ein wichtiges Anliegen im Zusammenhang mit den im Manuskript (insbesondere in der Diskussion) sehr weit gefassten Behauptungen über die Leistungsfähigkeit und Allgemeingültigkeit von QuantEV. Die Varianz der Profile wird in den Diagrammen nicht angezeigt, da es schwierig ist, andere Kurven zu solchen gepackten Diagrammen hinzuzufügen. Die geringe statistische Prüfung der radialen Verteilungen (p-Wert = 7,3x10 -4 ) zeigt jedoch, dass die Varianz der Profile klein sein muss. Tatsächlich beträgt die durchschnittliche Standardabweichung pro Bin für die radiale Verteilung von Rab6-positiven Membranen in nicht eingeschränkten Zellen 0,0074. Für jede Analyse im Manuskript wird ein statistischer Test durchgeführt, um sowohl Unterschiede zwischen den Verteilungen nachzuweisen als auch die Variabilität in jedem Datensatz zu berücksichtigen.