Information

Unterschied zwischen diffuser optischer Tomographie und optischer Tomographie

Unterschied zwischen diffuser optischer Tomographie und optischer Tomographie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Was sind die Unterschiede zwischen diesen beiden Modalitäten?

Gibt es Formen von OT, die nicht DOT sind?


Dreidimensionale Fluoreszenz-Diffus-Optik-Tomographie mit dem adaptiven räumlichen Prior-Ansatz

Traditionell erfordert die Rekonstruktion von Bildern der diffusen optischen Fluoreszenztomographie (FDOT) anatomische Bilder als Vorabinformation. Um anatomische Informationen über Tumore oder Weichteile in die FDOT zu integrieren, sind zusätzliche Geräte und Verfahren erforderlich, die eine Co-Registrierung, Kontrastmittelinjektion und Ausrichtung umfassen.

Methoden

Hier schlagen wir den adaptiven räumlichen Prior-Ansatz zur Rekonstruktion von FDOT-Bildern vor, der unter Verwendung einer anfänglichen Schätzung der Tumorgröße und -lokalisation für Einzel- und Multi-Tumor-Fälle implementiert wird. Diese Technik wird am besten verwendet, wenn FDOT mit begrenzten strukturellen Informationen oder einem anderen strukturellen Bildgebungssystem kombiniert wird. Dieses Verfahren modifiziert iterativ den Standort ausgehend vom geschätzten Standort.

Ergebnisse

Wir führen Simulationen, Phantomexperimente und Experimente an Fleischgewebe mit der adaptiven räumlichen Prior-Methode durch.

Schlussfolgerungen

Die Ergebnisse dieser Studien zeigen die Machbarkeit des adaptiven räumlichen Prior-Ansatzes für die FDOT-Bildgebung.

Dies ist eine Vorschau von Abonnementinhalten, auf die Sie über Ihre Institution zugreifen können.


Unterschied zwischen diffuser optischer Tomographie und optischer Tomographie - Biologie

1 Department of Physics, Indian Institute of Science, Bangalore, Indien

2 Department of Instrumentation and Applied Physics, Indian Institute of Science, Bangalore, Indien

E-Mail: * [email protected], [email protected], [email protected]

Copyright & Kopie 2013 Samir Kumar Biswas et al. Dies ist ein Open-Access-Artikel, der unter der Creative Commons Attribution License vertrieben wird und die uneingeschränkte Verwendung, Verbreitung und Reproduktion in jedem Medium erlaubt, vorausgesetzt, das Originalwerk wird ordnungsgemäß zitiert.

Eingegangen am 22. Oktober 2013 überarbeitet am 22. November 2013 angenommen 29. November 2013

Schlüsselwörter: Diffuse optische Tomographie Gauss-Newton-Methoden Broyden- und Adjoint-Broyden-Ansätze Pseudodynamische Methode

Die diffuse optische Tomographie (DOT) mit Nahinfrarotlicht (NIR) ist ein vielversprechendes Werkzeug für die nichtinvasive Bildgebung von tiefem Gewebe. Der Ansatz ist in der Lage, die quantitativen optischen Parameter (Absorptionskoeffizient und Streukoeffizient) eines Weichgewebes zu rekonstruieren. Die Motivation für die Rekonstruktion der Variation der optischen Eigenschaft besteht darin, dass sie und insbesondere die Variation des Absorptionskoeffizienten verwendet werden können, um verschiedene Stoffwechsel- und Krankheitszustände von Gewebe zu diagnostizieren. Bei der DOT, wie bei jeder anderen medizinischen Bildgebungsmodalität, besteht das Ziel darin, eine Rekonstruktion mit guter räumlicher Auflösung und im Gegensatz zu verrauschten Messungen zu erzeugen. Die als inverses Problem bekannte Parameterwiederherstellung in stark streuenden biologischen Geweben ist ein nichtlineares und schlecht gestelltes Problem und wird im Allgemeinen durch iterative Verfahren gelöst. Der Algorithmus verwendet ein Vorwärtsmodell, um eine Vorhersage der Flussdichte an der Gewebegrenze zu erhalten. Das Vorwärtsmodell verwendet Lichttransportmodelle wie die stochastische Monte-Carlo-Simulation oder deterministische Methoden wie die radioaktive Transfergleichung (RTE) oder eine vereinfachte Version der RTE, nämlich die Diffusionsgleichung (DE). Zur Diskretisierung der Diffusionsgleichung wird die Finite-Elemente-Methode (FEM) verwendet. Der häufig verwendete Algorithmus zur Lösung des inversen Problems ist die Newton-basierte modellbasierte iterative Bildrekonstruktion (N-MoBIIR). Für die DOT-Rekonstruktion werden viele Varianten von Gauss-Newton-Ansätzen vorgeschlagen. Die Schwerpunkte solcher Entwicklungen sind 1) die Reduzierung der Rechenkomplexität 2) die Verbesserung der räumlichen Wiederherstellung und 3) die Verbesserung der Kontrastwiederherstellung. Diese Algorithmen sind 1) auf Hessen basierendes MoBIIR 2) Broyden-basiertes MoBIIR 3) adjungierte Broyden-basierte MoBIIR und 4) pseudodynamische Ansätze.

Die diffuse optische Tomographie (DOT) bietet einen Ansatz zum Untersuchen stark streuender Medien wie Gewebe unter Verwendung von Nahinfrarotlicht (NIR) niedriger Energie unter Verwendung der Grenzmessungen, um Bilder der optischen Parameterkarte des Mediums zu rekonstruieren. NIR-Laserlicht niedriger Leistung (1 - 10 Milliwatt), moduliert mit einem Sinussignal von 100 MHz, wird durch ein Gewebe geleitet, und die vorhandene Lichtintensität und -phase werden an der Grenze gemessen. Die vorherrschenden Effekte sind die optische Absorption und Streuung. Der Transport von Photonen durch ein biologisches Gewebe ist durch die Diffusionsgleichung [1-6] gut etabliert, die die Ausbreitung von Licht durch das stark streuende trübe Medium modelliert.

Das Vorwärtsmodell verwendet häufig Lichttransportmodelle wie die stochastische Monte-Carlo-Simulation [7] oder deterministische Methoden wie die Strahlungsübertragungsgleichung (RTE) [8]. Unter bestimmten Bedingungen wie z, kann das Lichttransportproblem durch die Diffusionsgleichung (DE) [9] vereinfacht werden. Die RTE ist das am besten geeignete Modell für den Lichttransport durch ein inhomogenes Material. Die RTE hat viele Vorteile, darunter die Möglichkeit, den Lichttransport durch ein unregelmäßiges Gewebemedium zu modellieren. Allerdings ist es rechnerisch sehr aufwendig. Die DOT-Systeme verwenden also den diffusionsbasierten Ansatz. Das Gauss-Newton-Verfahren [2]wird am häufigsten zur Lösung des DOT-Problems verwendet. Die auf Monte-Carlo basierenden Methoden sind Störungsrekonstruktionsmethoden [10-12]. Die zur Diskretisierung des DE verwendeten numerischen Verfahren sind die Finite-Differenzen-Methode (FDM) [13] und die Finite-Elemente-Methode (FEM) [2]. Berücksichtigt wurden auch hybride FEM-Modelle mit RTE für quellennahe Standorte und DE für andere Regionen [14]. Das FEM-Diskretisierungsschema berücksichtigt, dass der Lösungsbereich viele kleine miteinander verbundene winzige Unterbereiche umfasst und gibt eine stückweise Annäherung an die herrschende Gleichung, d. h. die komplexe partielle Differentialgleichung wird auf einen Satz linearer oder nichtlinearer simultaner Gleichungen reduziert. Somit ist das Rekonstruktionsproblem ein nichtlineares Optimierungsproblem, bei dem die Zielfunktion, die als die Norm der Differenz zwischen dem vom Modell vorhergesagten Fluss und den tatsächlichen Messdaten für einen gegebenen Satz optischer Parameter definiert ist, minimiert wird. Ein Verfahren zur Überwindung der Unaufrichtigkeit besteht darin, einen Regularisierungsparameter einzubauen. Regularisierungsmethoden ersetzen das ursprüngliche, schlecht gestellte Problem durch ein besser konditioniertes, aber verwandtes, um die Auswirkungen von Rauschen in den Daten zu verringern und eine regularisierte Lösung für das ursprüngliche Problem zu erzeugen.

Eine diskretisierte Version der Diffusionsgleichung wird unter Verwendung der Finite-Elemente-Methode (FEM) gelöst, um das Vorwärtsmodell für den Photonentransport bereitzustellen. Die Lösung des Vorwärtsproblems wird zur Berechnung des Jacobi-Wertes verwendet und die Simultangleichung wird unter Verwendung einer konjugierten Gradientensuche gelöst.

In dieser Studie betrachten wir viele Ansätze zur Lösung des DOT-Problems. Bei DOT übersteigt die Zahl der Unbekannten die Zahl der Messungen bei weitem. Ein genaues und zuverlässiges Rekonstruktionsverfahren ist unerlässlich, um DOT zu einem praxisrelevanten Diagnosewerkzeug zu machen. Die iterativen Verfahren werden häufig verwendet, um diese Art von sowohl nichtlinearen als auch schlecht gestellten Problemen basierend auf nichtlinearer Optimierung zu lösen, um ein Fehlanpassungsfunktional des Datenmodells zu minimieren. Der Algorithmus umfasst ein zweistufiges Verfahren. Im ersten Schritt erfolgt die Lichtausbreitung zur Generierung der sogenannten „Vorwärtsdaten“ oder Vorhersagedaten und ein Aktualisierungsverfahren, das die Differenz zwischen Vorhersagedaten und Messdaten für die inkrementelle Parameterverteilung nutzt. Für die Parameteraktualisierung verwendet man oft eine Variation der Newtonschen Methode in der Hoffnung, die Parameteraktualisierung in die richtige Richtung zu erzeugen, die zur Minimierung des Fehlerfunktionals führt. Dies beinhaltet die Berechnung des Jacobi-Wertes der Vorwärts-Lichtausbreitungsgleichung in jeder Iteration. Der Ansatz wird als modellbasierte iterative Bildrekonstruktion (MoBIIR) bezeichnet.

Der DOT beinhaltet einen intensiven Rechenblock, der iterativ unbekannte diskretisierte Parametervektoren aus partiellen und verrauschten Grenzmessdaten wiederherstellt. Da das Rekonstruktionsproblem schlecht gestellt ist, erfordert es oft eine Regularisierung, um sinnvolle Ergebnisse zu erzielen. Um die Dimension des unbekannten Parametervektors in vertretbaren Grenzen zu halten und so sicherzustellen, dass das Inversionsverfahren weniger schlecht gestellt und handhabbar ist, versucht das DOT normalerweise nur 2D-Probleme zu lösen, indem 2D-Querschnitte gewonnen werden, mit denen 3D-Bilder durch Stapeln mehrerer 2D-Ebenen aufgebaut werden könnte. Die größte Schwierigkeit bei der Überwindung eines ausgewachsenen 3D-Problems ist die unverhältnismäßige Zunahme der Parametervektordimension (eine typische Zunahme um das Zehnfache) im Vergleich zur Datendimension, bei der keine Zunahme über das 2- bis 3-fache hinaus erwartet werden kann. Dies macht das Rekonstruktionsproblem insofern gravierender, als die Iterationen aufgrund größerer Nullräume für die (diskretisierten) Systemmatrizen hartnäckig gemacht werden. Mit fortschreitender Iteration wird die Fehlanpassung (, die Differenz zwischen berechnetem und gemessenem Wert) verringert sich.

Der Hauptnachteil eines Newton-basierten MoBIIR-Algorithmus (N-MoBIIR) ist die Rechenkomplexität des Algorithmus. Die Jacobi-Berechnung in jeder Iteration ist die Hauptursache für die hohe Rechenzeit. Der Broyden-Ansatz wird vorgeschlagen, um die Rechenzeit um eine Größenordnung zu reduzieren. Beim Broyden-basierten Ansatz wird Jacobian nur einmal mit gleichförmiger Verteilung der optischen Parameter zu Beginn und dann in jeder Iteration berechnet. Sie wird über den interessierenden Bereich (ROI) nur unter Verwendung einer Rang-1-Aktualisierungsprozedur aktualisiert. Die Idee hinter der Jacobi-(J)-Aktualisierung ist der Stufengradient des adjungierten Operators bei ROI, der die Inhomogenitäten lokalisiert. Die andere Schwierigkeit bei MoBIIR besteht darin, dass es eine Regularisierung erfordert, um die Unausgeglichenheit des Problems zu mildern. Die Auswahl eines Regularisierungsparameters ist jedoch willkürlich. Ein alternativer Weg zur obigen iterativen Lösung besteht darin, eine künstliche Dynamik in das System einzuführen und die stationäre Antwort des sich künstlich entwickelnden dynamischen Systems als Lösung zu behandeln. Diese Alternative vermeidet auch eine explizite Inversion des linearisierten Operators wie in der Gauß-Newton-Aktualisierungsgleichung und hilft so, mit der Regularisierung durchzukommen.

Die Lichtdiffusionsgleichung im Frequenzbereich lautet:

(1)

wo ist der Photonenfluss, ist der Diffusionskoeffizient und ist gegeben durch

(2)

und sind Absorptionskoeffizient und reduzierter Streukoeffizient bzw. Das Eingangsphoton stammt von einer Quelle konstanter Intensität befindet sich. Das übertragene optische Ausgangssignal, das von einer Photomultiplier-Röhre gemessen wird.

Das DOT-Problem wird durch einen nichtlinearen Operator dargestellt, der gegeben ist durch wo gibt vom Modell vorhergesagte Daten über die Domäne und M ist der berechnete Messvektor, der aus und.

(3)

Das Bildrekonstruktionsproblem sucht nach einer Lösung so dass die Differenz zwischen dem vorhergesagten Modell und die experimentelle Messung ist minimal. Um den Fehler zu minimieren, wird das Kostenfunktional minimiert und das Kostenfunktional ist definiert als [1]

(4)

wo ist Norm. Durch Gauss-Newton und Levenberg-Marquardt [1,15,16]-Algorithmen wird die minimierte Form der obigen Gleichung wie folgt gegeben:

(5)

wo ist der Unterschied zwischen modellvorhergesagten Daten und experimentelle Messdaten

, und J ist die Jacobi-Matrix, die bei jeder Iteration des MoBIIR-Algorithmus ausgewertet wurde ( 1 ). Die obige Gleichung ist der Parameteraktualisierungsausdruck. In Gleichung 5 ist I die Identitätsmatrix, deren Dimension gleich der Dimension von J . istJ. ist der Regularisierungsparameter und die Größenordnung von Ich sollte dem von J . nahe seinJ. Die Auswirkungen von Lärm und über die Rekonstruktion wird im Ergebnisteil diskutiert. Abbildung 1 zeigt ein Flussdiagramm des auf Gauss-Newton basierenden Ansatzes.

Abbildung 1 . Flussdiagramm zur Bildrekonstruktion durch den methodenbasierten MoBIIR-Algorithmus von Newton.

2.2. Hessischer Ansatz

Der iterative Rekonstruktionsalgorithmus stellt eine Annäherung an aus der Menge der Grenzmessungen. Durch direkte Taylor-Entwicklung von Gleichung 3 und Verwendung eines quadratischen Termes mit Hessisch kann die Störungsgleichung geschrieben werden als:

(6)

wo ist das Hessische, das der Messung entspricht. Für d Detektoren kann die obige Gleichung umgeschrieben werden als:

(7)

Die Gleichung 7 ist die Aktualisierungsgleichung, die aus der quadratischen Störungsgleichung erhalten wird. Der Begriff wird oft als diagonal dominant beobachtet und kann bezeichnet werden durch, wobei die Terme außerhalb der Diagonalen vernachlässigt werden. Somit hat die Aktualisierungsgleichung durch die Aufnahme des zweiten Ableitungsterms eine verallgemeinerte Form mit einem physikalisch konsistenten Regularisierungsterm.

Die Haupteinschränkung der Newtonschen Methode ist die rechenaufwendige Jacobi-Auswertung [17,18]. Die Quasi-Newton-Methoden liefern einen ungefähren Jacobi-Wert [19]. Samir et al. [5] haben einen Algorithmus entwickelt, der die Methode von Broyden [17,18,20] nutzt, um die Jacobi-Aktualisierungsoperation zu verbessern, die zufällig der größte rechnerische Engpass von Newton-basiertem MoBIIR ist. Die Methode von Broyden approximiert die Newton-Richtung, indem eine Approximation des Jacobi-Wertes verwendet wird, die mit fortschreitender Iteration aktualisiert wird. Die Broyden-Methode verwendet die aktuelle Schätzung des Jacobi- und verbessert es, indem man die Lösung der Sekantengleichung nimmt, die eine minimale Modifikation von ist. Zu diesem Zweck kann man Rang-Eins-Updates anwenden. Wir haben angenommen, dass wir eine nichtsinguläre Matrix haben und wir möchten eine ungefähre erstellen durch Rang-1-Updates [21]. Die Vorwärtslösung kann durch Ableitungen der Vorwärtslösung unter Verwendung der Taylor-Entwicklung ausgedrückt werden als,

(8)

Die Jacobi-Aktualisierungsgleichung von Broyden wird zu

(9)

Gleichung 9 wird als Aktualisierungsgleichung von Broyden bezeichnet. In Broydens Methode gibt es keinen Hinweis auf die anfängliche Jacobi-Schätzung [22]. Der Anfangswert von Jacobian wird durch analytische Methoden berechnet, die auf adjungierten Prinzipien basieren. Es hat sich herausgestellt, dass die Anzahl der Iterationen, die das Broyden-Verfahren für die Konvergenz erfordert, höher ist als die der Gauss-Newton-Verfahren, da die Jacobi-Aktualisierung nur ungefähr ist. Dies kann verbessert werden, indem die Jacobi-Zahl unter Verwendung der adjungierten Methode neu berechnet wird, wenn sich herausstellt, dass die Jacobi-Zahl außerhalb des Konfidenzbereichs liegt (wenn der MSE der aktuellen Schätzung kleiner ist als der MSE der vorherigen Schätzung). Wenn die erste Vermutung ist dem tatsächlichen optischen Parameter ausreichend nahe dann ist die ist ausreichend nah an und die Lösung konvergiert q-superlinear gegen. Das bemerkenswerteste Merkmal des Broyden-Ansatzes ist, dass er die direkte Berechnung des Jacobi-Wertes vermeidet, wodurch ein schnellerer Algorithmus für die DOT-Rekonstruktion bereitgestellt wird.

2.4. Angrenzendes MoBIIR . in Broyden

Die auf der Least-Change-Sekante basierende adjungierte Broyden [23]-Aktualisierungsmethode ist ein weiterer Ansatz zum ungefähren Aktualisieren des Jacobi-Systems.

Die direkten und adjungierten Tangentenbedingungen sind

und

bzw. In Bezug auf die Frobenius-Norm, die kleinste Änderungsaktualisierung einer Matrix zu einer Matrix

erfüllt die direkte Sekantenbedingung und die adjungierte Sekantenbedingung, für normierte Richtungen und, und ist gegeben als [23]

(10)

wo,. Das Rang-1-Update für das Jacobi-Update basierend auf der adjungierten Methode wird als [5] angegeben,

(11)

Das Update von Adjoint Broyden ist nach der Auswahl kategorisiert. Der Einfachheit halber betrachten wir nur die Sekantenrichtung [23], die definiert ist als

(12)

wo ist die Schrittweite und wird durch das Zeilensuchverfahren geschätzt. Die obige Gleichung wurde in der auf Adjoint Broyden basierenden MoBIIR-Bildrekonstruktion gelöst.

Das Flussdiagramm zur Bildrekonstruktion mit MoBIIR auf Broyden-Basis ist in Abbildung 2 dargestellt. Der Jacobi-Wert wird durch Gleichung 9 und Gleichung 11 für das Broyden-Verfahren bzw. das adjungierte Broyden-Verfahren aktualisiert.

Figur 2 . Flussdiagramm zur Bildrekonstruktion durch den Broyden-basierten MoBIIR-Algorithmus (Gleichung 9).

2.5. Pseudodynamische Ansätze

Die diffuse optische tomographische Bildgebung ist ein schlecht gestelltes Problem, und bei der Bildrekonstruktion wird ein Regularisierungsterm verwendet, um diese Einschränkung zu überwinden. In der Literatur wurden mehrere Regularisierungsschemata vorgeschlagen [24]. Die Auswahl des richtigen Regularisierungsparameters ist jedoch eine mühsame Aufgabe. Ein etwas regularisierungsunempfindlicher Weg zur Berechnung der Parameteraktualisierungen unter Verwendung der normalen Gleichungen Gleichung 5 oder Gleichung 7 besteht darin, eine künstliche Zeitvariable einzuführen [25,26]. Solche pseudodynamischen Systeme, typischerweise in Form von gewöhnlichen Differentialgleichungen (ODE-s), können dann integriert und der aktualisierte Parametervektor wiederhergestellt werden, sobald entweder ein pseudostationärer Zustand erreicht ist oder eine geeignete Stoppregel auf das sich entwickelnde Parameterprofil angewendet wird ( letzteres ist notwendig, wenn die Messdaten gering und verrauscht sind). Samir et al. [5] haben den obigen Ansatz verwendet, um zu einer DOT-Bildrekonstruktion zu gelangen.

Für das DOT-Problem sind die pseudo-zeitlinearisierten ODE-s für die Gauss-Newton-Normalgleichung für wird gegeben von:

(13)

wo, ,

und

wenn wir Gleichung 5 verwenden. Für den Fall, dass die quadratische Störung verwendet wird (Gleichung 7), dann wird S ersetzt durch

(14)

Wir betrachten zunächst den linearen Fall, in dem Gleichung 5 verwendet wird, um zu dem pseudodynamischen System zu gelangen. Beim Auslösen der Pseudozeitrekursion für, der Anfangsparametervektor kann entsprechend dem als bekannt vorausgesetzten Hintergrundwert genommen werden. Gleichung 13 kann in geschlossener Form integriert werden, was zu der folgenden Pseudozeitentwicklung führt:

(15)

wo und. Im Idealfall, wenn die Messdaten rauschfrei sind, ist die Sequenz hat einen Grenzpunkt, was die gewünschte Rekonstruktion ergibt. In einem praktischen Szenario, in dem die gemessenen Daten verrauscht sind, d. h. mit ist ein Maß für die „Stärke“ des Geräuschs. In diesem Fall muss möglicherweise eine Stoppregel auferlegt werden, damit die Sequenz wird angehalten um (

ist die Stoppzeit) mit.

Abbildung 3 zeigt die Rekonstruktionsergebnisse mit einer einzigen eingebetteten Inhomogenität. Abbildung 3 (a) ist das Phantom mit einer Inhomogenität. Die rekonstruierten Bilder unter Verwendung von Newton-basiertem MoBIIR, Broyden-basiertem MoBIIR und angrenzendem Broyden-basiertem MoBIIR sind in (b), (c) bzw. (d) angegeben.

Abbildung 4 zeigt die Leistung des Algorithmus. Es ist ersichtlich, dass adjungierte Broyden im Vergleich zu anderen Algorithmen schneller konvergieren.Abbildung 4 (a) zeigt, dass Newton-, Broyden- und adjungierte Broyden-Methoden bei . konvergieren, und Iterationen bzw. Der Querschnitt durch das Zentrum der Inhomogenitäten ist in Abbildung 4 (b) gezeigt.

Abbildung 5 zeigt die Rekonstruktionsergebnisse mit zwei eingebetteten Inhomogenitäten. Abbildung 5 (a) ist das Phantom. Die rekonstruierten Bilder unter Verwendung von Newton-basiertem MoBIIR, Broyden-basiertem MoBIIR und angrenzendem Broyden-basiertem MoBIIR sind in (b), (c) und (d) angegeben.

Abbildung 6 zeigt die Leistung des Algorithmus mit zwei Inhomogenitäten. MSE von rekonstruierten Bildern mit zwei Inhomogenitäten ist in Abbildung 6 (a) gezeigt. Abbildung 6 (b)

(ein)(B)

Figur 3 . (a) Phantom mit einer Inhomogenität mit und der Größe 8,2 mm bei (0, 19,2). Rekonstruierte Bilder mit (b) Newton-basiertem MoBIIR (c) Broyden-basiertem MoBIIR (d) Adjoint Broyden-basiertem MoBIIR.

(a) (b)

Figur 4 . (a) Newton-, Broyden- und adjungierte Broyden-Methoden. Sie konvergieren bei, und Iterationen bzw. (b) Querschnitt durch das Zentrum der Inhomogenitäten für Newton-, Broyden- und adjungierte Broyden-Methoden.

(ein)(B)

Abbildung 5. (a) Original simuliertes Phantom mit zwei Inhomogenitäten The der Inhomogenitäten sind 0,02 und 0,015 und liegen bei (0, �.2) bzw. (0, 19.2) Rekonstruierte Ergebnisse mit (b) Newton (c) Broyden (d) adjungierter Broyden-Methode.

zeigt, dass Newton-, Broyden- und adjungierte Broyden-Methoden konvergieren bei, und Iterationen bzw. Das Liniendiagramm durch das Zentrum der Inhomogenitäten ist in Abbildung 6 (c) gezeigt.

Abbildung 7 zeigt die Rekonstruktionsergebnisse mit zwei eingebetteten Inhomogenitäten. Abbildung 7 (a) ist das rekonstruierte Bild nach der Gauss-Newton-Methode. Fig. 7(b) und (c) sind die rekonstruierten Bilder durch einen linearen pseudodynamischen Zeitmarschalgorithmus bzw. durch einen nichtlinearen (hessisch integrierten) pseudodynamischen Zeitmarschalgorithmus.

Abbildung 8 analysiert die Ergebnisse. Das Liniendiagramm durch das Zentrum der Inhomogenitäten ist in Abbildung 8 (a) gezeigt. Die Variation des normalisierten mittleren quadratischen Fehlers (MSE) mit Iteration ist in Abbildung 8 (b) gezeigt. Die blaue Linie repräsentiert das Gauss-Newton-Verfahren und die grüne Linie repräsentiert den pseudodynamischen Zeitanpassungsalgorithmus.

In dieser Studie betrachten wir viele Ansätze zur Lösung des DOT-Problems. Wie bei allen medizinischen Bildrekonstruktionsalgorithmen liegt das Hauptaugenmerk darauf, ein hochauflösendes Bild mit gutem Kontrast zu rekonstruieren. Seit der

(ein)(B)(C)

Abbildung 6. (a) MSE rekonstruierter Bilder mit zwei Inhomogenitäten (b) Newton-, Broyden- und adjungierte Broyden-Methoden konvergieren bei, und Iterationen bzw. (c) Liniendiagramm durch das Zentrum der Inhomogenitäten unter Verwendung von Newtons und vorgeschlagenen Algorithmen.

(ein)(B)(C)

Abbildung 7. (a) Rekonstruiertes Bild nach der Gauss-Newton-Methode (b) Rekonstruiertes Bild durch den linearen pseudodynamischen Time-Marching-Algorithmus (c) Rekonstruiertes Bild durch den nichtlinearen (hessisch integrierten) pseudo-dynamischen Time-Marching-Algorithmus

(ein)(B)

Abbildung 8 . (a) Das Liniendiagramm des Querschnitts durch die rekonstruierte Inhomogenität (b) Die Variation des normalisierten mittleren quadratischen Fehlers (MSE) mit Iteration. Die blaue Linie repräsentiert das Gauss-Newton-Verfahren und die grüne Linie repräsentiert den pseudodynamischen Zeitanpassungsalgorithmus.

Problem nichtlinear und schlecht gestellt ist, werden die iterativen Methoden oft verwendet, um diese Art von Problemen zu lösen. Wir haben einige Studien, die wir dazu durchgeführt haben, zusammengefasst. Sie sind 1) Gauß-Newton-basiertes MoBIIR 2) Quadratisches Gauss-Newton-, Broyden-basiertes MoBIIR 3) Adjoint Broyden-basiertes MoBIIR und pseudodynamische Ansätze.


2. Methodik

2.1. Finite-Elemente-Löser

Als Vorwärtsmodell für den Lichttransport im Gewebe betrachten wir die Diffusionsnäherung an die Strahlungsübertragungsgleichung [24, 25] im stationären, im Zeit- oder Frequenzbereich. Für stationäre Probleme wird die stationäre reellwertige Photonendichte innerhalb des Mediums berechnet, die aus einer Dauerstrichquelle entsteht, während für Probleme im Frequenzbereich die Quelle amplitudenmoduliert wird, was zu einer komplexwertigen Lösung einer Photonendichte führt Wellenverteilung. Bei Zeitbereichsproblemen wird die Quelle als zeitlicher Delta-Impuls betrachtet, und die Messung besteht aus der zeitlichen Dispersion des gesendeten Signals. Gegeben ein kompaktes Gebiet Ω begrenzt durch ∂Ω, ist die Diffusionsgleichung [26] im Zeit- und Frequenzbereich gegeben durch

bzw. wo ω ist die Modulationsfrequenz der Winkelquelle, κ(R)  und  μ ein(R) sind die räumlich variierenden Diffusions- bzw. Absorptionskoeffizienten, wobei κ = [3(μ ein + μ S)] 𢄡 mit Streukoeffizient μ S. C ist die Lichtgeschwindigkeit im Medium, und ϕ ,    und    ϕ ^ sind die reellen und komplexwertigen Photonendichtefelder. Der Einfachheit halber verwenden wir im Folgenden ϕ um entweder die reellen oder komplexwertigen Eigenschaften zu bezeichnen.

Bei ∂ . gilt eine Robin-Randbedingung [27]Ω,

wo Q eine reelle oder komplexwertige Quellverteilung ist, ζ(n) ist ein Grenzreflexionsfaktor, der den Brechungsindex einschließt n an der Gewebe-Luft-Grenzfläche und ν ist die Flächennormale am Flächenpunkt ξ. Der Grenzoperator, der die Ausscheidung definiert Γ bis ∂Ω wird durch die Dirichlet-zu-Neumann-Abbildung gegeben

Der Satz von Messungen ja ij aus einer Quelldistribution Q ich erhält man durch Integration von Γ über die Messprofile m J(ξ) an der Oberfläche

Für das Zeitbereichsproblem gilt: ja ij sind die zeitlichen Dispersionsprofile der empfangenen Signalintensitäten, während für das Frequenzbereichsproblem ja ij werden durch die komplexen Auslösewerte angegeben, die normalerweise durch die logarithmische Amplitude ln⁡ . ausgedrückt werdenEIN und Phasenverschiebung φ [28],

Angesichts des Satzes von Vorwärtsdaten ja = <ja ij> aller Messungen aus allen Quellverteilungen, (1) bis (4) definieren das Vorwärtsmodell F[κ, μ ein] = ja die eine Parameterverteilung abbildet κ, μ ein auf Messungen für eine gegebene Domänengeometrie, Modulationsfrequenz, Quellenverteilungen und Messprofile.

Das Vorwärtsmodell wird numerisch unter Verwendung eines Finite-Elemente-Ansatzes gelöst. Eine Aufteilung der Domäne Ω in tetraedrische Elemente, definiert durch n Knotenknoten liefert eine stückweise polynomielle Basis für die Parameter κ, μ ein, und Photonendichte ϕ. Das ungefähre Feld ϕ h (R) an jedem Punkt RΩ ergibt sich durch Interpolation der Knotenkoeffizienten ϕ ich mit stückweise polynomialen Formfunktionen du ich(R)

Stückweise polynomielle Approximationen κ h , μ ein h zu den kontinuierlichen Parametern, definiert durch die Knotenkoeffizienten κ ich, μ ein,ich sind gleich aufgebaut. Die Anwendung eines Galerkin-Ansatzes transformiert das kontinuierliche Problem von (1) in ein n-dimensionales diskretes Problem des Findens der Knotenfeldwerte Φ = <ϕ ich> an allen Knoten ich, gegeben die Menge der Knotenparameter x = <κ ich, μ ein,ich>. Für das Frequenzbereichsproblem ist das resultierende lineare System gegeben durch


Diskussion

In den letzten Jahren wurde OCT schnell in die Diagnose 7,13,66 und das Monitoring von Netzhauterkrankungen 67,68 eingeführt. Derzeit sind solche Messungen beim Menschen weit verbreitet 69,70,71 , jedoch nicht routinemäßig bei Tieren (Abb. 6). Daher ist dies der erste Bericht über eine automatisierte DL-Segmentierung von vitreoretinalen und choroidalen Kompartimenten bei gesunden Cynomolgus-Affen, einer Spezies, die häufig als Tiermodelle für menschliche Krankheiten sowie zur Sicherheitsbewertung in präklinischen Studien verwendet wird. Die Übertragung eines zuvor entwickelten und reproduzierbaren ML-Frameworks beim Menschen 24 auf Tiere war erfolgreich. Dies deutet darauf hin, dass das grundlegende DL-Framework auch auf Tiere anwendbar war, nachdem das ML speziell angepasst und an Tierdaten trainiert wurde.

ein Eine hochauflösende histologische Hämatoxylin- und Eosin-Färbung eines in Paraffin eingebetteten Querschnitts eines normalen Cynomolgus-Affenauges. B Entsprechender OCT-B-Scan aus dem Auge eines anderen Cynomolgus-Affen. In beiden Bildern sind die Glaskörper-Retina-Grenze (ILM, Einzelpfeil), der innere Teil der Choriocapillaris (CCi, Doppelpfeile) und die Aderhaut-Sklera-Grenzfläche (CSI, Pfeilspitzen) dargestellt.

Während ML die Entdeckung komplizierter Muster in OCT-Daten verbesserte und eine ähnliche Leistung wie Menschen zeigte 37 , besteht immer noch ein ungedeckter Bedarf an einem besseren Verständnis darüber, wie ML genau lernt 72,73,74 . Typischerweise werden Daten in eine ML-Umgebung eingefügt und die auf der anderen Seite erzeugten Ergebnisse sind oft mit einer großen Unsicherheit darüber verbunden, was dazwischen passiert. Dies wird als ML-Blackbox (BBX) bezeichnet. Um diese Blackbox zu klären, muss ein umfassender ML-Ansatz entwickelt werden, der idealerweise für die menschliche kognitive Skala geeignet ist.

Um einen Teil dieses Black-Box-Problems zu lösen und die Transparenz zu fördern, schlagen wir daher ein ML-Display-Konzept vor, das als T-REX-Technik bezeichnet wird. T-REX basiert auf drei Hauptkomponenten oder Zahnrädern: Ground-Truth-Erzeugung durch mehrere unabhängige Grader, Berechnung der Hamming-Abstände zwischen allen Gradern und den Vorhersagen der Maschine und eine ausgeklügelte Datenvisualisierung, die als neuronale Aufzeichnung (NR) des maschinellen Lernens bezeichnet wird. Analog zu einem mechanischen Getriebe, bestehend aus einer Anordnung von Maschinenteilen mit verschiedenen miteinander verbundenen Zahnrädern, verstehen wir unter einem ML-Getriebe fein abgestimmte Softwareelemente, die bei richtiger Verknüpfung Einblick in das Innenleben der gesamten Maschine geben sollen . In diesem Sinne würde der ML-Lernprozess eine bessere und angemessenere Würdigung erfahren, um zu bestimmen, welche charakteristischen Daten der Algorithmus verwendet, um Entscheidungen zu treffen. Angesichts der Überschneidungen zwischen Neurowissenschaften und ML verstehen wir unter dem Begriff NR die Registrierung und visuelle Anzeige der Vorhersageleistung eines maschinellen Lernalgorithmus und menschlicher Grader in Bezug auf die Mehrdeutigkeit der Ground-Truth-Daten, sodass die Werte in a . dargestellt werden umfassenden Weg zu ML-Experten, sondern sind auch für Personen mit geringeren ML-Kenntnissen geeignet. Dies ist umso wichtiger, um ein größeres Publikum zu erreichen, damit Forscher außerhalb des ML-Bereichs, die mit der Komplexität von ML weniger vertraut sind, einen einfacheren Zugang zu den Ergebnissen erhalten.

Um das Verständnis der Hamming-Distanzwerte zu erleichtern, wurden visuelle Darstellungen der Daten unter Verwendung von MDS-Plots (Abb. 4) und einem Heatmap-Plot (Abb. 5) durchgeführt. In Bezug auf das oben Genannte ermöglicht diese Form der neuronalen Aufzeichnung Datenwissenschaftlern, Regulierungsbehörden und Endbenutzern wie Ärzten, die Auswirkungen jedes menschlichen Beurteilers auf die Vorhersageleistung eines trainierten maschinellen Lernmodells besser zu verstehen und dadurch das Verständnis der Maschinenfunktionen zu verbessern Entscheidungsprozess. Ein interessanter Mehrwert dieser Studie besteht daher darin, dass es nun möglich ist, ein detaillierteres Verständnis davon zu entwickeln, was ein CNN beim Lernen aus jeder einzelnen OCT-Bildanmerkung wertschätzt. Somit wurde im Hinblick auf den Entscheidungsprozess eines CNN die Detailtiefe betrachtet, kurz gesagt, die ML-Entscheidungsgranularität erhöht. Die vorgeschlagene T-REX-Methodik zeigte, welcher Teil der Ground Truth wichtiger war: Im Allgemeinen waren die Grader 1 und 2 relevanter als die Grader 3, da sich das CNN fast immer näher an g1 und g2 befand (Abb. 4 und 5). Somit scheinen g1 und g2 das CNN während des Lernens stärker beeinflusst zu haben.

Interessanterweise korrelieren diese Ergebnisse auch mit dem Niveau der OCT-Expertise. Grader g1 und g2 verfügen über eine höhere Expertise in der OCT-Bildgebung als Grader g3. Es könnte also davon ausgegangen werden, dass g1 und g2 konsistentere Annotationen erzeugten, was die CNN-Vorhersagen näher an sie heranziehen könnte als an Grader g3. Diese Anpassungsleistung kann als gerichtet angenommen werden, d. h. sie scheint „zielorientiert“ zu sein. Ein solches Verhalten wird üblicherweise dem Begriff „Intelligenz“ zugeschrieben.

Insgesamt wurde eine gute Vorhersageleistung beobachtet: Die geringe durchschnittliche Gesamtvariabilität pro Pixel zwischen dem trainierten CNN und den menschlichen Bewertern (1,75 %) war deutlich geringer als die inter-humane Variabilität (2,02 %). Die Bruttovariabilität war kongruent zu früheren Berichten 75,76 . Unsere Ergebnisse entschlüsselten die Problemlösungsfähigkeiten und das Verhalten des CNN als eine Form des Lernens, eine Art robuster Durchschnitt unter allen menschlichen Beurteilern. Diese Tatsache unterstützt die Verwendung von DL-basierten Werkzeugen für die Aufgabe der Bildsegmentierung weiter, zumal das CNN dieselbe Aufgabe wiederholt und dieselbe Ausgabe erzeugt – unabhängig von jedem körperlichen oder geistigen Zustand im Vergleich zum Menschen.

Um unsere Ergebnisse der OCT-Segmentierung mit früheren Arbeiten zu vergleichen, stellen wir unsere Ergebnisse in den Kontext einer analogen Studie am Menschen 24 . Das Studiendesign unterscheidet sich, dennoch gibt der Vergleich Aufschluss über die CNN-Leistung. In der Studie mit Menschen 24 wurde ein CNN auf der Grundlage nur eines erfahrenen Bewerters trainiert und zu drei Zeitpunkten mit mehreren menschlichen Bewertern verifiziert. Im Gegensatz dazu wurde das CNN in dieser Studie mit denselben drei menschlichen Bewertern trainiert und verifiziert, die die Bilder zu einem einzigen Zeitpunkt beschrifteten. In der Humanstudie betrug die Gesamtvariabilität zwischen Mensch und Mensch 2,3 % und die Gesamtvariabilität zwischen Mensch und CNN 2,0 %, während die Variabilität von drei Durchläufen des Ground-Truth-Graders mit dem CNN 1,6 % betrug. Auch die Variabilität war kongruent zu früheren Berichten 75,76 . Da diese Zahlen höher sind als in der hier vorgestellten Affenstudie, könnten die tatsächlichen Verbesserungen des Studiendesigns folglich die Leistung des vorgestellten CNN steigern. Das ausgleichende Verhaltensmuster während der CNN-Vorhersage, wie es mit T-REX enthüllt wurde, zeigt, dass es in einer solchen ML-Studie ratsam ist, das CNN mit mehreren Gradern zu trainieren – nicht nur mit einem einzigen Goldstandard-Experten. Das vorgeschlagene Studiendesign macht ein CNN robuster und beinhaltet inhärent eine externe Validierung 37 .

Durch die Analyse der ML-Hamming-Distanzmuster wurden nicht nur Beweise gefunden, die einen aktiv ausgeglichenen Typ von ML-Berechnungsregime unterstützen, der jedem ML-Verfahren zugrunde liegen kann. Eine ähnliche Leistung wurde auch in kortikalen Schaltkreisen gezeigt, obwohl künstliche neuronale Netze natürlich sehr grobe Vereinfachungen von Gehirnfunktionen darstellen 77 . Je nach Kompartiment, d. h. charakteristischem Datenlabel, beurteilt das CNN die Bedeutung der Labels der drei menschlichen Grader während des Trainings unterschiedlich. Für die Glaskörper- und Netzhautkompartimente produzierten g2 und g3 relativ ähnlich und g1 produzierte Etiketten relativ unterschiedlich. Während des Trainings scheint das CNN den Labels der beiden Grader, die ähnlich beschrifteten, mehr Aufmerksamkeit zu schenken, da die mittlere Hamming-Distanz über den Testsatz von 200 B-Scans näher bei g2 und g3 liegt als bei g1 (Abb. 1). Andererseits sind für die Aderhaut- und Sklera-Kompartimente g1 und g2 relativ ähnlich und g2 und g3 relativ ähnlich gekennzeichnet. Aber die Bezeichnungen von g1 und g3 waren relativ unterschiedlich. In diesem Fall hat das CNN gelernt, Vorhersagen zu treffen, die näher an g1 und g2 als an g3 liegen. Dieses Verhalten kann mit einem Gangwechsel verglichen werden. Je nach Compartment, d. h. dem Datenlabel, wendet das CNN eine andere Lernstrategie in Bezug auf die Ground-Truth-Daten an. Dies zeigt, wie wichtig es ist, mehrere unabhängige Grader für das CNN-Training einzusetzen. Obwohl dies ein bekanntes und erwartetes Phänomen beim maschinellen Lernen ist, ist es dennoch bemerkenswert, dass dieser Umstand mit dieser Arbeit visuell darstellbar und so wahrnehmbar geworden ist.

T-REX, unser vorgeschlagener XAI-Ansatz, kann hilfreich sein, um die zahlreichen Möglichkeiten zur Entwicklung und Erweiterung von künstlich generiertem Wissen einzugrenzen, um beispielsweise auszuwählen, welcher Grader die besten Möglichkeiten für die ML-Entwicklung bietet oder welche absichtlichen Manipulationen eine Leistungsverschlechterung bewirken 73. Insbesondere unsere T-REX-Analyse hat gezeigt, dass es notwendig ist, nicht nur das mittlere Vorhersageverhalten des CNN zu untersuchen, sondern auch individuelle Vorhersagen auf einer tieferen Datenebene (zB jedem einzelnen B-Scan) zu berücksichtigen, um maschinelles Lernen in wertvolles Wissen umzuwandeln Lernen. Nur die durchschnittliche Vorhersageleistung zu betrachten, könnte irreführend sein, da es für ein CNN möglich wäre, bestimmte Bilder wie Human Grader 1 und andere wie Human Grader 2 oder 3 vorherzusagen. Die Analyse der Vorhersageleistung eines CNN auf einzelne Bilder ermöglicht genauere Aussagen über die Faktoren, die den Lernprozess aus mehrdeutigen Ground-Truth-Daten beeinflussen. Im Allgemeinen ermöglicht dies in Zukunft die gezielte Manipulation des ML-Frameworks, um die Leistung zu dokumentieren und darzustellen, um ML-Modelle und Ground-Truth-Daten objektiv gegeneinander zu vergleichen und so die Entwicklung zu verbessern und zu beschleunigen. Wenn die Funktionsweise der Maschine besser verstanden wird, wird es auch möglich sein, eine Reihe von korrekten Prämissen zu erarbeiten, um die tiefen neuronalen Netze beim Lernen zu leiten und Robustheit und Generalisierung zu erleichtern.

Um die ML-Modelle verschiedener Forschungsgruppen vergleichen zu können, wäre es ideal, wenn diese nicht nur ihren Code, sondern auch ihre Daten öffentlich zugänglich machen. Die gemeinsame Nutzung von Daten ist in der Regel aufgrund des Datenschutzes von Gesundheitsdaten oder Daten mit Sensibilität für kommerzielles oder geistiges Eigentum eingeschränkt. Daher existieren neben ML-Blackboxen auch „ML-Black-Daten“. T-REX wäre hier eine interessante Option, um indirekte Hinweise auf die Eigenschaften solcher verwendeter eingeschränkter Daten zu generieren, damit Dritte die geltend gemachten Behauptungen besser verstehen und überprüfen können.

Im Vergleich zu anderen Berichten, die CNNs verwenden, könnte eine Grenze dieser Studie die relativ geringe Anzahl von annotierten Ground-Truth-Daten sein. Der durchschnittliche Hamming-Abstand zwischen den menschlichen Bewertern und dem CNN betrug jedoch 0,0175, was 1,75% der Pixel entspricht, die von den menschlichen Bewertern bzw. dem CNN unterschiedlich gekennzeichnet wurden. Diese hohe Vorhersageleistung des CNN wurde beim Training mit dem kleineren Ground-Truth-Datensatz von 800 B-Scans bestätigt, der ähnliche Ergebnisse lieferte.Dies deutet darauf hin, dass die Ground-Truth-Größe von 900 B-Scans ausreichend war, um die in dieser Studie vorgeschlagenen Behauptungen zu stützen. Es kann jedoch spekuliert werden, dass eine noch höhere Anzahl von Ground-Truth-Daten die Ergebnisse weiter verbessern könnte. Dennoch ist die Annotation von Ground-Truth-Daten durch den Menschen ein sehr zeitaufwändiger Prozess und der aktuelle Studienaufbau scheint ein akzeptabler Kompromiss zwischen menschlichem Aufwand und CNN-Vorhersageleistung zu sein, insbesondere wenn man bedenkt, dass die Entwicklung von ML-Algorithmen oft darauf abzielt, den menschlichen Arbeitsbelastung.

Auch die Bildqualität könnte die Ergebnisse beeinflusst haben, insbesondere bei stark pigmentierten Augen durch Signalverlust. Darüber hinaus gibt es andere mögliche Bewertungssysteme als die Hamming-Distanz und die Hamming-Distanz berücksichtigt nicht, wie groß die Kompartimente sind. In bestimmten Situationen, z.B. bei Myopie, kann die Aderhaut deutlich dünner sein als die Netzhaut, was möglicherweise zu einem größeren Unterschied führen könnte, aber das war nicht Gegenstand dieser Studie.

Es ist erwähnenswert, dass die einzelnen in dieser Studie verwendeten Elemente, d. h. U-Net, Hamming-Distanz, MDS und Heatmap-Plots, möglicherweise nicht als methodische Neuheit für sich betrachtet werden. Die wissenschaftliche Originalität unserer Arbeit kann jedoch als einzigartige Kombination bereits vorhandener Komponenten 78 oder als Permutation neuer und alter Informationen betrachtet werden 79 : T-REX und die damit verbundenen wissenschaftlichen Entdeckungen in dieser Studie bieten nachfolgenden Studien eine unverwechselbare Technik und eine Kombination von Wissen, das aus früheren Berichten nicht verfügbar war. Kurz gesagt, die entsprechende Konzeptualisierung der genannten ML-Elemente in das vorgeschlagene Framework hat das Verständnis der Schnittstelle zwischen Automatic Computing und Life Sciences verbessert und stellt daher dennoch einen besonderen Grad an Originalität dar.

Vor allem und trotz aller Grenzen werden Mediziner in der Medizin ein KI-System zur Diagnose und Überwachung von Krankheiten nur dann einsetzen, wenn sie die interne KI-Verarbeitung verstehen und nachvollziehen können. Wichtiger noch: Ärzte werden aufgrund einer Empfehlung eines solchen KI-Systems nur dann eine klinische Entscheidung treffen, wenn sie sich vollständig mit der KI identifizieren können. Eine Teilmenge von XAI-Methoden zielt darauf ab, post-hoc-Einblicke darüber aufzudecken, „warum“ eine Maschine eine bestimmte Entscheidung getroffen hat. Während bekannte Post-hoc-Ansätze wie LRP oder GradCAM relevante Regionen in den Eingabedaten visualisieren, visualisierte und bewertete T-REX, unsere vorgeschlagene XAI-Methode, Ähnlichkeiten zwischen den CNN-Vorhersagen und den Labels verschiedener Menschen, von denen das CNN gelernt hat. Daher trägt diese Studie zu einer besseren Erklärbarkeit bei der Anwendung von KI bei, sodass ein resultierendes DL-Modell besser eingeschätzt werden kann. T-REX bietet ein rigoroses Bewertungs- und Neukalibrierungswerkzeug, um neue DL-Standards zu integrieren. Allgemeiner ausgedrückt kann es die Qualität von Erklärungen erhöhen, die auf DL-Systemen basieren, was die Kausalität erhöht 55 . Dies wiederum kann die Sicherheit für Ärzte und Patienten fördern. Dementsprechend wird erwartet, dass der vorgeschlagene Post-hoc-XAI-Ansatz T-REX es Datenwissenschaftlern ermöglicht, transparentere DL-Systeme zu modellieren. Im Gegenzug führt dies zu weiteren Einblicken in trainierte DL-Modelle von Ärzten, die DL für datengestützte klinische Entscheidungen nutzen.

Das vorgeschlagene Verfahren T-REX ist nicht auf die semantische Bildsegmentierung in der Augenheilkunde beschränkt. Tatsächlich kann es angewendet werden, um das Verständnis jedes maschinellen Lernalgorithmus zu verbessern, der aus mehrdeutigen Ground-Truth-Daten lernt. Zum Beispiel könnte T-REX bei der Anwendung des Aufdeckens von Verzerrungen von ML-Vorhersagemodellen in der digitalen Histopathologie nicht nur in Bezug auf Verzerrungen von Datensätzen, sondern auch in Bezug auf unterschiedliche Meinungen von Experten verwendet werden, die die Histopathologiebilder 80 kennzeichnen. Bei Anwendungen, in denen überwachte ML-Entscheidungsmodelle trainiert werden, um Krankheiten wie Covid-19 zu erkennen (Ref. 81 ) und Experten noch die Besonderheiten der jeweiligen Krankheit untersuchen und sich auf diese einigen müssen, wäre T-REX hilfreich, um die Mehrdeutigkeit der Expertenmeinungen, dh Etiketten. Daher kann T-REX besonders wichtig sein, wenn die Mehrdeutigkeit unauflösbar ist, was bedeutet, dass Domänenexperten über die wahren Bezeichnungen uneins sind, die Unterschiede jedoch nicht auf einfache Weise beseitigt werden können. Bei vielen medizinischen Anwendungen können die wahren Etiketten nicht überprüft werden, da die Anwendung invasiver Verfahren bei Patienten unmöglich ist. Daher helfen Methoden wie T-REX, die die Ergebnisse des Modelltrainings aus mehrdeutiger Ground Truth hervorheben, das Verständnis der Objektivität eines trainierten Modells zu verbessern und können zu einer Reduzierung von Bias in der Ground Truth führen.

In einem breiteren Kontext könnte T-REX Erkenntnisse darüber liefern, wie KI-Algorithmen Entscheidungen unter Unsicherheit treffen, ein Prozess, der dem Menschen sehr bekannt ist, aber im Bereich der KI bisher weniger verstanden wurde.


Referenzen und Links

1. A. Yodh und B. Chance, „Spektroskopie und Bildgebung mit diffusem Licht“, Phys. Heute 48:34–40 (1995). [QuerRef]

2. S. R. Arridge und J. C. Hebden, „Optische Bildgebung in der Medizin: II. Modellierung und Rekonstruktion“, Phys. Med. Biol. 42:841–854 (1997). [QuerRef]

3. M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20:426–428 (1995). [QuerRef]

4. H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. EIN 13:253–266 (1996). [QuerRef]

5. M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997). [QuerRef]

6. S. R. Arridge, „Vorwärts- und inverse Probleme bei der zeitaufgelösten Infrarot-Bildgebung“, SPIE Proceedings IS11:35–64 (1993).

7. A. C. Kak und M. Slaney, Prinzipien der computertomographischen Bildgebung (IEEE-Presse, New York, 1988).

8. D. A. Boas, „Eine grundlegende Einschränkung linearisierter Algorithmen für die diffuse optische Tomographie“, Opt. ausdrücken 1:404–413 (1997). [QuerRef]

9. X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22:573–575 (1997). [QuerRef]

10. X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997). [QuerRef]

11. C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36:214–220 (1997). [QuerRef]

12. C. L. Matson, „Ein beugungstomographisches Modell des Vorwärtsproblems unter Verwendung diffuser Photonendichtewellen“, Opt. ausdrücken 1:6–11 (1997). [QuerRef]

13. D. Boas, Diffuse Photonensonden für strukturelle und dynamische Eigenschaften von trüben Medien: Theorie und biomedizinische Anwendungen, Ein Ph.D. Dissertation in Physik, University of Pennsylvania, 1996.

14. D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft Vereinigte Staaten von Amerika 91:4887–4891 (1994). [QuerRef]

15. P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. EIN 10:1209-1218 (1993). [QuerRef]

16. S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34:3826–3837 (1995). [QuerRef]

17. R. C. Haskell, L. O. Svaasand, T. Tsay, T. Feng, M. S. McAdams und B. J. Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994). [QuerRef]

18. T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion zur nichtinvasiven Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19:879–888 (1992). [QuerRef]

Verweise

  • Gesehen von:
  • Artikelbestellung
  • |
  • Jahr
  • |
  • Autor
  • |
  • Veröffentlichung
  1. A. Yodh und B. Chance, „Spektroskopie und Bildgebung mit diffusem Licht“, Phys. Heute 48:34–40 (1995).
    [Querverweis]
  2. S. R. Arridge und J. C. Hebden, „Optische Bildgebung in der Medizin: II. Modellierung und Rekonstruktion“, Phys. Med. Biol. 42: 841-854 (1997).
    [Querverweis]
  3. M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20: 426–428 (1995).
    [Querverweis]
  4. H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
    [Querverweis]
  5. M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997).
    [Querverweis]
  6. S. R. Arridge, „Vorwärts- und inverse Probleme bei der zeitaufgelösten Infrarot-Bildgebung“, SPIE Proceedings IS11: 35–64 (1993).
  7. A. C. Kak und M. Slaney, Principles of Computerized Tomographic Imaging (IEEE Press, New York, 1988).
  8. D. A. Boas, „Eine grundlegende Einschränkung linearisierter Algorithmen für die diffuse optische Tomographie“, Opt. Express 1:404–413 (1997).
    [Querverweis]
  9. X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
    [Querverweis]
  10. X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
    [Querverweis]
  11. C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
    [Querverweis]
  12. C. L. Matson, „Ein beugungstomographisches Modell des Vorwärtsproblems unter Verwendung diffuser Photonendichtewellen“, Opt. Express 1:6–11 (1997).
    [Querverweis]
  13. D. Boas, Diffuse Photonensonden struktureller und dynamischer Eigenschaften von trüben Medien: Theorie und biomedizinische Anwendungen, A Ph.D. Dissertation in Physik, University of Pennsylvania, 1996.
  14. D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
    [Querverweis]
  15. P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. A 10: 1209-1218 (1993).
    [Querverweis]
  16. S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34: 3826–3837 (1995).
    [Querverweis]
  17. RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
    [Querverweis]
  18. T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion zur nichtinvasiven Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19: 879–888 (1992).
    [Querverweis]

1997 (7)

S. R. Arridge und J. C. Hebden, „Optische Bildgebung in der Medizin: II. Modellierung und Rekonstruktion“, Phys. Med. Biol. 42: 841-854 (1997).
[Querverweis]

D. A. Boas, „Eine grundlegende Einschränkung linearisierter Algorithmen für die diffuse optische Tomographie“, Opt. Express 1:404–413 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
[Querverweis]

C. L. Matson, „Ein beugungstomographisches Modell des Vorwärtsproblems unter Verwendung diffuser Photonendichtewellen“, Opt. Express 1:6–11 (1997).
[Querverweis]

M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997).
[Querverweis]

1996 (1)

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

1995 (3)

A. Yodh und B. Chance, „Spektroskopie und Bildgebung mit diffusem Licht“, Phys. Heute 48:34–40 (1995).
[Querverweis]

M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20: 426–428 (1995).
[Querverweis]

S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34: 3826–3837 (1995).
[Querverweis]

1994 (2)

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
[Querverweis]

1993 (2)

P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. A 10: 1209-1218 (1993).
[Querverweis]

S. R. Arridge, „Vorwärts- und inverse Probleme bei der zeitaufgelösten Infrarot-Bildgebung“, SPIE Proceedings IS11: 35–64 (1993).

1992 (1)

T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion für die nichtinvasive Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19: 879–888 (1992).
[Querverweis]

Arridge, S.R.

S. R. Arridge und J. C. Hebden, „Optische Bildgebung in der Medizin: II. Modellierung und Rekonstruktion“, Phys. Med. Biol. 42: 841-854 (1997).
[Querverweis]

S. R. Arridge, „Vorwärts- und inverse Probleme bei der zeitaufgelösten Infrarot-Bildgebung“, SPIE Proceedings IS11: 35–64 (1993).

Boas, D.

D. Boas, Diffuse Photonensonden struktureller und dynamischer Eigenschaften von trüben Medien: Theorie und biomedizinische Anwendungen, A Ph.D. Dissertation in Physik, University of Pennsylvania, 1996.

Boas, D.A.

D. A. Boas, „Eine grundlegende Einschränkung linearisierter Algorithmen für die diffuse optische Tomographie“, Opt. Express 1:404–413 (1997).
[Querverweis]

M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch diffundierende Photonentomographie im Frequenzbereich“, Opt. Lette. 20: 426–428 (1995).
[Querverweis]

D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
[Querverweis]

Zufall, B.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20: 426–428 (1995).
[Querverweis]

A. Yodh und B. Chance, „Spektroskopie und Bildgebung mit diffusem Licht“, Phys. Heute 48:34–40 (1995).
[Querverweis]

S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34: 3826–3837 (1995).
[Querverweis]

D. A. Boas, M. A. O’Leary, B. Chance und A. G.Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
[Querverweis]

Clark, N.

C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
[Querverweis]

Den Outer, P. N.

P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. A 10: 1209-1218 (1993).
[Querverweis]

Durduran, T.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

Farrell, T.J.

T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion für die nichtinvasive Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19: 879–888 (1992).
[Querverweis]

Kotflügel, J.S.

C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
[Querverweis]

Feng, S.

S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34: 3826–3837 (1995).
[Querverweis]

Feng, T.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

Frank, R. M.

M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997).
[Querverweis]

Haskell, R.C.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

Hebden, J.C.

S. R. Arridge und J. C. Hebden, „Optische Bildgebung in der Medizin: II. Modellierung und Rekonstruktion“, Phys. Med. Biol. 42: 841-854 (1997).
[Querverweis]

Jiang, H.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

Kak, A.C.

A. C. Kak und M. Slaney, Principles of Computerized Tomographic Imaging (IEEE Press, New York, 1988).

Klibanov, M. V.

M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997).
[Querverweis]

Lagendijk, A.

P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. A 10: 1209-1218 (1993).
[Querverweis]

Li, X.D.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

Lucas, T.R.

M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997).
[Querverweis]

Matson, C.L.

C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
[Querverweis]

C. L. Matson, „Ein beugungstomographisches Modell des Vorwärtsproblems unter Verwendung diffuser Photonendichtewellen“, Opt. Express 1:6–11 (1997).
[Querverweis]

McAdams, M. S.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

McMackin, l.

C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
[Querverweis]

Nieuwenhuizen, T. M.

P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. A 10: 1209-1218 (1993).
[Querverweis]

O’Leary, M.A.

M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20: 426–428 (1995).
[Querverweis]

D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
[Querverweis]

Osterberg, U.L.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

Pattanayak, D.N.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

Patterson, M. S.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion für die nichtinvasive Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19: 879–888 (1992).
[Querverweis]

Paulsen, K. D.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

Pogue, B.W.

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

Slaney, M.

A. C. Kak und M. Slaney, Principles of Computerized Tomographic Imaging (IEEE Press, New York, 1988).

Svaasand, L. O.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

Tromberg, B.J.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

Tsay, T.

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

Wilson, B.

T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion für die nichtinvasive Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19: 879–888 (1992).
[Querverweis]

Yod, A.

A. Yodh und B. Chance, „Spektroskopie und Bildgebung mit diffusem Licht“, Phys. Heute 48:34–40 (1995).
[Querverweis]

Yodh, A.G.

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20: 426–428 (1995).
[Querverweis]

D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
[Querverweis]

Zeng, F.

S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34: 3826–3837 (1995).
[Querverweis]

Appl. Opt.-Nr. (2)

C. L. Matson, N. Clark, l. McMackin und J. S. Fender, „Dreidimensionale Tumorlokalisation in dickem Gewebe unter Verwendung diffuser Photonendichtewellen“, Appl. Opt.-Nr. 36: 214–220 (1997).
[Querverweis]

S. Feng, F. Zeng und B. Chance, „Photonenmigration in Gegenwart eines einzelnen Defekts: eine Störungsanalyse“, Appl. Opt.-Nr. 34: 3826–3837 (1995).
[Querverweis]

Inverses Probl. (1)

M. V. Klibanov, T. R. Lucas und R. M. Frank, „Ein schneller und genauer Bildgebungsalgorithmus in der optischen / Diffusionstomographie“, Inverse Probl. 13:1341–1361 (1997).
[Querverweis]

J. Opt.-Nr. Soz. Bin. A (2)

H. Jiang, K. D. Paulsen, U. L. Osterberg, B. W. Pogue und M. S. Patterson, „Optische Bildrekonstruktion mit Frequenzbereichsdaten: Simulationen und Experimente“, J. Opt. Soz. Bin. A 13:253–266 (1996).
[Querverweis]

P. N. den Outer, T. M. Nieuwenhuizen und A. Lagendijk, „Ortung von Objekten in mehrfach streuenden Medien“, J. Opt. Soz. Bin. A 10: 1209-1218 (1993).
[Querverweis]

J.Opt.Soc.of Am.A (1)

RC Haskell, LO Svaasand, T. Tsay, T. Feng, MS McAdams und BJ Tromberg, „Randbedingungen für die Diffusionsgleichung beim Strahlungstransfer“, J.Opt.Soc.of Am.A 11:2727–2741 (1994 .) ).
[Querverweis]

Medizinische Physik (1)

T. J. Farrell, M. S. Patterson und B. Wilson, „Ein Diffusionstheoriemodell der räumlich aufgelösten, stationären diffusen Reflexion für die nichtinvasive Bestimmung der optischen Gewebeeigenschaften in vivo“, Medical Physics 19: 879–888 (1992).
[Querverweis]

Opt.-Nr. Express (2)

C. L. Matson, „Ein beugungstomographisches Modell des Vorwärtsproblems unter Verwendung diffuser Photonendichtewellen“, Opt. Express 1:6–11 (1997).
[Querverweis]

D. A. Boas, „Eine grundlegende Einschränkung linearisierter Algorithmen für die diffuse optische Tomographie“, Opt. Express 1:404–413 (1997).
[Querverweis]

Opt.-Nr. Lette. (3)

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biochemische Bildgebung mit diffusen Photonendichtewellen“, Opt.-Nr. Lette. 22: 573–575 (1997).
[Querverweis]

X. D. Li, T. Durduran, A. G. Yodh, B. Chance und D. N. Pattanayak, „Beugungstomographie für biomedizinische Bildgebung mit diffusen Photonendichtewellen: Errata“, Opt. Lette. 22:1198 (1997).
[Querverweis]

M. A. O’Leary, D. A. Boas, B. Chance und A. G. Yodh, „Experimentelle Bilder von heterogenen trüben Medien durch Frequenzdomänen-Diffusionsphotonentomographie“, Opt. Lette. 20: 426–428 (1995).
[Querverweis]

Phys. Med. Biol. (1)

S. R. Arridge und J. C. Hebden, „Optische Bildgebung in der Medizin: II. Modellierung und Rekonstruktion“, Phys. Med. Biol. 42: 841-854 (1997).
[Querverweis]

Phys. Heute (1)

A. Yodh und B. Chance, „Spektroskopie und Bildgebung mit diffusem Licht“, Phys. Heute 48:34–40 (1995).
[Querverweis]

Proz. Natl. Akad. Wissenschaft USA (1)

D. A. Boas, M. A. O’Leary, B. Chance und A. G. Yodh, „Streuung diffuser Photonendichtewellen durch sphärische Inhomogenitäten in trüben Medien: analytische Lösung und Anwendungen“, Proc. Natl. Akad. Wissenschaft USA 91: 4887–4891 (1994).
[Querverweis]

SPIE-Verfahren (1)

S. R. Arridge, „Vorwärts- und inverse Probleme bei der zeitaufgelösten Infrarot-Bildgebung“, SPIE Proceedings IS11: 35–64 (1993).

Andere (2)

A. C. Kak und M. Slaney, Principles of Computerized Tomographic Imaging (IEEE Press, New York, 1988).

D. Boas, Diffuse Photonensonden struktureller und dynamischer Eigenschaften von trüben Medien: Theorie und biomedizinische Anwendungen, A Ph.D. Dissertation in Physik, University of Pennsylvania, 1996.

Zitiert von

OSA nimmt am Cited-By-Linking-Dienst von Crossref teil. Zitierende Artikel aus OSA-Zeitschriften und anderen teilnehmenden Verlagen sind hier aufgelistet.


Abb. 3

MTF-Profile der in Fig. 2 gezeigten Graphen, die die enthaltenen Informationen als Funktion der Ortsfrequenz darstellen, wobei LSF die höchste Auflösung hat, PSF die nächsthöchste und ESF die niedrigste hat. Im Inneren des streuenden Mediums ist die Auflösung immer deutlich schlechter als am Rand in der Nähe einer Quelle oder eines Detektors.

Anwendung der Auflösungsprüfung im Bereich der diffusen Tomographie

Bei der Bildgebung mit diffusem Licht ist seit langem bekannt, dass Licht einem statistischen Weg folgt, bei dem der vorherrschende Weg zwischen Quelle und Detektor eine Linie ist, die von einer bananenförmigen Verteilung umgeben ist. 63 Diese Ausbreitung der Photonenpfade wird durch die vorhandene inhärente Mehrfachstreuung induziert und nimmt in einem Medium mit geringerer Streuung oder erhöhter Absorption an Breite ab. Der Effekt der erhöhten Absorption ist etwas kontraintuitiv, führt jedoch im Allgemeinen zu einem Verlust von Photonen, die weiter im Gewebe gewandert sind, was anschließend den durchschnittlichen Weg verengt. Diese Verteilungen wurden von vielen Forschern untersucht und in Veröffentlichungen in den frühen 1990er Jahren speziell quantifiziert. 30, 51, 52, 56, 64, 65 Die Abbildung von Kanten hat sich als nicht allzu nützlich erwiesen, da die weite Streuung von Photonen die Möglichkeit, die Kanten von Objekten klar zu visualisieren, stark einschränkt und die räumliche Variation in der Auflösung die Analyse letztendlich erschwert. .

Bei der diffusen Tomographie-Bildgebung ist es einfacher, eine in ein Feld eingebettete glatte kreisförmige Heterogenität aufzulösen als Stufenänderungen. 66 Dies liegt daran, dass Heterogenitäten als symmetrisch gaußförmig gefilterte Objekte im Bild erscheinen. Fast alle Veröffentlichungen auf dem Gebiet der diffusen optischen Bildgebung haben sich auf die Bewertung der Auflösung konzentriert, indem Punktobjekte oder Linienobjekte in das Feld gelegt werden, um die räumliche Auflösung zu bewerten. 4, 30, 64, 67, 68, 69, 70, 71, 72, 73 Dieser Fokus ergibt sich aus einer grundlegenden Einschränkung im Bereich der diffusen Tomographie, die darauf zurückzuführen ist, dass alle derzeit verwendeten Rekonstruktionsalgorithmen in gewisser Weise aus der Störung abgeleitet werden Theorie. Die Born-, Rytov- und Newton-Methoden zum Minimieren einer Zielfunktion basieren alle darauf, ein Anfangsfeld zu stören, um die Lösung zu finden. Dieser Ansatz ist von Natur aus für die Abbildung von Punktobjekten optimiert, und die schlecht gestellte Natur des Problems in Kombination mit einer erheblichen Regularisierung führt zu einer Lösung, die deutlich glatter ist als das ursprüngliche Testfeld.

Sobald ein System oder Algorithmus in seiner Fähigkeit zur Wiederherstellung von Punktobjekten etabliert ist, ist die Erweiterung auf mehrere Objekte ein weit verbreitetes Thema, jedoch ist dieser Schritt sowohl wichtig als auch problematisch. Das bedeutendste Problem ist die nichtlineare Reaktion des gemessenen Felds auf mehrere oder ausgedehnte Inhomogenitäten, die eine unendliche Anzahl von Heterogenitätskonfigurationen erfordert, um die Systemleistung vollständig zu analysieren.

Der vielleicht einzige vernünftige Ansatz zur Charakterisierung der Bildfeldantwort auf multiple Heterogenitäten besteht darin, die erwarteten möglichen Werteverteilungen zu simulieren in vivo und verwenden Sie dies als begrenzte Kalibrierung des Systems und des entsprechenden Algorithmus. Trotz dieser Maßnahmen ist es wichtig, diese Verteilungen mit dem gesamten Bereich der erwarteten Objektgrößen und -kontraste zu bewerten in vivo, wie in Abschn. 3 zur Kontrast-Detail-Analyse.

Analyse von Lumineszenz- und Fluoreszenz-Diffus-Bildauflösung

Eine Abbildung der minimalen Ortsauflösung ist nur dann sinnvoll, wenn ein effektiv unendlicher Kontrast erwartet wird. Fluoreszenz-Protein-Bildgebung oder Biolumineszenz-Bildgebung sind zwei der wenigen Situationen in der optischen Bildgebung in vivo wo es vernünftig sein kann, einen nahezu unendlichen Kontrast zu erwarten, wenn die Probleme der Hintergrundemission vernachlässigt oder korrigiert werden könnten.74, 75, 76, 77 Wenn Zellen spezifisch transfiziert oder modifiziert werden, um ein optisches Signal zu exprimieren, wie beispielsweise ein spezifisches Organ oder ein Tumor, sollte die Hintergrundemission in den benachbarten Organen effektiv null sein. Bei der Bildgebung mit grün oder rot fluoreszierendem Protein (GFP oder RFP) liefern der Hintergrund und das Austreten von Anregungslicht durch die Filter das signifikanteste Hintergrundsignal, dies kann jedoch erheblich reduziert werden, wenn eine wellenlängenabhängige Anpassung oder eine wellenlängenbasierte Hintergrundsubtraktion verwendet wird . Bei der Biolumineszenz ist in den meisten Fällen wenig realer Hintergrund vorhanden, und der Hintergrund ist oft einfach das dunkle Rauschen in der Kamera oder das Licht, das aus dem Raum in das Gehäuse eindringt. Somit ist die räumliche Auflösung der Biolumineszenz- oder Fluoreszenz-Protein-Bildgebung in vivo kann durch Punktstreufunktions- oder Linienstreufunktions-Bildgebung beurteilt werden, jedoch wurde nur wenig darüber berichtet. Ein umfassendes Papier zu diesem Thema von Troy 77 zeigte effektive Punktverteilungsfunktionen, gemessen in Phantomen und in vivo, unter Verwendung einer kleinen Anzahl von Zellen, um die minimal nachweisbare Anzahl von Photonen und Zellen zu bestimmen. Diese Analyse zeigte, dass Biolumineszenz eine empfindlichere Bildgebungstechnik in der Remissionsgeometrie ist, und zwar aufgrund der Abnahme der Bildgebungsempfindlichkeit von fluoreszierenden Proteinen, die durch Hintergrund-Autofluoreszenz verursacht wird. Allerdings werden neuere Berichte über Fluoreszenzbildgebung in der Transmissionsgeometrie wahrscheinlich empfindlicher sein. Bei den meisten Anwendungen der Fluoreszenz oder Biolumineszenz war nicht die tatsächliche Auflösung der wichtigste Parameter zur Unterscheidung der beiden Systeme, sondern tatsächlich die Empfindlichkeit. Die Auflösung von Biolumineszenz und Fluoreszenz schien ähnlich zu sein, da die Photonenverteilung innerhalb eines Spektralfensters effektiv äquivalent war. Diese Studie und andere ähnliche Studien konzentrieren sich auf einen minimalen Kontrast oder ein detektierbares Signal, da das Problem der Auflösung nicht durch Systembeschränkungen bestimmt wird, sondern eher durch die physikalischen Beschränkungen des Lichttransports im Gewebe. Auflösungsgrenzen in diesem Regime haben weniger mit dem Systemdesign als mit der Tiefe des aufzulösenden Objekts im Gewebe zu tun. Während die Auflösung von Objekten an der Oberfläche eines Gewebes bei ausreichendem Kontrast im Prinzip bis zur Beugungsgrenze von Licht (dh nahe 250 nm ) betragen kann, tragen typischerweise die Anwesenheit von Gewebebewegungen und die Qualität des bildgebenden Systems dazu bei dass die reale Bildauflösung bei der Bildgebung an der Oberfläche des Gewebes auf typischerweise nahe 1 bis 2 &mgr;m gesenkt wird. Auch hier nimmt die Auflösung aufgrund der überwältigenden Streuung bereits in wenigen Millimetern Tiefe im Gewebe deutlich um Größenordnungen ab.


3. Deep-Learning-Methoden für die optische Tomographie

Tiefe neuronale Netze (DNNs) werden in der Computer Vision weit verbreitet eingesetzt, beispielsweise bei der Bildklassifizierung und der Verarbeitung natürlicher Sprache. 21,37 Als tiefere Architektur neuronaler Netze und ein Ansatz des maschinellen Lernens kann DNN im Allgemeinen als eine Methode zur Funktionsapproximation angesehen werden, indem der gegebene Datensatz an eine bestimmte Formel mit einer Reihe von Parametern angepasst wird. Mit anderen Worten, es kann als Abbildungsmodell zwischen Eingabe und Ausgabe betrachtet werden. Tatsächlich kann die Rekonstruktion der optischen Abbildung durch ein zufälliges Medium in zwei Schritten behandelt werden: erstens, um das Transmissionsmodell zwischen Objekt (Quelle) und Beobachter (Detektor) zu finden, das normalerweise als Vorwärtsproblem bezeichnet wird, zweitens, um die gewünschte Quelle durch Messung vom Beobachter (Detektor) gewonnen, was üblicherweise als inverses Problem bezeichnet wird. Die Vorwärtsprobleme werden konventionell mathematisch nach der Transmissionstheorie gewonnen, während die inversen Probleme meist durch Regularisierungsansätze wie Tikhonov oder iterative Verfahren wie Gradientenabstieg gelöst werden.

Inspiriert vom Trainingsprinzip, um ein Modell aus dem Datensatz zu lernen, haben Rekonstruktionsalgorithmen mit Machine Learning oder Deep Learning immer mehr Aufmerksamkeit auf sich gezogen. Horisaki et al. schlug eine Support-Vektor-Regression (SVR)-Lernarchitektur vor, um die Gesichtsobjekte zu rekonstruieren. 38 Tiefe, vollständig verbundene Netzwerke, als typische Architektur für Deep Learning, wurden auch bei der Bildgebung durch zufällige Medien verwendet. 39 Li et al. und Sinha et al. präsentierten mehrere Untersuchungen zur Einführung von tiefen Faltungsneuralnetzwerken in inverse Probleme. 40,41

Die früher vorgeschlagene tiefe Architektur in Lis Arbeit umfasste Abwärts-Restblöcke, Aufwärts-Restblöcke, Faltungsblöcke und bilineare Abtastblöcke, von denen die Restblöcke in Abb. 1 dargestellt sind. Die Eingabeschicht wurde für die Bilder entworfen, die von a . aufgenommen wurden Charge Coupled Device (CCD) und der Detektor eines linsenlosen Systems wurde entwickelt, um den vorgeschlagenen Algorithmus zu validieren. Es wurde nacheinander durch 1 bilineare Downsampling-Schicht, 1 Einzelfaltungsblock, 5 Restfaltungsblöcke mit Downsampling und 4 Restblöcke der Entfaltung mit Upsampling verkettet. Das Netzwerk wurde durch einen Backpropagation-Algorithmus mit dem quadratischen Fehler zwischen Eingang und Ausgang als Kostenfunktion trainiert. 42

Abb. 1. Der Unterschied zwischen dem Restblock und dem dicht verbundenen Block. (a) Architektur eines typischen Restblocks und (b) Architektur eines typischen 3-schichtigen dichten Blocks.

Die Experimente wurden an einem Freiraum-Ausbreitungssystem, bestehend aus einer Laserquelle mit räumlicher Filterung und Kollimation, dem Phase Spatial Light Modulator (SLM) und dem Detektor (CCD) durchgeführt. Der Abstand zwischen CCD und SLM variiert in drei verschiedenen Werten. Der SLM wurde durch zufällig ausgewählte Zeichen aus der MNIST-Datenbank mit handgeschriebenen Ziffern 43 moduliert, und dann erfasste das CCD die durch den SLM übertragenen Lichter und die verschwommenen Bilder wurden als Eingabe der vorgeschlagenen DNN-Architektur erhalten. Der Trainingssatz bestand aus 10.000 Proben. Der Testsatz umfasste 1000 Ziffern ohne die Stichprobe, die zum Trainieren des Netzwerks des MNIST verwendet wurde, 15 chinesische Schriftzeichen, 26 englische Buchstaben und 19 arabische Schriftzeichen. Als Bewertungsmaß wurde der mittlere quadratische Fehler (MSE) der Ground Truth und der rekonstruierten Ergebnisse verwendet. Die Leistungsfähigkeit des DNN-basierten Ansatzes bei Rekonstruktionsbildern durch ein System mit freier Ausbreitung wurde durch die sichtbaren Ergebnisse veranschaulicht. Das gut trainierte Netzwerk schnitt besser ab, wenn der Abstand zwischen CCD und SLM geringer war.

Abweichend von der oben beschriebenen Architektur für ein Bildgebungssystem mit freier Ausbreitung wurde 2018 ein sogenanntes „IDiffNet“ für das inverse Problem der Abbildung durch diffuses Medium vorgeschlagen. 41 Unter Verwendung eines dicht verbundenen Faltungsnetzwerks bestand das „IDiffNet“ aus einer erweiterten Faltungsschicht mit Pooling, 6 Dense- und Downsampling-Übergangsblöcken, einem Dense-Block, 6 Dense- und Upsampling-Übergangsblöcken, einem Upsampling-Block und einer Faltungsschicht mit Rectified Linear Unit (ReLU).

Der Unterschied zwischen dichtem Block und dem vorhin erwähnten Restblock kann in Abb. 1 dargestellt und durch 44 . formuliert werden

Auch im „IDiffNet“ wurden mehr Skip-Verbindungen eingesetzt. Eine andere Variante von „IDiffNet“ bestand darin, dass es den negativen Pearson-Korrelationskoeffizienten (NPCC) als Verlustfunktion verwendet, um die herkömmliche MAE-Strategie zu ersetzen, da NPCC bei räumlich spärlichen Objekten und starken Streubedingungen besser abschneidet. 45

Zur Validierung der vorgeschlagenen Methode wurden Experimente mit einem von zwei verschiedenen Diffusoren und Trainingseingaben durchgeführt, die jeweils aus einer von drei Datenbanken (Faces-LFW, 46 ImageNet, 47 und MNIST 43 ) extrahiert wurden. Die Trainingsgröße betrug jeweils 10.000. Zum Testen wurden 450 Stichproben verwendet, die sowohl aus derselben Datenbank mit dem Trainingsdatensatz als auch aus anderen Datenbanken gesammelt wurden. Als Vergleich der NPCC-Verlustfunktionsstrategie wurde „IDiffNet“ mit MAE als Verlustfunktion herangezogen. Die Ergebnisse der Experimente zeigten, dass unterschiedliche Streustärken unterschiedliche Trainingsdatensätze erforderten. Unter starken Streuungsbedingungen würde das Training mit einem relativ eingeschränkten Dataset mit starker Sparsity das Training mit generischen Datasets übertreffen. Der Kompromiss war bei der Wahl der Verlustfunktion ähnlich: NPCC war vorteilhafter als MAE, wenn die Streuung stark und das Objekt spärlich war, während es etwas schlechter war, wenn der Trainingsdatensatz aus einer generischen Datenbank gesammelt wurde.

Lis Arbeiten zeigten in Wirklichkeit die Durchführbarkeit und Kapazität eines lernbasierten Ansatzes, insbesondere eines auf Deep Learning basierenden Ansatzes, bei der Rekonstruktion der Bildgebung durch ein zufälliges Medium. Da die Vorwärtsprobleme und die inversen Probleme biomedizinischer optischer Bildgebungssysteme vielfältiger und komplexer sind als die oben genannten Systeme, sind insbesondere Studien für Rekonstruktionen, die auf Lernmethoden basieren und sich auf verschiedene Modalitäten wie DOT, FMT, BLT und PAT konzentrieren, wurden vor kurzem präsentiert.

3.1. Modellbasierte Methoden für inverse Probleme

DOT wird im Allgemeinen verwendet, um die optischen Absorptions- und Streuparameter des biologischen Gewebes zu untersuchen und die Anomalien anzuzeigen. Das Vorwärtsmodell kann herkömmlich aus Lichtausbreitungsmodellen wie etwa der Diffusionsgleichung erzeugt werden. 48 Tatsächlich kann das Vorwärtsmodell von DOT zusammen mit FMT und anderen Modalitäten in der Form

Ohne die Reflexionen der Lichtausbreitung durch das Medium zu ignorieren, Kamilov et al. schlugen ein künstliches neuronales Mehrschichtnetzwerk 49 vor, das ein Strahlausbreitungsverfahren (BPM) verwendet, um den Streuprozess in dreidimensionalen (3D) Phasenobjekten zu modellieren. 50,51 Heterogenes Medium wurde hier entlang der Ausbreitungsrichtung in mehrere Scheiben aufgeteilt. Wie in Fig. 2 gezeigt, wurde jede Scheibe entlang der Koordinate (x, y) mit dem Abtastintervall gleichmäßig abgetastet und durch jeden Kreis auf jeder Schicht der BPM-Struktur dargestellt. Die Summen der komplexen Amplitude der zu jedem Kreis konvergierenden Signale wurden mit ej 2 π Δ nz δ z ∕ λ multipliziert, wobei δ z das Abtastintervall entlang der Ausbreitungsrichtung bezeichnet, Δ n ( x , y , z ) die Störung von 3D-Index im Medium an der Koordinate (x, y, z) und bezeichnet die Wellenlänge. Eine gerade Linie zwischen jeweils zwei Kreisen bezeichnet die Multiplikation der Ausgabe der entsprechenden Einheit und des diskretisierten Fresnel-Beugungskerns. 52 Das BPM-Modell wurde durch eine mehrschichtige Architektur repräsentiert und durch einen Error-Back-Propagation-Algorithmus trainiert.

Abb. 2. Schema des BPM-Netzwerks. 49 Jeder Kreis, der als Knoten einer Schicht des Netzes angesehen werden kann, bezeichnet die Phasenmodulation, die beim Training des Netzes durch Minimieren des Fehlers zwischen der Ausgabe der letzten Schicht und der experimentellen Messung zu lernen ist. Die Ausbreitung des einfallenden Lichts erfolgt entlang der Z-Richtung.

Experimente zur Abbildung von Polystyrolkügelchen und HeLa- und hTERT-RPE1-Zellen über ein holographisches System wurden implantiert, um die vorgeschlagene Architektur zu validieren. Während der Experimente wurde das Abbildungsobjekt entlang der Ausbreitungsstrecke von 30 µm Länge in 420 Schichten geschnitten und das transversale Abtastintervall wurde auf 72 nm eingestellt. Der Trainingssatz bestand aus 80 Proben, die durch Beleuchten der Probe in 80 verschiedenen Winkeln gesammelt wurden. Das Netzwerk wurde mit dem standardmäßigen Rekonstruktionsalgorithmus mit gefilterter Rückprojektion oder Konstanten ungleich Null initialisiert, um den Effekt der Initialisierung zu untersuchen. Als Vergleich wurde die inverse Radon-Transformationsrekonstruktion verwendet. Die Leistungen des vorgeschlagenen BPM-Netzwerkalgorithmus und des verglichenen Algorithmus wurden visuell bewertet.

Zusammenfassend schlug Kamilovs Arbeit ein BPM-Netzwerk vor, um die Verteilung der optischen Koeffizienten in einem heterogenen Medium in der Mikroskopie zu erhalten. Die durch Training des Netzwerks mit mehreren Iterationen erhaltene Gewichtsmatrix stand in direktem Zusammenhang mit dem gewünschten Ergebnis.

Im makroskopischen DOT, Yoo et al. schlugen ein tiefes neuronales Netzwerk mit Encoder-Decoder-Faltungsstruktur vor, um die Lippmann-Schwinger-Integralgleichung für die Photonenmigration umzukehren. 53,54

Das Netzwerk bestand aus drei Teilen: einer vollständig verbundenen Schicht, die die gemessenen Daten auf die Voxel-Domäne abbildet, einem Paar von Encoder-CNN-Schichten und einer dazwischenliegenden Faltungsschicht. Als Aktivierungsfunktionen für die ersten drei Schichten wurde die hyperbolische Tangensfunktion (tanh) verwendet und für die letzte Faltungsschicht wurde ReLU verwendet.

Die Experimente wurden über die Abbildung von Polypropylenphantomen bzw. tumortragenden Mäusen durchgeführt. Der Trainingssatz wurde von einem FEM-Solver generiert. 1.500 Proben wurden gewonnen, indem die Größe der heterogenen Anomalie in einem Radius von 2–13 mm variiert wurde und die optischen Eigenschaften des heterogenen Hintergrunds im biologisch relevanten Bereich verändert wurden. Als Verlustfunktion bzw. als Optimierungsstrategie wurden MSE- und Adam-Optimierer verwendet. 1000 der 1500 Proben wurden als Trainingssatz behandelt und der Rest wurde als Validierungssatz behandelt. Als Vergleichsmethode wurde die iterative Rytov-Methode entwickelt. 55 Hervorzuheben ist, dass das Netzwerk lediglich durch die simulierten numerischen Stichproben trainiert wurde. Die experimentellen Ergebnisse zeigten sichtbar, dass das trainierte Netzwerk gut funktionierte und die Anomalien ohne iteratives Verfahren oder lineare Approximation genau rekonstruieren konnte.

Der in Yoos Forschung vorgeschlagene Ansatz war eigentlich eine End-to-End-Architektur für die optische Tomographie. Der Encoder-Decoder-CNN-Block wurde stark nach der Lippmann-Schwinger-Integralgleichung entworfen, die sich von den später besprochenen End-to-End-Methoden unterschied.

Ein weiterer typischer modellbasierter Lernansatz wurde vorgeschlagen, um das inverse Problem mit Grenzbetrachtung in PAT zu lösen. 56 Zunächst sollen einige Theorien der PAT dargestellt werden. Das Vorwärtsproblem von PAT kann formuliert werden als

Der sogenannte „Deep Gradient Descent (DGD)“-Algorithmus in Hauptmanns Arbeit konzentrierte sich darauf zu lernen, wie man x k + 1 bei jeder Iteration aktualisiert. Für die ( k + 1 )-te Iteration wurde der Parameter θ k einer einfachen Netzstruktur G θ k für die Aktualisierung von x k um . trainiert

Zum Trainieren der DGD-Architektur wurden zwei Strategien vorgeschlagen: Die erste Strategie wurde verwendet, um das Netzwerk als Ganzes mit der vordefinierten maximalen Iteration k max zu trainieren, während die zweite Strategie verwendet wurde, um die Netzwerkparameter bei jeder Iteration sequentiell zu trainieren. Es gab einen Kompromiss zwischen den beiden Ansätzen. Der erste Ansatz bot optimale Ergebnisse nach k max Iterationen, während er unter wiederholten Bewertungen der Systemmatrix und des Adjungierten litt. Der zweite Ansatz hatte den Vorteil, die Berechnung des Gradienten und des Trainingsprozesses zu entkoppeln, wodurch eine obere Grenze des Trainingsfehlers bereitgestellt wurde. Der zweite Ansatz konnte jedoch keinen minimalen Trainingsfehler erzielen, da er nicht das optimale Ergebnis erzielte. Alternativ könnte der zweite Ansatz als Initialisierung für den ersten Ansatz verwendet werden.

Simulierte Proben als Trainingssatz wurden durch Vorverarbeitung von Daten x true, die aus der öffentlich zugänglichen ELCAP Public Lung Image Database 57 extrahiert wurden, mit der folgenden Operation synthetisiert:

Darüber hinaus wurde der DGD-Algorithmus durch Transfertraining des Netzwerks an den schwach regularisierten Gesamtvariations-(TV)-Rekonstruktionen aus den vollständig abgetasteten Daten x TV und y aktualisiert.

Als Vergleich mit dem DGD-Ansatz und dem aktualisierten DGD wurden ein konventionelles iteratives Verfahren verwendet, das ein U-Netz als Nachverarbeitung verwendet, 58 direkte Rekonstruktion, die Daten mit begrenzter Sicht nach dem TV-Verfahren verwendet, und eine direkte Rekonstruktion, die vollständig abgetastete Daten nach dem TV-Verfahren verwendet sich nähern. Die Ergebnisse der aktualisierten DGD waren sichtbar mit den vollständig abgetasteten TV-Ergebnissen vergleichbar und übertreffen andere quantitativ, gemäß den Bewertungsmetriken, die das Signal-Rausch-Verhältnis (PSNR) und die strukturelle Ähnlichkeit (SSIM) umfassten.

3.2. Nachbearbeitungsmethoden zur Verfeinerung von Rekonstruktionen mit Deep Learning

Aufgrund der stark streuenden Photonen im trüben Medium sind die inversen Probleme der optischen Tomographie schlecht konditioniert und leiden an Fehlstellung. Als Ergebnis ist es schwierig, genaue Mengen und Positionen der Objekte zu erhalten. Rekonstruktionen sind häufig durch Artefakte fehlerhaft, was zu Verzerrungsschätzungen für die Ground Truths führt. Unter Verwendung von tiefen neuronalen Netzen als Nachbearbeitung werden zweistufige Verfahren vorgeschlagen, um die Fehler zwischen rekonstruierten Ergebnissen und der Ground Truth zu reduzieren. 59

Nehmen wir zum Beispiel Longs Arbeit, ein zweistufiges Verfahren, das im Allgemeinen einen herkömmlichen iterativen Ansatz verwendet, um die vorläufige Rekonstruktion (die Fluorochromverteilung in FMT) aus den gemessenen Daten zu erhalten, und ein CNN verwendet, um die vorläufige Rekonstruktion zu entschärfen. 59 In Longs Forschung zu FMT war der konventionelle iterative Ansatz, der in der ersten Stufe verwendet wurde, die tiefenabhängige Tikhonov-Regularisierung, die bei der Lösung des inversen Problems weit verbreitet war. 60 Die zweite Stufe bestand nacheinander aus drei 3D-Faltungsschichten, einer Max-Pooling-Schicht, zwei 3D-Faltungsschichten und zwei vollständig verbundenen Schichten.

Numerische Experimente wurden unter Verwendung der Monte Carlo (MC)-basierten Vorwärtsadjungmethode durchgeführt, um die Photonenausbreitung zu simulieren. 61 Phantome mit einem Ziel und zwei Zielen wurden entwickelt, um die Datensätze anzureichern. Die erste Stufe wurde mit dem regulären Verfahren umgesetzt. In der zweiten Stufe wurden sowohl simulierte Daten als auch rekonstruierte Daten ausgewählt, um das Verhältnis von negativen und positiven Proben auszugleichen. Der Kernpunkt dieses zweistufigen Verfahrens besteht darin, dass das CNN verwendet wurde, um zu erfahren, ob ein Patch, einschließlich mehrerer Voxel, die durch Diskretisieren des gesamten Mediums in Voxel und Knoten erhalten wurden, an der Grenze des zu rekonstruierenden Fluoreszenzziels liegt.

Obwohl die Leistungsfähigkeit dieser zweistufigen Methode bei der Verfeinerung der FMT-Rekonstruktionen bestätigt wurde, besteht noch immer der Mangel: Die vorgeschlagene CNN-Methode kann nur unter der idealen Situation arbeiten, dass die zu rekonstruierenden Fluoreszenztargets homogen sind. Mit anderen Worten, die vorgeschlagene zweistufige Methode in Lit. 59 wird fehlschlagen, wenn die Konzentration der Targets variiert, was in realen Experimenten üblich ist. Dennoch bietet es eine neue Idee, die Rekonstruktionsergebnisse mit CNN zu entschärfen.

Wie bereits in Abschn. 3.1 wurden auch U-Netze als Nachbearbeitung verwendet, um den Rekonstruktionsfehler zu reduzieren. Außerdem Antholzer et al. wendete ein typisches U-Netz an, um eine Rekonstruktion mit Unterabtastartefakt, die durch ein konventionelles lineares Verfahren erzeugt wurde, auf ein Rekonstruktionsbild mit entferntem Artefakt abzubilden. 62 Das vorgeschlagene Netzwerk wurde an simulierten Proben trainiert, die durch numerische Experimente generiert wurden. Der Vorteil dieses U-Net-Post-Processing-Verfahrens besteht darin, dass die Gesamtrechenzeit der beiden Stufen nur 20 ms beträgt, deutlich weniger als 25 s beim herkömmlichen TV-Verfahren.

3.3. Durchgängige Methoden mit Deep Learning

Nicht-Modellalgorithmen, die in den ersten Absätzen von Sec. 3 zeigen, dass Ende-zu-Ende-Rekonstruktionen durch Deep-Learning-Verfahren für optische Bildgebung oder Tomographie möglich sind. Tatsächlich wurden mehrere Studien darüber vorgelegt, wie die am Detektor erfassten Messdaten in Abwesenheit eines Vorwärtsmodells auf das gewünschte Ergebnis abgebildet werden können.

Eine Architektur namens „Net-FLICS“ (Network for Fluorescence Lifetime Imaging with Compressive Sensing) wurde von Yao . vorgeschlagen et al. eine End-to-End-Lösung für Rekonstruktionen von Fluoreszenzintensität und -lebensdauer bereitzustellen. 63

Wie in Fig. 3 gezeigt, war Net-FLICS mit mehreren Ausgängen strukturiert, bestehend aus einem gemeinsamen Faltungssegment, einem Intensitätsbildrekonstruktionszweig und einem Lebensdauerbildrekonstruktionszweig. Das erste Segment, das aus einer Faltungsschicht und sechs Restblöcken bestand, wurde von Rekonstruktionsaufgaben sowohl der Intensität als auch der Lebensdauer geteilt, wobei die gemessenen Sequenzen hauptsächlich entlang der Musterorientierung gefiltert wurden. Die Tensordaten wurden so transponiert, dass sie entlang der zeitlichen Orientierung gefiltert werden können. Aufgeteilte Daten wurden dem Intensitätsbildrekonstruktionszweig bzw. dem Lebensdauerbildrekonstruktionszweig zugeführt. Im Intensitätsrekonstruktionszweig wurden umgeformte Daten durch vier zweidimensionale (2D) Restblöcke gefiltert, von denen jeder drei Faltungsschichten enthielt. Im Lebenszeitrekonstruktionszweig wurden eindimensionale (1D) Faltungen in vier Blöcken gehalten und dann wurden die Tensordaten umgeformt und die Strukturen wurden in 2D-Blöcke geändert, um Photonenintensitätskurven anzupassen, um die Lebensdauer zu erhalten. Sowohl für die Konstruktion als auch für die Verbindung der Restblöcke wurden Restverbindungen verwendet. Am Ende beider Zweige wurden drei Faltungsschichten für die abschließende Bildfilterung eingerichtet.

Abb. 3. Architektur von Net-FLICS. 63 Der obere Abschnitt enthält den gemeinsamen Faltungssegment- und Intensitätsbildrekonstruktionszweig (innerhalb des orange gepunkteten Rechtecks), während der untere Abschnitt den Lebenszeitbild-Rekonstruktionszweig (innerhalb des lila gepunkteten Rechtecks) enthält. Das Detail des nD ( n = 1 , 2 ) Restblocks ist jeweils links unten gezeigt.

Um das vorgeschlagene Net-FLICS zu evaluieren, wurden komprimierte Daten auf dem Compression Sensing-Einzelpixel-Bildgebungssystem erfasst. 64,65 Binärbilder aus der MNIST-Datenbank wurden verarbeitet, um die simulierten Bilder mit verschiedenen Intensitäten bzw. Lebensdauern zu erzeugen. Um den Datensatz zu erweitern, wurde jedes Bild von MNIST verarbeitet, um sechs Bilder zu erzeugen: das Original, um 90 gedreht, um 180 gedreht, um 270 gedreht, nach oben/unten gedreht und nach links/rechts gedreht. 32.000 Samples wurden als Trainingsset und 8000 Samples als Testset verwendet. Experimente mit Phantomen, die drei Buchstaben „RPI“ enthielten, gefüllt mit zwei Farbstoffen, AF750 für „R“ und „I“ und HITCI für „P“, wurden ebenfalls zur Validierung des Net-FLICS verwendet. Verglichen mit der TVL3 + Lifetime-Fitting-Methode 66 konnte das Net-FLICS eine höhere Rekonstruktionsqualität für den HITCT-gefärbten Buchstaben „P“ mit der rekonstruierten Lebensdauer von 0,97 ns erreichen, was der Grundwahrheit entsprach, jedoch nicht die gewünschte Rekonstruktion erreichte für AF750 gefärbte Buchstaben „R“ und „I“. Die Autoren führten die Fehlanpassung darauf zurück, dass die von DMD erzeugten Muster nicht perfekt binär waren, was sich von denen unterschied, die zur Simulation des Trainingssatzes verwendet wurden.

Ein Multi-Layer-Perceptron (MLP)-basiertes Verfahren zur inversen Problemsimulation (IPS) wurde von Gao . vorgeschlagen et al. um eine End-to-End-Rekonstruktion für BLT zu erhalten. 67 Die IPS-Architektur, die die Abbildung der gemessenen Daten an der Oberfläche des biologischen Gewebes auf die Verteilung der Biolumineszenz im Gewebe konstruierte, bestand aus 1 Eingabeschicht, 4 verborgenen Schichten und 1 Ausgabeschicht. Laut Gaos Arbeit könnte das IPS als Simulation der weit verbreiteten Methode der iterativen Schrumpfungsschwelle (IST) zur Lösung der inversen Probleme angesehen werden. Gekoppelte Proben, einschließlich sowohl der Photonenintensität auf der Oberfläche als auch der internen Biolumineszenzquelle, wurden unter Verwendung der MC-Methode mit dem sogenannten „Standardnetz“ erzeugt, um die Photonenwanderung zu simulieren. Proben mit mehreren Quellen wurden durch Synthetisieren von Proben mit unterschiedlich lokalisierten einzelnen Quellen erzeugt. Der Schwerpunktfehler (BCE) zwischen der rekonstruierten Quelle und der Ground Truth wurde verwendet, um die Ergebnisse in der Simulation quantitativ auszuwerten. Das IPS-Netzwerk wurde validiert, indem es in Bezug auf Positionsgenauigkeit, Robustheit, Leistung bei der Dual-Source-Rekonstruktion und Leistung bei der Rekonstruktion von in vivo tumortragendes Mausmodell.

Cai et al. einen weiteren End-to-End-, Deep-Learning-basierten Algorithmus zur Rekonstruktion der quantitativen photoakustischen Bildgebung (QPAI) vorgeschlagen. 68 Das vorgeschlagene tiefe neuronale Netz wurde „ResU-net“ genannt, eine Kombination aus U-net und Res-net. Der Unterschied zwischen dem „ResU-Netz“ und der Grundform des U-Netzes bestand darin, dass das erstere Restblöcke mit drei Faltungsschichten und Batch-Normalisierung zwischen jeweils zwei Blöcken des Kontraktionszweigs und des Expansionszweigs verwendete. Die Kanalgröße wurde in jedem Restblock invariant gehalten. Simulierte Proben mit unterschiedlichen Beleuchtungswellenlängen, unterschiedlichen Verteilungen von Targets und unterschiedlichen Chromophorkonzentrationen wurden durch ein numerisches Vorwärtsmodell erzeugt. Drei simulierte Experimente, darunter ein Fall mit einer digitalen Maus 69, wurden durchgeführt, um das „ResU-net“ für die End-to-End-Rekonstruktion von QPAI zu validieren, was die Leistung der Rekonstruktionsgenauigkeit für die Chromophorkonzentration und die Robustheit für unterschiedliche optische Eigenschaften bestätigte und Geometrie.

Kürzlich hat unsere Gruppe einen End-to-End-Algorithmus für die FMT-Rekonstruktion mit einem Deep Neural Network Framework vorgeschlagen. 70 Es wurde eine nichtlineare Abbildung zwischen der internen Fluorochromverteilung und den Grenzmessungen erstellt. Es war eine typische 3D-Encoder-Decoder-Architektur mit 6 4 × 6 4 × 2 4 Eingängen und 6 4 × 6 4 × 1 6 Ausgängen sowie mehreren Schichten von räumlichen Faltungs- und Entfaltungsoperatoren. Als Trainingssatz wurden 10.000 Simulationsproben mit variablen experimentellen Einstellungen verwendet, während sowohl Simulationsproben als auch Phantomproben zur Validierung verwendet wurden. Die Ergebnisse sowohl simulierter Experimente als auch Phantomexperimente zeigten die große Verbesserung der FMT-Rekonstruktion im Vergleich zu herkömmlichen Methoden. Der vorgeschlagene Algorithmus kann als erster 3D-Encoder-Decoder-DNN-basierter Algorithmus für die FMT-Rekonstruktion mit umfassenden experimentellen Validierungen angesehen werden.

Zumindest erfordert ein Ende-zu-Ende-Rekonstruktionsverfahren, dass das verwendete neuronale Netz Kapazitäten hat, um inverse Probleme perfekt zu simulieren und Rekonstruktionsfehler zu reduzieren. Daher sollten die Architektur des tiefen neuronalen Netzes und der Trainingssatz richtig gewählt werden, um mögliche irreführende Effekte durch unsachgemäßes Design zu vermeiden.

Der dramatischste Vorteil der End-to-End-Methoden besteht darin, dass es vernachlässigbar viel Zeit in Anspruch nimmt, das gewünschte Ergebnis mit einem gut trainierten Netzwerk zu erzielen, obwohl der Trainingsprozess zeitaufwändig sein kann.

Zusammenfassend lässt sich sagen, dass all diese drei Zweige von Deep-Learning-basierten Methoden für die optische Tomographie durch eine Vielzahl von Experimenten validiert werden. Der Vergleich ist in Tabelle 2 dargestellt. Eine modellbasierte Deep-Learning-Methode ist schwer zu definieren. In einigen Fällen sind die Modelle, die durch das Deep-Learning-Framework simuliert werden müssen, Photonenausbreitungsmodelle oder bestimmte Teile von Ausbreitungsmodellen. In anderen Fällen können sich Methoden mit Deep-Learning-Framework hauptsächlich darauf konzentrieren, wie die Aktualisierung gewichteter Matrizen modelliert wird. Der Vorteil der Verwendung von Deep-Learning-Frameworks als Post-Prozesse nach Erhalt der Rekonstruktionen besteht darin, dass einige bestehende Deep-Learning-Frameworks, wie beispielsweise U-net, mit winzigen Änderungen bequem an die Post-Prozesse angepasst werden können. End-to-End-Verfahren mit Deep Learning können jedoch in Zukunft von den anderen Verfahren abgelöst werden, da es das typische Rekonstruktionsprinzip für die optische Tomographie verändert. Endgültige Ergebnisse können direkt unter der Prämisse erzielt werden, dass gut konzipierte Deep-Learning-Frameworks gut trainiert sind. Und natürlich gibt es keine Anforderungen, um Photonenmigrationsmodelle zu hypothetisieren, außer dass die Trainingssätze aus Simulationen stammen.

Tabelle 2. Vergleich für drei Kategorien von Deep-Learning-basierten Methoden.


Kombinierte fDOT- und microCT-Bildgebung

Eine Stunde nach der ICG-Injektion oder 24 Stunden nach der Angiostamp800-Injektion wurden anästhesierte Mäuse (Isofluran/Luft: 2%) in einen selbstgebauten mobilen Tierhalter für die bimodale MikroCT/fDOT-Bildgebung gebracht. Mit dem zuvor beschriebenen fDOT-System wurde eine dreidimensionale Fluoreszenzbildgebung an der Leber durchgeführt [3]. Die MicroCT-Bildgebung wurde inline mit dem vivaCT40-System (Scanco Medical AG, Schweiz) durchgeführt, dessen Erfassungsparameter 55 keV Energie, 177 µA Intensität, 300 ms Integrationszeit und 80 µm Voxel isotrope Auflösung waren. MicroCT- und 3D-Fluoreszenz-rekonstruierte Volumina wurden mit der ImageJ-Software zusammengeführt. Das Gesamtfluoreszenzsignal im interessierenden Volumen (Leber) wurde quantifiziert und als RLU ausgedrückt.


EINLEITUNG

Die diffuse optische Tomographie (DOT) ist eine neue Bildgebungsmodalität mit potentiellen Anwendungen in der funktionellen Bildgebung des Gehirns und der Brustkrebserkennung [1-5]. Diese Bildgebungstechnik versucht, die optischen Parameter von Gewebe aus Grenzmessungen von übertragenem nahem Infrarot oder sichtbarem Licht wiederzugewinnen. Die Instrumentierung für ein optisches Tomographiesystem ist relativ kostengünstiger und für den klinischen Einsatz tragbar[1]. Es hat sich gezeigt, dass das DOT-System eine praktikable Alternative zu derzeit verfügbaren funktionellen Bildgebungssystemen wie der funktionellen Magnetresonanztomographie[1] darstellen kann.

Ein typisches DOT-System besteht oft aus einer Lichtquelle (Laser, Weißlicht), die das biologische Gewebe von der Oberfläche nacheinander an verschiedenen Quellenpositionen beleuchtet[1]. Die Photonen, die sich durch das Gewebe ausbreiten, werden dann an mehreren Detektorpositionen auf der Gewebeoberfläche gesammelt[1]. Für diese Messungen werden drei Messschemata verwendet: Zeitbereich, Frequenzbereich und Dauerstrich (cw). Von diesen drei Messarten ist die cw-Methode die einfachste und kostengünstigste und kann die schnellste Datenerfassung und den höchsten Signal-Rausch-Pegel bieten[6].

Eine der Anwendungen des cw DOT-Systems ist die Lichtdosimetrie für die photodynamische Therapie der interstitiellen Prostata (PDT). Die Wirksamkeit der PDT-Behandlung hängt maßgeblich von der Anzahl der Photonen ab, die von den im Tumorgewebe befindlichen Photosensibilisatoren aufgenommen werden [7]. Daher sind die Licht- und Photosensibilisatordosimetrie für PDT-Behandlungen unerlässlich [8]. Bei unserem Prostata-PDT-Protokoll werden vor der Behandlung zunächst die optischen Eigenschaften der Prostata bestimmt, so dass eine Echtzeit-Modellierung und Überwachung der Photonenablagerung in der Prostata erreicht werden kann. Die optischen Eigenschaften der Prostata werden über ein interstitielles DOT-System bestimmt, bei dem Lichtquellen und Detektoren interstitiell in das Prostatagewebe eingeführt werden [9].

In dieser Studie präsentieren wir inverse 2D- und 3D-Modelle, die die heterogenen optischen Eigenschaften des Prostatagewebes wiederherstellen können. Ein 2D-3D-Hybridmodell wird ebenfalls vorgestellt. Diese Modelle werden in der COMSOL Multiphysics / MATLab-Umgebung erstellt, in der die partiellen Differentialgleichungen in COMSOL Multiphysics gelöst und die heterogenen Gleichungskoeffizienten über den in MATLab geschriebenen Levenberg-Marquardt-Algorithmus aktualisiert werden. Wir haben diese vorgeschlagenen Modelle validiert, indem wir die optischen Eigenschaften der 2D-, 3D-mathematischen Phantome mit den numerisch simulierten Daten rekonstruiert haben. Wir haben gezeigt, dass der 2D-3D-Hybridalgorithmus den 2D- und 3D-Algorithmus in Bezug auf das Verhältnis von Genauigkeit/Berechnungskosten übertrifft.


Hochauflösende Diffuse optische Tomographie mit indirekter Nahbereichs-Untergrundbildgebung

Diffuse optische Tomographie (DOT) mit Zeilenkamera und Zeilenscan-MEMS-Projektor (links) im Vergleich zu herkömmlicher DOT mit Punktquellen-Detektor-Paaren (rechts). Beide Anordnungen fangen indirektes indirektes Streulicht unter der Oberfläche ein, aber unser Ansatz ist effizienter und gewinnt das Medium (untere Reihe) mit viel höherer Auflösung zurück. (Klicken Sie auf die Abbildung, um das vollständige Bild anzuzeigen, einschließlich des Ergebnisvergleichs des traditionellen DOT und der vorgeschlagenen Methode)

Erzeugung von indirekten Bildern mit kurzer Reichweite für einen kleinen (links) und einen großen (rechts) Pixel-zu-Beleuchtungsabstand. Die Szene besteht aus drei Zylindern, die in ein Streumedium eingebettet sind. Klicken Sie auf die Abbildung, um das vollständige Bild anzuzeigen.

Visualisierung der Phasenfunktion für verschiedene Pixel-zu-Beleuchtungslinien-Abstände in der y-z-Ebene (obere Reihe) und der x-y-Ebene (untere Reihe). S und D repräsentieren die Beleuchtungslinie bzw. die Pixelposition. Wenn der Abstand von Pixel zu Beleuchtungslinie zunimmt, neigen die Photonen dazu, tiefer in das Streumedium zu wandern, führen jedoch zu einer verringerten Anzahl von Photonen, die das Pixel erreichen, wodurch das Signal-Rausch-Verhältnis verringert wird.

Versuchsaufbau und Kalibrierung zur Kompensation der Laser-Spiegel-Fehlausrichtung und Nichtlinearität von MEMS. Das Gerät wird senkrecht über dem Probenbehälter montiert, ohne Abdeckung über dem Streumedium. Aufgrund einer Fehlausrichtung wird der auf den MEMS-Spiegel einfallende Laserstrahl nicht senkrecht zur Spiegeloberfläche und nicht mit dem MEMS-Rotationszentrum ausgerichtet. Klicken Sie auf die Abbildung für das vollständige Bild.

Echtdatenbilder und Ergebnisse für mehrere Objekteinschlüsse. Das Streumedium ist Magermilch ohne oder mit geringer Wasserverdünnung. Klicken Sie auf die Abbildung für das vollständige Bild

Video

Die Darstellung des Arbeitsschemas und die Rekonstruktionsergebnisse zeigen wir im Video

Woher kommt die Faltung im Vorwärtsmodell?
Sie kommt von: (1) der Verwendung von Abtastbeleuchtung und Kamerabelichtungslinien, um die Quelle-Detektor-Paare im traditionellen DOT zu ersetzen (2) der isotropen Lichtausbreitungsrichtungsverteilung innerhalb eines dichten Streumediums. Für (2) gilt die Annahme für ein dicht streuendes Medium wie die menschliche Haut. Wir testen die Robustheit unserer Methode gegen das Scheitern dieser Annahme im Papier. Unsere Methode funktioniert für einen weiten Bereich von Streukoeffizienten des Mediums. Weitere Informationen finden Sie in Abschnitt 6.1.

Wovon hängen die Phasenfunktion und der Kernel ab?
Sie hängen vom Quelle-Detektor (für traditionelles DOT mit Punktquellen und Detektoren) oder der Trennung zwischen den Beleuchtungs- und Belichtungslinien (für unser Verfahren) und den Streu- und Absorptionskoeffizienten des homogenen Mediums ab, das die Heterogenitäten umgibt.

Wie bekommt man angesichts der Zeilentrennung den Phasenkernel? Mit anderen Worten, wie erhält man die Absorptions- und Streukoeffizienten für das homogene Medium?
Wir optimieren die Absorptions- und Streukoeffizienten des homogenen Mediums, indem wir ein inverses Problem für den homogenen Bereich lösen. Theoretisch reichen die Bildintensitäten in einem 1 x 1-Bereich (einem Punkt) innerhalb des homogenen Bereichs aus, um nach den Koeffizienten aufzulösen. Wir nehmen eine homogene Region und berechnen die Mittelwerte über die Region, um den Satz von Intensitäten zur Reduzierung des Rauschens zu erhalten. Der homogene Bereich kann entweder manuell oder automatisch als Bereiche mit geringem räumlichen Kontrast in allen indirekten Nahbereichsbildern ausgewählt werden.

Wie groß ist im Experiment der maximale Abstand zwischen der Linienbeleuchtung und der Kamerabelichtungslinie auf der Oberfläche?
In unserem Experiment beträgt der Abstand bis zu etwa 10 mm an der Oberfläche. Die maximale Trennungseinstellung hängt von der erfassten Tiefe und dem Zeitbudget für die Datenerfassung ab. Für eine größere Trennung kann eine tiefere Heterogenität wahrgenommen und rekonstruiert werden. Das Signal ist jedoch aufgrund der stärkeren Streuung und Absorption schwächer, sodass wir längere Kamerabelichtungen und damit mehr Zeitbudget verwenden müssen.

Der Durchmesser des Lasers umfasst mehrere Pixel im Bild, das mit einer kleinen FoV-Kamera aufgenommen wurde. Wird dies berücksichtigt?
Jawohl. Wir kalibrieren das 1D-Profil über die Laserlinienbeleuchtung vor und berücksichtigen dies im Vorwärtsmodell als räumliche Faltung.

Was ist der schwarze Fleck in der Mitte der indirekten Nahbereichsbilder?
Der schwarze Bereich ist das Artefakt, das durch das Schutzglas vor dem von uns verwendeten MEMS-Spiegel verursacht wird. Ein Teil des Laserlichts wird direkt vom Schutzglas reflektiert, ohne vom MEMS-Spiegel manipuliert zu werden. Außerdem gibt es eine gegenseitige Reflexion zwischen Glas und MEMS-Spiegel. Als Ergebnis gibt es im Rohbild einen hellen Fleck in der Mitte des Bildes. Dies verursacht insbesondere bei stark streuenden Medien ein Problem, da der Bereich des hellen Flecks aufgrund von Streuungen unter der Oberfläche viel größer ist als der Laserfleck selbst.

Um dieses Problem zu beheben, subtrahieren wir das "dunkle" Bild von den aufgenommenen Bildern, wobei das "dunkle" Bild mit dem Laser aufgenommen wird, der außerhalb der Probe und dem FoV für die Kamera zeigt. Da die Interreflexion zwischen Glas und MEMS-Spiegel jedoch auch von der Ausrichtung des MEMS-Spiegels abhängt, gibt es nach Anwendung des einfachen Tricks immer noch Artefakte (die schwarze Region) in der Bildmitte. Eine einfachere und vielversprechendere Möglichkeit, dieses Artefakt loszuwerden, besteht darin, das Schutzglas zu entfernen. Dies sollte jedoch in einem Reinraum erfolgen, um eine Kontamination des MEMS-Spiegels zu vermeiden.

Ist die Methode robust gegenüber dem Scheitern der Annahme im traditionellen DOT, dass die Streukoeffizienten der Heterogenitäten und der umgebenden Homogenität nahe beieinander liegen?
Jawohl. Wir testen den Algorithmus mit verschiedenen Streukoeffizienten für die Heterogenitäten und einem festen Streukoeffizienten für die Umgebung, unter Verwendung von Monte Carlo simulierten Daten. Die Leistung verschlechtert sich nicht, wenn der Streukoeffizient der Heterogenität variiert. Weitere Informationen finden Sie in Abschnitt 6.1 des Papiers.

Die Spezifikationen des MEMS ?
Wir verwenden das Mirrorcle MEMS-Entwicklungskit. Der Scan-Aktor ist kardanisch-los zweiachsig. Der MEMS-Spiegel hat einen Durchmesser von 1,2 mm und einen Betriebswinkelbereich von -5 bis 5 Grad sowohl in der x- als auch in der y-Achse. Wir verwenden den Punkt-zu-Punkt-Modus (quasistatisch), um Vektorgraphen zu projizieren.

Ähnliche Projekte

Homogene Codes für energieeffiziente Beleuchtung und Bildgebung
Matt O'Toole, Supreeth Achar, Srinivasa G. Narasimhan und Kiriakos N. Kutulakos
ACM-Transaktionen auf Grafiken (SIGGRAPH) 2015

Erfassung und Charakterisierung des indirekten Lichttransports von Ebene zu Strahl
Hiroyuki Kubo, Suren Jayasuriya, Takafumi Iwaguchi, Takuya Funatomi, Yasuhiro Mukaigawa und Srinivasa G. Narasimhan
IEEE International Conference on Computational Photography (ICCP) 2018


Schau das Video: Vyšetrenie magnetickou rezonanciou (Kann 2022).