Information

Kann ich Graustufenbilder verwenden, wenn ich mit ImageJ arbeite?

Kann ich Graustufenbilder verwenden, wenn ich mit ImageJ arbeite?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ich verwende ImageJ, um Western Blots zu analysieren. Ich habe Filme als Graustufenbilder eingescannt, weil wir das in meinem alten Labor so gemacht haben. Die Leute in meinem aktuellen Labor sind mit dieser Erklärung nicht zufrieden und denken, ich sollte in Betracht ziehen, Farbbilder zu verwenden. Ich habe nach Protokollen gesucht, aber sie alle scheinen sich mit der Verwendung des Programms zu befassen, wenn Sie einige Filme gescannt haben.

Kann mir jemand helfen herauszufinden, welche Überlegungen bei der Auswahl berücksichtigt werden? wie Ich scanne meine Filme?


Es gibt keine Beweise dafür, dass das eine besser ist als das andere, wahrscheinlich weil es von Fall zu Fall unterschiedlich ist. Weder Sie noch Ihre Kritiker haben Recht. Es gibt ein kleines bisschen Wissenschaft in einem Artikel über die Digitalisierung von Blots, die aus Blots eines bestimmten Proteins verallgemeinern (PMID: 19517440), und sie verwenden ohne Angabe von Gründen Graustufen. Denken Sie, dass dies die beste Arbeit auf dem Gebiet der Immunoblot-Quantifizierung ist, und es fehlen immer noch Beweise.

Immunblot ist semiquantitativ, d. h. es kann Banden (und Proteinmengen) sortieren und ordnen, aber es scheitert oft daran, Unterschiede und Verhältnisse zu schätzen und kann sogar Unterschiede nicht erkennen. Versuchen Sie einfach Ihr Bestes, um einen Unterschied zu finden, in dem Wissen, dass, wenn es keinen Unterschied in den Proteinmengen gibt, jegliches Herumfummeln am Kontrast keinen Unterschied in der Quantifizierung der Banden erzeugt.

Es gibt fast keinen Unterschied zwischen digitalisierten Farb- und Schwarzweißbildern eines Immunoblots. Die schwarzen Teile des Flecks erscheinen im Computer immer noch als Weiß = 0, obwohl eine dreifarbige Bilddatei sie in Rot = 0, Grün = 0, Blau = 0 detailliert. Die Teile, die fast schwarz sind, werden immer noch sehr nahe bei null sein.

Das einzige, was sich zwischen RGB und Farbe stark ändert, ist der Hintergrund. Der Hintergrund kann sich beispielsweise von Weiß = 200 zu Rot = 190, Grün = 190, Blau = 220 ändern. Es gibt eine Folge eines solchen Umschaltens zwischen Werten für den Hintergrund. (Diese Änderungen können durch Umschalten zwischen Graustufen und RGB, aber auch durch Ändern der Belichtungszeit usw. induziert werden.) Wenn Sie eine Methode verwenden, bei der der Hintergrund den Blots zu nahe kommt, die "Amplitude" der Blots, die Höhe der Peaks in ImageJ, wird reduziert. Dieser Kontrastverlust sollte einige der Unterschiede zwischen den Blot-Banden auswaschen und die Unterstützung für die Unterschiede zwischen den Banden (d. h. für die Alternativhypothese) verringern, sodass Sie einen echten Proteinunterschied übersehen.

Auch hier: Wenn Ihre Blot-Banden so unterschiedlich sind, dass Ihre prozentuale Zunahme/Abnahme enorm und Ihr p-Wert klein ist, sind Sie unabhängig von der gewählten Methode bereit. Bitten Sie Ihre Kritiker, Ihre beobachteten Unterschiede anders als durch Unterschiede im Protein zu erklären. Aber wenn Ihre Quantifizierung den p-Test nicht besteht, denke ich, dass es eine ehrliche Anstrengung sein wird, die Farbe von Graustufen zu RGB oder umgekehrt zu ändern, nur für den Fall, dass Ihre erste Wahl diejenige war, die den Kontrast dämpft.


Analysieren von fluoreszenzmikroskopischen Bildern mit ImageJ

Diese Arbeit wird in der Hoffnung zur Verfügung gestellt, dass sie Forschern in der Biologie nützlich sein wird, die sich schnell mit den wichtigsten Prinzipien der Bildanalyse vertraut machen müssen.

Ein Großteil des Ausgangstextes entstand zu einer Zeit, als ich in Heidelberg lebte und arbeitete, was sich in vielen Abbildungen widerspiegelt.

Das Originalhandbuch war ein PDF erstellt mit Latex. Diese PDF-Version ist wahrscheinlich immer noch die beste zum Drucken. Sie finden es bei ResearchGate.

Seitdem wurde der Inhalt jedoch aus drei Gründen überarbeitet und in AsciiDoc übersetzt:

Um es als Website verfügbar zu machen, über GitBook

Um die Aktualisierung der Inhalte einfacher und schneller zu machen

Um eine stärkere Beteiligung der Community zu ermöglichen, sowohl durch die eigenen Kommentare und Diskussionen von Gitbook als auch durch die Verwendung des auf GitHub gehosteten Quellcodes

Dieses Buch basiert hauptsächlich auf dem fantastischen ImageJ von Wayne Rasband. Dennoch wächst das Angebot an flexibler und leistungsstarker Open-Source-Software und Ressourcen für die Biobildanalyse weiter. Vor diesem Hintergrund könnten Sie auch erwägen, sich mit einigen Alternativen vertraut zu machen, wie zum Beispiel:

ImageJ2 und Icy, die für ein sehr breites Anwendungsspektrum entwickelt wurden

CellProfiler und KNIME, speziell für Hochdurchsatzanalysen und Data Mining

ilastik, insbesondere wenn seine leistungsstarken Machine-Learning-Funktionen benötigt werden, um herausfordernde Strukturen zu identifizieren oder zu klassifizieren

QuPath, insbesondere für die digitale Pathologie oder die Bildanalyse ganzer Objektträger [1]

Schließlich ist es das Ziel dieses Handbuchs, genügend Hintergrundinformationen zu liefern, um schnelle Fortschritte bei der Biobildanalyse zu ermöglichen. Um tiefer zu gehen, empfehle ich als Ergänzung zu diesem Buch die ausgezeichnete (und kostenlose) Bioimage Data Analysis, herausgegeben von Kota Miura.

Alles in allem hoffe ich, dass diese Einführung für jemanden hilfreich ist und einen kleinen Beitrag dazu leistet, die Nutzung und Entwicklung von Open-Source-Software und Lehrmaterialien für die Forschung zu unterstützen.


Erstellen von Pseudofarbenbildern mit ImageJ

Es ist üblich, dass Mikroskopiker fluoreszierende Proben untersuchen, die einem gemischten Satz von Fluorophoren mit spezifischen Färbeeigenschaften ausgesetzt wurden. Bilder von diesen Proben werden oft als Satz aufgenommen, wobei verschiedene Filtersätze verwendet werden, um bestimmte Elemente der Probe zu isolieren. Manchmal werden die Bilder in Graustufen aufgenommen, in anderen Fällen werden sie mit Farbkameras aufgenommen. In jedem Fall möchte man die Bilder oft kombinieren, um ein einzelnes Bild zu erstellen, das die Informationen aller Fluorophore auf einmal präsentiert. Diese Art der Anzeige ist besonders nützlich, um die relative Position verschiedener Komponenten zu bestimmen.

Das Public-Domain-Programm ImageJ, geschrieben von Wayne Rasband an den National Institutes of Health, Bethesda, MD. (http://rsb.info.nih.gov/ij/) und umfassend von vielen Mitwirkenden ergänzt, enthält eine einfache Routine, um drei Graustufenbilder aufzunehmen, jedem eine eigene Farbe zuzuweisen und sie zu einem RGB-Pseudofarbenbild zu verschmelzen.

Der Prozess beginnt mit dem Satz von drei Bildern wie den folgenden, die von Wangenzellen stammen, die mit Weizenkeim-Agglutinin-Rhodamin, MitoTracker-Green bzw. DAPI gefärbt wurden.

Die drei Bilder werden einzeln in ImageJ geöffnet.

Anschließend wird der Menüpunkt „Image>color>RGB merge“ ausgewählt.

Dadurch wird ein Dialogfeld geöffnet, in dem Sie die spezifischen Bilder eingeben können, die das Endprodukt bilden sollen.

Beachten Sie, dass Sie die Möglichkeit haben, jedes der Bilder in einen der Kanäle einzugeben. Am direktesten ist es, jedes Bild in den entsprechenden Kanal zu stellen. Das heißt, Rot zu Rot, Grün zu Grün usw. Es ist im Allgemeinen nützlich, das Kontrollkästchen „Quellbilder behalten“ für weitere Experimente zu aktivieren. Nach einem Klick auf „OK“ wird das RGB-Bild erzeugt (Abbildung 4).

Es ist auch möglich, die Kanäle für spezielle Zwecke zu manipulieren. Als Beispiel wurde das Bild der Rotquelle sowohl für den Rot- als auch für den Blaukanal verwendet (wobei die Blaudaten weggelassen wurden), um ein Bild von Magenta und Grün zu erstellen (Abbildung 5). Diese Anzeige ist besonders nützlich für diejenigen Betrachter, die Deuteranopen (rot/grün farbenblind) sind.

Sobald das Bild erstellt ist, ist es möglich, jeden der Farbkanäle unabhängig über den Menüpunkt „Image>Adjust>Color Balance“ anzupassen.

Es gibt mehrere Einschränkungen, die bei der Erstellung solcher Bilder berücksichtigt werden müssen.

Zuerst müssen die einzelnen Bilder ausgerichtet werden. Leider verfügt ImageJ noch nicht über die Möglichkeit, Ebenen zu überlagern, die unabhängig voneinander verschoben werden könnten, wie in Photoshop. Auf der anderen Seite steht ein Registrierungs-Plugin zur Verfügung, das entweder eine manuelle oder automatische Ausrichtung vor der Bildmontage ermöglicht.

Zweitens ist es wichtig, dass die Intensitätsverteilung in jedem der Bilder innerhalb des 8-Bit-Dynamikbereichs liegt. Dadurch wird eine Übersättigung im endgültigen Bild vermieden.

Drittens sollte erkannt werden, dass Bilder wie diese Transformationen der Originaldaten sind. Jeder Farbkanal aktiviert einen einzelnen Pixeltyp im Display. Dadurch geht ein Teil der Feinheit der Abbildung verloren. DAPI hat zum Beispiel eine signifikante Fluoreszenz in den grünen Wellenlängen, die bei dieser Art von Bildern verloren geht, aber in einem Farboriginal erhalten bleiben kann.


Tatsächlich führt das Zusammenführen von mehr als drei Kanälen zu visuell mehrdeutigen Bildern, wenn sie statisch gerendert werden (sowohl aufgrund der Rendering-Technologie als auch aufgrund der Fähigkeit des Betrachters, Farben aufzulösen). Wir verwenden jedoch routinemäßig zusammengesetzte Bilder mit mehr als drei Farben, aber mit einer interaktiven Möglichkeit, die Kanäle bequem anzupassen (Aktivieren/Deaktivieren/Neufärben usw.), können Sie solche Bilder dennoch nützlich erkunden.

Die nativen Tools in ImageJ ermöglichen Ihnen dies (obwohl die Benutzeroberfläche etwas umständlich ist), daher haben wir CompositeAdjuster nur für diese Art von Situation geschrieben.


Kevin Eliceiri

Dr. Kevin Eliceiri ist außerordentlicher Professor für Medizinische Physik und Biomedizinische Technik und Direktor des Laboratory for Optical and Computational Instrumentation (LOCI) an der University of Wisconsin-Madison. Eliceiri absolvierte seinen Bachelor- und Doktortitel in Biotechnologie und Biomedizintechnik an der University of Wisconsin in Madison. 2008 gründete er LOCI und begann mit… Weiterlesen


Kann ich Graustufenbilder verwenden, wenn ich mit ImageJ arbeite? - Biologie

ThermImageJ - Wärmebildfunktionen und Makros für ImageJ

ThermImageJ ist eine Sammlung von ImageJ-Funktionen und -Makros, die den Import und die Konvertierung von Wärmebilddateien ermöglichen und das Extrahieren von Rohdaten aus Infrarot-Wärmebildern und deren Umwandlung in Temperaturen unter Verwendung von Standardgleichungen in der Thermografie unterstützen.

Mit diesen Makros können Sie die meisten FLIR-jpgs und -videos importieren und die Bilder in ImageJ verarbeiten.

ThermImageJ ist aus Thermimage (https://github.com/gtatters/Thermimage) hervorgegangen, letzteres ein R-Paket mit ähnlichen Tools, aber mehr Schwerpunkt auf der Analyse der biologischen Wärmeübertragung.

  • ThermImageJ wurde unter OSX entwickelt und mit ImageJ v1.52o getestet. Viele Funktionen erfordern die Installation von Befehlszeilentools, die zukünftige Herausforderungen auf verschiedenen Betriebssystemen darstellen können. Tests und Fehlerbehebungen sind im Gange, insbesondere in Windows. Bitte melden Sie Probleme hier: https://github.com/gtatters/ThermImageJ/issues, oder ziehen Sie eine Konvertierung auf Mac oder Linux in Betracht.
  • Glenn J. Tattersall. (2019). ThermImageJ: Wärmebildfunktionen und Makros für ImageJ. doi:10.5281/zenodo.2652896.

Externe Software-Downloads

  • FIJI ist nur ImageJ. Anleitung zum Herunterladen: https://imagej.net/Fiji/Downloads
  • Exiftool. (Die eigenständige ausführbare Datei wird empfohlen).
    • Installationsanweisungen: http://www.sno.phy.queensu.ca/
    • Anleitung herunterladen: https://ffmpeg.org/download.html
    • Wählen Sie „Pakete und ausführbare Dateien abrufen“, um eine einfache Installation zu ermöglichen, es sei denn, Sie möchten mit dem Quellcode arbeiten
    • Wählen Sie den statischen Build aus.
    • Installationsanleitung: https://www.perl.org/get.html
    • Anleitung herunterladen: https://imagej.nih.gov/ij/plugins/swapper.html

    ThermImageJ Downloads von dieser Github-Site

    Alle ThermImageJ-Dateien können ganz einfach als ZIP-Datei heruntergeladen werden, indem Sie auf das grüne klicken Klonen oder herunterladen drücken und dann auswählen ZIP herunterladen (https://github.com/gtatters/ThermImageJ/archive/master.zip) oder über die Aktuelle Veröffentlichungen (https://github.com/gtatters/ThermImageJ/releases) und die Auswahl der Quellcode Link für die neueste Version. Entpacken Sie diesen Ordner auf Ihrem Computer, um auf das Toolset, luts und die Dateien split.pl zuzugreifen, die sich in den entsprechenden Unterordnern befinden.

    Die primären Dateien, die Sie von dieser Site extrahieren müssen, sind:

    Ein benutzerdefiniertes Perl-Skript (split.pl), das in diesem Github-Repository bereitgestellt wird und das heruntergeladen und in einem Skriptordner mit ImageJ abgelegt werden kann: https://github.com/gtatters/ThermImageJ/tree/master/scripts/split.pl

    ThermImageJ-Makro-Toolset. Eine Textdatei (.ijm), die alle Makros und Funktionen enthält: https://github.com/gtatters/ThermImageJ/tree/master/toolsets/ThermImageJ.ijm

    Additional Look Up Tables (LUTS), die im Volksmund in der Wärmebildtechnik verwendet werden, sind in diesem Github-Repository verfügbar: https://github.com/gtatters/ThermImageJ/tree/master/luts

    • Installieren FIJI, exiftool, perl, und ffmpeg gemäß den Anweisungen auf der Website oben.
    • Beheben Sie Fehler oder führen Sie Installationsprüfungen durch (siehe nächster Abschnitt).
    • Start FIJI und befolgen Sie alle Aktualisierungsanweisungen.
    • Starten Sie FIJI–>Help–>Update, erlauben Sie es, alle Plug-Ins zu aktualisieren, und wählen Sie dann, während das Update-Fenster geöffnet ist, Update-Websites verwalten, und vergewissern Sie sich, dass das Kontrollkästchen FFMPEG aktiviert ist. Auswählen OK, dann klicke auf Anwenden Option, und starten Sie FIJI neu. Dieses FFMPEG-Plugin ist zum Importieren von während des Konvertierungsvorgangs erstellten AVI-Dateien erforderlich, obwohl es möglicherweise erforderlich ist, dass Sie FFMPEG in der Befehlszeile installiert haben.
    • Navigieren Sie zum Installationsort von FIJI, um alle Unterordner zu finden.
    • Laden Sie die . herunter ThermImageJ.ijm Datei von dieser Site und kopieren Sie sie in den Ordner FIJI/macros/toolsets.
    • Öffne das ThermImageJ.ijm Datei in einem beliebigen Texteditor und vergewissern Sie sich, dass die Pfade für Ihr jeweiliges Betriebssystem richtig eingestellt sind. Eine Anleitung finden Sie in den Kommentaren mit der Textdatei. Die meisten Standardspeicherorte sind wahrscheinlich in Ordnung, obwohl FFMPEG manchmal in verschiedenen Ordnern installiert wird, je nachdem, was der Benutzer möglicherweise ausgewählt hat.
    • Laden Sie das zusätzliche herunter luts Dateien von dieser Site und kopieren Sie sie in Ihren FIJI/luts-Ordner. Dies sind Paletten, die häufig in der Wärmebildtechnik verwendet werden.
    • Laden Sie das Perl-Skript herunter, split.pl von dieser Site und kopieren Sie sie in einen FIJI/scripts-Ordner.
    • Herunterladen Byte_Swapper.class in den Plugin-Ordner.
    • Starten Sie ImageJ neu.
    • Wenn alles erfolgreich war (siehe Überprüfungen unten), sollte das Toolset installiert und in Ihrem Plugin-Menü sichtbar sein.

    Überprüfen Sie, ob exiftool installiert ist, indem Sie ein Terminalfenster (oder eine Cmd-Eingabeaufforderung) starten und die folgenden Bash-Befehle eingeben:

    Wenn Sie eine Versionsnummer (wahrscheinlich > 10) und keinen Fehler sehen, ist exiftool ordnungsgemäß installiert. Die zweite Zeile zeigt Ihnen den Pfad zum Installationsort an.

    Stellen Sie sicher, dass auf Ihrem System keine Fehler aufgetreten sind, um sicherzustellen, dass Perl korrekt installiert ist.

    Überprüfen Sie, ob das Perl-Skript von Perl zugänglich ist (stellen Sie sicher, dass der richtige Pfad zur Datei split.pl auf Ihrem System angegeben ist):

    Sie sollten die folgende Warnmeldung sehen:

    "Fehler: Bitte geben Sie die Eingabedatei, den Ausgabeordner, die Basis des Ausgabedateinamens, das aufzuteilende Muster und die Ausgabedateierweiterung an."

    Dies ist ein guter Fehler und überprüft, ob das Perl-Skript dort installiert ist, wo Ihr Computer darauf zugreifen kann!

    „Perl-Skript kann nicht geöffnet werden“/Applications/Fiji.app/scripts/split.pl“: No such file or directory“

    Sie müssen den Speicherort des Skripts oder die Pfadinformationen oben in der Datei ThermImageJ.ijm erneut überprüfen.

    Machen Sie jetzt dasselbe für ffmpeg:

    Pfade zu Befehlszeilentools festlegen und überprüfen

    Sobald Sie alles oben genannte installiert und keine Fehler überprüft haben, können Sie die Verzeichnispfade in FIJI/ImageJ überprüfen oder ändern.

    Die Toolset-Datei ThermImageJ.ijm erkennt, ob Sie Mac OSX, Linux oder Windows verwenden und versucht, die entsprechenden Dateipfade automatisch zu definieren. Daher sollten Sie keine Parameter ändern müssen, aber es ist nützlich, den Prozess zu überprüfen und sich mit ihm vertraut zu machen oder alle erforderlichen Anpassungen für Ihre FIJI-Installation vorzunehmen.

    Navigieren Sie zur Toolset-Datei ThermImageJ.ijm und öffnen Sie sie mit einem Texteditor oder dem integrierten ImageJ-Makroeditor:

    Abhängig von Ihrem Betriebssystem oder der Installation von Systemdateien müssen Sie möglicherweise die spezifischen Pfade für Ihr jeweiliges System bearbeiten:

    Dies gilt auch für den Speicherort der Datei split.pl, die im Ordner scripts innerhalb des Ordners Fiji abgelegt werden sollte.

    ThermImageJ geht davon aus, dass Sie die Datei split.pl in einem Unterordner scripts abgelegt haben, in dem Fiji installiert ist, sodass Sie dies hoffentlich nicht ändern müssen:

    Einrichten von ThermImageJ-Makros in FIJI/ImageJ

    Sobald Sie alles oben genannte installiert und keine Fehler überprüft haben, können Sie die Makros in FIJI/ImageJ einrichten.

    Starten Sie FIJI, klicken Sie mit der linken Maustaste auf das Mehr-Tools-Menü, das ist die >> ganz rechts in der Menüleiste:

    Dadurch werden alle Toolsets im Ordner angezeigt. Klicke auf ThermImageJ um die vorhandenen Icons durch ThermImageJ-spezifische Icons / Makros zu ersetzen:

    Nach der Installation wird das Symbolleistenmenü mit neuen Symbolen gefüllt, die den primären ThermImageJ-Funktionen entsprechen:

    Nach der Installation sollte das Toolset auch die Plugin-Dropdown-Menü mit den gleichen und einigen zusätzlichen Makros, die seltener verwendet werden:

    Fühlen Sie sich frei, Ihre Version von ThermImageJ.ijm zu bearbeiten und wenn Sie sie kaputt machen, können Sie jederzeit eine neue herunterladen.

    Sie können es mit einem beliebigen Texteditor oder mit dem integrierten ImageJ-Texteditor bearbeiten, indem Sie Plugins–>Macros–>Edit auswählen und zum Ordner Fiji/macros/toolset navigieren und die ThermImageJ-Datei auswählen. Oder wählen Sie in ImageJ/Fiji bei gedrückter Umschalttaste das >> Link "Weitere Tools" und halten Sie die Umschalttaste gedrückt, klicken Sie auf ThermImageJ um die Datei im integrierten Texteditor zu öffnen.

    Wenn Sie Änderungen vornehmen und diese speichern, müssen Sie Fiji entweder neu starten oder die Toolset-Leiste wiederherstellen, indem Sie auf . klicken >> Link „Weitere Tools“, Auswahl Starttools wiederherstellen dann klicke auf >> Link „Weitere Tools“ und Auswahl ThermImageJ wieder.

    Hauptfunktionen und Merkmale

    Direkter Import von Rohdaten

    • Rohimport Mikron RTV
      • benutzerdefiniertes Makro zum Importieren eines alten Mikron Mikrospec R/T-Videoformats
      • Diese Dateien hatten eine einfache Kodierung und werden wahrscheinlich nicht mehr verwendet, außer vom Autor
      • siehe SampleFiles.zip für Beispieldaten
      • benutzerdefiniertes Makro zum Importieren von FLIR SEQ mit dem Befehl Import-Raw
      • nur verwenden, wenn Sie den genauen Offset-Byte-Start und die Anzahl der Bytes zwischen den Frames kennen (siehe Frame-Start-Byte-Makro unten).
      • dies funktioniert nur für bestimmte SEQ-Dateien (normalerweise diejenigen, die auf dem Computer aufgenommen wurden) und nur für Formate, bei denen das TIFF-Format dem Video zugrunde liegt.
      • siehe SampleFiles.zip für Beispieldaten
      • Dieses Makro durchsucht eine FLIR-Videodatei (SEQ) nach der Offset-Byte-Position „0200wwwwhhhh“, wobei wwww und hhhh die Bildbreite und -höhe in 16-Bit-Little-Endian-Hexadezimal sind.
      • Zum Beispiel das Magicbyte für eine 640x480 Kamera: 02008002e001“,“8002“ entspricht 640 und „e001“ entspricht 480.
      • Der Benutzer kann ein benutzerdefiniertes Magicbyte bereitstellen, sollte dies jedoch ansonsten leer lassen.
      • Die Funktion wird nur in Verbindung mit dem Raw Import FLIR SEQ Makro verwendet.
      • Die Funktion gibt beste Schätzungen für die Offset- und Lückenbytes zurück, die für die Verwendung mit dem Raw Import FLIR SEQ-Makro erforderlich sind, obwohl die Richtigkeit aufgrund von Abweichungen in der SEQ-Dateispeicherkonvention nicht garantiert wird.
      • Hinweis: Auf Unix-basierten Betriebssystemen ruft dieses Makro die xxd ausführbar und läuft schnell. Für Windows-Betriebssysteme muss Powershell Core 6 mit dem aktualisierten installiert werden Format-Hex Funktion und läuft langsam.

      Import (und Konvertierung) mit Befehlszeilenprogrammen

      • Konvertieren von FLIR JPG (nur aus dem Plugins->Macros-Menü)
        • Wählen Sie ein Kandidaten-JPG oder einen JPG-Ordner aus, und ein Aufruf des Befehlszeilentools exiftool wird ausgeführt, um die rohen binären 16-Bit-Pixeldaten zu extrahieren .
        • Anschließend kann der Benutzer diese 16-Bit-Graustufenbilder importieren und benutzerdefinierte Transformationen oder benutzerdefinierte Raw2Temp-Konvertierungen anwenden.
        • Einige Bilder können aufgrund von FLIR-Konventionen in umgekehrter Bytereihenfolge konvertiert werden. Diese können nach dem Import mit dem Byte Swapper Plugin behoben werden.
        • Wählen Sie einen JPG-Kandidaten aus, und ein Aufruf des Befehlszeilentools exiftool wird ausgeführt, um die rohen binären 16-Bit-Pixeldaten zu extrahieren, diese vorübergehend als Graustufen-Tif oder PNG zu speichern, diese Datei zu importieren und die Raw2Temp-Funktion mit aufzurufen die aus der FLIR JPG-Datei abgeleiteten Kalibrierkonstanten.
        • Importieren: Wählen Sie eine Kandidaten-SEQ-Datei aus, und ein Aufruf der Befehlszeilentools exiftool, perl split.pl und ffmpeg wird ausgeführt, um jede Videobilddatei (.fff) zu extrahieren, die nachfolgenden rohen binären 16-Bit-Pixeldaten zu extrahieren, speichern diese als eine Reihe von Graustufendateien und sortieren diese in eine .avi-Datei oder einen neuen Ordner mit png- oder tiff-Dateien. Die nachfolgende .avi-Datei wird mit dem Import-Movies (FFMPEG)-Importtool in ImageJ importiert.
        • jpegls als Ausgabevideocodec wird wegen seiner hohen Komprimierung, verlustfreien Qualität und Kompatibilität zwischen verschiedenen Betriebssystemversionen von FFMPEG empfohlen.
        • Diese Funktion funktioniert möglicherweise auch bei FCF-Dateitypen, wurde jedoch nicht gründlich getestet
        • Konvertieren: Diese Funktion kann auch verwendet werden, um das Video in einen Ordner mit PNG- oder TIFF-Dateien zu konvertieren, indem Sie anstelle von avi png oder tiff als Ausgabedateityp auswählen. Dateicodec wird ignoriert, wenn Sie diesen Ansatz wählen. Der Ordner wird automatisch nach der Videodatei ohne Erweiterung benannt. Daher wird SampleVid.seq in Dateien im Ordner namens SampleVid umgewandelt.
        • Importieren: Wählen Sie eine CSQ-Kandidatendatei aus, und ein Aufruf der Befehlszeilentools exiftool, perl split.pl und ffmpeg wird ausgeführt, um jede Videobilddatei (.fff) zu extrahieren, die nachfolgenden rohen binären 16-Bit-Pixeldaten zu extrahieren, speichern diese als eine Reihe von Graustufendateien und sortieren diese in eine .avi-Datei oder einen neuen Ordner mit png- oder tiff-Dateien. Die nachfolgende .avi-Datei wird mit dem Import-Movies (FFMPEG)-Importtool in ImageJ importiert.
          • jpegls als Ausgabevideocodec wird wegen seiner hohen Komprimierung, verlustfreien Qualität und Kompatibilität zwischen verschiedenen Betriebssystemversionen von FFMPEG empfohlen.

          Nachschlagetabellen und Anpassen von Farbbereichen

          • LUT (Thermal Palette Look Up Table)-Menü
            • für den schnellen Zugriff auf verschiedene Pseudofarbpaletten
            • Grautöne, Ironbow und Rainbow werden häufiger in der Wärmebildgebung verwendet
            • Auf die integrierten LUTs von ImageJ kann immer über das Image-Lookup Tables-Menü zugegriffen werden
            • Wählen Sie die nächste LUT in der Liste aller ImageJ-LUTs aus, einschließlich derjenigen in der Thermal-LUT-Liste
            • Wählen Sie die vorherige LUT in der Liste aus. Alle ImageJ-LUTs, einschließlich derer in der Thermal-LUT-Liste
            • invertieren Sie die Farbskala der LUT
            • das kann umgeschaltet werden
            • Einstellen der Min- und Max-Werte der Pseudofarbenskala
            • setze min gleich der niedrigsten gewünschten Temperatur auf der Nachschlagetabellenskala
            • setze max gleich der höchsten gewünschten Temperatur auf der Nachschlagetabellenskala
            • Verknüpfung zu ImageJs integrierter Analyse->Tools->Kalibrierungsleiste
            • Verwenden Sie dies nach der Temperaturumwandlung des Bildes
            • das Tool versucht, durch automatische Anpassung des Zoomfaktors einen Kalibrierbalken mit geeigneter Größe auszuwählen
            • Um dies dauerhaft auf einem Bild zu speichern, müssen Sie Ihr Bild duplizieren und/oder in das RGB-Format konvertieren (Image–>Type->RGB Color), dann die Überlagerung reduzieren (Image–>Overlay–>Flatten) und dann als TIFF oder PNG speichern. Hinweis: Die Auflösung des Textes auf der Kalibrierungsleiste hängt von Ihrer Bildgröße ab und kann bei kleinen Bildern nicht zufriedenstellend sein. Wenn ich eine Lösung dafür finde, werde ich sie implementieren.
            • Bild-Byte-Swap
              • Shortcut-Aufruf zum Byte Swapper-Plugin.
              • Da FLIR-Dateien manchmal in Little-Endian-Reihenfolge (tiff) und Big-Endian-Reihenfolge (png) gespeichert werden, ist eine Verknüpfung zu einem Pixel-Byte-Swap eine schnelle Möglichkeit, Dateien mit vertauschter Byte-Reihenfolge nach dem Importieren schnell zu reparieren
              • FLIR-Termine
                • Der Benutzer wählt eine FLIR-Kandidatendatei (jpg, seq, csq) aus, um das Datum/Uhrzeit-Original zurückzugeben. Verwenden Sie dies, um eine Datei schnell nach Aufnahmezeiten zu durchsuchen.
                • Wählen Sie eine FLIR-Kandidatendatei (jpg, seq, csq) aus, um die bei der Bildaufnahme gespeicherten Kalibrierungskonstanten und integrierten Objektparameter anzuzeigen. Normalerweise würde der Benutzer dann die Planck-Konstanten und Objektparameter im Raw2Temp-Makro verwenden.
                • Verwenden Sie diese Funktion für die ursprüngliche FLIR-Datei, wenn Sie ein 16-Bit-Graustufenbild der Rohdaten in einer separaten Datei haben und unter bestimmten Bedingungen in Temperatur umwandeln müssen.
                • Die Kalibrierkonstanten und Objektparameter werden für die spätere Verwendung der Raw2Temp-Funktion im Speicher gespeichert und sollten beim nächsten Neustart von ImageJ gespeichert werden. Geben Sie die Kalibrierungskonstanten für zukünftige Verwendungen ein.
                • Raw2Temp
                  • wandelt ein 16-Bit-Graustufen-Wärmebild (oder einen Bildstapel) unter Verwendung von Standardgleichungen, die in der Infrarotthermografie verwendet werden, in eine geschätzte Temperatur um.
                  • Der Benutzer muss die Kamerakalibrierungskonstanten, atmosphärischen Dämpfungskonstanten und Objektparameter angeben, die mit dem FLIR-Kalibrierungswerte-Makro erhalten werden können.
                  • verschiedene benutzerdefinierte Versionen von Raw2Temp sind für verschiedene Kameras enthalten, die der Autor verwendet hat, da sich die Kalibrierungskonstanten nicht von Bild zu Bild ändern und nur, wenn die Kamera zur Neukalibrierung an den Hersteller zurückgesendet wird. Bearbeiten Sie diese Makros, sobald die Kalibrierkonstanten für andere Kameras bekannt sind.
                  • a Fast- und Slow-Berechnung wurden jetzt implementiert (v 1.4.1).
                  • Die langsame Berechnung ist langsam, da sie die Datei in eine 32-Bit-Datei konvertiert und dann jedes Pixel in seine berechnete Temperatur umwandelt. Dies kann bei Videodateien einige Zeit in Anspruch nehmen und kann bei großen Dateien oder Computern mit wenig RAM zu viel sein.
                  • Die Fast-Berechnung implementiert eine eingebaute ImageJ-Funktion, die es uns ermöglicht, ein Polynom 4. Ordnung durch die Beziehung zwischen Temperatur und den 16-Bit-Rohdaten anzupassen und eine pseudo-konvertierte Datei mit Rohdaten und konvertierten Daten bereitzustellen, die im ImageJ-Status angezeigt werden Bar. Dies kann eine genaue Darstellung der Antwort sein oder auch nicht, obwohl ich dem Benutzer einen warnenden Rat zu den zurückgegebenen Zahlen gebe. Wenn Sie den Temperaturbereich zur Anpassung des Polynoms auf für die meisten biologischen Anwendungen vernünftige Werte beschränken, scheint der Fehler ziemlich gering zu sein, da das Polynom genau an die Daten passt. Vor allem im extrem niedrigen und oberen Temperaturbereich der Kamera ist die Passform schlecht. Für die Einzelbildanalyse empfehle ich Ihnen, die langsame (genaue) Konvertierung zu verwenden und die schnelle Konvertierung nur für große Videos in Betracht zu ziehen, bei denen ein Kompromiss zwischen CPU-Zeit und Genauigkeit wichtiger ist.

                  ROI-Tools (Region of Interest)

                  • ROI 1 bis ROI 6 (aus dem Plugins->Makros-Menü)
                    • Makros, die in Tastenkombinationen codiert sind, wie zum Beispiel: 1,2,3,4,5,6 durch Hinzufügen von [#] zum Namen des Makros in der Datei ThermImageJ.ijm
                    • es könnten einige zusätzliche ROI-Shortcuts (d.h. d, l) existieren, die ich für meine eigenen Analysen eingerichtet habe - Sie können diese Zeilen-ROIs ignorieren
                    • extrahiert Mittelwert, min, max, sd und Fläche des gegebenen ROI und speichert ihn im Ergebnisfenster sowie in einer ROI_Results.csv-Datei auf dem Desktop des Benutzers
                    • Der Speicherort der Datei ROI_Results.csv kann vom Benutzer geändert werden, indem die Variable desktopdir oben in der Datei ThermImageJ.ijm bearbeitet wird
                    • Beispielergebnisdatei: https://github.com/gtatters/ThermImageJ/blob/master/ROI_Results.csv
                    • Bearbeiten Sie ThermImageJ.ijm, um die Art der zu extrahierenden Ergebnisse zu ändern
                    • zusätzliche ROIs können der Toolset-Datei hinzugefügt werden
                    • entwickelt, um mit Einzelbildern oder Bildstapeln zu arbeiten
                    • Slice-Label und -Nummer werden in der Ergebnistabelle aufgezeichnet als:

                    • Extrahieren von ROI-Pixelwerten (Kurzform: p)
                      • extrahiert die ROI-Pixelwerte in eine Ergebnisfenstertabelle mit X,Y,Wertkoordinaten
                      • nützlich, wenn Sie nur Ihre ROI-Daten in eine andere Softwareumgebung übertragen möchten
                      • nützlich, wenn Sie verschiedene Analysen der Daten durchführen müssen
                      • basierend auf einem Makro von http://imagej.1557.x6.nabble.com/Extracts-individual-pixel-values-from-a-selection-or-RIO-td5020121.html
                      • fügt dem Bild das Ergebnis des ROI-Parameters als Überlagerung hinzu.
                      • funktioniert mit Stapeln oder Einzelbildern.
                      • ROI auf dem gesamten Stack
                        • führt eine ROI-Analyse über den gesamten Stack durch.
                        • Min, Max, Mittelwert, Median, Modus, Schiefe, Kurtosis für jeden Schnitt werden in das Ergebnisfenster und in eine Datei auf dem Desktop exportiert
                        • Wählen Sie aus, welche zusammenfassende Statistik eine diskrete Fourier-Analyse durchführen soll, um dominante Frequenzkomponenten zu extrahieren.
                        • Ich habe dies an oszillatorischen Daten getestet (Metronome sind so eingestellt, dass sie sich mit festen Geschwindigkeiten bewegen) und die extrahierten Fourier-Frequenzen scheinen korrekt zu funktionieren
                        • Diese Funktion arbeitet mit Stapeln, indem zuerst die Differenz der Pixelwerte zwischen den Frames subtrahiert wird, wodurch ein Absolutwertdifferenzstapel mit einer Länge von n-1 Frames erstellt wird.
                        • Dann werden alle Pixel aus jedem Frame auf den Mittelwert und die Standardabweichung pro Frame untersucht, die im Ergebnisfenster gespeichert werden, wonach ein kumulativer Wert berechnet wird.
                        • Dieser kumulative absolute Differenzwert wird dann trendbereinigt und auf Null gesetzt, um den Mittelwert-Offset vor einer diskreten Fourier-Analyse zu entfernen, um Frequenzkomponenten zurückzugeben.
                        • Der Benutzer sollte das Zeitintervall in Sekunden für den Bildstapel angeben.

                        Konvertierte JPG in rohes 16-Bit-PNG oder TIFF-Workflow

                        • Bestimmen Sie die Kalibrierungskonstanten Ihrer FLIR-Kamera (d. h. verwenden Sie das Kalibrierungswerte-Tool)
                        • Bild in eine 16-Bit-Graustufendatei konvertieren (d. h. FLIR JPG konvertieren)
                        • Importieren Sie die konvertierte Datei in ImageJ mit der normalen ImageJ-Dateierkennung. File->Open oder File->Import Image Sequence kann mit PNG- und TIFF-Dateien arbeiten.
                        • Möglicherweise möchten Sie lieber mit TIFF-Dateien arbeiten, aber der von diesen Makros erstellte Dateityp hängt davon ab, wie die Rohdaten von FLIR gespeichert wurden (PNG oder TIFF). In diesem Fall können Sie das Batch-Konvertierungstool von ImageJ verwenden, um Ihre Dateien zu konvertieren, bevor Sie sie importieren.
                        • Führen Sie das Makro FLIR-Kalibrierungswerte in der ursprünglichen FLIR-Datei aus, um die Kalibrierungskonstanten in den Speicher zu extrahieren
                        • Führen Sie Raw2Temp oder eines der benutzerdefinierten Raw2Temp-Makros für Ihre spezielle Kamera aus
                        • Wählen Sie Ihre Palette (LUT in ImageJ)
                        • Verwenden Sie ImageJ ROI-Tools und Messtools
                        • Verwenden Sie das Tool JPG importieren, das die Datei nach Kalibrierungskonstanten durchsucht, das rohe Wärmebild extrahiert, dieses in eine PNG- oder TIFF-Datei konvertiert und automatisch öffnet.
                        • Überprüfen Sie das geöffnete Bild, die Kalibrierungskonstanten und die Objektparameter, um sicherzustellen, dass diese Werte für Ihre Anwendung geeignet sind.
                        • Wählen Sie Ihre Palette (LUT in ImageJ)
                        • Verwenden Sie ImageJ ROI-Tools und Messtools
                        • Verwenden Sie die Funktionen Import SEQ oder Import CSQ, die die Datei scannen, um Kalibrierungskonstanten vor dem Import zu bestimmen
                        • Wählen Sie die Videoimportoption und jpegls als Codec (d. h. die Standardeinstellungen) Dies hält die Dateigröße so klein wie möglich und bewahrt die Kompatibilität mit der ImageJ FFMPEG-Implementierung
                        • Die Makros Import SEQ und Import CSQ versuchen automatisch, die Temperatur zu berechnen
                        • Nachdem die Datei konvertiert und importiert wurde, überprüfen Sie, ob die Kalibrierungskonstanten und Objektparameter richtig sind, und wählen Sie OK. Wenn Sie zu diesem Zeitpunkt entkommen, sollten Sie immer noch einen 16-Bit-Graustufenbildstapel haben und die Raw2Temp-Funktion später ausführen können
                        • Stellen Sie zuerst die Parameter ein, die Sie extrahieren möchten, im Menü Analyze->Set Measurements.
                        • Typische Werte sind Min, Max, Mittelwert, Modal, Median, Standardabweichung, aber ImageJ bietet noch so viele andere Werte.
                        • In der ImageJ-Terminologie entspricht „Intensität“ oder „Grauwert“ der in jedem Pixel gespeicherten Zahl. Dies kann der 16-Bit-Rohwert oder die 32-Bit-Dezimal-umgerechnete Temperatur sein, je nachdem, wann die Analyse durchgeführt wird.
                        • Nutzen Sie alle ROI-Tools von ImageJ oder den Tools->ROI-Manager, um interessante Regionen über interessante Websites zu zeichnen.
                        • Oder verwenden Sie die ROI 1-6-Makros, die wie oben im Dokument beschrieben enthalten sind.

                        Sehen Sie sich diesen Screenshot an, der die grundlegenden Installationsschritte vorstellt. https://youtu.be/8SXhzOlsmKI

                        Videoanleitung: Funktionsdemonstration

                        Sehen Sie sich diesen Screenshot an, der die grundlegenden Funktionen demonstriert: https://youtu.be/5XYZw0kqX64

                        Leistung, Geschwindigkeit, Dateigrößenbeschränkungen und Vorbehalte

                        • Die maximale Anzahl an Videoframes (d. h. Stapel) wird durch die CPU und den RAM begrenzt, aber Erfolg mit Videos und Bildstapeln von bis zu

                        Die derzeit unterstützten radiometrischen Dateitypen sind hauptsächlich diejenigen von FLIR, jedoch könnten in Zukunft bestimmte Dateitypen verwendet werden, die in ImageJ importiert werden können, abhängig von den Informationen von Benutzern. Die Entschlüsselung der Ansätze zur radiometrischen Datenspeicherung nimmt Zeit in Anspruch und erfordert Beispieldateien.

                        Eine Diskussion über die babylonische Natur von Wärmebilddateitypen und Strategien, die von Wärmebildkameraherstellern verwendet werden, finden Sie unter https://www.irinfo.org/04-01-2006-colbert/

                        Die folgenden Open-Source-Programme waren entscheidend für die Entwicklung von ThermImageJ.

                        ImageJ Macro Development erfolgte in Verbindung mit:

                        Die Entwicklung der Befehlszeile erfolgte in Verbindung mit:

                        Die Entwicklung von Raw2Temp erfolgte in Verbindung mit:

                        Verbesserungs- und Ergänzungsvorschläge, sowie Bugs oder Issues können hier eingereicht werden: https://github.com/gtatters/ThermImageJ/issues

                        Bitte fügen Sie ein Beispielbild bei, um bei der Lösung von Problemen zu helfen

                        Bitte markieren Sie diese Github-Site oder folgen Sie dieser, um über neue Versionen auf dem Laufenden zu bleiben, während ich nach weiteren Tests Fehler behebe.

                        ThermImageJ wird noch in Arbeit bleiben, da ich Funktionen hinzufüge, die für mich nützlich sind, aber für andere Benutzer möglicherweise nicht ohne weiteres erkennbar sind. Gelegentliche seltsame Abkürzungen, die vorhanden sind, sind wahrscheinlich das Ergebnis eines Projekts, an dem ich gerade arbeite.

                        Hinweis: Ich habe keine Verbindung zu Wärmebildunternehmen und erhalte trotz der Vielzahl von Kunden, die ich ihnen geschickt habe, keine Förderung oder kostenlose Ausrüstung. Dieses Projekt entstand aus der Frustration, nur Windows-Software verwenden zu müssen, die nur begrenzte Journaling- und Anpassungsmöglichkeiten bietet. Ich sollte anerkennen, dass FLIR im Juli 2019 eine erschwinglichere plattformübergreifende Analysesoftware veröffentlicht hat, in die einige Benutzer möglicherweise lieber investieren als in diese Open-Source-Lösung. Es wäre unfair von mir, Ihnen nicht zu empfehlen, zuerst ihre Software auszuprobieren, da sie die Experten sind.


                        Verwenden Sie die Wissenschaftssoftware ImageJ, um Ihre Fotos und Videos zu transformieren

                        Bob Goldstein ist Zellbiologe an der University of North Carolina in Chapel Hill und schreibt gelegentlich für das Make-Magazin.

                        • Facebook
                        • Mögen
                        • Twitter
                        • Pinterest
                        • LinkedIn
                        • Digg
                        • Del
                        • Tumblr
                        • VKontakte
                        • Drucken
                        • Email
                        • Flattr
                        • Reddit
                        • Puffer
                        • Liebe das
                        • Weibo
                        • Tasche
                        • Xing
                        • Odnoklassniki
                        • WhatsApp
                        • Meneam
                        • Blogger
                        • Amazonas
                        • Yahoo Mail
                        • Google Mail
                        • AOL
                        • Nachrichtenrebe
                        • HackerNews
                        • Evernote
                        • Mein Platz
                        • Mail.ru
                        • Viadeo
                        • Leitung
                        • Flipboard
                        • Kommentare
                        • Lecker
                        • SMS
                        • Viber
                        • Telegramm
                        • Abonnieren
                        • Skype
                        • Facebook Messenger
                        • Kakao
                        • LiveJournal
                        • Jammern
                        • Edgar
                        • Fintel
                        • Mischen
                        • Instapapier
                        • Link kopieren

                        Anmerkung der Redaktion: Dies ist ein Update aus dem Jahr 2018 zu einem Artikel, den Bob für das Make-Magazin, Band 27, Juli 2011 geschrieben hat

                        ImageJ ist ein frei verfügbares Programm zum Bearbeiten von Bildern und Videos. Es wurde für Wissenschaftler für Bilder gemacht, die mit Mikroskopen gemacht wurden, aber es steht jedem zur Verfügung. Und es steht jedem frei, dem Programm neue Funktionen hinzuzufügen. Infolgedessen verbessert es sich ständig durch Beiträge der programmierkundigeren unter seinen Benutzern. In diesem Sinne ist ImageJ eine großartige Ressource für Bilder und Videos, ähnlich wie der Open-Source-Browser Firefox für das Surfen im Internet oder Wikipedia für Informationen: Jeder funktioniert auf fast jedem Computer und jeder kann sie verbessern. Aber ImageJ ist außerhalb der Wissenschaft noch nicht bekannt.

                        Als Wissenschaftler und Fan des kreativen Bastelns dachte ich, es würde Spaß machen zu sehen, was passieren könnte, wenn Make-Lesern einige der Tricks vorgestellt würden, die ImageJ ausführen kann. Wenn Sie ein paar Bilder oder ein kurzes Video mit einer Digitalkamera oder einer Webcam erstellt haben, können Sie damit rechnen, diese wie in den folgenden Beispielen innerhalb von etwa 20 Minuten zu transformieren.

                        Woher ImageJ kam

                        ImageJ wurde von einem Mitarbeiter des US National Institutes of Health, dem Programmierer Wayne Rasband, für biomedizinische Forscher geschrieben. Es basiert auf Java und funktioniert daher auf PCs, Macs und Linux-Computern. Rasband entwarf ImageJ mit einer offenen Architektur: Jeder konnte Plugins schreiben, um dem Programm neue Tricks hinzuzufügen.

                        ImageJ wurde erstmals 1997 veröffentlicht, in der alten Computer-Ära vor Google. Anstatt im Laufe der Jahre an Popularität zu verlieren, macht es seine offene Architektur zu einem immer wertvolleren Werkzeug für die Wissenschaft. Ich wollte wissen, ob Rasband schon 1997 das Potenzial einer offenen Architektur vorhergesehen hat, also habe ich ihm eine E-Mail geschickt. “Ich habe immer gerne gesehen, wie andere Leute die Software benutzen, die ich geschrieben habe”, schrieb Rasband, “und ich habe den Quellcode immer frei zur Verfügung gestellt. Ich entdeckte, wenn ich leicht erweiterbare Software erstellte und den Quellcode verschenke, dann würde ich Codebeiträge von der Benutzergemeinschaft zurückbekommen.”

                        Was es kann

                        ImageJ ist nützlich, um Bilder mit Filtern zu bearbeiten, die denen ähnlich sind, die man in Programmen wie Photoshop findet. Mit Hunderten von verfügbaren Plugins gibt es Hunderte von Tricks, die Sie ausprobieren können. Meine eigenen Lieblingstricks sind diejenigen, die ein Video, das Sie erstellt haben, transformieren können, indem Sie Bewegungen aus dem Video in einem einzelnen Bild anzeigen. Ich verwende ImageJ auch gerne, um Bilder zu rechnen – zum Beispiel, indem ich zwei Bilder durch einfaches Hinzufügen von Pixelintensitäten kombiniere.

                        Loslegen

                        Laden Sie zunächst die ImageJ-Anwendung herunter und fügen Sie einige nützliche Plug-Ins hinzu:

                        1. Bild herunterladenJ
                          Laden Sie zunächst ImageJ von der Fiji-Site herunter. Fiji ist nur eine Version von ImageJ mit einer Reihe von bereits enthaltenen Plugins und einer automatischen Update-Funktion, damit Ihre Kopie von ImageJ mit nützlichen Änderungen auf dem neuesten Stand bleibt. Wenn Sie einen Mac verwenden, legen Sie Fiji in Ihren Anwendungsordner.
                        2. Fügen Sie einige zusätzliche Plug-Ins hinzu
                          Es gibt viele Plugins, die Sie hinzufügen können, mit verwirrenden Namen wie Point Picker, Spectrum Extractor und Lipschitz Filter. Im Moment empfehle ich, nur einen nützlichen Satz von Plugins hinzuzufügen, von denen Sie einige in den folgenden Beispielen verwenden werden paar Seiten. Dieses Set heißt “Cookbook” und kann mit dieser Anleitung einfach hochgeladen werden. Die Cookbook-Plugins erscheinen unter einem neuen Pulldown (am oberen Bildschirmrand) namens “Cookbook”.

                        Folgen Sie mit und probieren Sie die folgenden Beispiele mit Ihren eigenen Bildern aus

                        Auf den nächsten Seiten zeige ich einige Bilder, die ich mit ImageJ erstellt habe, zusammen mit einer kurzen Beschreibung jedes Bildes, damit Sie sich ein Bild davon machen können, wie jedes Bild erstellt wurde.

                        In Kursivschrift unter jedem Beispiel finden Sie für jedes dieser Beispiele eine detaillierte Schritt-für-Schritt-Anleitung zum “Anklicken”-Protokoll, damit Sie ähnliche Dinge mit Ihren eigenen Fotos und Videos versuchen können. Sie können die Beispiele zunächst mit kleinen Bildern und sehr kurzen Videos ausprobieren und möglicherweise Graustufenbilder und -videos verwenden (oder sie bei Aufforderung in Graustufen oder 8-Bit-RGB konvertieren), da jeder Schritt umso länger wird, je größer Ihre Dateien sind nehmen.

                        1. Bildrechner

                        Das Tool Image Calculator kann Bilder mit einfacher Mathematik auf verschiedene Weise kombinieren, beispielsweise durch Addieren, Subtrahieren oder Mitteln der Farben jedes Pixels. Zur Veranschaulichung hat das Pixel in den oben gezeigten Bildern in der unteren linken Ecke des Schneeflockenbildes eine Farbe, die in RGB als 12,6,10 kodiert ist, was bedeutet, dass Rot auf 12 und Grün auf 6 eingestellt ist , und Blau auf 10 gesetzt. Diese Zahlen sind aus 255, wobei 0 dunkel und 255 hell ist. Eine Pixelfarbe von 12,6,10 — alle niedrigen Zahlen von 255 — bedeutet, dass es ein ziemlich dunkles Pixel ist. Das Pixel an der entsprechenden Position im Lincoln-Foto hat die Farbe 70,54,42. Das Ergebnis der Mittelwertbildung dieser beiden? Ein Pixel mit der Farbe 41,30,26: genau der Durchschnitt zwischen den beiden Zahlensätzen. Der Bildrechner behandelt jedes Pixel auf diese Weise.

                        Dies kann ein leistungsstarkes Werkzeug sein, um Bilder auf vorhersehbare Weise zu kombinieren. Was würde passieren, wenn Sie den Unterschied zwischen zwei nahezu identischen Fotos anzeigen würden?

                        Wenn Sie den Bildrechner ausprobieren, werden Sie feststellen, dass das Addieren, Subtrahieren und Mitteln nur einige von mehreren Möglichkeiten zum Kombinieren von Bildern sind.

                        Klicken Sie auf DATEI / ÖFFNEN und wählen Sie ein Bild auf Ihrem Computer aus und wiederholen Sie den Vorgang, um ein zweites Bild zu öffnen. Klicken Sie dann auf VERARBEITEN / BILDRECHNER, wählen Sie jeden Ihrer Bildnamen aus und wählen Sie dann eine Operation wie HINZUFÜGEN, MITTELWERT oder UNTERSCHIED, um die Bilder zu kombinieren.

                        2. Stapel projizieren

                        Hier habe ich während eines Gewitters ein kurzes Video aufgenommen. Dieser Blitz brauchte ungefähr eine Sekunde, um den Himmel zu überqueren. Auf dem Video waren verschiedene Teile des Blitzes in separaten Frames des Videos zu sehen (die 10 Frames oben im Bild unten). Um zu sehen, wie der gesamte Blitz aussah, habe ich das Licht in Bild 1 zu dem Licht in Bild 2, Bild 3 usw. hinzugefügt. Dazu habe ich das Video in ImageJ geöffnet und ein Tool namens Z Project verwendet, um ein einzelnes Bild zu erstellen.

                        Die Kamera wurde während des kurzen Videos vollkommen still gelassen, sie saß auf einem Stuhl statt in meiner sich bewegenden Hand. Dies erwies sich als wichtig: Die Bilder waren im endgültigen projizierten Bild gut ausgerichtet, aber nicht, wenn sich die Kamera bewegte.

                        Unter DATEI / IMPORT werden mehrere Möglichkeiten zum Öffnen von Dateien unterschiedlicher Formate angezeigt, aber es gibt eine einfachere Möglichkeit: Die meisten Dateien können einfach per Drag & Drop auf die Werkzeugsymbolleiste geöffnet werden. Bevor Sie eine Videodatei öffnen, möchten Sie jedoch möglicherweise ein Videobearbeitungsprogramm verwenden, um Ihr Video auf eine kurze Länge zu trimmen. ImageJ kann ein Video mit einigen hundert Bildern verarbeiten, aber das Pauken in längeren Videos kann das Programm verlangsamen oder zum Absturz bringen. Wenn Sie Ihr Video öffnen, wird Ihnen die Option angeboten, es in 8-Bit-Graustufen oder RGB zu konvertieren und den “virtuellen Stapel” zu verwenden, anstatt Ihr gesamtes Video in den Speicher zu laden. Wenn Sie diese Dinge tun, werden die folgenden Schritte schneller.

                        iPhones speichern Filme leider in einem Format, das ImageJ nicht verwenden kann, daher müssen Sie diese zuerst mit einem Tool wie der Video 2 Photo iPhone App oder Quicktime Pro in Sequenzen einzelner Fotos konvertieren. Dann können Sie Ihren Fotoordner öffnen, indem Sie auf DATEI / IMPORT / BILDSEQUENZ klicken.

                        Sobald Ihr Video in ImageJ geöffnet ist, klicken Sie darauf, um es auszuwählen. Sie können es mit den Tasten < und > durchblättern. Klicken Sie dann auf IMAGE / STACKS / Z PROJECT und wählen Sie MAX INTENSITY, um die hellsten Pixel aus jedem Frame zu einem einzelnen Bild zu summieren.

                        Die Montage oben in diesem Beispiel wurde ebenfalls mit einem ImageJ-Tool erstellt. Klicken Sie erneut auf Ihr Video und dann auf BILD / STAPEL / MONTAGE ERSTELLEN, um eine Montage zu erstellen.

                        3. Projektion eines Stapels mit einem dunklen Motiv

                        Dieses Bild wurde ähnlich wie das letzte aufgenommen, außer dass das Motiv hier dunkler war als der Hintergrund. Das hier als Quelle verwendete Video wurde von einer Kamera aufgenommen, die still gelassen wurde und auf den Himmel zeigte, während Vögel darüber flogen. Dann wurde ein kurzes 2 Sekunden langes Segment des Videos mit einer Länge von etwa 30 Bildern in ImageJ projiziert.

                        Öffnen Sie Ihr Video, indem Sie entweder ein Video auf die ImageJ/Fiji-Symbolleiste ziehen oder eine Bildsequenz mit DATEI / IMPORT / BILDSEQUENZ öffnen. Klicken Sie dann auf Ihr Videofenster, um es auszuwählen, klicken Sie auf BILD / STACKS / Z-PROJEKT und wählen Sie MIN. INTENSITÄT (diesmal anstelle von MAX), um die dunkelsten Pixel aus jedem Bild zu addieren.

                        4. Hervorheben von Objekten, die sich bewegen

                        Wir haben ein Zeitraffervideo von sich bewegenden mexikanischen Springbohnen gemacht und dann versucht, die Pfade der beweglichen Bohnen hervorzuheben. In der folgenden Abbildung sind einige Möglichkeiten zur Anzeige der Pfade dargestellt. Das Bild oben rechts zeigt denselben Trick, den wir im vorherigen Beispiel verwendet haben. Unten links ist der gleiche Trick, aber wählen Sie “STANDARD DEVIATION” anstelle von “MIN INTENSITY”. Dieser Trick führt dazu, dass bewegte Objekte, die lange anhalten, am hellsten erscheinen. Das Kombinieren der resultierenden Bilder mit dem Bildrechner (wie in Beispiel 1 oben) kann ebenfalls interessante Effekte erzielen.

                        Im Folgenden beschreibe ich, wie Sie einfach von jedem Frame alles subtrahieren, was sich auch auf dem vorherigen Frame befand, sodass Pixel, die sich im Laufe der Zeit nicht ändern, schwarz erscheinen und diejenigen, die sich im Laufe der Zeit ändern, in helleren Schattierungen erscheinen (das untere rechte Bild). .

                        Schließen Sie alle Fenster, die Sie in Fidschi geöffnet haben. Öffnen Sie dann Ihr Video, indem Sie entweder ein Video auf die ImageJ/Fiji-Symbolleiste ziehen oder eine Bildsequenz mit DATEI / IMPORT / BILDSEQUENZ öffnen. Wenn die Option „in 8-Bit-Graustufen konvertieren“ angezeigt wird, klicken Sie auf das Kästchen, um dies zu akzeptieren. Ich empfehle, diesmal nicht die Option für den virtuellen Stapel zu wählen. Klicken Sie dann auf das Video, um es auszuwählen, und erstellen Sie ein zweites Video, das nur die sich bewegenden Objekte zeigt, indem Sie auf COOKBOOK / T-FUNCTIONS / DELTA F UP klicken (“Cookbook” ist der Satz von Plugins, die Sie in Fidschi installiert haben, indem Sie den Anweisungen folgen im Abschnitt “Erste Schritte” oben).

                        5. Farbcodierungszeit

                        Meine Kinder und ich haben einen Zeitrafferfilm von den Sternen gemacht, die von der Abenddämmerung bis zum Morgengrauen über unseren Garten ziehen. (Um den Film zu machen, haben wir eine Canon Point-and-Shoot-Kamera verwendet, die mit der Open-Source-CHDK-Software gehackt wurde, um Langzeitbelichtungszeitrafferaufnahmen zu machen. Die NightCap iPhone-App ist auch für die Verwendung eines Smartphones geeignet). Dann haben wir ImageJ verwendet, um einen Schwarzweißfilm nur von den sich bewegenden Objekten zu machen. Dann wurde der Film mit Farbe zeitcodiert. Zuletzt wurden alle farbigen Rahmen übereinander auf ein einziges Bild projiziert. Im endgültigen Bild entspricht Farbe der Zeit: Lila ist kurz nach Sonnenuntergang und Orange/Gelb ist später, kurz vor Sonnenaufgang. Die Wolken erschienen beispielsweise kurz vor Sonnenaufgang, sodass sie orange erscheinen. Die Sterne gingen die ganze Nacht vorbei, also waren sie in mehreren Farben.

                        In diesem Beispiel wurden mehrere Plugins verwendet, aber es waren wirklich nur wenige Klicks in ImageJ erforderlich. Öffnen Sie Ihr Video, indem Sie entweder ein Video auf die ImageJ/Fiji-Symbolleiste ziehen oder eine Bildsequenz mit DATEI / IMPORT / BILDSEQUENZ öffnen. Wenn die Option „in 8-Bit-Graustufen konvertieren“ angezeigt wird, klicken Sie auf das Kästchen, um dies zu akzeptieren. Klicken Sie dann auf das Video, um es auszuwählen, und erstellen Sie ein zweites Video, das nur die sich bewegenden Objekte zeigt, indem Sie auf KOCHBUCH / T-FUNKTIONEN / DELTA F UP klicken. Klicken Sie dann zur Farbcodierung der Zeit auf KOCHBUCH / Z-FUNKTIONEN / Z CODE STACK. Sie können aus einer Reihe von Farbschemata wählen. Klicken Sie nun auf IMAGE / STACKS / Z PROJECT… und wählen Sie MAX INTENSITY, um die hellsten Pixel aus jedem Frame zu addieren.

                        6. Kymographen

                        Meine Söhne und ich fanden ein Rotkehlchennest in unserem Haus, und wir waren fasziniert, einen Blick darauf zu werfen. Also haben wir eine Webcam aufgebaut und das Nest beobachtet. An einem Tag haben wir eine ganztägige Zeitrafferaufnahme gemacht. Die Mutter saß den ganzen Tag auf den Eiern und ging regelmäßig zum Essen. Wir waren neugierig, ob es irgendwelche Muster im Timing ihrer Fahrten gab, also erstellten wir einen Kymographen – einen Graphen, der bestimmte Positionen im Zeitverlauf anzeigt. Hier lagen die gewählten Positionen unter einer dünnen Linie, die die Eier kreuzte.

                        Im Kymographen unten ist oben die Zeit eingezeichnet, die von morgens links bis abends rechts läuft. Wenn das Blau der Eier in den vertikalen Streifen zu sehen ist, war die Vogelmutter aus dem Nest. Wir hatten online gelesen, dass Rotkehlchen ihre Nester nie länger als 10-15 Minuten am Stück verlassen, aber es sieht so aus, als ob sie gegen 11:40 Uhr ein langes Mittagessen eingenommen hätte. Kurz vor 19 Uhr wurde es dunkel.

                        Öffnen Sie Ihr Video, indem Sie entweder ein Video auf die ImageJ/Fiji-Symbolleiste ziehen oder eine Bildsequenz mit DATEI / IMPORT / BILDSEQUENZ öffnen. Wählen Sie dann das gerade Linienwerkzeug aus der Reihe der Werkzeugsymbole aus und klicken und ziehen Sie, um eine Linie über einen interessierenden Bereich im Video zu ziehen. Klicken Sie auf IMAGE / STACKS / RESLICE, um zu sehen, was im Laufe der Zeit unter dieser Zeile passiert ist. Wenn Sie mehr als nur eine dünne Linie aufnehmen möchten, wählen Sie anstelle des geraden Linienwerkzeugs das Rechteckwerkzeug aus der Reihe der Werkzeugsymbole aus und klicken und ziehen Sie, um ein Rechteck über einem interessierenden Bereich im Video zu zeichnen. Klicken Sie auf BILD / STAPEL / RESLICE und dann auf BILD / STAPEL / Z-PROJEKT. Ihr Kymograph wird vertikal angezeigt, wobei die Zeit von oben nach unten läuft.

                        7. Nehmen Sie Ihre Pixel aus ImageJ heraus und behandeln Sie sie mit Ihrer eigenen Mathematik

                        Sie können die Pixelwerte aus Ihrem Bild extrahieren und versuchen, sie selbst zu transformieren, wenn Sie mit einem Tabellenkalkulationsprogramm wie Microsoft Excel vertraut sind. Es ist interessant zu sehen, wie Merkmale wie der lokale Kontrast auf diese Weise hervorgehoben werden können. Um dies zu veranschaulichen, habe ich unten ein 50吮-Pixel-Bild einer Eichel (A) verwendet und mehrere Versionen des Originalbilds mit einfachen Formeln in Excel generiert. B ist eine Graustufenversion von A. In C wurde das Bild verschwommen, indem der Durchschnitt jedes Pixels mit dem seiner Nachbarn berechnet wurde. In D werden Bereiche mit hohem Kontrast hervorgehoben, nachdem der Wert jedes Pixels mit seinen Nachbarn verglichen wurde. In E werden nur die Bereiche mit hohem Kontrast angezeigt. In F wird der Kontrast in jedem Bereich in kontinuierliche Graustufen umgewandelt. Und in G wurden die Graustufen in F mithilfe einer Lookup-Tabelle in ImageJ in Farben umgewandelt.

                        Ich empfehle Ihnen, dies an einem winzigen Bild mit etwa 50吮 Pixeln auszuprobieren, da einige der folgenden Schritte bei größeren Bildern in Excel oder anderen Tabellenkalkulationsprogrammen nur sehr langsam funktionieren. Konvertieren Sie dann Ihr Bild in Graustufen, indem Sie auf BILD / TYP / 8_BIT klicken. Anschließend speichern Sie das Bild mit DATEI / SPEICHERN UNTER / TEXTBILD. Dies erzeugt eine Textdatei, die Sie dann mit einem Tabellenkalkulationsprogramm wie Microsoft Excel öffnen können.

                        In der Tabelle sehen Sie eine Reihe von Zahlen, die jeweils den Pixelwert eines einzelnen Pixels in einer Graustufenversion Ihres Bildes darstellen. Ich habe im Beispiel unten ein 50吮-Pixel-Bild einer Eichel (A) verwendet. Ich habe es wie oben beschrieben in Excel geöffnet, einige Dinge ausprobiert, um dieses Zahlenarray zu transformieren, und dann, um zu sehen, welches Bild die neuen Zahlen erzeugen würden, habe ich diese Zellen zurück in einen Texteditor kopiert (ich habe TextWrangler für Mac verwendet, aber geladen). von anderen sind verfügbar). Ich habe diese Datei mit einem Dateinamen gefolgt von .txt gespeichert und diese Datei in ImageJ geöffnet, indem ich auf DATEI / IMPORTIEREN / TEXTBILD geklickt habe. Es entstand ein Graustufenbild der Eichel (B). Dann ging ich zurück zur Excel-Datei und versuchte, mit dem Zahlensatz herumzuspielen. Eine Excel-Datei mit jeder der Transformationen in C-F ist hier verfügbar. Wenn Sie ein Graustufenbild einfärben möchten, können Sie es in ImageJ öffnen, auf BILD / NACHSCHLAGTABELLE klicken und ein Farbschema auswählen.

                        Abbildung 7: Bild einer Eichel, die auf verschiedene Weise transformiert wurde

                        Experimentieren und Spaß haben

                        Nachdem Sie das Programm heruntergeladen haben, kann es interessant sein, ein Foto zu öffnen oder ein Video zu importieren, das Sie aufgenommen haben, und zu klicken, um zu sehen, was die verschiedenen Schaltflächen bewirken. Für diejenigen, die einen systematischeren Einstieg bevorzugen, gibt es hier oder hier Anleitungen.

                        Falls Sie jemals weitere Plugins ausprobieren möchten, finden Sie hier einen Link zu einer großen Auswahl an Plugins. Ein Plugin, das mir besonders gut gefällt, ist “Running Z-Projektor”.

                        Um eines dieser Plugins hinzuzufügen, laden Sie es zuerst auf Ihren Computer herunter. Wenn Sie einen Mac verwenden und Ihnen mitgeteilt wird, dass die Dateien nicht geöffnet werden können, weil sie von einem unbekannten Entwickler stammen, können Sie dies umgehen, indem Sie die Systemeinstellungen Ihres Macs öffnen, dann Sicherheit und Datenschutz öffnen, und Sie werden sehen Sie die Schaltfläche “Trotzdem öffnen”. Öffnen Sie dann Fiji, klicken Sie auf PLUGINS, dann auf INSTALLIEREN… und wählen Sie die heruntergeladene Datei aus.

                        Tragen Sie selbst zur Wissenschaft bei!

                        Macher und Wissenschaftler bilden beide kreative Gemeinschaften und Gemeinschaften, die wahrscheinlich ein oder zwei Dinge voneinander lernen könnten. Wenn Sie programmieren können und eine interessante Möglichkeit sehen, Bilder anzuzeigen, die noch keine vorhandenen Plugins können, warum dann nicht ein neues Plugin schreiben? Es gibt bereits Hunderte von Plugins, aber jedes Jahr kommen großartige neue Plugins hinzu, und die besten Plugins müssen wahrscheinlich noch geschrieben werden. Hier finden Sie eine Übersicht über das Erstellen neuer Plugins.

                        Wer wird Ihr Plug-in verwenden und zu welchen wissenschaftlichen Erkenntnissen könnte es beitragen? Artikel aus der biomedizinischen Forschung werden zunehmend in voller Form online gefunden. Suchen Sie also in den Monaten bis Jahren nach dem Einreichen eines Plugins online nach dem Namen Ihres Plugins, um herauszufinden, wie es zur Wissenschaft beiträgt.


                        Einführung in digitale Bilder

                        00:00:11.07 Ich bin Kurt Thorn vom Nikon Imaging Center at
                        00:00:13.21 UCSF, und heute werde ich über digitale Bilder sprechen
                        00:00:17.00 Analyse. Und dies ist Teil eins einer zweiteiligen Vorlesungsreihe.
                        00:00:20.28 Und in diesem Teil werde ich hauptsächlich darüber sprechen, was
                        00:00:24.05 digitale Bilder sind, wie Sie sie auf Ihrem Computer anzeigen,
                        00:00:27.15 und wie Sie sie speichern können, damit Sie später damit arbeiten können.
                        00:00:31.11 Was ein digitales Bild also im Wesentlichen ist, ist eine Reihe von Messungen
                        00:00:36.22 Lichtintensität. Wir haben also eine Kamera, wir haben über Kameras gesprochen
                        00:00:40.07 in anderen Vorlesungen, oder ein konfokales Mikroskop oder irgendein Gerät
                        00:00:43.24, die die Lichtintensität an einer Reihe von Punkten in Ihrem Feld aufzeichnet
                        00:00:46.25 der Ansicht in Ihrem Mikroskop. So bekommst du ein Bild wie dieses
                        00:00:50.12 hier, wo du eine Menge heller Objekte in einem Feld hast.
                        00:00:55.10 Und wenn man eines dieser Objekte heranzoomt, sieht man das Individuum
                        00:00:58.03 Pixel, aus denen es hier besteht. Einige von ihnen sind hell,
                        00:01:00.28 einige davon sind dunkel. Und was jede davon wirklich repräsentiert
                        00:01:03.21 ist eine Messung der Lichtintensität, die aufgezeichnet wurde
                        00:01:06.16 an dieser Stelle auf der Kamera oder an dieser Stelle im Bild.
                        00:01:08.19 Und wenn Sie sich also die Zahlen ansehen, aus denen sich das zusammensetzt,
                        00:01:11.06 sehen Sie hier diese Zahlenreihe, die entspricht
                        00:01:15.24 Pixelintensitäten in jedem dieser Pixel. Und du kannst sehen
                        00:01:19.13 dass sie hier an den Rändern von Nullen reichen, wo es ist
                        00:01:22.12 ganz schwarz, weißt du, 200-255 in der Mitte, wo es ist
                        00:01:26.15 sehr hell. Und so sind diese Bilder wirklich nur eine Reihe von
                        00:01:32.20 Zahlen, die die Lichtintensität an jedem Punkt darstellen
                        00:01:34.22 im Sichtfeld. Und Computer speichern Zahlen binär
                        00:01:40.13-Format. Und in binärer Form können Sie eine große Anzahl von verschiedenen haben
                        00:01:46.14 Darstellungen und je nach Auflösung oder was
                        00:01:49.16 Dynamikumfang Sie möchten, können Sie mit einer anderen Anzahl von Bits beginnen.
                        00:01:53.03 Ein einzelnes Bit hier oben kann also Null oder Eins darstellen.
                        00:01:56.16 Das wäre also ein binäres Bild, entweder schwarz oder weiß.
                        00:01:59.28 Wenn Sie 2 Bits machen, können Sie jetzt vier Farben wie diese Leiste hier haben.
                        00:02:03.24 Jetzt hast du Schwarz und Weiß plus zwei Grautöne.
                        00:02:07.08 Und Sie können immer mehr Bits hinzufügen, um mehr und mehr Schattierungen zu erhalten.
                        00:02:10.25 Wenn Sie 4 Bits machen, erhalten Sie 16 Graustufen. Wenn Sie 8 Bit machen,
                        00:02:14.17 erhalten Sie 256 Graustufen. Und du weißt, du kannst 12 . machen
                        00:02:19.04 oder 16, was 4000 oder 65000 Graustufen ergibt.
                        00:02:23.03 Computer neigen aus historischen Gründen dazu, Zahlen zu speichern
                        00:02:28.17 als Bytes und ein Byte ist 8 Bit lang. Also diese endgültigen Formate hier auf der
                        00:02:33.11 oben oder diese Bittiefen oben können als a . dargestellt werden
                        00:02:36.12 einzelnes Byte. Ein Byte speichert also den Wert eines Pixels von
                        00:02:39.29 Informationen. Während unter dieser Linie hier, wenn du gehst
                        00:02:44.04 über 256 und du hast mehr als 8 Bit, jetzt brauchst du 2
                        00:02:46,29 Byte. Sie würden diese also generell als 2 Byte speichern oder
                        00:02:50.06 16 Bit. Je höher also die Intensitätsauflösung
                        00:02:56.06 du willst, je mehr Dynamik du willst, desto mehr
                        00:02:58.10 Speicherplatz zum Speichern Ihrer Daten. Aber auch umso feiner
                        00:03:02.24 Auflösung erhält man von verschiedenen Graustufen des Bildes.
                        00:03:05.25 Hier zeige ich ein Bild in verschiedenen Bittiefen,
                        00:03:09.10 und dass die obere linke Ecke hier das Originalbild ist, das ist
                        00:03:12.20 ein 8-Bit-Bild. Es hat 256 Graustufen. Und dann diese anderen Platten,
                        00:03:19.00 Ich habe die Anzahl der Graustufen reduziert und die Bittiefe reduziert auf
                        00:03:22.19 kleinere Zahlen. Also hier unten kannst du sehen was passiert
                        00:03:25.16, wenn wir daraus ein 6-Bit-Bild machen. Und wir haben weniger
                        00:03:30.08 Graustufen im Bild, aber es ist eigentlich sehr schwer, die zu sehen
                        00:03:32.24 Unterschied zwischen diesen beiden. Und das liegt zum Teil daran, dass du
                        00:03:35.06 Computermonitor kann nur 8 Bit Graustufen anzeigen
                        00:03:39.02 und zum Teil, weil dein Auge für sehr viele nicht empfindlich ist
                        00:03:43.04 Graustufen. Dein Auge kann bestenfalls 100 oder vielleicht auflösen
                        00:03:46.29 150 Graustufen. Aber wenn wir dann anfangen, die Bittiefe zu reduzieren
                        00:03:51.09 weiter, wenn wir hier auf ein 4 bit Bild gehen, könnt ihr jetzt loslegen
                        00:03:53.24 um diese Art der Posterisierung zu sehen, wo man kommt, vor allem in der
                        00:03:57.12 glatte Gradienten, große Diskontinuitäten in den Intensitäten
                        00:04:00.20, weil wir nicht genug Graustufen haben, um eine Glättung zu machen
                        00:04:02.19 Schattierung. Und in 2 Bit sehen wir hier nicht nur 4 Graustufen,
                        00:04:05.25 aber wir bekommen ein sehr stilisiertes Bild, das nicht viel verträgt
                        00:04:09.10 Ähnlichkeit mit den ursprünglichen Intensitäten hier.
                        00:04:11.03 Je mehr Bits du hast, desto mehr Graustufen kannst du also haben
                        00:04:14.17 aufnehmen. Und moderne Kameras können ganz einfach aufnehmen
                        00:04:17.20 mehr Graustufen, als Sie mit Ihrem Auge auflösen können.
                        00:04:20.02 Und wie gesagt, dein Monitor, deine Computermonitore
                        00:04:24.07 sind 8-Bit-Anzeigen. Sie können also nur 8 Bit Grau anzeigen
                        00:04:29.17 Skalierungsinformationen, also 0 bis 256. Sie sind farbig, damit sie angezeigt werden können
                        00:04:33.28 wissen Sie, 0 bis 256 in Rot, Grün oder Blau. Doch wenn
                        00:04:38.22 du siehst nur in einer einzigen Farbe aus, du bekommst nur 8 Bit
                        00:04:40.29 Auflösung. Also, bevor ich diese gezeigt habe, weißt du,
                        00:04:44.23 16-Bit-Graustufenspuren unten, wir haben sie so skaliert
                        00:04:49.07 das schwärzeste Pixel, das 0 Pixel, war schwarz.
                        00:04:53.04 Und das hellste Pixel, die 65000 Pixel, war weiß.
                        00:04:56.20 Aber was wäre, wenn wir sie stattdessen einfach so skaliert hätten, dass die
                        00:05:00.18 tatsächliche Intensitätswerte werden direkt auf die Monitore abgebildet?
                        00:05:03.23 Damit wäre 0 schwarz und 255 weiß. Dann bekommst du
                        00:05:08.13 etwas, das so aussieht. Sie können das kleine bisschen sehen
                        00:05:11.03 Tiefenbilder verwenden nur die dunkelsten Graustufen auf dem Monitor,
                        00:05:14.24, also sind sie sehr schwer zu lösen. Das 8-Bit hier ist
                        00:05:18.03 offensichtlich auf den Monitor abgestimmt, also sehen wir das volle
                        00:05:20.17 gamit geht von schwarz zu weiß. Und wenn wir zu diesen größeren kommen
                        00:05:23.24 Bittiefen, die 4000 oder 65000 Graustufen, das siehst du jetzt
                        00:05:28.10 Der gesamte Dynamikbereich ist in diesem kleinen Winzling komprimiert
                        00:05:30.17 Bit unten, und alles über 255 zeigt jetzt nur dies an
                        00:05:34.01 weiß. Das sollte also hoffentlich diesen Punkt ansprechen
                        00:05:38.25, wenn Sie Bilder mit einer anderen Bittiefe als Ihre betrachten
                        00:05:41.26 Monitor, müssen Sie eine Art Abgleich der Graustufen von
                        00:05:45.21 das Bild auf die Graustufen Ihres Monitors. Oder du gehst
                        00:05:49.06, um entweder alles auf die dunklen Farbtöne zu komprimieren oder
                        00:05:52.02 eine enorme Menge an Weiß sättigen, es sei denn, Sie sind zufällig
                        00:05:55.05 Arbeiten mit einem 8-Bit-Bild. Also muss man immer daran denken
                        00:06:00.00 wie Sie dieses Mapping machen werden. Und im Allgemeinen,
                        00:06:02.14 Dies wird in den meisten Bildanalysepaketen als Nachschlagetabelle bezeichnet.
                        00:06:06.04 Und die Idee hier ist, Sie haben die digitalen Zahlen, die sich ausmachen
                        00:06:09.18 Ihr Bild auf der unteren Achse hier und auf der seitlichen Achse
                        00:06:13.18 hier haben Sie die Anzeigeintensität Ihres Monitors. Also hier
                        00:06:17.09 können wir ein 8-Bit-Bild aufnehmen und wir können steuern, wie wir
                        00:06:20.10 Ordnen Sie die Intensitäten des Bildes den Intensitäten auf dem Bild zu
                        00:06:22.25 Anzeige. Und hier machen wir nur das Offensichtliche von
                        00:06:25.12 Mapping mit einer geraden Linie von 0 bis 255.
                        00:06:29.21 Wenn wir stattdessen eine viel steilere Linie verwenden, die jetzt von
                        00:06:34.13 0 bis vielleicht 50, also sättigen wir alles oben
                        00:06:37.21 50 in weiß, man sieht jetzt das Bild wird sehr
                        00:06:39.22 hell und ausgewaschen. Dies ist also für ein 8-Bit-Bild, Sie können
                        00:06:45.02 Stellen Sie sich ebenso vor, wie Sie dies tun würden, wenn diese untere Skala
                        00:06:48.03 anstatt von 0 auf 255 zu gehen, ging von 0 auf 4000.
                        00:06:51.02 Oder 0 bis 65000. Und um Bilder für die Präsentation vorzubereiten,
                        00:06:58.16 also sagen Sie, Sie stellen einen Powerpoint-Vortrag wie diesen zusammen,
                        00:07:01.19 oder Erstellung von Zahlen für eine Zeitschrift oder Veröffentlichung an anderer Stelle,
                        00:07:05.21 fast immer braucht man dort 8-Bit-Dateien. Weil Computer
                        00:07:09.05 Bildschirme sind 8-Bit und der Veröffentlichungs-Workflow ist darauf ausgelegt
                        00:07:12.09 8-Bit-Dateien. Und wenn Sie also ein Bild haben, das einige größere hat
                        00:07:16.12 Bit-Tiefe als 8 Bit, wenn Sie diese 12-Bit-Bilder haben, die von
                        00:07:19.01 0 bis 4095, du musst dir überlegen, wie du das machst
                        00:07:23.01 Zuordnung. Und ein wichtiger Punkt hier ist, dass Sie Informationen verlieren
                        00:07:26.01 in diesem Prozess. Denn wir haben nur 255 Werte in unserem Finale
                        00:07:29.23 Bild, aber wir beginnen mit 4000 Werten in unserem anfänglichen Bild.
                        00:07:32.10 Und so zum Beispiel alle Werte hier in diesem Mapping
                        00:07:35.12, wo wir nur vom Min. zum Max. abbilden, irgendwie
                        00:07:38.19 Geradeaus. Alle Werte zwischen 4080 und 4095
                        00:07:43.02 werden in ihrem endgültigen Bild auf 255 abgebildet.
                        00:07:45.19 Und das bedeutet im Allgemeinen, dass Sie das aufschieben möchten
                        00:07:49.17 Konvertierung so lange wie möglich. Das solltest du als letztes tun
                        00:07:51.24 Schritt in Ihrer Bildanalyse-Pipeline. Wenn Sie es zu früh tun,
                        00:07:55.05 Sie verlieren diese Informationen, und das kann Ihnen schaden
                        00:07:58.23 am Ende. Wenn du versuchst, ein paar Details hervorzubringen
                        00:08:00.26 das war im Originalbild, ging dann aber verloren
                        00:08:03.15 diese Konvertierung. Im Allgemeinen möchten Sie also im nativen Bit bleiben
                        00:08:07.19 Tiefe deines Bildes, so lange du kannst, und dann wie die
                        00:08:10.06 Letzter Schritt, machen Sie ein 8-Bit-Bild, das Sie an die senden können
                        00:08:12.18 Herausgeber oder fügen Sie Ihren Powerpoint ein. Also in dieser Intensität
                        00:08:19.21 Skalierung hier, in dieser Nachschlagetabelle sehen Sie eine Reihe von
                        00:08:23.07 Begriffe, die sich darauf beziehen, wie Sie die Skalierung durchführen können. Im Augenblick
                        00:08:27.11 wir sprechen nur über lineare Skalierung, damit Sie die definieren können
                        00:08:29.17 als Min- und Max-Zeile, so habe ich darüber gesprochen.
                        00:08:33.09 Aber man sieht oft auch Kontrast und Helligkeit,
                        00:08:37.10 und daher bezieht sich der Kontrast auf die Steigung dieser Linie, also wenn Sie
                        00:08:40.09 machen Sie diese Linie steiler, Sie erhalten einen höheren Kontrast. Wenn du machst
                        00:08:43.26 flacher, weniger Kontrast. Und dann Helligkeit
                        00:08:47.26 ist dann der Versatz dieser Linie entlang dieser Ebene hier drin.
                        00:08:51.21 Sie werden also sehen, dass Sie dies mit den meisten Softwarepaketen einstellen können
                        00:08:57.06 entweder durch Einstellen von Min oder Max oder durch Einstellen des Kontrasts
                        00:08:59.06 und Helligkeit. Und so ist hier wieder nur dieses Bild, und
                        00:09:04.21 zeigt die Auswirkungen dieser Helligkeits- und Kontrastanpassung. Und
                        00:09:07.25 jetzt zeigen wir zusätzlich zum Bild das Mapping hier unten
                        00:09:11.03 mit dieser Zeile. Und auch in dieser Graustufe hier das Pixel
                        00:09:15.14 Intensitätshistogramm. Und was das ist, ist es einfach durchzumachen
                        00:09:19.02 ganzes Bild und jedes Pixel betrachten und hochzählen
                        00:09:21.18 wie viele Pixel bei einer bestimmten Graustufe vorhanden sind. Und so bist du
                        00:09:25.10 kann man in diesem Bild sehen, hier unten im Dunkeln gibt es einen großen Gipfel
                        00:09:28.20 Pixel, das entspricht dem Boden, und dann noch eine große Spitze hier von hellen Pixeln, die dem Himmel entspricht. Und dann
                        00:09:34.15 eine kleinere Anzahl von Pixeln des Zeugs dazwischen.
                        00:09:38.22 Und Sie können hier sehen, dass dieses Bild tatsächlich nicht funktioniert
                        00:09:41.13 haben alles, was vollständig auf 255 oder auf 0 steht.
                        00:09:44.02 Dass der Boden nicht ganz schwarz ist und der Himmel nicht
                        00:09:47.15 ganz weiß. Und so können wir diese Skalierung dann hier anpassen
                        00:09:51.01, sodass wir nur zwischen dem minimalen Wert des Bildes skalieren
                        00:09:53.29 und der Maximalwert im Bild. Und du kannst sehen, das macht
                        00:09:56.16 der Boden ganz schwarz und der Himmel an den hellsten Stellen ganz weiß.
                        00:09:59.10 Dies wird als Helligkeits-/Kontrastanpassung bezeichnet und
                        00:10:03.14 Dies ist ein grundlegendes Werkzeug, das Sie jederzeit anpassen müssen
                        00:10:07.19 Sie betrachten ein Bild auf einem Bildschirm. Und besonders wenn
                        00:10:10.17 du siehst ein Bild mit etwas Tiefe, das ist
                        00:10:12.15 anders als der Bildschirm, auf dem Sie es anzeigen.
                        00:10:13.27 Eine Folge davon ist, dass Sie vorsichtig sein möchten, wie Ihre
                        00:10:20.11 Software skaliert Ihr Bild. So viele Softwarepakete
                        00:10:23.16 wird auf unterschiedliche Weise skaliert. Und die beiden gängigen Standardeinstellungen
                        00:10:27.12 sind, dass es entweder auf den vollen Bereich skaliert, also hier ist ein
                        00:10:29.29 16-Bit-Bild, das von 0 bis 65000 reicht. Und die Skalierung
                        00:10:34.15 hier ist eingestellt, dass nur 0 auf 0 auf dem Monitor abgebildet wird.
                        00:10:39.18 Und 65000 bis 255 auf dem Monitor. Und damit Sie sehen können, ist dieses Bild
                        00:10:44.12 wirklich dunkel und trüb, weil es tatsächlich keine Pixel gibt
                        00:10:46.20 hier, die den maximalen Intensitätswert der 16 Bit haben
                        00:10:49.07-Format. Es gibt keine 65000 Pixel mit Werten. Also eine Alternative
                        00:10:55.14 So haben wir das Bild beim vorherigen Bild gemacht
                        00:10:58.16 Bildschirm, der nur von Min bis Max skaliert wird.
                        00:11:00.24 Und wenn wir das tun, skalieren wir jetzt zwischen
                        00:11:04.15 was auch immer diese Zahl ist und 10000 oder so, die das darstellen
                        00:11:07.20 dunkelstes und hellstes Pixel im Bild. Und jetzt kannst du sehen
                        00:11:11.15 du bringst dieses Bild viel besser zur Geltung und du kannst das sehen
                        00:11:14.08 ist ein Bild einer Galaxie und einiger Sterne. Und so ist es sehr üblich
                        00:11:20.09 für Softwarepakete, die beides tun, entweder um
                        00:11:22.19 Standard-Skalierung der Min. und Max. und des gesamten Bereichs
                        00:11:25.26 der Daten. Oder zum automatischen Skalieren auf Min und Max in einem bestimmten
                        00:11:31.08 Bild, das du dir ansiehst. Und insbesondere diese automatische Skalierung
                        00:11:34.18 ist sehr schön, weil es sofort leicht zu machen ist
                        00:11:37.21 Sehen Sie, was in Ihrem Bild ist. Aber wenn Sie zwei verschiedene laden
                        00:11:40.19 Bilder und automatisch skalieren, sie werden nicht haben
                        00:11:42.20 dieselbe Skalierung. Und so kann man nicht direkt vergleichen
                        00:11:44.23 Intensitäten zwischen ihnen, indem man sie ansieht. So ist es
                        00:11:48.16 Es ist wichtig zu wissen, was Ihre Software tut.
                        00:11:50.25 Eine andere Möglichkeit hier ist natürlich, dass wir statt dessen könnten
                        00:11:55.00 Skalierung nur auf die Minimal- und Maximalwerte in diesem
                        00:11:57.21 Bild, wir könnten einige der Werte in diesem Bild sättigen.
                        00:12:01.08 Wir könnten stattdessen wählen, vom Minimum auf zu skalieren
                        00:12:03.26 etwas unter dem Maximum, und das Ergebnis ist
                        00:12:06.13 wir setzen all diese hellen Pixel hier auf 255 auf dem Bildschirm,
                        00:12:09.15 und ganz in Weiß. Diese hellen Pixel hier auf 255. Und
                        00:12:13.13 also können wir nicht wirklich aufklären, was in diesen Sternen vor sich geht
                        00:12:16.01 jetzt, aber stattdessen können wir diese schöne Spirale sehr deutlich sehen
                        00:12:19.18 Galaxie hier, die dunkler und nicht wirklich gut aufgelöst war
                        00:12:22.19 auf unserem Monitor vorher. Eine weitere Möglichkeit zur Skalierung hier ist
                        00:12:28.29, um über die einfache lineare Skalierung hinauszugehen und stattdessen anzuwenden
                        00:12:32.01 eine Art nichtlineare Skalierung. Und ein sehr häufiges
                        00:12:34.27 Sie werden sehen, dass es sich um eine Gammakorrektur handelt. Und das ist im Grunde ein
                        00:12:39.20 exponentielle oder logarithmische Abbildung Ihrer Daten.
                        00:12:42.07 Und Gamma ist gleich 1, das entspricht linearer Skalierung.
                        00:12:45.25 Also diese gerade Linie in der Mitte hier ist das Gamma gleich
                        00:12:48.16 1 Fall. Und dann Gammawerte kleiner als 1, im Grunde
                        00:12:53.16 sättigen Dinge bei hohen Intensitäten und dehnen die
                        00:12:56.21 Intensitätsunterschiede zwischen Objekten geringer Intensität. Und so kannst du
                        00:13:00.05 siehe hier, dass die Steigung dieser Kurve bei niedrigen Intensitäten sehr steil ist
                        00:13:03.24 am Eingang. Und so machen wir viele Graustufen
                        00:13:08.10 Unterscheidungen zwischen Objekten geringer Intensität, aber dann wie wir bekommen
                        00:13:11.24 zu Objekten mit höherer Intensität glätten wir diese
                        00:13:14.27 und nicht so viele Graustufen verwenden, um das wirklich Helle darzustellen
                        00:13:18.05 Objekte. Umgekehrt bewirkt ein Gamma über 1 das Gegenteil.
                        00:13:23.11 Es wird also all das dunkle Zeug hier auf eine kleine Anzahl von komprimieren
                        00:13:27.06 Graustufen und dehnen Sie die Graustufen unter den helleren aus
                        00:13:30.03 Objekte in der Stichprobe. Und diese werden weniger häufig verwendet
                        00:13:34.20, aber sie sind sehr praktisch, wenn Sie Bilder haben, die ein
                        00:13:38.16 großer Dynamikbereich, wo es wichtige Unterschiede gibt
                        00:13:41.04 konzentrierte sich auf das eine oder andere Ende des Intensitätsspektrums.
                        00:13:44.09 Also nur zeigen, dass das auf dieses Galaxienbild zutrifft.
                        00:13:47.02 Hier ist Gamma gleich 1, in Gamma ist über 1, sehen Sie hier
                        00:13:52.04, dass es wirklich schwierig ist, das trübe Zeug im Objekt zu sehen.
                        00:13:54.27 Aber hier hilft Ihnen Gamma unter 1 dabei, diese Schatten hervorzuheben
                        00:13:58.25 Hintergrundpixel, aus denen diese Spiralgalaxie besteht
                        00:14:00.21, die sonst verloren gehen würden.
                        00:14:04.17 Okay, mit all diesen Dingen können wir mit unseren Bildern
                        00:14:07.10 was ist akzeptabel? Was ist hier der wissenschaftliche Standard?
                        00:14:11.12 für was Sie in einer veröffentlichten Arbeit tun können?
                        00:14:15.05 Und das Journal of Cell Biology hat viel Arbeit hineingesteckt
                        00:14:17.23 das, und sie haben einige sehr schöne Richtlinien, die Sie können
                        00:14:20.04 finden Sie diese Websites hier. Aber um sie kurz zusammenzufassen,
                        00:14:24.10 Die allgemeine Idee ist, dass Helligkeits- und Kontrastanpassungen
                        00:14:27.12 Okay. Solange du sie über das ganze Bild machst, und du
                        00:14:30.26 Hintergrund nicht verdecken oder eliminieren. Also tust du nicht
                        00:14:33.00 möchten Ihre Nullwerte so hoch setzen, dass Sie sie unterdrücken
                        00:14:37.27 echtes Hintergrundsignal in Ihren Bildern. Und du willst auch nicht
                        00:14:42.12 um verschiedene Objekte in deiner Figur unterschiedlich zu behandeln, oder
                        00:14:45.27 verschiedene Objekte im gleichen Sichtfeld unterschiedlich.
                        00:14:48.11 Sie erfordern nichtlineare Anpassungen wie Gamma
                        00:14:51.19 Korrekturen, offengelegt werden. Und vor allem kann man nicht schneiden und
                        00:14:55.18 Einfügen von Regionen in ein Bild. Du kannst also kein Komposit machen aus
                        00:14:58.16 mehrere Bilder, bei denen es nicht durch weiße Balken zwischen den Bildern zu erkennen ist
                        00:15:01.24 Bilder, die sagen, dass Sie ein Composite erstellen. Sie nicht
                        00:15:03.15 möchte, dass du Dinge zusammenstellst, die im wirklichen Leben nicht zusammengehören.
                        00:15:08.10 Und schließlich, und ein besonders kritischer Punkt ist, irgendwelche
                        00:15:12.10 echte Vergleiche in deinem Bild, du musst deine Kontrolle behandeln
                        00:15:14.23 und experimentelle Daten identisch. Du willst es ihnen also zeigen
                        00:15:17.13 mit der gleichen Skalierung und den gleichen Gammakorrekturen,
                        00:15:19.16, wenn Sie eine Gammakorrektur vorgenommen haben und so weiter.
                        00:15:21.13 Okay, das sind die Grundlagen der Anzeige
                        00:15:27.02 Graustufenbilder. Und jetzt möchte ich ein wenig über die Verwendung von Farbe sprechen.
                        00:15:29.29 Also bisher haben wir uns komplett auf die Verwendung beschränkt
                        00:15:34.16 Schwarzweiß-Graustufenbildanzeigen. Aber es gibt keinen Grund
                        00:15:39.01 Sie können keine Farbe verwenden. Und hier ist ein Beispiel für nur 2 Bit
                        00:15:43.13 Bild. Es hat vier verschiedene Werte, 0, 1, 2 und 3.
                        00:15:47.08 Hier sind die Pixelwerte und so sieht das Ding aus.
                        00:15:49.27 Es ist ein kleiner Lichtblick. Und so können wir es grau anzeigen
                        00:15:54.29 skalieren so, wie wir es die ganze Zeit hier gemacht haben.
                        00:15:56.25 Wir können aber auch verschiedene Grauwerte auf verschiedene Farben abbilden
                        00:16:01.16 auf dem Display. Hier ist also eine Farbkarte, die wir verwenden
                        00:16:06.09 Schwarz und Grüntöne, um dieses Objekt anzuzeigen. Und dann das
                        00:16:09.13 falsch färbt es grün. Aber wir müssen hier nicht aufhören, wir können
                        00:16:12.14 verwenden bizarre Farbskalen wie diese, die 0 und 3 abbilden,
                        00:16:16.13 das dunkelste und hellste Ding, beides bis Rot. Und du kannst
                        00:16:20.09 mal sehen wie es dort aussieht. Sie können verwenden, wissen Sie,
                        00:16:23.04 welche Farbskala Sie grundsätzlich wollen. Und das manchmal
                        00:16:26.23 ist eine gute Möglichkeit, kleine Unterschiede in Ihrem Bild hervorzuheben.
                        00:16:29.12 Hier ist also ein Beispiel für eine ziemlich Uniform
                        00:16:33.04 Graustufenbild. Dies ist zufällig eine Helligkeit oder a
                        00:16:38.03 Flat-Field-Korrektur für ein Mikroskop, wo wir nur suchen
                        00:16:40.29 bei der gleichmäßigen Beleuchtung am Mikroskop. Und wir haben skaliert
                        00:16:45.08 dies auf das Minimum und das Maximum im Bild. Also hier ist die
                        00:16:47.12 Graustufen, sie laufen hier von 7000ish bis 8 oder 9000.
                        00:16:52.05 Und man sieht darin viel Struktur, aber das wird viel klarer
                        00:16:57.02 wenn wir das jetzt falsch färben, anstatt nur in Schattierungen von
                        00:16:59.18 grau, und diese Farbkarte, diese Heatmap, geht von blau aus
                        00:17:02.00 für dunkle Objekte bis hin zu Dunkelrot für helle Objekte.
                        00:17:05.17 Und Sie können sehen, wann wir das tun, jetzt können wir es ausmachen
                        00:17:10.06 feine Details in diesem Bild leichter. Und es macht auch
                        00:17:13.18 es ist hier einfacher, die Farbnuancen den Intensitäten zuzuordnen
                        00:17:18.08 Ich schaue mir diese Farbskala hier an, nur weil es einfacher ist
                        00:17:21.08 um Farbunterschiede zu unterscheiden
                        00:17:24.17 zwei Graustufen. Wir können dieses Verfahren auch verwenden, um
                        00:17:30.06 Falschfarbenbilder. Hier ist ein Beispiel für die Einnahme von drei
                        00:17:33.12 Bilder. Dies sind drei gefärbte Gewebekulturzellen.
                        00:17:36.16 Gefärbt für Kerne hier oben, Mitochondrien hier und Aktin
                        00:17:40.16 hier unten. Und hier links ist nur die Graustufe zu sehen
                        00:17:45.00 Mappings und rechts wird die jeweilige Farbe angewendet
                        00:17:47.27 skaliert hier von diesen Balken in der Mitte zu diesem Bild.
                        00:17:50.16 Also haben wir die Kerne in Cyan kartiert, die Mitochondrien in Gelb,
                        00:17:53.29 und das Aktin in dieser Art von Magenta. Und wenn wir jetzt
                        00:17:59.14 füge alle drei dieser Bilder zusammen und überlagere sie,
                        00:18:01.26 erhalten wir dieses sehr hübsche, funky farbige Bild.
                        00:18:07.25 Und das bringt mich zu Farbbildern. Also die meisten Mikroskope
                        00:18:13.24 und vor allem die meisten Fluoreszenzmikroskope werden mit
                        00:18:15.24 Graustufenbilder. Nur weil unsere Kameras monochrom sind,
                        00:18:20.25 und das ist normalerweise das, was wir erkennen. Aber Farbbilder sind
                        00:18:23.12 natürlich auch ganz wichtig. Speziell zum Anfertigen von Figuren für
                        00:18:26.23 Veröffentlichung, sowie für nicht mikroskopische Anwendungen oder
                        00:18:31.03 Mikroskopieanwendungen mit H&E
                        00:18:34.09 gefärbte Proben oder andere pathologische Proben,
                        00:18:36.26, wo Sie ein farbgetreues Bild Ihrer Probe haben möchten.
                        00:18:39.10 Ein Farbbild ist also nichts anderes als drei Graustufenbilder,
                        00:18:43.08 je ein Bild für den Rotkanal, den Grünkanal,
                        00:18:47.24 und der blaue Kanal. Und diese wie alle anderen Bilder haben können
                        00:18:51.16 Bittiefen, mehr oder weniger Standard sind sie entweder 8 oder 16
                        00:18:54,27 Bit pro Kanal. Wenn wir uns hier nur ein Farbbild ansehen,
                        00:18:59.27 dies kann in diese drei Bilder von Rot zerlegt werden,
                        00:19:03.12 grün und blau. Und dann ist jeder von denen wirklich gerecht
                        00:19:06.28 ein monochromes Bild hier mit der entsprechenden Nachschlagetabelle
                        00:19:11.11 darauf angewendet. Also weißt du, roter Nachschlagetisch für das Rot,
                        00:19:14.21 grüne Nachschlagetabelle für das Grün und eine blaue Nachschlagetabelle für
                        00:19:16.21 das Blau. Und diese können in einer Reihe von verschiedenen gespeichert werden
                        00:19:22.05 Wege. Sie können entweder für jedes einzelne Pixel speichern,
                        00:19:25.24 entweder der Rotwert oder der Grünwert oder der Blauwert,
                        00:19:27.14 und dann für das nächste Pixel der Rotwert, der Grünwert,
                        00:19:29.11 der Blauwert. Oder Sie können diese drei wirklich einfach separat aufbewahren
                        00:19:32.17 Bilder als drei Ebenen. Ein rotes Flugzeug, das alles Rot hat
                        00:19:36.05 Pixel, eine grüne Ebene, die alle grünen Pixel enthält,
                        00:19:38.04 und eine blaue Ebene, die alle blauen Pixel hat. Du nicht
                        00:19:41.22 musst du dir die meiste Zeit wirklich Sorgen machen, weil du
                        00:19:44.14 Software sollte sich um das Laden und die richtige Sortierung kümmern
                        00:19:47.17 erfahren Sie, wie Sie die Farbinformationen in einem Farbbild anzeigen.
                        00:19:51.02 In der Mikroskopie ist es üblich, komplizierter zu sein
                        00:19:56.26 Bildformate als nur Schwarz oder Weiß oder Farbe.
                        00:19:59.11 Sie haben oft Stapel oder Sequenzen von Bildern, sagen wir, wenn Sie
                        00:20:03.13 einen Film gemacht. Oder vielleicht haben Sie hier einen ausführlichen Fokusabschnitt durchlaufen
                        00:20:07.04 und einen anderen Satz von Z-Ebenen hier in Ihrem Beispiel.
                        00:20:08.29 Oder andere Variablen, mehr Farben als nur Rot, Grün und
                        00:20:13.04 blau. Sie könnten fünf oder sechs Wellenlängen in einem Bild machen.
                        00:20:15.10 Du könntest mehrere Bühnenpositionen einnehmen, sagen wir in einem 96er Brunnen
                        00:20:18.22 Platte. Und das würde dir diesen dreidimensionalen Stapel geben
                        00:20:22.22 hier, wo Sie jeweils ein 2D-Bild haben
                        00:20:25.18 Flugzeuge. Und tatsächlich ist es in der Mikroskopie jetzt sehr verbreitet
                        00:20:28.17 nicht nur Stacks zu machen, sondern das, was die Leute Hyperstacks nennen oder
                        00:20:32.13 mehrdimensionale Bilder, wo du vielleicht eins hast
                        00:20:34.28 Zeitreihen. Und zu jedem Zeitpunkt haben Sie Z-Positionen,
                        00:20:37.27 und an jeder Z-Position haben Sie mehrere Farben. Also hast du
                        00:20:40.05 ein vierdimensionaler Bildstapel. Und so, wie man lagert
                        00:20:47.14 und der Umgang mit all diesen Daten wird zu einer Art Problem.
                        00:20:49.24 Und darüber möchte ich jetzt sprechen, Dateiformate
                        00:20:54.08 und wie Sie sie speichern und mit diesen Daten arbeiten. Und besonders,
                        00:20:59.00 Bilder können ziemlich groß werden. Nun, nicht die Bilder selbst,
                        00:21:02.22 so viel wie der gesamte Datensatz. Eine sehr häufig verwendete Kamera in
                        00:21:06.08 Mikroskopie hat diese Abmessungen, es ist 1392x1040
                        00:21:10.02 Pixel Kamera, also etwa 1,4 - 1,5 Megapixel. Und es
                        00:21:15 Uhr zeichnet 14-Bit-Bilder auf, Sie benötigen also 2 Byte, um die zu speichern
                        00:21:19.08 Daten. Das erfordert also 2,8 Megabyte, nur um eine einzelne zu speichern
                        00:21:22.13 Bild von dieser Kamera. Also jetzt, Bild, du machst was
                        00:21:27.01 kompliziertes multidimensionales Experiment, wo du bist
                        00:21:29.10 Erfassen von drei Kanälen. An jeder Position erwerben Sie
                        00:21:33.13 15 Bilder und dann machst du das Ganze
                        00:21:36.19 für 200 Zeitpunkte. Also gehst du zu jedem Zeitpunkt
                        00:21:39.04, um Ihre 15 Z-Positionen aufzuzeichnen, und dann an jeder Z-Position,
                        00:21:42.05 du nimmst deine 3 Kanäle auf. Also, wenn du das alles ausmultiplizierst,
                        00:21:45.14 du hast deine 2,8 Megabyte mal die 3 Kanäle, mal die
                        00:21:49.11 15 Z-Positionen mal die 200 Zeitpunkte und das funktioniert
                        00:21:52.08 in einen 25-Gigabyte-Datensatz. Und das ist nicht besonders
                        00:21:56.14 kompliziertes Mikroskopie-Experiment. Das sieht man vielleicht oft
                        00:22:00.16 jetzt kombiniert, um mehrere Positionen in Ihrer Probe zu machen.
                        00:22:03.06 Und das wird immer größer. Also Datensätze, die
                        00:22:07.18 10, 20 oder mehr Gigabyte sind keine Seltenheit. Ich kenne
                        00:22:10.03 Personen, die routinemäßig 200 Gigabyte-Datensätze aufzeichnen in
                        00:22:13.04 an einem Abend. Also natürlich, wenn Sie so große Datensätze speichern
                        00:22:17.29 Sie müssen wirklich darüber nachdenken, wie Sie sie am besten aufbewahren. Und
                        00:22:20.24 insbesondere, wie man alle Informationen darüber im Auge behält, wo
                        00:22:23.04 jedes dieser Bilder stammte. Weißt du, das hat jetzt
                        00:22:26.20 Tausende von Bildern und Sie müssen die Z-Position kennen
                        00:22:29.21 und Zeitpunkt und der Kanal, dem jedes Bild entspricht.
                        00:22:31.21 Und das bringt auch dieses Thema der Kompression zur Sprache. Weil
                        00:22:37.10 Sie möchten nicht 25 Gigabyte speichern, wenn Sie nicht müssen.
                        00:22:41.02 Es gibt also zwei Arten der Komprimierung für Bilder
                        00:22:45.13 oder allgemein für Dinge verwendet. Und es gibt verlustfreie Komprimierung
                        00:22:50.10 und verlustbehaftete Komprimierung. Und den Unterschied zwischen diesen zu kennen ist
                        00:22:53.28 wirklich kritisch. Die verlustfreie Komprimierung ist also genau so, wie sie sich anhört,
                        00:22:58.15 Es behält alle Informationen in Ihrem Originalbild bei.
                        00:23:01.12 Es komprimiert Ihr Bild, indem redundante Informationen entfernt werden
                        00:23:04.18, die nachträglich wiederhergestellt werden können. Das heißt, du kannst immer
                        00:23:07.15 Holen Sie sich Ihr Originalbild zurück, Ihre Original-Rohdaten
                        00:23:09.22 von diesem Bild, obwohl es komprimiert wurde
                        00:23:12.05 und nimmt weniger Platz ein. Die meiste Komprimierung bist du wahrscheinlich
                        00:23:16.20 vertraut ist nicht verlustfrei. Aber es ist verlustbehaftete Komprimierung.
                        00:23:20.05 Dies ist also die Art der Komprimierung, die für verwendet wird
                        00:23:22.24 Art von Consumer-Kameras für Standardaufnahmen mit
                        00:23:29.15 Ihr iPhone oder Ihre Digitalkamera. Und um zu machen
                        00:23:34.08 Bilder kleiner hier, was das macht, ist, dass es rauswirft
                        00:23:37.03 Bilddaten, die nicht sichtbar sind. Also entfernt es
                        00:23:42.14 kleine Details im Bild, die man nicht wirklich sieht.
                        00:23:45.27 Aber da sind echte Daten, die weggeworfen werden.
                        00:23:49.16 Und tatsächlich, wenn Sie die Komprimierung bei einem dieser verlustbehafteten aufdrehen
                        00:23:54.23 Komprimierungsalgorithmen, irgendwann fängt man an zu sehen
                        00:23:56.16 das Artefakt, das es einführt. Aber meistens Menschen, die
                        00:24:01.14 schreibe diese Algorithmen, versuche es so zu gestalten, dass es so ist, wie es ist
                        00:24:04.11 wirft Informationen aus, die für Ihr Auge nicht wirklich offensichtlich sind,
                        00:24:06.17, aber es wirft definitiv trotzdem Informationen aus.
                        00:24:09.10 Und das bedeutet, dass Sie Ihre Rohdaten hier nicht zurückbekommen können.
                        00:24:11.25 Sobald Sie einen dieser Komprimierungsalgorithmen durchlaufen haben
                        00:24:13.25 das ist verlustbehaftet, JPEG ist sehr verbreitet, du hast verloren
                        00:24:18.15 Informationen zu Ihrem Bild und Sie können sie nicht zurückbekommen.
                        00:24:21.01 Und das bedeutet für das wissenschaftliche Arbeiten diese
                        00:24:25.13 sind wirklich schreckliche Ideen. Weil du dein korrumpiert hast
                        00:24:29.26 Rohdaten, und du führst möglicherweise Artefaktmaterial ein
                        00:24:34.23 dort. Einfügen von Artefakten in Ihre Daten, die Auswirkungen haben können
                        00:24:39.03 Ihre Schlussfolgerungen. Und es gibt ein wirklich tolles Schreiben
                        00:24:42.24 auf dieser Website hier über die Datenkomprimierung für
                        00:24:46.20 sowohl Bilder als auch Videos. Aber die Take-Home-Nachricht ist für
                        00:24:50.00 jede wissenschaftliche Arbeit, die Sie verlustfrei komprimieren möchten
                        00:24:53.06 und keine verlustbehaftete Komprimierung. Also ich möchte nur darüber reden
                        00:24:58.13 Dateiformate ein wenig. Eines der gängigsten Dateiformate
                        00:25:02.17 Sie werden sehen, dass im Imaging TIFF verwendet wird, es ist eine ziemlich alte Datei
                        00:25:05.25-Format. Aber es unterstützt sowohl 8- als auch 16-Bit-Bilder, was schön ist
                        00:25:10.04 weil wir mit beiden arbeiten. Es unterstützt verlustfreie Komprimierung,
                        00:25:13.22 was auch schön ist, weil wir nicht verlustbehaftet verwenden wollen
                        00:25:16.05 Komprimierung. Und es unterstützt Graustufen oder RGB. Der Nachteil
                        00:25:20.04 dazu ist, dass TIFF im Allgemeinen nur ein einzelnes Bild speichert oder
                        00:25:24.08 ein einfarbiges Bild. Das heißt in unserem Beispiel, wo wir sind
                        00:25:27.05 mit drei Kanälen und 15 Z-Stacks und 200 Zeitpunkten,
                        00:25:31.20 Wir werden Tausende von TIFFs brauchen, um all das im Auge zu behalten
                        00:25:35.16 Bilder. Und das ist nicht so schön. Es gibt andere Dateiformate, es gibt
                        00:25:40.29 eine neue JPEG-Variante, JPEG 2000, die Sie nicht sehen
                        00:25:43.03 so viel, was verlustfrei und ganz nett ist. Und dann
                        00:25:46.29 im Grunde um mit diesem Problem umzugehen, den Überblick zu behalten
                        00:25:49.28 Tausende von Bildern, die meisten Mikroskopiefirmen
                        00:25:53.15 haben ihr eigenes benutzerdefiniertes Format entwickelt, also siehst du
                        00:25:55.19 Dinge wie IDS und ND2, das ist ein Nikon-Format, ZVI und LSM
                        00:25:59.24 sind Zeiss-Formate und so weiter. und das sind im Allgemeinen
                        00:26:04.05 ziemlich nett. Sie sind verlustfrei und unterstützen das volle
                        00:26:06.16 Bittiefe Ihres Systems. Fast immer diese benutzerdefinierten Formate
                        00:26:10.28 wird mehrdimensionale Bilder unterstützen, also können Sie das speichern
                        00:26:14.17 gesamter Dreikanal mal 15 Z-Slice mal 200 Zeitpunktdaten
                        00:26:20.18 als einzelne Datei eingestellt, als einzelne große Datei, aber eine einzelne
                        00:26:23.27 Datei. Und diese benutzerdefinierten Formate behalten auch oft den Überblick
                        00:26:28.11 die Metadaten Ihres Experiments. Es wird den Überblick behalten
                        00:26:30.22 wie Ihr Mikroskop eingerichtet wurde und was der Z-Abstand
                        00:26:34.21 war in deinem Z-Stack. Und was die verschiedenen Kanäle waren, die Sie verwendet haben.
                        00:26:36.29 Das Zeitintervall in Ihrem Zeitraffer.
                        00:26:40.09 Das sind also sehr schöne Optionen, aber die Kehrseite
                        00:26:43.02 für sie ist, dass sie es nicht immer sind, weil sie Brauch sind
                        00:26:45.14 tragbar. Sie werden diese also sicherlich nicht öffnen können
                        00:26:48.21 so etwas wie Photoshop, du kannst sie immer im öffnen
                        00:26:52.13 Herstellersoftware und im Allgemeinen finden Sie Plugins
                        00:26:54.29, die sie in Dingen wie ImageJ öffnen. Aber wenn du sie haben willst
                        00:26:58.00 in etwas sagen, ein benutzerdefiniertes Programm für die Bildanalyse,
                        00:27:00.04 müssen Sie sie wahrscheinlich in einen TIFF-Stack konvertieren
                        00:27:03.02 zuerst. Also eine ganze Menge TIFFs und dann lade sie nach
                        00:27:06.14 Ihr Programm. Und dann gibt es noch eine ganze Reihe von Dateiformaten
                        00:27:09.26 möchten Sie wahrscheinlich vermeiden. Und das sind Dinge wie JPEG,
                        00:27:13.13 weil ich sagte, es ist verlustbehaftet, dieses alte GIF-Format oder BMP und so weiter
                        00:27:19.08 diese Formate, die mehr für die Einfachheit entwickelt wurden
                        00:27:22.13 oder Computereinfachheit als für die wirkliche Datenerhaltung.
                        00:27:27.21 So viele davon sind nur auf 8 Bit beschränkt, und einige
                        00:27:31.25 verwendet wie JPEG auch automatisch verlustbehaftete Komprimierung. Und so
                        00:27:35.08 im Allgemeinen müssen Ihre Daten in irgendeiner Weise beschädigt werden
                        00:27:38.04 will wahrscheinlich nicht. Sie können gut zum Putten sein
                        00:27:41.16 Bilder auf deiner Website, aber du möchtest sie nicht in deiner verwenden
                        00:27:44.11 wissenschaftliche Datenverarbeitungskette. Also wollte ich endlich mal
                        00:27:49.19 sagen Sie ein paar Worte zu den Software-Tools, für die es da draußen gibt
                        00:27:52.15 Bildanalyse durchführen und mit Bildern arbeiten. Es gibt ein wirklich großes
                        00:27:56.18 davon, daher gehe ich hier nicht ins Detail.
                        00:27:59.22, aber nur um zusammenzufassen, was da draußen ist.
                        00:28:02.05 Es gibt also eine große Anzahl von Programmen, die beides können
                        00:28:04.24 Akquisition, was bedeutet, dass sie dein Mikroskop steuern, und
                        00:28:07.23 Datenanalyse durchführen. Und so gibt es eine große Anzahl von Werbespots
                        00:28:11.18, NIS-Elements ist Nikons Software, AxioVision
                        00:28:15 Uhr ist die Software von Zeiss. MetaMorph ist ein Softwarepaket, das bereits
                        00:28:19.01 ungefähr eine lange Zeit, die mikroskopunabhängig ist und kontrolliert
                        00:28:23.09 viele verschiedene Mikroskope. Slidebook ist ein ähnliches Programm
                        00:28:27.09 zu MetaMorph, auf diese Weise. Und dann Micro-Manager
                        00:28:29.28 möchte ich ansprechen, weil es an der UCSF entwickelt wurde.
                        00:28:32.17 Und es ist kostenlos und Open Source, und es ist im Grunde ein
                        00:28:37.00 Plugin, das in ImageJ lebt und Mikroskope steuert.
                        00:28:40.14 Und dann können Sie die ImageJ-Funktionen zur Datenanalyse verwenden.
                        00:28:43.25 Mit all diesen Programmen können Sie also beide Ihr Mikroskop steuern
                        00:28:46.24 und erledigen viele verschiedene Datenanalyseaufgaben. Dann gibt es einen Haufen
                        00:28:51.00 von Präsentationstools wie Photoshop, die Sie wahrscheinlich kennen
                        00:28:54.09 mit oder der Freeware-Open-Source-Version davon, Gimp.
                        00:28:57.14 Die nicht wirklich für wissenschaftliche Daten ausgelegt sind
                        00:29:00.21 Analyse, aber für attraktive Figuren und Putting
                        00:29:03.18 Daten zusammen, damit Sie sie in einer Abbildung darstellen können oder
                        00:29:06.10 in einer Präsentation. Und dann gibt es noch ein paar engagierte
                        00:29:11.21 Bildanalysepakete, und diese beinhalten Dinge
                        00:29:13.24 wie Matlab, was wirklich eine Allzweckprogrammierung ist
                        00:29:16.27 Sprache in vielerlei Hinsicht, aber es hat sehr schöne Werkzeuge dafür
                        00:29:19.06 Bildanalyse. ImageJ, das ist diese Open Source, kostenlos
                        00:29:25.07 Tool, das viele verschiedene Bildanalyseroutinen enthält
                        00:29:29.06 hinein, die Sie für die Bildanalyse verwenden können. Imaris
                        00:29:33.09 das ist ein kommerzielles Paket, das wirklich für das Tun optimiert ist
                        00:29:36.03 High-End-3D-Visualisierung. CellProfiler, ein weiteres kostenloses Open Source
                        00:29:41.25 Tool, das für High-Throughput-Screening optimiert ist
                        00:29:46.05 Analyse, also Analyse von Tausenden oder Zehntausenden von
                        00:29:49.01 Bilder automatisch. Und es gibt viele andere, die ich nicht habe
                        00:29:52.10 hier erwähnt, die manchmal auf besondere spezialisiert sind
                        00:29:55.15 Aufgaben oder nur etwas weniger häufig verwendet als diese.
                        00:29:59.24 Das ist alles, was ich heute sagen werde, und ich möchte mich nur bedanken
                        00:30:04.12 Nico Stuurman, der viele der Folien und die
                        00:30:07.21 Entwurf für diesen Vortrag. Dankeschön.


                        Mehrdimensionale Dateien

                        • sequentielle Mehrkanaldatei wird korrekt geöffnet mit View stack with: Hyperstack
                        • manchmal können gleichzeitige Mehrkanaldateien mit verschachtelten Kanälen geöffnet werden, und hier ist eine Problemumgehung
                          1. Sie müssen den Ansichtsstapel verwenden mit: Standard ImageJ und Stapelreihenfolge: Standard (xyzct)
                          2. Konvertieren Sie den geöffneten Stack in Hyperstack, machen Sie Image > Hyperstack > Stack to Hyperstack. Verwenden Sie die standardmäßige xyczt-Reihenfolge und geben Sie den entsprechenden c-, z-, t-Wert ein

                        Inhalt

                        ImageJ kann 8-Bit-Farb- und Graustufen-, 16-Bit-Ganzzahl- und 32-Bit-Gleitkommabilder anzeigen, bearbeiten, analysieren, verarbeiten, speichern und drucken. Es kann viele Bilddateiformate lesen, einschließlich TIFF, PNG, GIF, JPEG, BMP, DICOM und FITS sowie Rohformate. ImageJ unterstützt Bild Stapel, eine Reihe von Bildern, die sich ein einziges Fenster teilen, und ist multithreaded, sodass zeitaufwändige Vorgänge parallel auf Multi-CPU-Hardware ausgeführt werden können. ImageJ kann Flächen- und Pixelwertstatistiken von benutzerdefinierten Auswahlen und Objekten mit Intensitätsschwelle berechnen. Es kann Entfernungen und Winkel messen. Es kann Dichtehistogramme und Linienprofildiagramme erstellen. Es unterstützt Standard-Bildverarbeitungsfunktionen wie logische und arithmetische Operationen zwischen Bildern, Kontrastmanipulation, Faltung, Fourier-Analyse, Schärfung, Glättung, Kantenerkennung und Medianfilterung. Es führt geometrische Transformationen wie Skalierung, Drehung und Spiegelung durch. Das Programm unterstützt eine beliebige Anzahl von Bildern gleichzeitig, nur begrenzt durch den verfügbaren Speicher.

                        Vor der Veröffentlichung von ImageJ im Jahr 1997 war ein ähnliches Freeware-Bildanalyseprogramm namens NIH-Bild wurde in Object Pascal für Macintosh-Computer mit Betriebssystemen vor OS X entwickelt. Die Weiterentwicklung dieses Codes wird in Form von Image SXM fortgesetzt, einer auf die physikalische Untersuchung von Rastermikroskopbildern zugeschnittenen Variante. Eine Windows-Version – portiert von der Scion Corporation (jetzt eingestellt), sog. Scion-Image für Windows – wurde ebenfalls entwickelt. Beide Versionen sind weiterhin verfügbar, aber – im Gegensatz zu NIH Image – Closed Source. [12]


                        Danksagung

                        Wir danken Robert Haase, Hella Hartmann, Florian Jug, Anna Klemm und Pavel Tomancak für konstruktive Kommentare zu Manuskript und Spickzettel. Andreas Müller steuerte das in Abbildung 4 verwendete EM-Bild bei. Bei der Vorbereitung der Figuren wurden fantastische Icons verwendet. Wir danken unseren Gutachtern und Lesern für ihre sehr hilfreichen Kommentare, die unsere Arbeit wesentlich verbessert haben.

                        Diese Veröffentlichung wurde von COST Action NEUBIAS (CA15124) unterstützt, finanziert von COST (European Cooperation in Science and Technology).


                        Schau das Video: Tute1: Basic Image Processing with ImageJ (Juli 2022).


Bemerkungen:

  1. Bearach

    Bravo, dein Denken ist großartig

  2. Jiro

    Es tut mir leid, nichts, ich kann Ihnen nicht helfen. Ich denke, Sie werden die richtige Lösung finden. Verzweifeln Sie nicht.

  3. Roosevelt

    Nun, ich stimme Ihrem Satz zu

  4. Diondre

    Huy, Leute, lest den Artikel. Um nicht zu sagen, dass es hervorragend gerade ist, aber auch nicht fiehnya. +2.

  5. Rafiq

    Ich bitte um Verzeihung, diese Variante passt nicht zu mir.

  6. Fearcher

    Ich entschuldige mich, aber meiner Meinung nach ist es offensichtlich.

  7. Earwine

    Ich entschuldige mich für die Einmischung; Es gibt einen Vorschlag, dass wir einen anderen Weg einschlagen sollten.



Eine Nachricht schreiben