Ein Objektsegmentierungsprotokoll für orbitale Computertomographie (CT) Bilder wird eingeführt. Die Methoden zur Markierung der Grundwahrheit von Orbitalstrukturen mit Superauflösung, zur Extraktion des interessierenden Volumens aus CT-Bildern und zur Modellierung der Multilabel-Segmentierung mit 2D-sequentiellem U-Net für orbitale CT-Bilder werden für überwachtes Lernen erläutert.
In jüngster Zeit wurden Deep-Learning-basierte Segmentierungsmodelle im ophthalmologischen Bereich weit verbreitet. Diese Studie stellt den vollständigen Prozess des Aufbaus eines orbitalen Computertomographie-Segmentierungsmodells (CT) auf Basis von U-Net dar. Für überwachtes Lernen ist ein arbeitsintensiver und zeitaufwändiger Prozess erforderlich. Die Methode der Markierung mit Superauflösung zur effizienten Maskierung der Bodenwahrheit auf orbitalen CT-Bildern wird eingeführt. Außerdem wird das interessierende Volumen im Rahmen der Vorverarbeitung des Datensatzes abgeschnitten. Nach der Extraktion der interessierenden Volumina der Orbitalstrukturen wird das Modell zur Segmentierung der Schlüsselstrukturen des orbitalen CT mit U-Net erstellt, mit sequentiellen 2D-Slices, die als Eingaben verwendet werden, und zwei bidirektionalen konvolutionalen Langzeitspeichern zur Erhaltung der Korrelationen zwischen den Schichten. Diese Studie konzentriert sich hauptsächlich auf die Segmentierung des Augapfels, des Sehnervs und der extraokularen Muskeln. Die Auswertung der Segmentierung zeigt die mögliche Anwendung der Segmentierung auf orbitale CT-Bilder mittels Deep-Learning-Methoden.
Die Augenhöhle ist ein kleiner und komplizierter Raum von etwa 30,1 cm3 , der wichtige Strukturen wie Augapfel, Nerven, extraokulare Muskeln, Stützgewebe und Gefäße für Seh- und Augapfelbewegungen enthält1. Orbitale Tumoren sind abnormale Gewebewucherungen in der Augenhöhle, und einige von ihnen bedrohen das Sehvermögen oder die Augapfelbewegung der Patienten, was zu tödlichen Funktionsstörungen führen kann. Um die Sehfunktion der Patienten zu erhalten, müssen Ärzte über die Behandlungsmodalitäten basierend auf den Tumormerkmalen entscheiden, und eine chirurgische Biopsie ist in der Regel unvermeidlich. Dieser kompakte und überfüllte Bereich macht es für Kliniker oft schwierig, eine Biopsie durchzuführen, ohne die normale Struktur zu beschädigen. Die Deep-Learning-basierte Bildanalyse der Pathologie zur Bestimmung des Zustands der Umlaufbahn könnte helfen, unnötige oder vermeidbare Verletzungen des orbitalen Gewebes während der Biopsiezu vermeiden 2. Eine Methode der Bildanalyse für orbitale Tumoren ist die Tumorerkennung und -segmentierung. Die Sammlung großer Datenmengen für CT-Bilder, die orbitale Tumoren enthalten, ist jedoch aufgrund ihrer geringen Inzidenz begrenzt3. Die andere effiziente Methode zur computergestützten Tumordiagnose4 besteht darin, den Tumor mit den normalen Strukturen der Umlaufbahn zu vergleichen. Die Anzahl der orbitalen CT-Bilder in normalen Strukturen ist relativ größer als in Tumoren. Daher ist die Segmentierung normaler Bahnstrukturen der erste Schritt, um dieses Ziel zu erreichen.
Diese Studie stellt den gesamten Prozess der Deep-Learning-basierten Orbitalstruktursegmentierung dar, einschließlich der Datenerfassung, Vorverarbeitung und anschließenden Modellierung. Die Studie soll eine Ressource für Kliniker sein, die daran interessiert sind, die aktuelle Methode zur effizienten Erstellung eines maskierten Datensatzes zu verwenden, und für Augenärzte, die Informationen über die Vorverarbeitung und Modellierung von orbitalen CT-Bildern benötigen. Dieser Artikel stellt eine neue Methode zur Orbitalstruktursegmentierung und sequentielles U-Net vor, ein sequentielles 2D-Segmentierungsmodell, das auf einer repräsentativen Deep-Learning-Lösung in U-Net für die Segmentierung medizinischer Bilder basiert. Das Protokoll beschreibt das detaillierte Verfahren der Bahnsegmentierung, einschließlich (1) der Verwendung eines Maskierungswerkzeugs für die Grundwahrheit der Bahnstruktursegmentierung, (2) der Schritte, die für die Vorverarbeitung der Orbitalbilder erforderlich sind, und (3) des Trainierens des Segmentierungsmodells und der Bewertung der Segmentierungsleistung.
Für das überwachte Lernen kommentierten vier erfahrene Augenärzte, die seit über 5 Jahren zertifiziert waren, die Masken des Augapfels, des Sehnervs und der extraokularen Muskeln manuell. Alle Augenärzte verwendeten die Maskierungssoftware (MediLabel, siehe Materialtabelle), die eine Superauflösung für eine effiziente Maskierung von CT-Scans verwendet. Die Maskierungssoftware verfügt über die folgenden halbautomatischen Funktionen: (1) SmartPencil, der Superpixel-Map-Cluster mit ähnlichen Werten der Bildintensitäterzeugt 5; (2) SmartFill, das Segmentierungsmasken erzeugt, indem es die Energiefunktion des laufenden Vorder- und Hintergrunds berechnet 6,7; und (3) Autokorrektur, die die Ränder der Segmentierungsmasken sauber und konsistent mit dem Originalbild macht. Beispielbilder der halbautomatischen Features sind in Abbildung 1 dargestellt. Die detaillierten Schritte der manuellen Maskierung finden Sie im Protokollabschnitt (Schritt 1).
Der nächste Schritt ist die Vorverarbeitung der orbitalen CT-Scans. Um die Orbital Volumes of Interest (VOIs) zu erhalten, werden die Bereiche der Umlaufbahn identifiziert, in denen sich Augapfel, Muskel und Nerv unter normalen Bedingungen befinden, und diese Bereiche werden abgeschnitten. Das Dataset hat eine hohe Auflösung mit <1 mm Voxelauflösung und Schichtdicke in der Ebene, sodass der Interpolationsprozess übersprungen wird. Stattdessen wird das Fensterschneiden auf der 48 HE-Clipping-Ebene und dem 400-HE-Fenster durchgeführt. Nach dem Zuschneiden und Fensterausschnitt werden drei serielle Slices der Orbit-VOIs für den Segmentierungsmodelleingang8 generiert. Der Protokollabschnitt (Schritt 2) enthält Details zu den Vorverarbeitungsschritten.
U-Net9 ist ein weit verbreitetes Segmentierungsmodell für medizinische Bilder. Die U-Net-Architektur besteht aus einem Encoder, der die Merkmale der medizinischen Bilder extrahiert, und einem Decoder, der die diskriminierenden Merkmale semantisch darstellt. Bei der Verwendung von U-Net für CT-Scans bestehen die Faltungsschichten aus 3D-Filtern10,11. Dies ist eine Herausforderung, da die Berechnung von 3D-Filtern eine große Speicherkapazität erfordert. Um den Speicherbedarf für 3D U-Net zu reduzieren, wurde SEQ-UNET8 vorgeschlagen, wobei ein Satz sequenzieller 2D-Slices im U-Net verwendet wird. Um den Verlust raumzeitlicher Korrelationen zwischen den 2D-Bildschnitten des 3D-CT-Scans zu verhindern, werden zwei bidirektionale konvolutionale Langzeitkurzzeitspeicher (C-LSTMs)12 im Basis-U-Net verwendet. Der erste bidirektionale C-LSTM extrahiert die Korrelationen zwischen den Schichten am Ende des Encoders. Das zweite bidirektionale C-LSTM wandelt nach der Ausgabe des Decoders die semantische Segmentierungsinformation in den Dimensionen der Slice-Sequenz in eine einzelne Bildsegmentierung um. Die Architektur von SEQ-UNET ist in Abbildung 2 dargestellt. Die Implementierungscodes sind auf github.com/SleepyChild1005/OrbitSeg verfügbar, und die Verwendung der Codes wird im Protokollabschnitt (Schritt 3) detailliert beschrieben.
Deep-Learning-basierte medizinische Bildanalyse wird häufig zur Krankheitserkennung eingesetzt. In der Ophthalmologie werden Nachweis- und Segmentierungsmodelle bei diabetischer Retinopathie, Glaukom, altersbedingter Makuladegeneration und Frühgeborenenretinopathie eingesetzt. Andere seltene Krankheiten außer denen in der Augenheilkunde wurden jedoch aufgrund des begrenzten Zugangs zu großen offenen öffentlichen Datensätzen für Deep-Learning-Analysen nicht untersucht. Bei der Anwendung dieser Methode in Situationen, in denen kein öffentliches Dataset verfügbar ist, ist der Maskierungsschritt, der eine arbeits- und zeitaufwändige Aufgabe ist, unvermeidlich. Der vorgeschlagene Maskierungsschritt (Protokollabschnitt, Schritt 1) hilft jedoch, innerhalb kurzer Zeit eine Maskierung mit hoher Genauigkeit zu generieren. Mithilfe von Superpixeln und neuronaler Netzwerk-basierter Füllung, bei denen Pixel gruppiert werden, die in Low-Level-Bildeigenschaften ähnlich sind, können Ärzte die Masken beschriften, indem sie auf die Pixelgruppen klicken, anstatt auf die spezifischen Pixel hinzuweisen. Auch die automatischen Korrekturfunktionen helfen dabei, die Maskenprozesse zu verfeinern. Die Effizienz und Effektivität dieser Methode wird dazu beitragen, mehr maskierte Bilder in der medizinischen Forschung zu erzeugen.
Unter den vielen Möglichkeiten der Vorverarbeitung sind die Extraktion von VOIs und das Clipping von Fenstern effektive Methoden. Hier werden das Extrahieren von VOIs und das Clipping von Fenstern in Schritt 2 des Protokolls eingeführt. Wenn die Kliniker den Datensatz vorbereiten, ist die Extraktion des VOI aus dem gegebenen Datensatz der wichtigste Schritt im Prozess, da sich die meisten Segmentierungsfälle auf kleine und spezifische Regionen im gesamten medizinischen Bild konzentrieren. In Bezug auf die VOIs werden die Regionen des Augapfels, des Sehnervs und der extraokularen Muskeln basierend auf dem Standort abgeschnitten, aber effektivere Methoden zur Extraktion von VOIs haben das Potenzial, die Segmentierungsleistung zu verbessern14.
Für die Segmentierung wird SEQ-UNET in der Studie eingesetzt. Die medizinischen 3D-Bilder haben große Volumina, so dass tiefe neuronale Netzwerkmodelle große Speicherkapazitäten erfordern. In SEQ-UNET wird das Segmentierungsmodell mit einer kleinen Anzahl von Slices implementiert, um die erforderliche Speichergröße zu reduzieren, ohne die Merkmale der 3D-Informationen zu verlieren.
Das Modell wurde mit 46 VOIs trainiert, was für die Modellausbildung keine große Zahl ist. Aufgrund der geringen Anzahl von Trainingsdatensätzen ist die Leistungsfähigkeit des Sehnervs und der extraokularen Muskelsegmentierung begrenzt. Transfer Learning15 und Domain Adaptation8 könnten eine Lösung zur Verbesserung der Segmentierungsleistung bieten.
Der gesamte hier vorgestellte Segmentierungsprozess beschränkt sich nicht nur auf die orbitale CT-Segmentierung. Die effiziente Markierungsmethode hilft bei der Erstellung eines neuen medizinischen Bilddatensatzes, wenn die Anwendungsdomäne für das Forschungsgebiet einzigartig ist. Die Python-Codes von GitHub bezüglich der Vorverarbeitungs- und Segmentierungsmodellierung können auf andere Domänen angewendet werden, indem der Zuschneidebereich, die Fensterbeschneidungsebene und die Modellhyperparameter wie die Anzahl der sequenziellen Slices, die U-Net-Architekturen usw. geändert werden.
The authors have nothing to disclose.
Diese Arbeit wurde von der National Research Foundation of Korea (NRF) unterstützt, die vom koreanischen Ministerium für Wissenschaft und IKT (MSIT) finanziert wurde (Nummer: 2020R1C1C1010079). Für den CMC-ORBIT-Datensatz erteilte das zentrale Institutional Review Board (IRB) des Catholic Medical Center die Genehmigung (XC19REGI0076). Diese Arbeit wurde vom 2022 Hongik University Research Fund unterstützt.
GitHub link | github.com/SleepyChild1005/OrbitSeg | ||
MediLabel | INGRADIENT (Seoul, Korea) | a medical image labeling software promgram for segmentation with fewer click and higher speed | |
SEQ-UNET | downloadable from GitHub | ||
SmartFil | wizard in MediLabel | ||
SmartPencil | wizard in MediLabel |