Maschinelles Lernen

Nachricht

HeimHeim / Nachricht / Maschinelles Lernen

Nov 24, 2023

Maschinelles Lernen

Wissenschaftliche Berichte Band 12,

Scientific Reports Band 12, Artikelnummer: 14740 (2022) Diesen Artikel zitieren

1388 Zugriffe

17 Altmetrisch

Details zu den Metriken

Die kortikale Atrophie wird klinisch anhand etablierter visueller Bewertungsskalen auf Basis der Magnetresonanztomographie (MRT) gemessen. Obwohl die MRT des Gehirns der primäre bildgebende Marker für Neurodegeneration ist, wird die Computertomographie (CT) auch häufig zur Früherkennung und Diagnose von Demenz eingesetzt. Sie werden jedoch selten untersucht. Aus diesem Grund haben wir einen Algorithmus für maschinelles Lernen zur automatischen Schätzung der kortikalen Atrophie im Gehirn-CT entwickelt. Gehirn-CT-Bilder (259 Alzheimer-Demenz-Patienten und 55 kognitiv normale Probanden) wurden von drei Neurologen visuell bewertet und für das Training verwendet. Wir haben einen Algorithmus konstruiert, indem wir das Faltungs-Neuronale Netzwerk und die regulierte logistische Regression (RLR) kombiniert haben. Anschließend wurde die Modellleistung mit der von Neurologen verglichen und die Bedeutung der Merkmale gemessen. RLR lieferte schnelle und zuverlässige automatische Schätzungen der frontalen Atrophie (75,2 % Genauigkeit, 93,6 % Sensitivität, 67,2 % Spezifität und 0,87 Fläche unter der Kurve [AUC]), der posterioren Atrophie (79,6 % Genauigkeit, 87,2 % Sensitivität, 75,9 % Spezifität) und 0,88 AUC), rechte mediale Temporalatrophie (81,2 % Genauigkeit, 84,7 % Sensitivität, 79,6 % Spezifität und 0,88 AUC) und linke mediale Temporalatrophie (77,7 % Genauigkeit, 91,1 % Sensitivität, 72,3 % Spezifität und 0,90 AUC). Wir kamen zu dem Schluss, dass die RLR-basierte automatische Schätzung der Gehirn-CT eine umfassende Bewertung der Atrophie lieferte, die Ärzten im realen klinischen Umfeld potenziell helfen kann.

Die strukturelle Bildgebung des Gehirns wird in den diagnostischen Leitlinien für Demenz empfohlen1,2 und es ist bekannt, dass sie mit kognitiven Dysfunktionen bei normalen älteren Menschen oder Patienten mit Alzheimer-Krankheit (AD) zusammenhängt3,4. Zusätzlich zum Ausschluss chirurgischer Läsionen ist mithilfe der strukturellen Bildgebung des Gehirns die Beurteilung einer Hirnatrophie möglich, die auf eine zugrunde liegende Pathologie, einschließlich des medialen Temporallappens für AD5, schließen lässt. Zur Beurteilung der Hirnatrophie wurden mehrere visuelle Bewertungsskalen auf der Grundlage struktureller Bildgebung beschrieben, von denen einige in der Forschung und der klinischen Praxis weit verbreitet sind5,6. Im Vergleich zu quantitativen volumetrischen Maßen haben visuelle Bewertungsskalen den Vorteil, dass klinisch erfasste Bilder ohne zeitaufwändigen Prozess direkt angewendet werden können7. Es gibt jedoch Probleme mit der Zuverlässigkeit der Inter- oder Intra-Bewerter-Übereinstimmung8,9 und die meisten visuellen Bewertungsskalen basieren auf der Magnetresonanztomographie (MRT) des Gehirns7. Obwohl die MRT des Gehirns laut dem aktuellen Forschungsrahmen für AD10 der primäre bildgebende Marker für Neurodegeneration ist, kann die Computertomographie (CT) des Gehirns auch bei Patienten mit Demenz wichtige Informationen liefern11. Noch wichtiger ist, dass die Gehirn-CT zunehmend für die Früherkennung von Demenz eingesetzt wird und seit 2008 Teil des koreanischen nationalen Demenzplans ist12. Daher besteht ein wachsender Bedarf an einer zuverlässigen und praktischen Methode zur visuellen Beurteilung der Gehirn-CT, die selten vorhanden war untersucht.

Die computergestützte, automatisierte Einstufung der Gehirn-CT bietet potenzielle Vorteile für die Maximierung der Zuverlässigkeit und Effizienz und führt zur Abdeckung eines Screening-Systems für kognitiven Verfall. Der Algorithmus zur visuellen Bewertung ist notwendig, um den klinischen Nutzen der automatisierten Bewertung zu erhöhen. Dies deutet darauf hin, dass ein „auf künstlicher Intelligenz (KI) basierender, computergestützter (CAD)“-Ansatz für auf struktureller Bildgebung basierende visuelle Bewertungsskalen erforderlich sein wird, die darauf basieren, Neurodegeneration zu entdecken und zu analysieren, indem die statistische Leistung zur Erkennung subtiler Effekte ermöglicht wird.

KI ist ein umfassendes Gebiet der Informatik, bei dem Computer und Maschinen zur Ausführung bestimmter Aufgaben eingesetzt werden, um die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Geistes nachzuahmen und so ein intelligentes System zu schaffen. Maschinelles Lernen, Repräsentationslernen und Deep Learning sind Teilgebiete der KI. Eine wachsende Zahl klinischer Anwendungen, die auf maschinellem Lernen und Deep Learning basieren, wurde in der Neurobildgebung zur Risikobewertung, Diagnose, Prognose und Vorhersage vorgeschlagen13. Daher könnte maschinelles Lernen, das von Experten spezifizierte explizite Merkmale übernimmt und potenzielle Vorteile bei der Identifizierung des Demenzrisikos in der Neurobildgebung gezeigt hat14, für die automatisierte Einstufung von Gehirn-CTs zur Unterstützung der klinischen Beurteilung eingesetzt werden.

Daher zielte diese Studie darauf ab, maschinelle Lernalgorithmen für die automatische Einstufung kortikaler Atrophie mittels Gehirn-CT zu entwickeln und diese mit den visuellen Bewertungen von Neurologen zu vergleichen.

Wir rekrutierten 259 Patienten mit AD und 55 kognitiv normale (CN) Probanden, die sich einer MRT und CT des Gehirns unterzogen. Die Alzheimer-Krankheit wurde auf der Grundlage der Forschungskriterien des National Institute on Aging-Alzheimer's Association (NIA-AA) für wahrscheinliche AD1 diagnostiziert. Probanden mit normaler Kognition wurden als Personen ohne neurologische oder psychiatrische Störungen in der Vorgeschichte definiert, und die normale kognitive Funktion wurde mithilfe neuropsychologischer Tests bestimmt.

Alle Probanden wurden durch klinische Befragung, neurologische Untersuchung, neuropsychologische Tests und Labortests, einschließlich vollständigem Blutbild, Blutchemie, Vitamin B12/Folat, Syphilis-Serologie und Schilddrüsenfunktionstests, bewertet. Die MRT des Gehirns bestätigte das Fehlen struktureller Läsionen, einschließlich territorialer Hirninfarkte, Hirntumoren, Hippocampussklerose und Gefäßfehlbildungen. Demografische Daten sind in Tabelle 1 beschrieben. Die Studie umfasste 55 Teilnehmer mit normaler Kognition (NC) und 256 Teilnehmer mit AD. Das Durchschnittsalter (Standardabweichung) der Teilnehmer mit NC betrug 53,1 (20,2), während das der Teilnehmer mit AD 69,0 (10,4) betrug. Bei den Teilnehmern mit NC waren 28 Teilnehmer (50,9 %) Frauen, bei den Teilnehmern mit AD waren es 146 Teilnehmer (56,4 %).

Dieses Studienprotokoll wurde vom Institutional Review Board des Samsung Medical Center genehmigt (Genehmigungsnummer 2017-07-039). Wir haben von jedem Probanden eine schriftliche Einverständniserklärung eingeholt und alle Verfahren wurden gemäß den genehmigten Richtlinien durchgeführt.

Wir haben standardisierte, dreidimensionale T1-Turbofeld-Echobilder von allen Probanden im Samsung Medical Center mit demselben 3,0-T-MRT-Scanner (Philips Achieva; Philips Healthcare, Andover, MA, USA) mit den folgenden Parametern aufgenommen: sagittale Schichtdicke von 1,0 mm, über zusammenhängende Schichten mit 50 % Überlappung, ohne Lücke, Wiederholungszeit (TR) von 9,9 ms, Echozeit (TE) von 4,6 ms, Flipwinkel von 8° und Matrixgröße von 240 × 240 Pixel, rekonstruiert auf 480 × 480 über ein Sichtfeld von 240 mm. Die tatsächliche Scannerauflösung der MR-Bilder hat also eine isotrope Voxelgröße von 1,0 mm und die Voxelgröße unserer rekonstruierten T1-MR-Bilder hat eine isotrope Voxelgröße von 0,5 mm durch Überlappung zwischen benachbarten Schichten.

Wir haben CT-Bilder von allen Probanden im Samsung Medical Center mit einem Discovery STe PET/CT-Scanner (GE Medical Systems, Milwaukee, WI, USA) im dreidimensionalen Scanmodus aufgenommen, der 47 3,3 mm dicke Scheiben untersucht, die sich über die gesamte Fläche erstrecken Gehirn15,16. CT-Bilder wurden auch mit einem 16-Schicht-Helix-CT (140 keV, 80 mA, 3,75 mm Schnittbreite) zur Schwächungskorrektur aufgenommen. Die Voxelgröße der mit dem PET-CT-Scanner erfassten CT-Bilder beträgt 0,5 mm × 0,5 mm × 3,27 mm. Der SNR-Wert wurde durch eine Phantomstudie (3,75 mm Schichtdicke, 120 kVp, 190 mA) überprüft und mit dem PET-CT-Scanner GE Discovery STe durchgeführt. Die SNR-Ergebnisse unserer Phantomstudie waren: Wasserschicht: 0,23 ± 0,04 bzw. Acrylschicht: 25,97 ± 1,34. Das SNR wurde als „SNR = CT-Nummer / SD (Rauschen)“ berechnet.

Die beiden unterschiedlichen Modalitäten der Bildgebung des Gehirns wurden vor der Verwendung des Segmentierungsnetzwerks einer Vorverarbeitung unterzogen. Zunächst wurden die CT-Bilder im Datenformat Digital Imaging and Communications in Medicine (DICOM) durch Anwendung von dcm2niix (Chris Rordens dcm2niiX-Version v1.0.20171017 [OpenJPEG-Build] GCC4.4.7 [64-] in das Datenformat Neuroimaging Informatics Technology Initiative (NIFTI) konvertiert. Bit Linux]). Anschließend haben wir die 3D-CT-Bilder mit dem Linear Image Registration Tool (FLIRT) des FMRIB, einem Tool der FSL-Software (https://fsl.fmrib.ox.ac.uk/fsl/fslwiki; FMRIB-Softwarebibliothek v6.0)17,18. Die Bildregistrierung wurde mittels Starrkörper-Affintransformation durchgeführt. Der Registrierungsprozess erfolgt vollautomatisch mit Parametern sowohl für 6 Freiheitsgrade als auch für Spline-Interpolationsmethoden.

Das Brain Extraction Tool (BET)19, ein weiteres Tool der FSL-Software, war ebenfalls ein validiertes Mittel zur Schädelentfernung in Gehirn-CT-Bildern20. Nachdem wir jedes Bild auf den allgemeinen Hirngewebebereich eingestellt hatten, verwendeten wir BET mit einem FI-Wert (Fractional Intensity) von 0,01 und erfassten die vom Schädel befreiten CT-Bilder. Jedes vom Schädel befreite CT-Bild wurde manuell überprüft, um eindeutige Ergebnisse sicherzustellen. Anschließend wurden auf jedes Bild Intensitätsnormalisierung und Histogrammausgleich angewendet. Schließlich haben wir die CT-Schnitte aufgrund der GPU-Leistung auf 128 × 128 Pixel verkleinert.

Nach der Vorverarbeitung der CT-Bilder wurden T1-MR-Bilder zum Trainieren des Deep-Learning-basierten CT-Bildsegmentierungsmodells verwendet. Um vordefinierte anatomische Beschriftungen zu erhalten, wurden MR-Bilder mit der FreeSurfer-Software (https://surfer.nmr.mgh.harvard.edu)21,22 vorverarbeitet. Aufgrund des geringen Kontrasts in CT-Bildern wurde die automatische Segmentierung von CT-Bildern nur für drei Parzellierungen durchgeführt: Liquor cerebrospinalis (CSF), weiße Substanz (WM) und graue Substanz (GM). Aus dem oben genannten Grund wurden auch MR-Schnitte auf die Hälfte ihrer Pixel verkleinert.

Um das Segmentierungsbild der Gehirn-CT zu erhalten, wurde ein Faltungs-Neuronales Netzwerk (CNN) implementiert. Unter den vielfältigen, hochmodernen Netzwerken haben wir uns für die 2D-Form von U-Net entschieden, die sich bereits in verschiedenen biomedizinischen Segmentierungsstudien als wirksam erwiesen hat23. Vorverarbeitete 3D-CT-Bilder wurden in axiale 2D-Schnitte geschnitten und im Gehirn nicht sichtbare Schnitte wurden zuvor entfernt. Ebenso wurden segmentierte 3D-MR-Bilder auf die gleiche Weise geschnitten. Anschließend versuchten wir, ein CNN-Segmentierungsnetzwerk aufzubauen, indem wir das verfeinerte 2D-CT-Bild als Eingabe und gleichzeitig die entsprechende MR als Antwortetikett verwendeten. Abbildung 1 zeigt das schematische Diagramm des U-Net-Frameworks. Segmentierungsausgaben wurden über die U-Net-Architektur mit 10 verschiedenen Modellgewichten über eine zehnfache Zug-/Testaufteilung erhalten. Während des Trainingsprozesses haben wir jedes resultierende Modell mithilfe eines Adaptive Moment Estimation (Adam)-Optimierers verfeinert, mit 1e-6 als anfänglicher Lernrate und 16 als Stapelgröße. Wir haben außerdem eine Frühstoppmethode angewendet, um eine Überanpassung zu verhindern. Die Qualität jedes Segmentierungsergebnisses wurde manuell überprüft und zur weiteren Validierung haben wir den Würfelähnlichkeitskoeffizienten (DSC) berechnet, der definiert ist als

X repräsentiert den Antwort-Slice-Bereich, Y repräsentiert den Ergebnis-Slice-Bereich.

Ein Rahmenschema. Tensoren werden als Kästchen angezeigt, während Pfeile Rechenoperationen kennzeichnen. Unter jedem Kästchen wird die Anzahl der Kanäle angezeigt. Eingabe und Ausgabe dieses Netzwerks sind CT-Schnittbilder mit Label-Schnittpaaren und segmentierte CT-Bilder (segCT)-Schnittbilder. Die durch dreifache Kreuzvalidierung durchgeführte Klassifizierung erfolgte, indem die Probanden zufällig in drei Untergruppen eingeteilt wurden. BET-Gehirnextraktion, ReRU-Aktivierung der gleichgerichteten linearen Einheit, segCT Segmentierte CT, RLR-regularisierte logistische Regression, FA frontale Atrophie, PA Parietale Atrophie, MTAR mediale temporale Atrophie, rechts, MTAL mediale temporale Atrophie, links, Pos positiv, Neg negativ.

Ungeeignete Bilder aufgrund von Motivüberschneidungen, Konvertierungsfehlern, Registrierungskonflikten und visuellen Bewertungsfehlern wurden nach jeder Vorverarbeitungsstufe entfernt, sodass insgesamt 314 Motive zur Analyse übrig blieben.

Die visuelle Bewertung der kortikalen Atrophie erfolgte für den Frontallappen, den Parietallappen und den medialen Temporallappen durch Bewertung der axialen CT-Bilder des Gehirns. Die frontale Atrophie (FA) wurde anhand der vereinfachten Pasquier-Skala oder der globalen kortikalen Atrophie für den Frontallappen (GCA-F)8 beurteilt. Die parietale Atrophie (PA) wurde anhand der axialen Schablone der hinteren Atrophie-Skala24 gemessen. Abschließend wurde die mediale temporale Atrophie (MTA) anhand des Hippocampus und des umgebenden CSF25 beurteilt und zeigte eine gute Übereinstimmung mit der koronalen visuellen Bewertungsskala von Scheltens5. FA und PA wurden auf einer Vier-Punkte-Skala (von 0 bis 3) bewertet, während MTA auf einer Fünf-Punkte-Skala (von 0 bis 4) bewertet wurde. Schwerwiegendere Atrophien wurden gemessen, wenn eine Asymmetrie für FA und PA vorlag, während bilaterale Atrophien für MTA getrennt gemessen wurden. Die visuelle Bewertung wurde von drei Neurologen (Jae-Won Jang, Seongheon Kim und Yeshin Kim) durchgeführt, die für demografische und klinische Informationen blind waren. Bei Unstimmigkeiten wurde nach Prüfung der Fälle ein Konsens erzielt. Die Interrater- und Intrarater-Zuverlässigkeit mit zufällig ausgewählten Gehirn-CT-Bildern von 20 % aller Bilder wurde mit Werten von 0,81 ~ 0,92 bzw. 0,90 ~ 0,94 als ausgezeichnet bewertet (Ergänzungstabelle 1).

Das Verhältnis von GM, WM und Ventrikelgröße wurde aus den segmentierten CT-Bildern extrahiert und diente als Merkmale für den Klassifizierungsschritt. Angesichts der Schwierigkeit, PA, FA und MTA aus der CT zu extrahieren, haben wir versucht, die typischste Atrophie in der AD-Diagnose zu verwenden, nämlich die globale kortikale Atrophie (GCA). Wir haben jeweils Merkmale im 3D-Volumen und im 2D-Schnitt gezeichnet, die alle auf einer bestimmten Ebene mit GCA zusammenhängen. Eine detaillierte Beschreibung der extrahierten Funktionen finden Sie unten:

Das Volumenverhältnis: GMR3D (das Volumenverhältnis von GM), WMR3D (das Volumenverhältnis von WM), GMWMR3D (das Volumenverhältnis der Summe von GM und WM im Gesamthirnvolumen), Ven3D (die Gesamtvoxelzahl des Ventrikel im Gesamthirnvolumen).

Das Flächenverhältnis: GMR2D (das Flächenverhältnis von GM), WMR2D (das Flächenverhältnis von WM), GMWMR2D (das Flächenverhältnis der Summe von GM und WM in der jeweiligen Hirnschicht, die die sichtbare Schicht vor dem Ventrikel angibt bei Betrachtung des Gehirns von oben nach unten in axialer Ausrichtung), Ven2D (die Gesamtpixelzahl des Ventrikels in der jeweiligen Gehirnschicht, die die Schicht mit dem am besten beobachteten Ventrikel angibt, dargestellt als „Schmetterlingsform“).

Die konsolidierte Pipeline des Klassifizierungsrahmens ist in Abb. 1 dargestellt. Vor der vollständigen Klassifizierung haben wir den aktuellen Atrophie-Bewertungswert mit mehreren Graden auf zwei Grad reduziert – positiv und negativ. Beispielsweise wurden in Bezug auf FA und PA Werte der visuellen Bewertungsskala (VRS) von 0 und 1 als negativ angesehen, während VRS-Werte von 2 und 3 als positiv angesehen wurden. In ähnlicher Weise wurden bei MTAs VRS-Werte von 0 und 1 als negativ angesehen, während VRS-Werte von 2, 3 und 4 als positiv angesehen wurden.

Für die Klassifizierungsphase haben wir uns für die Verwendung eines der einfachsten überwachten Lernalgorithmen mit hoher Verzerrung entschieden, einer regulierten logistischen Regression (RLR), unter Berücksichtigung des Datenstatus und der Anzahl der extrahierten Merkmale. Die logistische Regression ist auch für AD-bezogene Klassifikationsarbeiten in der Neurobildgebung weithin anerkannt26. Das RLR-Modell wird anhand der extrahierten Merkmale trainiert und trifft die endgültige Vorhersage hinsichtlich der Atrophiediagnose in verschiedenen Gehirnpositionen. Wichtige Hyperparameter (z. B. Bestrafungstyp, Regularisierungsstärke, Optimierungslöseralgorithmus) wurden durch die Zufallssuchmethode in dreifacher Kreuzvalidierung innerhalb eines voreingestellten Bereichs optimiert. Der Prozess wurde mithilfe der Scikit-learn-Software, einem Python-Paket für maschinelles Lernen27, gründlich abgewickelt. Anschließend zeichneten wir zur Leistungsbewertung eine Receiver Operating Characteristic Curve (ROC-Kurve) auf und berechneten die Fläche unter der Kurve (AUC-Score). Anschließend haben wir den optimalen Grenzwert mit dem Maximalwert des Youden-Index ausgewählt, der definiert ist als

Zu diesem Zeitpunkt wurden auch mehrere Metriken berechnet, darunter Sensitivität (SENS), Spezifität (SPEC) und Klassifizierungsgenauigkeit (ACC).

In Abb. 2 sind CT-Segmentierungsergebnisse aus dem U-Net für beide Teilnehmer mit AD und NC dargestellt. Die präsentierten Schnitte, die als CSF und GCA bezeichnet werden, standen in engem Zusammenhang mit der AD-Diagnose. Der DSC wurde für jedes Subjekt berechnet und lag im Durchschnitt bei 0,725 ± 0,0443. Obwohl das Ergebnis nicht auf höchstem Niveau liegt, stellte es kein großes Hindernis für die endgültige Klassifizierungsphase dar. Darüber hinaus stellte sich heraus, dass die CT-Segmentierung die von uns geforderte Methode war, nämlich die grobe Parzellierung des Gehirns in CSF, WM und GM.

Beispiel für das Segmentierungsergebnis (A) Alzheimer-Demenz (B) Normale Kontrolle. GCA globale kortikale Atrophie, Liquor cerebrospinalis. Grün = weiße Substanz, blau = graue Substanz, rot = Liquor.

Wie in Tabelle 2 und Abb. 3 gezeigt, erreichte das vorgeschlagene RLR-Modell einen AUC-Wert von 0,8735 bei FA, 0,8821 bei PA, 0,8757 bei MTAR und 0,8952 bei MTAL. Beim jeweils maximalen Wert des Youden-Index zeigte das Modell Sensitivitäten von 93,52 % bei FA, 87,25 % bei PA, 84,69 % bei MTAR und 89,52 % bei MTAL; Spezifitäten von 67,27 % bei FA, 75,94 % bei PA, 79,63 % bei MTAR und 72,32 % bei MTAL; und Genauigkeiten von 75,16 % bei FA, 79,62 % bei PA, 81,21 % bei MTAR und 77,71 %. Unter allen vier Regionen schnitt MTAL hinsichtlich der AUC-Rate am besten ab, während PA die niedrigste AUC-Rate aufwies. Hinsichtlich der Sensitivität wies PA zwar die niedrigsten SPE- und AUC-Raten auf, erreichte jedoch hinsichtlich der SENS die höchste Rate. Darüber hinaus zeigte MTAR den höchsten Wert für SPEC und AUCC.

ROC-Kurve zur binären Klassifizierung von Atrophie. FA frontale Atrophie, PA Parietalatrophie, MTAR mediale temporale Atrophie, rechts, MTAL mediale temporale Atrophie, links.

Wir untersuchten weiter, wie sich die extrahierten Merkmale, die zum Trainieren des Klassifizierungsmodells verwendet wurden, auf den Entscheidungsprozess für jeden Atrophiefall auswirkten. In den trainierten RLR-Modellen haben wir den Wert der Merkmalskoeffizienten normalisiert, die zu jedem Merkmal passen, und sie als 3D-Balkendiagramm visualisiert (Abb. 4). Die Größe der Merkmalskoeffizienten für acht Merkmale (in der Reihenfolge GMR3D, WMR3D, GMWMR3D, Ven3D, GMR2D, WMR2D, GMWMR2D und Ven2D) betrug 0,148, 0,182, 0,181, 0,0680, 0,104, 0,124, 0,146 und 0,0477 in FA; 0,0572, 0,0658, 0,0677, 0,0982, 0,240, 0,165, 0,247 und 0,0598 in PA; 0,120, 0,0958, 0,125, 0,421, 0,0604, 0,0766, 0,0266 und 0,0741 in MTAR; und 0,0801, 0,0928, 0,0948, 0,407, 0,0861, 0,0181, 0,0480 und 0,173 in MTAL. Die Ergebnisse zeigten, dass größere Koeffizientenmittel einen größeren Einfluss auf die endgültige Entscheidungsfindung zeigten.

Merkmalsbedeutung der visuellen Bewertungsskala. FA-Frontalatrophie; PA parietale Atrophie; MTAR mediale temporale Atrophie, rechts; MTAL mediale temporale Atrophie, links; Ven2D (das Flächenverhältnis des Ventrikels); GMWMR2D (das Flächenverhältnis der Summe aus grauer Substanz [GM] und weißer Substanz [WM]); WMR2D (das Flächenverhältnis von WM); GMR2D (das Flächenverhältnis von GM); Ven3D (das Volumenverhältnis des Ventrikels); GMWMR3D (das Volumenverhältnis der Summe von GM und WM); WMR3D (das Volumenverhältnis von WM); GMR3D (das Volumenverhältnis von GM).

Die FA-Klassifizierung wurde durch allgemeine GCA-Merkmale sowohl aus dem 3D-Volumen als auch aus dem 2D-Schnitt beeinflusst. Im Fall von PA haben GCA-Merkmale aus einem bestimmten 2D-Schnitt großen Einfluss auf die Klassifizierung. Mittlerweile konnten MTAs nach ventrikulären Veränderungen sowohl im 3D-Volumen als auch im 2D-Schnitt klassifiziert werden, und nicht wie in den vorherigen Fällen nach GCA-Merkmalen.

Ein auf maschinellem Lernen basierender automatisierter Atrophieschätzer wurde entwickelt, um Klinikern bei der Entscheidung zu helfen, ob im Gehirn-CT eine signifikante Atrophie vorliegt. In dieser Studie zeigte das vorgeschlagene RLR-Modell eine gute Übereinstimmung mit der visuellen Bewertungsskala und eine hohe Zuverlässigkeit.

Seit Beginn des koreanischen nationalen Demenzplans im Jahr 2008 werden landesweit jährlich etwa 30.000 Gehirn-CT-Scans zur Differenzialdiagnose von Demenz durchgeführt, und diese Zahl steigt allmählich an12. Trotz der Fülle an gesammelten CT-Daten des Gehirns besteht aufgrund der geringen Auflösung der Bilder und der geringen Zuverlässigkeit der Auswerter ein ungedeckter Bedarf an visueller Bewertung.

Obwohl bereits über automatisierte CT-basierte Segmentierung und Quantifizierung des gesamten intrakraniellen Volumens berichtet wurde28, gibt es ähnliche Mängel bei der automatisierten volumetrischen Analyse mit Gehirn-MRT. Mit anderen Worten: Die visuelle Beurteilung des Gehirns mittels MRT erfordert Fachwissen, das in der klinischen Praxis nicht direkt für einzelne Probanden angewendet werden kann7. Im Gegensatz dazu kann, sobald der Algorithmus für die Gehirn-CT eingerichtet ist, die auf maschinellem Lernen basierende automatisierte Atrophiebewertung problemlos angewendet werden, um im Auftrag des Gutachters eine Atrophie zu identifizieren. Daher kann diese Methode nicht nur zur direkten Beurteilung der Atrophie bei einzelnen Patienten verwendet werden, sondern auch zur konsistenten Reproduktion ungefährer Expertenniveaus visueller Bewertungen in einer großen Anzahl von Gehirn-CT-Scans. Dies ist von Bedeutung, da die manuelle Segmentierung der Pixel, die Beschriftung und der interessierende Bereich in einem Bild erfahrene Leser erfordern, zeitaufwändig sind und anfällig für Schwankungen innerhalb und zwischen Beobachtern sind.

In den letzten Jahren wurden mehrere automatische und halbautomatische Methoden zur Gehirnsegmentierung sowohl für die MRT- als auch für die CT-Bildgebung vorgeschlagen29,30,31. Die kleine und komplexe Struktur des Gehirns macht die Segmentierung zu einer Herausforderung, insbesondere bei CT-Scans, da das deutlich geringere SNR und die geringere räumliche Auflösung wesentliche Einschränkungen darstellen. Die Bildsegmentierung kann zur besseren Visualisierung der morphologischen Veränderungen der Hirnatrophie eingesetzt werden, was dem Kliniker ein besseres Verständnis vermittelt und ihn im Diagnoseprozess unterstützt. In dieser Studie hat sich unsere vorgeschlagene Methodik bei der CT-basierten Bildgebung als effizient und effektiv erwiesen und kann problemlos für ähnliche automatisierte Anwendungen zur Einstufung von Hirnatrophie bei verschiedenen Bildgebungsmodalitäten genutzt werden.

Obwohl die Matrix der ersten Aufnahmebilder unter Berücksichtigung der GPU-Leistung verkleinert wurde, dauerte der Prozess nur wenige Sekunden und lieferte effektiv Ergebnisse, die klinische Entscheidungen unterstützen könnten. Darüber hinaus haben wir versucht, das Rauschen für die Gehirnsegmentierung und effiziente quantitative Leistungseffekte durch die Vorverarbeitungsphase zu reduzieren, was durch die Intensitäts- und Histogrammnormalisierung von CT-Bildern und die affine Transformation unter Verwendung von MRT-Bildern einzelner Probanden erfolgte. Daher ist es möglich, konsistente Ergebnisse zu liefern, indem segmentierte Gewebetypen von GM, CSF und WM in MRT- und CT-Bildern bereitgestellt werden.

Während die Genauigkeit und Zuverlässigkeit der RLR-Messungen für alle Gruppen hoch waren, erreichte MTAR im Vergleich zu den MTAL-, PA- und FA-Regionen die höchste Genauigkeitsrate. Im Gegensatz dazu war die FA-Region bei drei der vier Bewertungsmaßstäbe am niedrigsten, was möglicherweise auf die relative Unklarheit von FA bei AD im Vergleich zu MA oder PA zurückzuführen ist. Das vorgeschlagene RLR-Modell ergab ebenfalls eine Genauigkeit von 80 %, da etwa 20 % nicht der visuellen Bewertung der Neurologen entsprachen. Dies kann auf die Mehrdeutigkeit der visuellen Bewertung der Gehirn-CT selbst zurückzuführen sein. Darüber hinaus wurde die visuelle Bewertung als Kennzeichnungswert für das Training des maschinellen Lernens verwendet; Allerdings war es für einen Neurologen nicht einfach, die Atrophiebewertung auf der Grundlage der Gehirn-CT zu ermitteln, die im Vergleich zur Gehirn-MRT eine relativ geringe Auflösung aufwies. Da unser Ziel nicht darin bestand, die Hirnatrophie genau zu messen, sondern Algorithmen zu entwickeln, die die Atrophie konsistenter vorhersagen können, um klinische Entscheidungen zu unterstützen, glauben wir, dass die besser gekennzeichneten Daten die Genauigkeit verbessern könnten.

Der Beitrag von Merkmalen und seine Visualisierung ist eine wichtige Analysemethode im Bereich des maschinellen Lernens. Um herauszufinden, welche atrophiebezogene Region am meisten zur Leistung der vorgeschlagenen Modelle beigetragen hat, haben wir die Merkmalsbedeutung anhand des Koeffizientenwerts jedes Merkmals bewertet. Unter den am höchsten bewerteten Merkmalen waren GCA-Merkmale sowohl aus dem 3D-Volumen als auch aus dem 2D-Schnitt für die FA-Klassifizierung am wichtigsten, wohingegen GCA-Merkmale nur aus einem eindeutigen 2D-Schnitt die PA-Klassifizierung stark beeinflussten. Unser vorgeschlagenes Modell zeigte auch, dass ventrikuläre Veränderungen sowohl im 3D-Volumen als auch im 2D-Schnitt erheblich zur Klassifizierung von MTAs unter ihren anderen Gegenstücken beitrugen.

Trotz der vielversprechenden Ergebnisse wies die Studie Einschränkungen auf. Erstens könnte der kleine verfügbare Trainingsdatensatz die Modellleistung beeinträchtigt haben. Man kann davon ausgehen, dass ein größerer CT-basierter Datensatz die Genauigkeit der Methode verbessern würde. Im Vergleich zum MRT-basierten Datensatz ist zu erwähnen, dass MRT-Bilder deutlich detaillierter sind als die CT-basierten Scans, die eine gleichmäßigere Merkmalsverteilung aufweisen. Dies könnte die Idee weiter stützen, dass die Verfügbarkeit zusätzlicher CT-basierter Daten für das Modelltraining die Genauigkeitsrate für die Schätzung der Hirnatrophie verbessern wird. Daher kann die Erforschung von Deep-Learning-Strategien erforderlich sein, mit denen synthetische medizinische Bilder generiert werden können, beispielsweise Techniken zur Datenerweiterung. Zweitens wurde in dieser Studie ein monozentrischer Datensatz verwendet. Alle CT-Scans wurden an einer einzigen Einrichtung erfasst und unsere Modelle berücksichtigten nicht die Unterschiede in der Hardware-Implementierung und den Scantechniken zwischen den Einrichtungen. Dies kann die Ergebnisse verzerren und folglich die Generalisierbarkeit des trainierten CNN-Modells verringern. Außerdem können sich die SNR-Werte je nach Ausrüstung (Schichtdicke), Protokoll (mAs), Messziel oder Patient (Größe oder Organ) ändern, so dass es schwierig ist, einheitlich darüber zu sprechen, aber sie können zur Darstellung des CT-Scanners verwendet werden Status als SNR unserer Phantomstudie. Allerdings bleibt die Verfügbarkeit großer, vielfältiger, kommentierter Datensätze für das Training eine erhebliche Herausforderung bei der Entwicklung der CNN-Modelle. Drittens sind CT-Bilder mit einer hohen Strahlenbelastung der Patienten verbunden. Daher können sie in der klinischen Praxis trotz der Vorteile gegenüber der MRT hinsichtlich Preis und Zugänglichkeit nicht routinemäßig empfohlen werden. In dieser Studie wurde versucht, ein nützliches Modell für die Bewertung von Atrophie in der Gehirn-CT vorzustellen, das als regierungsgeführtes Frühdiagnoseprogramm im koreanischen Demenzplan stetig akkumuliert wurde.

Zusammenfassend lässt sich sagen, dass ein integriertes U-Net-Modell zur Hirnatrophie-Segmentierung mit einem RLR-Modell ein umfassendes klinisches Werkzeug für die visuelle Bewertung der Hirnatrophie lieferte. Diese Maßnahmen können die diagnostischen und prädiktiven Informationen verbessern, um eine Vielzahl von Regionen bei Hirnatrophieerkrankungen besser beurteilen zu können, insbesondere in Krankenhäusern mit begrenzten Ressourcen. Darüber hinaus kann das Sammeln umfangreicher Datensätze dazu beitragen, die CT-basierte Bewertungsanwendung in der klinischen Medizin zu beschleunigen, und es besteht Potenzial zur Verbesserung dieser auf maschinellem Lernen basierenden Methoden. Weitere Studien sollten darauf abzielen, dieses Tool zu erweitern, um Neurologen in realen klinischen Umgebungen zu unterstützen.

Die während der aktuellen Studie verwendeten und/oder analysierten Datensätze sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

McKhann, GM et al. Die Diagnose einer Demenz aufgrund der Alzheimer-Krankheit: Empfehlungen der Arbeitsgruppen des National Institute on Aging-Alzheimer's Association zu Diagnoserichtlinien für die Alzheimer-Krankheit. Alzheimer-Demenz https://doi.org/10.1016/j.jalz.2011.03.005 (2011).

Artikel PubMed Google Scholar

Wardlaw, JM et al. Neuroimaging-Standards für die Erforschung kleiner Gefäßerkrankungen und ihres Beitrags zum Altern und zur Neurodegeneration. Lancet Neurol. https://doi.org/10.1016/S1474-4422(13)70124-8 (2013).

Artikel PubMed PubMed Central Google Scholar

Jack, CR et al. Vergleich verschiedener MRT-Messungen der Hirnatrophierate mit dem klinischen Krankheitsverlauf bei AD. Neurology 62(4), 591–600 (2004).

Artikel Google Scholar

den Heijer, T. et al. Ein 10-Jahres-Follow-up des Hippocampusvolumens mittels Magnetresonanztomographie bei früher Demenz und kognitivem Verfall. Brain 133(4), 1163–1172 (2010).

Artikel Google Scholar

Scheltens, P. et al. Atrophie der medialen Temporallappen im MRT bei „wahrscheinlicher“ Alzheimer-Krankheit und normalem Altern: diagnostischer Wert und neuropsychologische Korrelate. J. Neurol. Neurochirurg. Psychiatrie https://doi.org/10.1136/jnnp.55.10.967 (1992).

Artikel PubMed PubMed Central Google Scholar

Victoroff, J., Mack, WJ, Grafton, ST, Schreiber, SS & Chui, HC Eine Methode zur Verbesserung der Interrater-Zuverlässigkeit der visuellen Inspektion von MRT-Scans des Gehirns bei Demenz. Neurologie https://doi.org/10.1212/wnl.44.12.2267 (2012).

Artikel Google Scholar

Harper, L., Barkhof, F., Fox, NC & Schott, JM Verwendung der visuellen Bewertung zur Diagnose von Demenz: Eine kritische Bewertung der MRT-Atrophieskalen. J. Neurol. Neurochirurg. Psychiatrie (2015). https://doi.org/10.1136/jnnp-2014-310090.

Pasquier, F. et al. Inter- und Intraobserver-Reproduzierbarkeit der Beurteilung der Hirnatrophie bei MRT-Scans mit hemisphärischen Infarkten. EUR. Neurol. https://doi.org/10.1159/000117270 (1996).

Artikel PubMed Google Scholar

Davies, RR et al. Entwicklung einer MRT-Bewertungsskala für mehrere Gehirnregionen: Vergleich mit der Volumetrie und der voxelbasierten Morphometrie. Neuroradiologie https://doi.org/10.1007/s00234-009-0521-z (2009).

Artikel PubMed Google Scholar

Jack, CR et al. NIA-AA-Forschungsrahmen: Auf dem Weg zu einer biologischen Definition der Alzheimer-Krankheit. Alzheimer-Demenz https://doi.org/10.1016/j.jalz.2018.02.018 (2018).

Artikel PubMed PubMed Central Google Scholar

De Leon, MJ, George, AE, Stylopoulos, LA, Smith, G. & Miller, DC Früher Marker für die Alzheimer-Krankheit: Der atrophische Hippocampus. The Lancet https://doi.org/10.1016/S0140-6736(89)90911-2 (1989).

Artikel Google Scholar

Lee, DW & Seong, SJ Koreanische nationale Demenzpläne: Vom 1. bis zum 3. J. Koreanisches Med. Assoc. https://doi.org/10.5124/jkma.2018.61.5.298 (2018).

Artikel Google Scholar

Jo, T., Nho, K. & Saykin, AJ Deep Learning bei der Alzheimer-Krankheit: Diagnostische Klassifizierung und prognostische Vorhersage mithilfe von Neuroimaging-Daten. 32.

Pellegrini, E. et al. Maschinelles Lernen der Neurobildgebung zur unterstützten Diagnose kognitiver Beeinträchtigungen und Demenz: Eine systematische Übersicht. Alzheimer-Demenz. Diag. Bewerten. Dis. Überwachen. 10, 519–535 (2018).

Google Scholar

Jang, H. et al. Klinische Bedeutung der Amyloid-β-Positivität bei Patienten mit wahrscheinlichen Markern für zerebrale Amyloid-Angiopathie. EUR. J. Nucl. Med. Mol. Bildgebung 46, 1287–1298 (2019).

Artikel CAS Google Scholar

Kim, SE et al. Ein Nomogramm zur Vorhersage der Amyloid-PET-Positivität bei amnestischer leichter kognitiver Beeinträchtigung. J. Alzheimers Dis. JAD 66, 681–691 (2018).

Artikel CAS Google Scholar

Jenkinson, M. & Smith, S. Med Image Anal 2001 Jenkinson. 5, 1–14 (2001).

Jenkinson, M., Bannister, P., Brady, M. & Smith, S. Verbesserte Optimierung für die robuste und genaue lineare Registrierung und Bewegungskorrektur von Gehirnbildern. Neuroimage 17, 825–841 (2002).

Artikel Google Scholar

Smith, SM Schnelle, robuste automatisierte Gehirnextraktion. Summen. Brain Mapp. 17, 143–155 (2002).

Artikel Google Scholar

Muschelli, J. et al. Validierte automatische Gehirnextraktion von Kopf-CT-Bildern. Neuroimage https://doi.org/10.1016/j.neuroimage.2015.03.074 (2015).

Artikel PubMed PubMed Central Google Scholar

Reuter, M., Rosas, HD & Fischl, B. Genaue inverse konsistente robuste Registrierung. Neuroimage 53, 1181–1196 (2010).

Artikel Google Scholar

Reuter, M., Schmansky, NJ, Rosas, HD & Fischl, B. Subjektinterne Vorlagenschätzung für eine unvoreingenommene Längsbildanalyse. Neuroimage 61, 1402–1418 (2012).

Artikel Google Scholar

Ronneberger, O., Fischer, P. & Brox, T. U-Net: Faltungsnetzwerke für die biomedizinische Bildsegmentierung.

Koedam, ELGE et al. Visuelle Beurteilung der Entwicklung einer posterioren Atrophie anhand einer MRT-Bewertungsskala. EUR. Radiol. https://doi.org/10.1007/s00330-011-2205-4 (2011).

Artikel PubMed PubMed Central Google Scholar

Kim, GH et al. T1-gewichtete axiale visuelle Bewertungsskala zur Beurteilung der medialen Temporalatrophie bei der Alzheimer-Krankheit. J. Alzheimers Dis. https://doi.org/10.3233/JAD-132333 (2014).

Artikel PubMed PubMed Central Google Scholar

Rathore, S., Habes, M., Iftikhar, MA, Shacklett, A. & Davatzikos, C. Ein Überblick über neuroimaging-basierte Klassifizierungsstudien und damit verbundene Methoden zur Merkmalsextraktion für die Alzheimer-Krankheit und ihre Prodromalstadien. Neuroimage 155, 530–548 (2017).

Artikel Google Scholar

Pedregosa, F. et al. Scikit-learn: Maschinelles Lernen in Python. J. Mach. Lernen. Res. 12, 2825–2830 (2011).

MathSciNet MATH Google Scholar

Aguilar, C. et al. Automatisierte CT-basierte Segmentierung und Quantifizierung des gesamten intrakraniellen Volumens. EUR. Radiol. https://doi.org/10.1007/s00330-015-3747-7 (2015).

Artikel PubMed Google Scholar

Suh, CH et al. Entwicklung und Validierung eines Deep-Learning-basierten automatischen Gehirnsegmentierungs- und Klassifizierungsalgorithmus für die Alzheimer-Krankheit unter Verwendung von 3D-T1-gewichteten volumetrischen Bildern. Bin. J. Neuroradiol. https://doi.org/10.3174/ajnr.A6848 (2020).

Artikel PubMed PubMed Central Google Scholar

Fellhauer, I. et al. Vergleich der automatisierten Gehirnsegmentierung mithilfe eines Gehirnphantoms und Patienten mit früher Alzheimer-Demenz oder leichter kognitiver Beeinträchtigung. Psychiatrie Res. Neuroimaging 233, 299–305 (2015).

Artikel Google Scholar

Yaakub, SN et al. Zur Auswahl von Gehirnatlas und automatischen Segmentierungsmethoden: ein Vergleich von MAPER und FreeSurfer unter Verwendung von drei Atlasdatenbanken. Wissenschaft. Rep. 10, 2837 (2020).

Artikel ADS CAS Google Scholar

Referenzen herunterladen

Diese Forschung wurde durch das Forschungsprojekt „National Institute of Health“ (2021-ER1006-01) unterstützt. Diese Forschung wurde durch einen Zuschuss des Korea Health Technology R&D Project des Korea Health Industry Development Institute (KHIDI) unterstützt, finanziert vom Ministerium für Gesundheit und Soziales der Republik Korea (Zuschussnummer: HI19C1132).

Abteilung für Neurologie, Medizinische Fakultät, Kangwon National University, Chuncheon, Republik Korea

Jae-Won Jang, Yeshin Kim und Seongheon Kim

Abteilung für Neurologie, Kangwon National University Hospital, Chuncheon, Republik Korea

Jae-Won Jang, Sang-Won Park, Payam Hosseinzadeh Kasani, Yeshin Kim und Seongheon Kim

Abteilung für medizinische Bigdata-Konvergenz, Kangwon National University, Chuncheon, Republik Korea

Jae-Won Jang, Sang-Won Park & ​​​​Payam Hosseinzadeh Kasani

Abteilung für Biomedizintechnik, Korea University, Seoul, Republik Korea

Jeonghun Kim & Joon-Kyung Seong

Abteilung für Neurologie, Samsung Medical Center, Sungkyunkwan University School of Medicine, Seoul, Republik Korea

Soo-Jong Kim, Duk L. Na und Sang Won Seo

Abteilung für Nuklearmedizin, Samsung Medical Center, Medizinische Fakultät der Sungkyunkwan-Universität, Seoul, Republik Korea

Seung Hwan Moon

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

SWS und JKS haben diese Studie entworfen. DLN und SWS haben den Datensatz bereitgestellt und überprüft. SYK, JWJ, PHK, SWP und SJK haben den Hauptmanuskripttext geschrieben. SYK, JHK, YSK, SHK, SHM und JKS führten die Datenanalysen durch. JKS und PHK prüften das Manuskript kritisch und beteiligten sich an der Überarbeitung des Manuskripts. Alle Autoren haben die endgültigen Manuskriptdaten gelesen und genehmigt.

Korrespondenz mit Sang Won Seo oder Joon-Kyung Seong.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Jang, JW., Kim, J., Park, SW. et al. Auf maschinellem Lernen basierende automatische Schätzung der kortikalen Atrophie anhand von Computertomographiebildern des Gehirns. Sci Rep 12, 14740 (2022). https://doi.org/10.1038/s41598-022-18696-6

Zitat herunterladen

Eingegangen: 12. Februar 2022

Angenommen: 17. August 2022

Veröffentlicht: 30. August 2022

DOI: https://doi.org/10.1038/s41598-022-18696-6

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.