banner
Heim / Nachricht / Glaukomdiagnose mit Multi
Nachricht

Glaukomdiagnose mit Multi

Jun 11, 2023Jun 11, 2023

Wissenschaftliche Berichte Band 12, Artikelnummer: 8064 (2022) Diesen Artikel zitieren

3897 Zugriffe

8 Zitate

2 Altmetrisch

Details zu den Metriken

In dieser Studie wollten wir die aktuelle diagnostische Beurteilung des Glaukoms erleichtern, indem wir mehrere Merkmale analysierten und ein neues Querschnittsmerkmal des Sehnervenkopfes (ONH) aus Bildern der optischen Kohärenztomographie (OCT) einführten. Die Daten (n = 100 für Glaukom und Kontrolle) wurden auf der Grundlage struktureller, funktioneller, demografischer und Risikofaktoren gesammelt. Die Merkmale wurden statistisch analysiert und die wichtigsten vier Merkmale wurden zum Trainieren von Algorithmen für maschinelles Lernen (ML) verwendet. Zwei ML-Algorithmen: Deep Learning (DL) und Logistische Regression (LR) wurden hinsichtlich der Klassifizierungsgenauigkeit für die automatisierte Glaukomerkennung verglichen. Die Leistung der ML-Modelle wurde anhand nicht sichtbarer Testdaten bewertet, n = 55. Anschließend wurde eine Pilotstudie zur Bildsegmentierung an OCT-Querschnittsscans durchgeführt. Der ONH-Becherbereich wurde extrahiert, analysiert und ein neues DL-Modell zur Glaukomvorhersage trainiert. Das DL-Modell wurde mithilfe einer fünffachen Kreuzvalidierung geschätzt und mit zwei vorab trainierten Modellen verglichen. Das anhand der optimalen Merkmale trainierte DL-Modell erzielte im Vergleich zu früheren Studien zur automatisierten Glaukomerkennung eine deutlich höhere Diagnoseleistung (Fläche unter der Receiver Operating Characteristic Curve (AUC) 0,98 und Genauigkeit von 97 % bei Validierungsdaten und 96 % bei Testdaten). Das zweite in der Pilotstudie verwendete DL-Modell zeigte im Vergleich zu zwei vorab trainierten Modellen ebenfalls vielversprechende Ergebnisse (AUC 0,99 und Genauigkeit von 98,6 %) bei der Erkennung von Glaukomen. In Kombination deuten die Ergebnisse der beiden Studien stark darauf hin, dass die vier Merkmale und der durch Deep Learning trainierte ONH-Becherquerschnittsbereich ein großes Potenzial für den Einsatz als erstes Screening-Instrument für Glaukom haben, das Ärzten bei der präzisen Entscheidungsfindung helfen wird.

Das Glaukom ist eine möglicherweise zur Erblindung führende Optikusneuropathie mit verschiedenen Ursachen, die durch den Verlust retinaler Ganglienzellen (RGCs) gekennzeichnet ist. Es ist klinisch durch anatomische Veränderungen des Sehnervenkopfes (ONH) gekennzeichnet, hauptsächlich durch Ausdünnung und hintere Verbiegung der Lamina cribrosa-Blätter, die klinisch als ONH-Schröpfung sichtbar sind1. Die Erkennung und Überwachung einer glaukomatösen Optikusneuropathie hängt von mehreren klinischen Merkmalen ab, die beobachtet und beurteilt werden, bevor eine klinische Entscheidung getroffen wird2. Derzeit erfordert die Diagnose und Überwachung des Glaukoms eine vollständige Augenuntersuchung sowie zusätzliche Tests und die Erfassung einer Vielzahl von Daten, deren Interpretation schwierig sein kann. Darüber hinaus gibt es eine erhebliche Überschneidung der Augenmerkmale normaler Probanden und Patienten mit frühem Glaukom. Aus diesen Gründen besteht Interesse an der Entwicklung komplementärer Techniken – wie etwa Systeme der künstlichen Intelligenz (KI)3 –, um die Unterscheidung zwischen echter Pathologie und normaler Variabilität sowie zwischen echter Progression und Intertest-Variabilität zu unterstützen.

Nach der jüngsten Implementierung von KI in der Augenheilkunde wurden mehrere Algorithmen für maschinelles Lernen (ML) für die automatische Glaukomerkennung untersucht und entwickelt, die die Netzhautbilder schnell verarbeiten und im Vergleich zu herkömmlichen Methoden glaukomatöse Schäden bei pathologischen Tests genau erkennen können. Die automatisierte Glaukomerkennung mit einfacheren ML- bis hin zu fortgeschrittenen Deep-Learning-(DL)-Algorithmen, hauptsächlich anhand von Augenbildern, wurde umfassend mit unterschiedlichen Ergebnissen erforscht. Die meisten DL-Algorithmen, die anhand von Fundus- und OCT-Bildern trainiert werden, führen zwei gemeinsame Schritte aus; Segmentierung der interessierenden Region und Klassifizierung von glaukomatösen und nicht glaukomatösen Augen. In den frühen Stadien wurden Fundusfotos häufig zur Beurteilung und Erkennung von Glaukomen mithilfe von KI-Techniken eingesetzt4,5,6,7,8. Ting et al.9 trainierten ein DL-Modell anhand von 71.896 validierten Netzhautfundusfotos, um ein übertragbares mögliches Glaukom mit einer AUC von 0,942 zu erkennen.

Darüber hinaus wandten Asaoka et al.10 ein Transfer-Learning-Modell auf Makula-OCT-Bilder an und bewerteten dessen diagnostische Leistung anhand eines unabhängigen Datensatzes, der aus normalen Augen und Augen mit frühem Glaukom bestand. Die AUC des Modells betrug 0,93 und war damit im Vergleich zu anderen ML-Methoden wie Support Vector Machine (SVM) und Random Forest (RF) deutlich größer. An et al.11 trainierten sowohl Fundus- als auch OCT-Bilder mit dem VGG19-Modell, um glaukomatöse von normalen Augen zu unterscheiden, und erreichten eine AUC von 0,94 für den Fundus und eine AUC von 0,94 für vier Merkmale von OCT-Bildern, und die Kombination aller Bilder erreichte eine AUC von 0,96.

Darüber hinaus untersuchten Devalla et al.12 die Fähigkeit eines Dilated-Residual-U-Net (DRUNET), eines Deep-Learning-Netzwerks, Glaukom auf 100 OCT-B-Scan-Bildern zu erkennen. DRUNET erreichte eine mittlere Sensitivität von 92 % und eine Spezifität von 99 % bei der Erkennung sowohl gesunder als auch glaukomatöser Augen. In einer anderen Studie trainierten Gomez-Valverde et al.13 fünf CNN-Modelle (Convolutional Neural Network) – Standard CNN, VGG19, ResNet50, GoogleNet und DENet – unter Verwendung des RIM-ONE-Datensatzes, und VGG19 schnitt mit einer AUC von 0,94 am besten für die Glaukomerkennung ab. die Sensitivität von 87,0 % und die Spezifität von 89,0 %. Asaoka et al.14 verwendeten einen lokalen Datensatz bestehend aus 1364 Glaukom- und 1768 gesunden Netzhautbildern, um anhand eines vorab trainierten Modells ResNet zu trainieren, und erreichten eine AUC von 0,95.

In einer kleinen Anzahl von Studien wurden Gesichtsfelddaten (VF) verwendet, um DL-Algorithmen zur Erkennung von Glaukomschäden zu trainieren, und die vorhandenen Studien zeigen im Vergleich zu Glaukomexperten eine ähnliche, manchmal sogar bessere Leistung15,16,17. Li et al.18 trainierten ein tiefes CNN, um zwischen glaukomatösen und nicht glaukomatösen Kammerflimmern zu unterscheiden, wobei Wahrscheinlichkeitsabweichungskarten (PD) als Dateneingabe dienten. Es erreichte eine AUC von 0,96 mit einer Genauigkeit, Sensitivität und Spezifität von 87,6 %, 93,2 % bzw. 82,6 %. Bizios et al.19 zeigten, dass ein vorwärtsgerichtetes, mehrschichtiges künstliches neuronales Netzwerk (ANN) eine deutlich bessere Leistung und diagnostische Genauigkeit bei der Unterscheidung zwischen normalen und glaukomatösen VFs im Vergleich zu herkömmlichen globalen STATPAC-Indizes [Glaukom-Hemifeldtest (GHT) und Musterstandardabweichung] aufweist (PSD)] und erreichte eine AUC von 0,98. Kucur et al.20 haben außerdem ein CNN entwickelt, das in der Lage ist, mit einem durchschnittlichen Präzisionswert von 87 % zwischen normalem und frühem glaukomatösem Kammerflimmern zu unterscheiden.

Es gibt nun überzeugende Beweise dafür, dass das Training eines ML-Klassifikatormodells mit kombinierten Struktur- und Funktionsmerkmalen die Unterscheidungskraft im Vergleich zu Modellen verbessern könnte, die nur mit Struktur oder Funktion trainiert wurden21. Es hat sich beispielsweise gezeigt, dass klinische Faktoren, der Augeninnendruck (IOD) und die Hornhautdicke per se die diagnostische Genauigkeit der Algorithmen teilweise verbessern22. Brigatti et al.23 verwendeten ein neuronales Netzwerk, um kombinierte Merkmale aus standardmäßigen automatischen Perimetrie-Indizes (SAP) (mittlerer Defekt, korrigierte Verlustvarianz und kurzfristige Fluktuation) und Strukturdaten (Becher/Scheibe-Verhältnis, Randfläche, Bechervolumen, und Nervenfaserschichthöhe) zusammen aus insgesamt 185 Glaukompatienten und 54 normalen Probanden und erreichte eine Sensitivität von 90 % und eine Spezifität von 84 %. Bowd et al.24 addierten die Dicke der retinalen Nervenfaserschicht (RNFL) und die SAP-Parameter mithilfe eines Relevanzvektor-Maschinenklassifikators und erreichten eine AUC von 0,85. In einer anderen Studie verwendeten Grewal et al.25 ein ANN-Modell zur Erkennung von Glaukomen, das Alter, Geschlecht, Myopie, Augeninnendruck, ONH und RNFL sowie SAP-Parameter kombinierte, und erreichten eine AUC von 0,77. In einer aktuellen Studie trainierten Kim et al.22 vier ML-Algorithmen: C5.0, RF, SVM und k-Nearest Neighbors (KNN), die Alter, Augeninnendruck, Hornhautdicke, RNFL, GHT, mittlere Abweichung (MD) und PSD kombinieren von insgesamt 342 Probanden. Unter den vier Modellen schnitt das RF-Modell mit einer AUC von 0,98 am besten ab.

Wie in der Literatur aufgeführt, wurden jedoch einige Studien zur Glaukomerkennung durchgeführt, bei denen sowohl maschinelle als auch Deep-Learning-Techniken zum Einsatz kamen, bei denen strukturelle und funktionelle Merkmale kombiniert wurden. Da es sich beim Glaukom außerdem um eine multifaktorielle Erkrankung handelt und es schwierig ist, sie frühzeitig zu erkennen; Daher berücksichtigen Ärzte auch Risikofaktoren. Zu diesen Merkmalen gehören höheres Alter, familiäre Vorgeschichte von Glaukomen, Geschlecht und ethnische Zugehörigkeit (z. B. haben Afroamerikaner ein höheres Risiko für Offenwinkelglaukom)26. Ein höherer Augeninnendruck, eine verringerte zentrale Hornhautdicke (CCT) und Myopie sind weitere bekannte Risikofaktoren für ein Glaukom27,28. Wir konnten keine ML-Studien finden, die kombinierte Merkmale einschließlich Risikofaktoren für die Glaukom-Früherkennung verwendeten. Darüber hinaus ist die Funktionsoptimierung durch maximalen klinischen Input heute sowohl für Ärzte als auch für Glaukompatienten von großer Bedeutung. Außerdem werden dadurch die Zeit- und Ressourcenbeschränkungen von KI-Modellen behoben. Angesichts der wenigen vorgeschlagenen Techniken ist es gerechtfertigt, einen effektiven KI-Algorithmus zu entwickeln, der die gesamte Patientengeschichte mit so vielen realen Daten wie möglich kombiniert, was die menschliche Leistung bei der Glaukomdiagnose übertreffen kann.

Unser Ziel war es daher, die optimalen Merkmale für die Glaukomdiagnose zu erforschen und zu vergleichen, indem wir funktionelle, strukturelle und demografische/historische Risikofaktordaten kombinierten. Unsere anfängliche Forschung zielt darauf ab, wichtige Merkmale zu identifizieren, die die Erkennung glaukomatöser Veränderungen unterstützen, und die Klassifizierungsleistung mithilfe maschineller Lerntechniken zu beobachten, die anhand der optimierten Merkmale trainiert werden. Außerdem haben wir in unsere Studie die Mehrheit der Glaukompatienten aus der frühen Gruppe einbezogen, sodass das ML-Modell in der Lage ist, Glaukom in frühen Stadien zu erkennen. Zusätzlich zur Verwendung der 2D-Daten haben wir auch ein neues ONH-OCT-Querschnittsbild verwendet, das als neues klinisches Merkmal zur Glaukomdiagnose hinzugefügt werden kann und in Kombination mit 2D-Daten die Genauigkeit erhöht.

Klinische Daten von zwei Probandengruppen, die zwischen 2015 und 2018 am Centre for Eye Health der UNSW Sydney untersucht wurden, wurden analysiert (n = 200, bestehend aus 100 normalen Probanden und 100 Glaukompatienten). Normale Patienten wurden Fällen der Altersgruppe (30–39, 40–49, 50–59, 60–69 und 70–85) zugeordnet. Unser Hauptziel war es, die Funktionen zu optimieren, die auch bei der Diagnose eines frühen Glaukoms helfen können. Daher umfassen die Glaukomdaten 73 frühe, 21 mittelschwere, 4 fortgeschrittene und 2 schwere Glaukompatienten. Die Kennzeichnung des Glaukomstadiums erfolgte nach den Kriterien von Mills et al.29. Darüber hinaus wurden nicht sichtbare Daten von 55 Patienten, bestehend aus 25 glaukomatösen und 30 normalen Augen, als Testdatensatz verwendet.

Da das Glaukom als komplexe Augenerkrankung gilt, ist die Optimierung seiner Erkennung und Überwachung ein wichtiges Anliegen der öffentlichen Gesundheit. Zu diesem Zweck haben wir optimale Merkmale untersucht, darunter funktionelle, strukturelle, demografische Befunde und bekannte Risikofaktoren für Glaukom. Tabelle 1 fasst die möglichen Merkmale des primären Offenwinkelglaukoms (POAG)30,31,32,33 zusammen.

Basierend auf möglichen Glaukom-Diagnosemerkmalen haben wir die meisten Daten aus Tabelle 1 aus dem Cirrus HD-OCT (Carl Zeiss Meditec) und insgesamt 11 Merkmale (Alter, Geschlecht, durchschnittliche RNFL-Dicke, CDR, Hornhautdicke, IOD, MD) gesammelt , PSD, Spherical Equivalent (SE), ethnische Zugehörigkeit und Familiengeschichte) wurden extrahiert.

Wir führten eine Pilotstudie zur Segmentierung und Extraktion einer neuen Region von Interesse (ROI) aus den ONH OCT B-Scan-Bildern (pro Auge 6 Scans) (Spectralis OCT, Heidelberg Engineering) von 60 Augen durch, darunter 30 normale und 30 Glaukom-Augen 200 Patientendaten. Die Ethikgenehmigung für die Datenerfassung wurde von der zuständigen Ethikkommission der UNSW Sydney erteilt, und die Studie folgte den Grundsätzen der Deklaration von Helsinki. Die Patienten gaben eine schriftliche Einverständniserklärung zur Verwendung ihrer nicht identifizierten klinischen Daten für Forschungszwecke ab.

Unter Verwendung herkömmlicher Informationsquellen für die Glaukomdiagnose haben wir zunächst den unabhängigen t-Test berechnet und eine ROC-Kurvenanalyse (Receiver Operating Characteristic) durchgeführt, um signifikante Merkmale zu finden, und die Trennbarkeit ihrer Verteilungen mithilfe der AUC untersucht. Darüber hinaus haben wir die Aussagekraft der Stichprobengröße sowohl für den unabhängigen t-Test als auch für die ROC-Kurve berechnet.

Eine Pilotstudie wurde durchgeführt, um die Pfannenoberfläche der ONH OCT B-Scan-Bilder von 60 Augen zu segmentieren, darunter 30 normale und 30 Glaukompatienten. Für diese Studie betrug das Durchschnittsalter des Normalpatienten und des Glaukompatienten 47 ± 11 bzw. 61 ± 12,36 Jahre. Da es sich beim Glaukom um eine Optikusneuropathie handelt, haben wir speziell die Merkmale der OCT-B-Scans des Sehnervs im Querschnitt untersucht. Die B-Scans wurden radial vom Zentrum des ONH aus angeordnet, wie in Abb. 1a dargestellt. Wir haben explizit eine neue Technik zur Segmentierung und Extraktion der Tassenoberfläche aus dem B-Scan von OCT-Bildern eingeführt und die mittlere Fläche der ersten 6 B-Scans des ONH aus insgesamt 24 OCT-Scans34 berechnet, basierend auf Erkenntnissen darüber bekannte anatomische Veränderungen, die am ONH auftreten, insbesondere im oberen und unteren Bereich des Auges beim Glaukom35. Der Anfangspunkt der ROI-Auswahl wurde von der Scheibe bis zum Becher mit einer minimalen Randbreite gemessen, wie in Abb. 1b gezeigt, und die Becheroberfläche wurde vom Randpunkt aus unter Verwendung einer Freihand-Polygonmethode ausgewählt und aus dem resultierenden Polygon wurde eine Binärmaske generiert . Die Freihandsegmentierung wurde in MATLAB R2019b durchgeführt und die Körbchenfläche, die mittlere Körbchenfläche und SD wurden aus Binärbildern mit der Open-Source-Software [ImageJ (www.imagej.nih.gov/ij/)] berechnet. Wir haben die mittlere Fläche der Tassenoberfläche aus den ersten 6 B-Scans von 40 von 60 Augen berechnet. Die resultierenden Binärbilder sind in Abb. 1c dargestellt. Später wurde ein DL-Algorithmus auf die segmentierten OCT-B-Scan-Bilder angewendet. Der segmentierte OCT-B-Scan wurde aus dem ursprünglichen OCT-Scan beschnitten und die neue Bildgröße betrug 383 × 197 Pixel.

(a) Das radiale Muster des Sehnervenkopf-OCT mit B-Scan. (b) ROI-Auswahl und Extraktion aus dem B-Scan. (c) Endgültige ROI-extrahierte Bilder für Glaukom- und normale Probanden.

Die statistisch signifikanten Merkmale wurden mithilfe von zwei maschinellen Lernalgorithmen, einer LR- und einer DL-Technik, trainiert, um die Klassifizierungsgenauigkeit der Glaukomerkennung zu beobachten. Wir begannen zunächst mit einem einfachen, effizienten Algorithmus, LR, als unsere Vorhersage basierend auf einer einfachen binären Klassifizierung aus dem parametrischen Datensatz.

Für die Klassifizierung ausschließlich anhand signifikanter Merkmale haben wir die 200 Datensätze in 80 % Trainings- und 20 % Validierungsdaten unterteilt. Die Parameter für den LR-Klassifikator waren „Libliner“, ein linearer Klassifikatorlöser, L2-Strafe (Quadratgröße des Koeffizienten), eine Regularisierungstechnik zur Reduzierung des Überanpassungsproblems, und der Toleranzwert betrug 0,0001. Anschließend haben wir ein aus vier Schichten bestehendes DL-Modell angewendet, um zu untersuchen, ob die Klassifizierungsgenauigkeit verbessert wird. Es wird davon ausgegangen, dass die Genauigkeit erhöht wird, da ein einzelnes Neuron im tiefen neuronalen Netzwerk auf eine ähnliche Eingabe-Ausgabe-Zuordnung verweist, wie sie in LR36 auftritt. Für die DL-Technik verwendeten wir ein sequentielles Modell bestehend aus vier Schichten, 64 Knoten auf jeder Schicht mit ReLU (Rectified Linear Units) als Aktivierungsfunktion. Für die letzte Ebene haben wir einen Knoten mit einer Sigmoid-Aktivierungsfunktion verwendet, die alle Eingabewerte auf einen Ausgabebereich zwischen 0 und 1 komprimiert. Das Modell wurde mit Adam37 kompiliert, einem impulsbasierten Optimierer mit der Verlustfunktion „binary_crossentropy“, der die Werte lieferte Ausgabe in Form einer Wahrscheinlichkeit. Um die Leistung der Modelle zu bewerten, wurden 25 glaukomatöse und 30 normale Augendaten als Testdatensatz verwendet.

In der Pilotstudie wurde eine einfache CNN-Architektur entwickelt, um Augen direkt anhand der segmentierten OCT-B-Scans als normal oder glaukomatös zu klassifizieren. Um die Leistung unseres vorgeschlagenen CNN-Modells zu bewerten, wurde das Ergebnis mit zwei weit verbreiteten vorab trainierten Modellen verglichen. Insgesamt 360 binär segmentierte OCT-Bilder von 60 Augen wurden verwendet, um das CNN anhand von zwei Probandengruppen zu trainieren: 180 Bilder von normalen und 180 von Glaukompatienten. Aufgrund des begrenzten Datensatzes wurde eine k-fache Kreuzvalidierung durchgeführt, um die Generalisierbarkeit des Modells anhand unbekannter Daten zu bewerten.

Die Kreuzvalidierung wird k-mal durchgeführt, um die Verwendung aller Teilmengen genau einmal als Testsatz zu ermöglichen. Die Modellleistung wird anhand des Durchschnitts der über die k Testteilmengen berechneten Modellbewertungsergebnisse bestimmt. Wir verwendeten eine fünffache Kreuzvalidierung, angepasst an38, um den gesamten Datensatz für das Training zu nutzen, und beobachteten die Leistung des Testdatensatzes. Die Größe der Bilder wurde während der Datenerweiterung mit MATLAB imageDataAugmenter auf 224 × 224 Pixel geändert. Daher hat die Neuskalierung keinen Einfluss auf die tatsächliche Form und das Volumen der ONH-Becheroberfläche. Die Erweiterung wurde mit vier Argumenten durchgeführt: „RandRotation“, „RandXTranslation“, „RandYTranslation“, „RandXReflection“ (horizontal gespiegelt) und „RandXShear“ (horizontal geschert). Es wurde keine weitere Vorverarbeitung durchgeführt.

Wir haben eine CNN-Architektur mit 24 Schichten verwendet, die aus fünf Faltungsschichten (3 × 3) mit erhöhten Kernelgrößen 32, 64, 128, 256 und 512 besteht. Wir haben nach jeder Faltungsschicht eine ReLU- und Batch-Normalisierungsschicht hinzugefügt, um die Initialisierung zu beschleunigen und zu verbessern des Netzwerks39,40. Dann wurde für jede Faltungsschicht nach der Batch-Normalisierung und der ReLU-Schicht eine Max-Pooling-Schicht (2 × 2) hinzugefügt. Zur endgültigen Klassifizierung wurde am Ende des Netzwerks eine vollständig verbundene Schicht hinzugefügt. Wir haben außerdem eine Dropout-Schicht vor der vollständig verbundenen Schicht hinzugefügt, um 25 % der Neuronen aus der vorherigen CNN-Schicht auszuschließen und so das Überanpassungsproblem während der Trainingsperiode zu überwinden41. Für die binäre Klassifizierungsausgabe haben wir die Funktion „Softmax“ anstelle von „Sigmoid“ verwendet, da die Softmax-Ausgabe als Wahrscheinlichkeit der Zugehörigkeit der Eingabe zur zugehörigen Klasse dargestellt wird, während die Funktion „Sigmoid“ einfach eine Ausgabe zwischen 0 und 142 erstellt Um das Netzwerk zu trainieren, verwendeten wir den RMSProp-Optimierer (Root Mean Squared Propagation) mit einer anfänglichen Lernrate von 1 × 10–4. Das Training „MiniBatchSize“ wurde auf 12 mit „MaxEpochs“ 20 gesetzt.

Um die Leistung unseres DL-Modells zu bewerten, haben wir zwei vorab trainierte Modelle verwendet; ResNet1843 und VGG1644, die aus der ImageNet-Datenbank (mit mehr als einer Million Bildern) trainiert werden45. Die beiden Modelle werden speziell für die Klassifizierung, Segmentierung und Merkmalsextraktion medizinischer Bilder verwendet46,47. Diese beiden Modelle zeigten in der Literatur eine vergleichsweise bessere Leistung als andere DL-Modelle bei OCT-Bildern zur Glaukomerkennung11,13,14,47. ResNet18 und VGG16 bestehen aus insgesamt 71 bzw. 41 Schichten und beide erfordern Bilder mit einer Größe von 224 × 224 Pixeln für die Eingabeschicht. Wir haben für beide Netzwerke eine fünffache Kreuzvalidierung verwendet und die gleiche Datenerweiterung und den gleichen SGDM-Modelloptimierer (Stochastic Gradient Descent with Momentum) verwendet. Um die besten Ergebnisse für die beiden Modelle zu erzielen, wurden die Trainingshyperparameter: Lernrate, Epochen und Stapelgrößen optimiert, um optimale Ergebnisse zu erzielen. Für VGG16 wurde eine Batchgröße von 12, 20 Epochen und eine Lernrate von 1 × 10–5 und für ResNet18 eine Batchgröße von zwölf, 20 Epochen und eine Lernrate von 1 × 10–4 ermittelt. Die anderen mit beiden Netzwerkmodellen verbundenen Hyperparameter wurden entsprechend ihrer ursprünglichen Struktur festgelegt.

Die Technik der Gradientengewichteten Klassenaktivierungszuordnung (Grad-CAM) wurde verwendet, um die erlernten Merkmale des Netzwerks zu visualisieren, die das Modell zur Klassifizierung der beiden Gruppen beeinflussten. Das Grad-CAM berechnet den Gradienten der Bildbewertung für die spezifische Klasse und schätzt den Gradienten der endgültigen Klassifizierungsbewertung in Bezug auf die Gewichte der letzten Faltungsschicht. Die Grad-CAM generiert eine Heatmap transparent auf dem Bild, wobei tiefes Rot als Spitzenwert der Vorhersageklasse und tiefes Blau als niedrigster Klassenwert gilt48.

Unter Berücksichtigung einer Effektgröße von 0,50, eines α-Fehlers von 0,05 und eines Gruppenzuordnungsverhältnisses von 1:1 sind mindestens 88 Patienten in jeder Gruppe erforderlich, um eine statistische Aussagekraft von 95 % zu erreichen. In unserer Studie verfügt jede Gruppe für n = 100 über eine Aussagekraft von mehr als 95 %, um einen statistischen Unterschied mithilfe des unabhängigen t-Tests für kontinuierliche Variablen zu erkennen. Für die ROC-Kurvenanalyse hat n = 100 in jeder Gruppe eine Leistung von mehr als 90 %, um eine ROC-AUC von 0,80 für einen kontinuierlichen Prädiktor zu erkennen, vorausgesetzt, eine Null-ROC-AUC von 0,70. Bei einem dichotomen Prädiktor beträgt die Trennschärfe mehr als 80 %.

Die Patientendaten sind in Tabelle 2 dargestellt. Gruppenunterschiede wurden mithilfe des T-Tests unabhängiger Stichproben (kontinuierliche Variablen) oder des χ2-Tests (kategoriale Variablen) getestet.

Ein Vergleich der extrahierten Merkmale in zwei Gruppen legt nahe, dass nur RNFL, CDR, IOP, MD und PSD statistisch signifikant sind (p < 0,05). Darüber hinaus betrug die AUC des ROC > 0,7 für RNFL, CDR, PSD und MD (Tabelle 3 und Abb. 2), und der Augeninnendruck wies eine schlechte Trennbarkeit zwischen den beiden Gruppen auf (AUC 0,63).

ROC-Kurve für die Merkmale (AUC) > = 0,7

Für die Glaukomklassifizierung haben wir die LR- und DL-Algorithmen mit den vier Merkmalen MD, PSD, RNFL und CDR trainiert; und beobachtete die Leistung sowohl bei der Validierung als auch beim unsichtbaren Testdatensatz. Die besten Leistungen erzielten wir für den LR-Klassifikator mit 100 Iterationen und den DL-Klassifikator mit 1000 Epochen und einer Stapelgröße von 20. Um die Leistung beider Modelle zu bewerten, wurde die AUC aus der ROC-Kurve berechnet, indem die Rate von richtig positiven mit der Rate von falsch positiven verglichen wurde. und die Sensitivitäts-/Spezifitätsverhältnisse wurden aus der Verwirrungsmatrix berechnet, wie in Tabelle 4 gezeigt. Jede Verwirrungsmatrix liefert vier Ergebnisse – richtig positiv, richtig negativ, falsch positiv und falsch negativ. In unserem Fall:

Richtig positiv (TP): korrekte Glaukom-Vorhersage

Falsch positiv (FP): falsche Glaukom-Vorhersage

Richtig negativ (TN): korrekte normale Vorhersage

Falsch negativ (FN): falsche Normalvorhersage

Wir definieren Sensitivität oder echte positive Rate TPR = TP/(TP + FN) und

Spezifität oder echte negative Rate TNR = TN/(TN + FP)49.

Aus der Verwirrungsmatrix der Tabellen 4 und 5 können wir ersehen, dass sowohl das LR- als auch das DL-Modell die Gruppe mit einer Genauigkeit von 95 % bzw. 97 % mit den vier Merkmalen erfolgreich klassifizieren können. Das DL-Modell schneidet mit einer AUC von 0,98, einer Sensitivität von 100 % und einer Spezifität von 96 % besser ab als das LR-Modell. Allerdings zeigten die LR- und DL-Modelle im Testdatensatz eine ähnliche Leistung mit einer Genauigkeit von 96 %, einer Sensitivität von 100 % und einer Spezifität von 93 %.

Wir haben die mittlere Pfannenoberfläche aus den segmentierten OCT-B-Scans im Querschnitt berechnet und festgestellt, dass die mittlere Pfannenfläche für zwei Gruppen signifikant [p < 0,05 (p = 0,01)] war und für Glaukom niedriger war als die normale Gruppe, wie in gezeigt Abb. 3.

Die mittlere Pfannenoberfläche der ersten 6 OCT-B-Scans (Querschnitt) des ONH für Normal- und Glaukomgruppen.

Die Ergebnisse unseres vorgeschlagenen DL-Modells, das aus segmentierten Bildern trainiert wurde, werden unten gezeigt und mit den beiden vorab trainierten Modellen unter Verwendung einer Verwirrungsmatrix in den Tabellen 6 und 7 verglichen.

Aus der Verwirrungsmatrix der Tabellen 6 und 7 wurde gezeigt, dass das Klassifizierungsergebnis des ResNet18- und VGG16-Modells mit einer Genauigkeit von 97,8 %, einer Sensitivität von 100 %, einer Spezifität von 95,6 % und einer Präzision von 95,7 % ähnlich war. Unser vorgeschlagenes DL-Modell schnitt mit einer AUC von 0,99, einer Genauigkeit von 98,6 %, einer Sensitivität von 99,4 % und einer Spezifität und Glaukom-Vorhersagegenauigkeit von 97,8 % besser ab als zwei vorab trainierte Modelle. Die AUC beträgt 0,99 für das Drei-DL-Modell, was darauf hindeutet, dass die maximalen Schwellenwerte die beiden Klassen, d. h. Glaukom und Normal, mit der neuen segmentierten Pfannenoberfläche erfolgreich trennen konnten. Von insgesamt 180 Glaukombildern wurde 1 Bild fälschlicherweise als normale Augen klassifiziert, bei denen es sich nicht um Folgebilder eines Auges handelte, d Bilder pro Auge wurden korrekt als Glaukom erkannt. Eine ähnliche Fehlklassifizierungsrate wurde auch bei normalen Augen beobachtet.

In Abb. In den Abbildungen 4 und 5 zeigen wir die von Grad-CAM erstellten Heatmaps für einige zufällig ausgewählte glaukomatöse und normale OCT-Bilder, um zu erklären, welche Merkmale der drei Modelle zur Unterscheidung der beiden Klassen herangezogen wurden.

Die GradCAM-Heatmaps für VGG16, ResNet18 und das vorgeschlagene DL-Modell (von links nach rechts), erhalten aus segmentierten OCT-Bildern von glaukomatösen Augen (links).

Die GradCAM-Heatmaps für VGG16, ResNet18 und das vorgeschlagene DL-Modell (von links nach rechts), erhalten aus segmentierten OCT-Bildern normaler Augen (links).

In Abb. In den Abbildungen 4 und 5 können wir sehen, dass Grad-CAM eine tiefrote Farbe innerhalb oder an den Rändern der Pfannenoberflächen erzeugt hat, was darauf hindeutet, dass die ONH-Schalenoberfläche durch Deep-Learning-Technik in der Lage ist, zwischen normaler und Glaukomgruppe zu unterscheiden. Darüber hinaus können wir sehen, dass VGG16 und unser vorgeschlagenes Modell die Verformung der ONH-Becheroberfläche für Glaukombilder genau lokalisiert (tiefrot) haben.

In dieser Forschung haben wir diagnostische Merkmale sowohl von normalen als auch von glaukomatösen Patienten basierend auf strukturellen, funktionellen, demografischen und Risikofaktoren gesammelt und die Merkmale erfolgreich optimiert, um ein Glaukom mithilfe von ML-Algorithmen zu erkennen. Die statistischen Ergebnisse stimmen weitgehend mit früheren Untersuchungen50 überein, die darauf hindeuteten, dass bestimmte Risikofaktoren wie Brechungsfehler, Augeninnendruck, Familienanamnese und das Vorhandensein einer dünnen Hornhaut für das Glaukom-Screening nicht von Bedeutung sind.

Es gibt viele Studien zu ML zur automatisierten Glaukomerkennung auf der Grundlage struktureller und nichtstruktureller Merkmale, die anhand von Fundusfotografie, OCT und VF-Bildern trainiert wurden20,21,22,23,24,25,26,27,28,29,30,31 ,32,33,34,35 in der Literatur erwähnt. Das Glaukom ist eine sehr komplexe Erkrankung und wir können uns nicht auf einen einzigen Test verlassen, da nicht genügend Informationen für eine Diagnose vorliegen. Dies ist die erste Studie, in der optimale Merkmale aus strukturellen, funktionellen, demografischen und Risikofaktoren kombiniert wurden, um normale und glaukomatöse Augen zu unterscheiden. In unserer vorherigen Studie34 haben wir alle Merkmale einbezogen, einschließlich Alter und VFI. Sowohl das Alter als auch der VFI erwiesen sich als statistisch signifikant zwischen den beiden Gruppen. In dieser Studie haben wir die Datengröße erhöht und untersucht, wie sich Glaukommerkmale auf das breite Spektrum derselben Altersgruppe auswirken, da sie nicht nur auf ältere Altersgruppen beschränkt sind. Da VFI aus den PD- und MD-Werten berechnet wird, haben wir VFI aus unseren endgültigen Funktionen verworfen, um den Datenverarbeitungsaufwand zu reduzieren. Darüber hinaus haben wir auch die DL-Ergebnisse mit und ohne VFI verglichen; Das Vorhandensein von VFI hat keinen Einfluss auf die Klassifizierungsergebnisse. Darüber hinaus ist eine frühzeitige Erkennung von entscheidender Bedeutung, da eine frühzeitige Glaukombehandlung einen weiteren Sehverlust verhindern oder aufhalten kann. Daher haben wir in unsere Studie eine große Anzahl von Glaukompatienten in frühen Stadien einbezogen, und mit den vier Merkmalen RNFL, CDR, MD und PSD konnten sowohl das LR- als auch das DL-Modell ein Glaukom bereits in frühen Stadien erfolgreich erkennen. Nach unserem besten Wissen ist dies die erste Studie, in der maximale Glaukommerkmale kombiniert, analysiert und mithilfe maschinellen Lernens trainiert wurden, damit die optimalen Merkmale in der Lage sind, Glaukom in frühen Stadien zu erkennen. Das entworfene DL-Modell zeigte beim Validierungsdatensatz eine bessere Leistung als der LR-Klassifikator. Allerdings verhielten sich das LR- und das DL-Modell beim Testdatensatz ähnlich. Tabelle 8 zeigt den Vergleich der Leistung unseres vorgeschlagenen DL-Modells mit früheren Studien zur Glaukomerkennung unter Verwendung sowohl struktureller als auch funktioneller Merkmale. Unser DL-Modell zeigte beim Validierungsdatensatz eine vielversprechende Leistung mit einer AUC von 0,98, 97 % Genauigkeit, 100 % Sensitivität und 96 % Spezifität. Für den Testdatensatz beträgt die Genauigkeit 96 %, die Sensitivität 100 % und die Spezifität 93 %. Hier vergleichen wir unsere Studie insbesondere mit früheren Erkenntnissen, die auf kombinierten strukturellen und funktionalen Merkmalen basieren. Das Hauptziel des Vergleichs hier besteht darin, zu zeigen, dass sich unsere identifizierten, mit Deep Learning trainierten Unterscheidungsmerkmale bei der automatisierten Glaukomerkennung verbessert haben. Darüber hinaus ist eine weitere Stärke der Studie die Einbeziehung eines breiten Altersbereichs, der in beiden Gruppen von 30 bis 85 Jahren reicht, was zu einer Technik zur Optimierung von Glaukommerkmalen unabhängig vom Alter der Probanden führt.

Basierend auf dem vorgeschlagenen DL-Ergebnis der Validierung und Testdaten betrug die Sensitivität 100 %, was die genaue Vorhersage eines Glaukoms sogar in den frühen Stadien übertraf. Die Spezifität betrug 96 % und reduzierte sich bei den Testdaten auf 93 %. Insgesamt drei: ein Validierungs- und zwei normale Testaugen wurden fälschlicherweise als glaukomatöses Auge diagnostiziert. Die Probanden wurden weiter untersucht. Die MD-, PSD-, RNFL- und CDR-Werte des ersten Probanden (Alter 60) betrugen − 16,8, 8,1, 89,1 bzw. 0,6, was als Verdacht auf ein Glaukom oder einen Zusammenhang mit anderen Krankheiten vorhergesagt werden konnte. Der zweite Proband (68) hat eine höhere PSD (4,92) und ein anderer Proband (68) hat eine geringere RNFL-Dicke (79,65) und einen höheren CDR (0,66), was darauf hindeutet, dass es einen gewissen Alterungseffekt auf MD, PSD, RNFL und CDR geben könnte Es sind jedoch weitere analytische Untersuchungen an einem größeren Datensatz erforderlich. Das Ergebnis der Testdaten zeigt auch, dass die 2D-Daten eine vielversprechende Leistung bei Validierungsdaten zur Erkennung von Glaukomen gezeigt haben. Dennoch stieg die Falsch-Positiv-Rate bei Testdaten, was für DL schwierig sein könnte, die Krankheit vom Normalzustand zu unterscheiden. Daher haben wir in der Pilotstudie ONH-OCT-Querschnittsscans verwendet, die es uns ermöglichten, die Anomalien des vorderen ONH zu beurteilen und eine quantitative Messung der Oberfläche oder Konturen durchzuführen, wenn Schäden durch ein Glaukom entstanden sind. Wir segmentierten und extrahierten ein neues Strukturmerkmal aus den ONH-OCT-B-Scans im Querschnitt. Wir haben zunächst sechs radiale B-Scans des SD-OCT-ONH-Bereichs segmentiert und die ONH-Oberflächenschalenfläche für jeden Scan gemessen und schließlich die mittlere Fläche berechnet, die die tatsächlichen Veränderungen der glaukomatösen Augen im oberen und unteren Bereich aufdeckte. Dies zeigte, dass die resultierende mittlere Pfannenfläche bei Glaukompatienten deutlich geringer ist (p = 0,01), was ein nützlicher Marker für die Glaukomdiagnose sein kann. Wir haben auch ein tiefes Faltungs-Neuronales Netzwerk entwickelt, um diese neue Funktion des Tassenbereichs für die Glaukomerkennung zu evaluieren.

Die Ergebnisse des mit den segmentierten Bildern trainierten DL zeigten im Vergleich zu zwei vorhandenen vorab trainierten Modellen eine gute Genauigkeit. Obwohl VGG16, ResNet18 und unser vorgeschlagenes Modell AUC für die Glaukomerkennung identisch waren, hat unser DL-Modell eine viel einfachere Struktur mit weniger Parametern und einer kürzeren Trainingsdauer als die beiden vorab trainierten Modelle. Außerdem zeigte unser vorgeschlagenes DL-Modell eine bessere Leistung im Vergleich zu den Ergebnissen früherer Studien11,12,13,14. Darüber hinaus zeigte die GradCAM-Visualisierung auch, dass die segmentierte Pfannenoberfläche in der Lage ist, Glaukom von der normalen Gruppe zu unterscheiden. Das VGG16 und unser vorgeschlagenes DL-Modell lokalisierten die betroffene Glaukomregion in den segmentierten OCT-Bildern genau. Es wird außerdem darauf hingewiesen, dass dies nach unserem besten Wissen die erste Studie ist, bei der sechs OCT-B-Scan-Querschnittsbilder gemeinsam trainiert wurden, um die Präzision der diagnostischen Beurteilungen von ONH zu erhöhen. Die ONH-Schröpfung ist eine bedeutende strukturelle Veränderung für Glaukompatienten. Basierend auf früherer Literatur52,53,54 ist der ONH-Becher eine wichtige Region von Interesse für die Beurteilung eines Glaukompatienten. Aus diesem Grund haben wir diese Pilotstudie zur Segmentierung der ONH-Oberflächenschalenfläche durchgeführt und festgestellt, dass diese zwischen den beiden Gruppen signifikant ist. Diese Studie legte nahe, dass die Segmentierung und Messung der Querschnittsfläche der ONH-Schale ein neues Merkmal der klinischen Bildgebung sein könnte, das bei der Glaukomdiagnose hinzugefügt werden könnte. Das vorgeschlagene DL-Modell unter Verwendung segmentierter OCT-ONH-Bilder zur Glaukomerkennung kann als wirksames Screening-Tool für Ärzte in der Glaukomdiagnostik eingesetzt werden.

Diese Studie weist mehrere Einschränkungen auf. Erstens stützte sich unsere Studie hauptsächlich auf den Standardtest zur Glaukomdiagnose (z. B. Tonometrie, Funduskopie, Perimetrie/Gesichtsfelder, Pachymetrie und OCT-Scans). Es war uns nicht möglich, andere erweiterte Funktionen wie Gonioskopiemessung, Dicke der retinalen Ganglienzellschicht (GCL) und GCL + der inneren plexiformen Schicht (IPL) sowie OCT-Angiographie [z. B. Gefäßdichte, Blutflussindex, Flussindex, parapapilläre Tiefenschicht) einzubeziehen mikrovaskulärer Ausfall (MvD)] und andere Risikofaktoren wie hohe Myopie, hoher Blutdruck, Diabetes, Herz-Kreislauf-Erkrankungen, frühere Augenoperationen oder Verletzungen im Zusammenhang mit Glaukom55,56,57. Zweitens wurde die Studie am CFEH in Australien durchgeführt, wo die meisten Patienten Kaukasier und Asiaten waren; Daher konnten wir den Effekt der ethnischen Zugehörigkeit nicht vollständig untersuchen. Darüber hinaus haben wir den Zusammenhang anderer Krankheiten (wie Katarakt, Diabetes usw.) mit Glaukom nicht untersucht. Diese könnten einen gewissen Einfluss auf unsere Glaukom-Klassifizierungsergebnisse haben. Obwohl das DL-Ergebnis der Pilotstudie mit der neuen segmentierten Funktion vielversprechend für die Glaukomerkennung ist, beschränkt sich unsere Studie nur auf die ersten 6 B-Scans von 24 radialen B-Scans, die vom Heidelberger SD-OCT erfasst wurden. Die Segmentierung aller 24 Scans und die Messung der mittleren ONH-Körbchenfläche aller B-Scans könnten unsere Studie zuverlässiger und klinisch stabiler machen – was ein Ziel zukünftiger Studien ist.

Insgesamt hat sich die Untersuchung von Deep Learning unter Verwendung von vier identischen Merkmalen und segmentiertem ONH-Becherbereich als Eingabe einzeln für die Glaukomdiagnose als vielversprechend erwiesen. Der im Querschnitt segmentierte ONH-Becherbereich kann als neues klinisches Merkmal zur Glaukomdiagnose hinzugefügt werden und könnte in Kombination mit 2D-Daten die Genauigkeit verbessern. Zukünftig wollen wir die Ergebnisse in einer groß angelegten klinischen Studie etablieren, in der die Leistung von Deep Learning untersucht wird, indem vier Merkmale mit der neuen segmentierten ONH-Becheroberfläche kombiniert werden, um Glaukom unabhängig von unterschiedlichen Risikofaktoren und ethnischer Zugehörigkeit präzise zu erkennen.

Bussel, II, Wollstein, G. & Schuman, JS OCT zur Glaukomdiagnose, zum Screening und zur Erkennung der Glaukomprogression. Br. J. Ophthalmol. 98 (Beilage 2), 15–19. https://doi.org/10.1136/bjophthalmol-2013-304326 (2014).

Artikel Google Scholar

Al-Aswad, LA Glaucoma Today (Bryn Mawr Communications, 2017).

Google Scholar

Greenfield, DS & Weinreb, RN Rolle der Sehnervenbildgebung in der klinischen Praxis und in klinischen Studien zum Glaukom. Bin. J. Ophthalmol. 145, 598–603. https://doi.org/10.1016/j.ajo.2007.12.018 (2008).

Artikel PubMed PubMed Central Google Scholar

Carmona, EJ, Rincón, M., García-Feijoó, J. & Martínez-de-la-Casa, JM Identifizierung des Sehnervenkopfes mit genetischen Algorithmen. Artif. Intel. Med. 43, 243–259. https://doi.org/10.1016/j.artmed.2008.04.005 (2008).

Artikel PubMed Google Scholar

Fan, Z. et al. Erkennung des Sehnervenkopfes im Fundusbild basierend auf strukturiertem Lernen. IEEE J. Biomed. Gesundheitsinformationen. 22, 224–234. https://doi.org/10.1109/jbhi.2017.2723678 (2018).

Artikel PubMed Google Scholar

Hood, DC & De Moraes, CG Wirksamkeit eines Deep-Learning-Systems zur Erkennung einer glaukomatösen Optikusneuropathie basierend auf farbigen Fundusfotos. Ophthalmologie 125, 1207–1208. https://doi.org/10.1016/j.ophtha.2018.04.020 (2018).

Artikel PubMed Google Scholar

Mookiah, MR et al. Automatisierte Erkennung der Papille in Netzhautfundusbildern mittels intuitionistischer Fuzzy-Histon-Segmentierung. Proz. Inst. Mech. Ing. Teil H J. Eng. Med. 227, 37–49. https://doi.org/10.1177/0954411912458740 (2013).

Artikel Google Scholar

Muramatsu, C. et al. Erkennung von Defekten der Nervenfaserschicht der Netzhaut auf Bildern des Netzhauthintergrunds zur Früherkennung eines Glaukoms. J. Biomed. Opt. 15, 016021. https://doi.org/10.1117/1.3322388 (2010).

Artikel ADS PubMed Google Scholar

Ting, DSW et al. Entwicklung und Validierung eines Deep-Learning-Systems für diabetische Retinopathie und verwandte Augenerkrankungen unter Verwendung von Netzhautbildern multiethnischer Bevölkerungsgruppen mit Diabetes. JAMA 318, 2211–2223. https://doi.org/10.1001/jama.2017.18152 (2017).

Artikel PubMed PubMed Central Google Scholar

Asaoka, R. et al. Verwendung von Deep Learning und Transfer Learning zur genauen Diagnose eines früh einsetzenden Glaukoms anhand von Bildern der optischen Kohärenztomographie der Makula. Bin. J. Ophthalmol. 198, 136–145. https://doi.org/10.1016/j.ajo.2018.10.007 (2019).

Artikel PubMed Google Scholar

An, G. et al. Glaukomdiagnose mit maschinellem Lernen basierend auf optischer Kohärenztomographie und farbigen Fundusbildern. J. Healthc. Ing. 2019, 4061313. https://doi.org/10.1155/2019/4061313 (2019).

Artikel PubMed PubMed Central Google Scholar

Devalla, SK et al. DRUNET: Ein erweitertes U-Net-Deep-Learning-Netzwerk zur Segmentierung von Sehnervenkopfgeweben in Bildern der optischen Kohärenztomographie. Biomed. Opt. Express 9, 3244–3265. https://doi.org/10.1364/boe.9.003244 (2018).

Artikel PubMed PubMed Central Google Scholar

Gómez-Valverde, JJ et al. Automatische Glaukomklassifizierung mithilfe von farbigen Fundusbildern basierend auf Faltungs-Neuronalen Netzen und Transferlernen. Biomed. Opt. Express 10, 892–913. https://doi.org/10.1364/boe.10.000892 (2019).

Artikel PubMed PubMed Central Google Scholar

Asaoka, R. et al. Validierung eines Deep-Learning-Modells zum Screening auf Glaukom mithilfe von Bildern verschiedener Funduskameras und Datenerweiterung. Ophthalmol. Glaukom 2, 224–231. https://doi.org/10.1016/j.ogla.2019.03.008 (2019).

Artikel PubMed Google Scholar

Chan, K. et al. Vergleich von maschinellem Lernen und traditionellen Klassifikatoren in der Glaukomdiagnose. IEEE Trans. Biomed. Ing. 49, 963–974. https://doi.org/10.1109/tbme.2002.802012 (2002).

Artikel PubMed Google Scholar

Goldbaum, MH et al. Vergleich von Klassifikatoren für maschinelles Lernen zur Glaukomdiagnose anhand standardmäßiger automatischer Perimetrie. Investig. Ophthalmol. Vis. Wissenschaft. 43, 162–169 (2002).

Google Scholar

Goldbaum, MH et al. Interpretation der automatisierten Perimetrie für Glaukom durch neuronale Netzwerke. Investig. Ophthalmol. Vis. Wissenschaft. 35, 3362–3373 (1994).

CAS Google Scholar

Li, F. et al. Automatische Unterscheidung des Glaukom-Gesichtsfelds von Nicht-Glaukom-Gesichtsfeldern mithilfe eines tiefen Faltungs-Neuronalen Netzwerks. BMC Med. Bildgebung 18, 35. https://doi.org/10.1186/s12880-018-0273-5 (2018).

Artikel CAS PubMed PubMed Central Google Scholar

Bizios, D., Heijl, A. & Bengtsson, B. Trainiertes künstliches neuronales Netzwerk für die Glaukomdiagnose unter Verwendung von Gesichtsfelddaten: Ein Vergleich mit herkömmlichen Algorithmen. J. Glaukom 16, 20–28. https://doi.org/10.1097/IJG.0b013e31802b34e4 (2007).

Artikel PubMed Google Scholar

Kucur, ŞS., Holló, G. & Sznitman, R. Ein Deep-Learning-Ansatz zur automatischen Erkennung von frühem Glaukom aus Gesichtsfeldern. PLoS One 13, e0206081. https://doi.org/10.1371/journal.pone.0206081 (2018).

Artikel CAS PubMed PubMed Central Google Scholar

Thompson, AC, Jammal, AA & Medeiros, FA Ein Überblick über Deep Learning für Screening, Diagnose und Erkennung der Glaukomprogression. Übers. Vis. Wissenschaft. Technol. 9, 42. https://doi.org/10.1167/tvst.9.2.42 (2020).

Artikel PubMed PubMed Central Google Scholar

Kim, SJ, Cho, KJ ​​& Oh, S. Entwicklung von Modellen für maschinelles Lernen zur Diagnose von Glaukom. PLoS One 12, e0177726. https://doi.org/10.1371/journal.pone.0177726 (2017).

Artikel CAS PubMed PubMed Central Google Scholar

Brigatti, L., Hoffman, D. & Caprioli, J. Neuronale Netze zur Glaukomerkennung mit strukturellen und funktionellen Messungen. Bin. J. Ophthalmol. 121, 511–521. https://doi.org/10.1016/s0002-9394(14)75425-x (1996).

Artikel CAS PubMed Google Scholar

Bowd, C. et al. Bayesianische Klassifikatoren für maschinelles Lernen zur Kombination struktureller und funktioneller Messungen zur Klassifizierung gesunder und glaukomatöser Augen. Investig. Ophthalmol. Vis. Wissenschaft. 49, 945–953. https://doi.org/10.1167/iovs.07-1083 (2008).

Artikel Google Scholar

Grewal, DS, Jain, R., Grewal, SP & Rihani, V. Glaukomdiagnose auf Basis eines künstlichen neuronalen Netzwerks mithilfe der Analyse der retinalen Nervenfaserschicht. EUR. J. Ophthalmol. 18, 915–921. https://doi.org/10.1177/112067210801800610 (2008).

Artikel CAS PubMed Google Scholar

Vajaranant, TS, Nayak, S., Wilensky, JT & Joslin, CE Geschlecht und Glaukom: Was wir wissen und was wir wissen müssen. Curr. Meinung. Ophthalmol. 21, 91–99. https://doi.org/10.1097/ICU.0b013e3283360b7e (2010).

Artikel PubMed PubMed Central Google Scholar

Leske, MC, Heijl, A., Hyman, L. & Bengtsson, B. Early Manifest Glaucoma Trial: Design und Basisdaten. Ophthalmologie 106, 2144–2153. https://doi.org/10.1016/s0161-6420(99)90497-9 (1999).

Artikel CAS PubMed Google Scholar

Mallick, J., Devi, L., Malik, PK & Mallick, J. Update zum Normaldruckglaukom. J. Ophthalmic Vis. Res. 11, 204–208. https://doi.org/10.4103/2008-322x.183914 (2016).

Artikel PubMed PubMed Central Google Scholar

Mills, RP et al. Kategorisierung des Stadiums des Glaukoms von der Vordiagnose bis zum Endstadium der Erkrankung. Bin. J. Ophthalmol. 141, 24–30. https://doi.org/10.1016/j.ajo.2005.07.044 (2006).

Artikel PubMed Google Scholar

Gordon, MO et al. Die Studie zur Behandlung von Augenhochdruck: Basisfaktoren, die das Auftreten eines primären Offenwinkelglaukoms vorhersagen. Bogen. Ophthalmol. 120, 714–720. https://doi.org/10.1001/archopht.120.6.714 (2002) (Diskussion 829–730).

Artikel PubMed Google Scholar

Hood, DC Verbesserung unseres Verständnisses und der Erkennung glaukomatöser Schäden: Ein Ansatz basierend auf optischer Kohärenztomographie (OCT). Prog. Retin. Augenres. 57, 46–75. https://doi.org/10.1016/j.preteyeres.2016.12.002 (2017).

Artikel PubMed Google Scholar

Mackenzie, PJ & Cioffi, GA Messung von Struktur und Funktion bei Patienten mit Glaukom: Struktur-Funktions-Studien, die das Aussehen des Sehnervenkopfes mit Gesichtsfeldtests vergleichen. Medscape (WebMD LLC, 2008).

Shen, L. et al. Der Zusammenhang zwischen Brechungsfehler und Glaukom in einer multiethnischen Bevölkerung. Augenheilkunde 123, 92–101. https://doi.org/10.1016/j.ophtha.2015.07.002 (2016).

Artikel PubMed Google Scholar

Akter, N. et al. Analyse von OCT-Bildern zur Optimierung der Glaukomdiagnose. Bildgebung und angewandte Optik 2019 (COSI, IS, MATH, pcAOP). ITh2B.2 (Optical Society of America, 2019).

Gandhi, M. & Dubey, S. Beurteilung des Sehnervenkopfes beim Glaukom. J. Curr. Glaukom-Praxis. 7, 106–114. https://doi.org/10.5005/jp-journals-10008-1146 (2013).

Artikel PubMed PubMed Central Google Scholar

Ng, A. et al. Mehrschichtiges neuronales Netzwerk, im UFLDL-Tutorial. (Stanford University, 2011).

Kingma, DP & Ba, JJC Adam: Eine Methode zur stochastischen Optimierung. arXiv:1412.6980 (2015).

Transfer-Learning-Models-with-Cross-Validation-Matlab-Code (GitHub, Inc., 2021).

Brownlee, J. Deep Learning Performance (Machine Learning Mastery, 2019).

Google Scholar

Ioffe, S. & Szegedy, C. Batch-Normalisierung: Beschleunigung des Deep-Network-Trainings durch Reduzierung der internen Kovariatenverschiebung. In Proceedings of the 32nd International Conference on International Conference on Machine Learning, Bd. 37 448–456 (JMLR.org, 2015).

Budhiraja, A. Dropout im (tiefen) maschinellen Lernen. (Hrsg. O'Connor, S.) (Medium, 2016).

Leskovec, J., Rajaraman, A. & Ullman, J. Mining of Massive Datasets (Cambridge University Press, 2019).

Google Scholar

He, K., Zhang, X., Ren, S. & Sun, J. Deep Residual Learning für die Bilderkennung. Im Jahr 2016 IEEE-Konferenz zu Computer Vision und Mustererkennung (CVPR) 770–778.

Zisserman, KSAA Sehr tiefe Faltungsnetzwerke für die Bilderkennung im großen Maßstab. arXiv:1409.1556v6 (2015).

Deng, J. et al. ImageNet: Eine umfangreiche hierarchische Bilddatenbank. im Jahr 2009 IEEE Computer Vision and Pattern Recognition (CVPR) 248–255.

Chelghoum, R., Ikhlef, A., Hameurlaine, A. & Jacquir, S. In Artificial Intelligence Applications and Innovations (Hrsg. Maglogiannis, I. et al.) (Springer International Publishing, 2020).

Google Scholar

Litjens, G. et al. Eine Umfrage zum Deep Learning in der medizinischen Bildanalyse. Med. Bild Anal. 42, 60–88. https://doi.org/10.1016/j.media.2017.07.005 (2017).

Artikel PubMed Google Scholar

Selvaraju, RR et al. Grad-CAM: Visuelle Erklärungen aus tiefen Netzwerken mittels Gradienten-basierter Lokalisierung. im Jahr 2017 IEEE International Conference on Computer Vision (ICCV) 618–626.

Ragan, A. Die Verwirrung aus der Verwirrungsmatrix entfernen. (Mittel, 2018).

McMonnies, CW Glaukomgeschichte und Risikofaktoren. J. Optom. 10, 71–78. https://doi.org/10.1016/j.optom.2016.02.003 (2017).

Artikel PubMed Google Scholar

Burgansky-Eliash, Z., et al. Optische Kohärenztomographie-Klassifikatoren für maschinelles Lernen zur Glaukomerkennung: eine vorläufige Studie. Invest Ophthalmol Vis Sci 46(11), 4147–52 (2005).

Artikel Google Scholar

Almazroa, A. et al. Methoden zur Segmentierung des Sehnervenkopfes und des Sehnervenbechers zur Glaukom-Bilderkennung: Eine Umfrage. J. Ophthalmol. 2015, 180972–180972. https://doi.org/10.1155/2015/180972 (2015).

Artikel Google Scholar

Banerjee, D. et al. Mitochondriale Genomanalyse von Patienten mit primärem Offenwinkelglaukom. PloS eins 8(8), e70760–e70760. https://doi.org/10.1371/journal.pone.0070760 (2013).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Han, JC, Lee, EJ, Kim, SB & Kee, C. Die Merkmale der tiefen Morphologie des Sehnervenkopfes bei kurzsichtigem Normaldruckglaukom. Invest Ophthalmol Vis Sci 58(5), 2695–2704. https://doi.org/10.1167/iovs.17-21791 (2017).

Artikel Google Scholar

Glaukom: Prävention und Risikofaktoren. 22512 Gateway Center DriveClarksburg, MD 20871. p. https://www.brightfocus.org/glaucoma/prevention-and-risk-factors.

Tan, O., Schuman, J. & Huang, D. Messung der retinalen Ganglienzellschicht und der Dicke der inneren plexiformen Schicht mit optischer Kohärenztomographie. Investig. Ophthalmol. Vis. Wissenschaft. 45, 2382–2382 (2004).

Artikel Google Scholar

Wan, K. & Leung, C. Optische Kohärenztomographie-Angiographie beim Glaukom: Eine Kurzübersicht [Version 1; Peer-Review: 2 genehmigt]. F1000Forschung. https://doi.org/10.12688/f1000research.11691.1 (2017).

Referenzen herunterladen

Die Autoren danken Dr. Kouros Nouri-Mahdavi, Direktor des Glaucoma Advanced Imaging Laboratory, Abteilung für Augenheilkunde an der David Geffen School of Medicine und dem Stein Eye Institute, USA, und den Ärzten des CFEH für ihre klinische Beratung und Unterstützung bei der Datenerfassung. Die klinischen Leistungen am CFEH werden von Guide Dogs NSW/ACT finanziert. Blindenhunde NSW/ACT spielten keine Rolle beim Studiendesign, der Datenerfassung und -analyse, der Entscheidung zur Veröffentlichung oder der Manuskripterstellung.

School of Optometry and Vision Science, UNSW Sydney, Sydney, NSW, 2052, Australien

Nahida Akter, Nancy Briggs & Maitreye Roy

Fakultät für Elektrotechnik und Telekommunikation, UNSW Sydney, Sydney, NSW, 2052, Australien

John Fletcher

School of Electrical and Data Engineering, University of Technology Sydney, Sydney, NSW, 2007, Australien

Stuart Perry

Save Sight Institute, The University of Sydney, Sydney, NSW, 2006, Australien

Matthew P. Simunovic

Sydney Eye Hospital, Sydney, NSW, 2000, Australien

Matthew P. Simunovic

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Konzeptualisierung, NA und MR; Methodik, NA, MR und NB; Software, NA; Validierung, NA, MS und NB; formale Analyse, NA; Untersuchung, NA und MR; Ressourcen, NA, MR; Datenkuration, NA; Schreiben – Originalentwurfsvorbereitung, NA; Schreiben – Überprüfen und Bearbeiten, MR, SP, MS, NB und JF; Visualisierung, NA, JF und SP; Supervision, MR, JF und SP; Projektverwaltung, MR

Korrespondenz mit Maitreyee Roy.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Akter, N., Fletcher, J., Perry, S. et al. Glaukomdiagnose mittels Multi-Feature-Analyse und einer Deep-Learning-Technik. Sci Rep 12, 8064 (2022). https://doi.org/10.1038/s41598-022-12147-y

Zitat herunterladen

Eingegangen: 22. Oktober 2021

Angenommen: 25. April 2022

Veröffentlicht: 16. Mai 2022

DOI: https://doi.org/10.1038/s41598-022-12147-y

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.