banner
Heim / Nachricht / Gesichtsfeldvorhersage unter Verwendung eines tiefen, bidirektionalen Gated-Recurrent-Unit-Netzwerkmodells
Nachricht

Gesichtsfeldvorhersage unter Verwendung eines tiefen, bidirektionalen Gated-Recurrent-Unit-Netzwerkmodells

Aug 08, 2023Aug 08, 2023

Wissenschaftliche Berichte Band 13, Artikelnummer: 11154 (2023) Diesen Artikel zitieren

320 Zugriffe

2 Altmetrisch

Details zu den Metriken

Obwohl eine Deep-Learning-Architektur zur Verarbeitung sequenzieller Daten verwendet wurde, haben nur wenige Studien die Nützlichkeit von Deep-Learning-Algorithmen zur Erkennung des Fortschreitens des Glaukoms untersucht. Hier haben wir einen bidirektionalen Gated-Recurrent-Unit-Algorithmus (Bi-GRU) vorgeschlagen, um den Gesichtsfeldverlust vorherzusagen. Insgesamt wurden 5413 Augen von 3321 Patienten in den Trainingssatz einbezogen, während 1272 Augen von 1272 Patienten in den Testsatz einbezogen wurden. Als Input dienten Daten aus fünf aufeinanderfolgenden Gesichtsfelduntersuchungen; Die sechsten Gesichtsfelduntersuchungen wurden mit den Vorhersagen des Bi-GRU verglichen. Die Leistung von Bi-GRU wurde mit der Leistung herkömmlicher Algorithmen für lineare Regression (LR) und langes Kurzzeitgedächtnis (LSTM) verglichen. Der Gesamtvorhersagefehler war für Bi-GRU deutlich geringer als für LR- und LSTM-Algorithmen. Bei der punktuellen Vorhersage zeigte Bi-GRU an den meisten Teststandorten den niedrigsten Vorhersagefehler unter den drei Modellen. Darüber hinaus war Bi-GRU das am wenigsten betroffene Modell im Hinblick auf die Verschlechterung der Zuverlässigkeitsindizes und den Schweregrad des Glaukoms. Eine genaue Vorhersage des Gesichtsfeldverlusts mithilfe des Bi-GRU-Algorithmus kann die Entscheidungsfindung hinsichtlich der Behandlung von Patienten mit Glaukom erleichtern.

Das Glaukom, eine der weltweit häufigsten Erblindungsursachen, ist durch den irreversiblen Verlust retinaler Ganglienzellen gekennzeichnet1,2. Strukturelle Veränderungen in den Ganglienzellen der Netzhaut und im Sehnervenkopf führen zu einer fortschreitenden Verschlechterung des Gesichtsfeldes2. Die Vorhersage des zukünftigen Gesichtsfeldes ist für den Erhalt der Sehfunktion von wesentlicher Bedeutung. Allerdings sind Gesichtsfeldtestergebnisse anfällig für zufällige Fehler und Schwankungen, insbesondere bei Patienten mit Glaukom, was eine genaue Vorhersage von Gesichtsfeldveränderungen erschwert3.

In den letzten Jahren haben maschinelle Lernalgorithmen gute Ergebnisse bei der Vorhersage des Glaukomverlaufs gezeigt. Wang et al.4 klassifizierten und bestimmten den Verlauf von 16 Archetypen von Gesichtsfeldausfällen. Murata et al.5 fanden im Vergleich zur punktweisen linearen Regression (LR) eine überlegene Vorhersagefähigkeit der linearen Variations-Bayes-Regression, einer Art maschinellem Lernalgorithmus. Aufgrund der jüngsten Entwicklung der künstlichen Intelligenz werden Deep-Learning-Algorithmen für verschiedene Aufgaben mit hervorragender Leistung eingesetzt. Allerdings haben nur wenige Studien das Fortschreiten von Gesichtsfelddefekten mithilfe von Deep-Learning-Algorithmen vorhergesagt. Wen et al.6 verwendeten ein Faltungs-Neuronales Netzwerk, um zukünftige Gesichtsfelder vorherzusagen, und verwendeten dabei eine einzelne Gesichtsfelduntersuchung als Eingabe. Berchuck et al.7 verwendeten ein Variations-Autoencoder-Modell, um die Geschwindigkeit der Gesichtsfeldprogression abzuschätzen.

Recurrent Neural Network (RNN), ein künstliches Netzwerk mit wiederkehrenden Verbindungen, wurde für sequentielle Zeitreihen mit zeitlicher Abhängigkeit und zur Sequenzmodellierung verwendet8. Es kann aktuelle Daten verarbeiten und anhand früherer Daten Vorhersagen treffen, die auf Abhängigkeiten zwischen aufeinanderfolgenden Elementen basieren9,10. Die beiden Hauptvarianten von RNN, das lange Kurzzeitgedächtnis (LSTM)11 und die Gated Recurrent Unit (GRU)12, modellieren die Langzeitabhängigkeit in langen Sequenzen. In einer früheren Studie haben wir herausgefunden, dass LSTM im Vergleich zu gewöhnlichem LR13 mit der Methode der kleinsten Quadrate über bessere Fähigkeiten zur Vorhersage zukünftiger Gesichtsfelder verfügt. Dixit et al.14 fanden heraus, dass LSTM-Netzwerke die longitudinalen lokalen und globalen Trends in Gesichtsfeldern vorhersagen können.

GRU nutzt Gating-Einheiten effizienter und mit einer ähnlichen Rate im Vergleich zu typischen LSTMs15,16,17. Mehrere Studien haben gezeigt, dass GRU im Vergleich zu anderen RNN-Typen eine hervorragende Leistung bei der sequentiellen Datenanalyse aufweist12,15,18,19. Kürzlich wurde eine bidirektionale RNN-Methode durch gleichzeitiges Training mit positiven und negativen Zeitrichtungen entwickelt, die ein besseres Verständnis des Kontexts ermöglicht20. Lynn et al.15 verglichen mehrere RNN-basierte Modelle zur menschlichen Identifizierung mithilfe elektrokardiogrammbasierter Biometrie aus sequentiellen Zeitreihendaten. Das bidirektionale Netzwerk mit LSTM- und GRU-Modellen war effektiver als herkömmliche RNN-Modelle, und das bidirektionale Gated Recurrent Unit (Bi-GRU)-Modell zeigte eine bessere Leistung als das bidirektionale LSTM-Modell. Da Gesichtsfelduntersuchungen sequentielle Daten mit umfassenden Verbindungen liefern, kann Bi-GRU im Vergleich zum vorherigen LSTM-basierten RNN-Modell eine bessere Vorhersage des Gesichtsfeldverlaufs erzielen.

Unseres Wissens ist dies die erste Studie, die Bi-GRU zur Vorhersage von Gesichtsfeldschäden verwendet. In einer früheren Studie haben wir die Leistung von LSTM bei der Vorhersage von Gesichtsfelddefekten bewertet. Da die vorliegende Studie einen größeren Datensatz als unsere vorherige Arbeit verwendete, haben wir ein rechnerisch effizientes RNN-basiertes Bi-GRU-Modell entwickelt. Wir haben die Leistung des Bi-GRU-Modells mit der Leistung herkömmlicher LR- und LSTM-Modelle verglichen.

Diese retrospektive Studie wurde im Einklang mit den Grundsätzen der Deklaration von Helsinki durchgeführt. Gesichtsfelddaten wurden zwischen Juni 2004 und Januar 2021 in Glaukomkliniken des Pusan ​​National University Hospital, des Kosin University Gospel Hospital, des Dong-A University Hospital, des Busan Paik Hospital und des Pusan ​​National University Yangsan Hospital gesammelt. Das Studienprotokoll wurde von der Einrichtung genehmigt Prüfungsausschüsse des Pusan ​​National University Hospital (Genehmigungsnr.: 2203-018-113), des Kosin University Gospel Hospital (Genehmigungsnr.: 2018-12-028), des Dong-A University Hospital (Genehmigungsnr.: 22-074), Busan Paik Hospital (Genehmigungsnr.: 2021-03-014-002) und Yangsan Hospital der Pusan ​​National University (Genehmigungsnr.: 05-2018-172). Aufgrund des retrospektiven Studiendesigns verzichteten die institutionellen Prüfungsausschüsse auf die Einwilligung des Patienten. Geschlechts- und Diagnosedaten wurden nachträglich aus Krankenakten gesammelt.

In die Trainings- und Testdatensätze wurden Teilnehmer einbezogen, die mindestens sechs aufeinanderfolgende Gesichtsfelduntersuchungen absolvierten. Es gab keine Patientenüberschneidung zwischen den beiden Datensätzen. Eingeschlossen wurden Augen mit einem Abstand von ≥ 3 Jahren zwischen der ersten und sechsten Gesichtsfelduntersuchung. Beispielsweise galten bei einem Auge mit 13 aufeinanderfolgenden Gesichtsfelduntersuchungen die erste bis sechste Untersuchung als erster Datensatz, die siebte bis zwölfte Untersuchung als zweiter Datensatz und die dreizehnte Untersuchung wurde aus dem Datensatz ausgeschlossen. Die ersten fünf Untersuchungen wurden als Eingabedaten zur Vorhersage der sechsten Untersuchung verwendet, und die siebte bis elfte Untersuchung wurden als Eingabedaten zur Vorhersage der zwölften Untersuchung verwendet (Abb. 1).

Repräsentative Zeitverschiebungssequenz eines Patienten, der 13 Gesichtsfeldtests abgeschlossen hat. Die in grauen Kästchen angegebenen Daten für Gesichtsfeldtests wurden für das Training und die in schwarzen Kästchen angegebenen Daten für die Vorhersage verwendet.

Wir haben 6-Zellen-Daten aus 8323 Gesichtsfeldern von 6685 Augen und 4593 Teilnehmern erhalten. Datensätze von 7051 (85 %) bzw. 1.272 (15 %) Personen wurden in die Trainings- bzw. Testdatensätze einbezogen. Insgesamt wurden 7051 Datensätze aus dem Trainingsdatensatz zufällig im Verhältnis 9:1 in Trainings- und Validierungsdatensätze aufgeteilt. Der Validierungsdatensatz wurde verwendet, um die Fitness des neuronalen Netzwerks während des Trainings zu bestimmen, um eine Überanpassung zu verhindern. Alle 8323 Datensätze umfassten sechs Gesichtsfelduntersuchungen, und die mittlere Nachbeobachtungsdauer für die sechs Untersuchungen betrug 4,39 \(\pm\) 1,69 Jahre. Tabelle 1 zeigt die Merkmale jedes Datensatzes.

Die automatisierte Perimetrie wurde mit einem Humphrey Visual Field Analyzer 750i (Carl Zeiss Meditec, Inc., Dublin, CA, USA) und dem schwedischen interaktiven Schwellenwertalgorithmus 24-2 oder 30-2 durchgeführt. Von den 54 Testpunkten des 24-2-Testmusters wurden die beiden Punkte des physiologischen Skotoms ausgeschlossen; die restlichen 52 Testpunkte wurden verwendet. Das 30-2-Testmuster wurde mithilfe der überlappenden Testpunkte in das 24-2-Testmuster umgewandelt. Zuverlässige Gesichtsfeldtests wurden als Falsch-Positiv-Rate < 33 %, Falsch-Negativ-Rate < 33 % und Fixationsverlust < 33 % definiert.

Wir haben die neuronalen Netzwerkmodelle LSTM und Bi-GRU verwendet. Zur Vorhersage des Gesichtsfeldverlusts wurde Python-Software (Version 3.8) mit TensorFlow 2.3 (Google, Mountain View, CA, USA) verwendet. Ergänzende Abbildung S1 veranschaulicht die beiden Modellstrukturen.

Wir haben einschichtige neuronale Netze aufgebaut, um die Strukturinformationen eines bestimmten Datensatzes mithilfe vorverarbeiteter Eingaben zu lernen. Die LSTM-zellbasierten neuronalen Netze wurden wie folgt definiert:

wobei \({W}_{f},{W}_{i}, {W}_{o} und {W}_{C}\) die Gewichte darstellen und \({b}_{f} , {b}_{i}, {b}_{o}, { und b}_{C}\) repräsentieren jeweils die Vorspannung im Netzwerk der drei Gates und einer Speicherzelle. ⨂ ist das elementweise Produkt zwischen zwei Vektoren. Das Sigmoid ist die im Netzwerk verwendete Aktivierungsfunktion und wird wie folgt geschrieben:

Die Eingangs- und Ausgangsgatter regeln den Fluss der Ein- und Ausgänge der Speicherzellen im gesamten Netzwerk, während das Vergessensgatter in die Speicherzelle integriert ist, um Ausgangsinformationen mit hoher Gewichtung vom vorherigen Neuron zum nächsten zu übertragen. Die im Speicher enthaltenen Informationen hängen von den Ergebnissen der hohen Aktivierung ab. Wenn die Eingabeeinheit eine hohe Aktivierung aufweist, werden Informationen in der Speicherzelle gespeichert. Wenn die Ausgabeeinheit hingegen stark aktiviert ist, gibt sie die Informationen an das nächste Neuron weiter. In der Speicherzelle befinden sich Eingabeinformationen mit hohem Gewicht. Als aktive Funktionen für die Tore werden Sigmoid und Tanh eingesetzt. Hier stellt h(t-1) die vorherigen verborgenen Schichteinheiten dar, die die Gewichte der drei Tore elementweise addieren. Nach der Verarbeitung von Gl. (4), (C)t gibt die aktuelle Speicherzelleneinheit an. Gleichung (5) zeigt die elementweise Multiplikation der Ausgaben der vorherigen verborgenen Einheit und der vorherigen Speicherzelleneinheit. Nichtlinearität wird durch die Tanh- und Sigmoid-Aktivierungsfunktionen eingeführt, wie in den Gleichungen gezeigt. (1–5). Dabei sind t − 1 und t die vorherigen und aktuellen Zeitschritte.

GRU ist eine vereinfachte Variante von LSTM, die nur zwei Gatter hat: das Update-Gate, das die Eingabe- und Vergessens-Gatter umfasst, und das Reset-Gate. Es verfügt über keine zusätzliche Speicherzelle zur Speicherung von Informationen und kann nur Informationen innerhalb des Geräts steuern.

Das Update-Gate in Gl. (6) bestimmt den Umfang der Informationsaktualisierung. In Gl. (7) Das Rest-Gate ähnelt dem Update-Gate. Wenn das Gate auf Null gesetzt ist, liest GRU die Eingabesequenzen und vergisst den zuvor berechneten Status. Darüber hinaus weist \(\widetilde{{h}_{t}}\) eine Funktionalität auf, die mit der rekurrenten Einheit identisch ist, und ℎt der GRU zum Zeitpunkt t stellt eine lineare Interpolation zwischen den aktuellen \(\widetilde{{h}_{t) dar }}\) und vorherige \({h}_{t-1}\) Aktivierungszustände in Gleichungen. (8) und (9).

Eine Bi-GRU-Schicht wurde durch die Kombination einer Vorwärts-GRU mit einer Rückwärtsrichtungs-GRU gebildet. Beide GRUs erhalten die gleichen Eingaben, trainieren jedoch in entgegengesetzte Richtungen, und ihre Ergebnisse werden verkettet, um die Ausgabe zu erzeugen. Tiefe hierarchische neuronale Netze erfassen effektiv spezifische Funktionen und Modellabhängigkeiten unterschiedlicher Länge21. Unsere Experimente ergaben, dass Bi-GRU andere Modelle in unseren Datensätzen übertraf.

In unserer vorgeschlagenen Methode umfasst das Deep-Learning-Modell Eingabedaten, eine einmalige neuronale Netzwerkschicht, die für sequentielle Vorhersagen verwendet wird, und eine dichte Schicht. Die neuronalen Netzwerkstrukturen für LSTM und Bi-GRU sind in Abb. 2 dargestellt.

Architekturen der (a) Methode des langen Kurzzeitgedächtnisses (LSTM) und (b) der Methode der bidirektionalen Gated Recurrent Unit (Bi-GRU). Die Eingabeebenen beider Modelle bestanden aus Zeitverschiebungswerten in Tagen, Zuverlässigkeitsdaten und Gesichtsfelddaten. Zu den Zuverlässigkeitsdaten gehörten die Falsch-Positiv-Rate (FP), die Falsch-Negativ-Rate (FN) und der Prozentsatz des Fixationsverlusts (FL). Die Gesichtsfelddaten bestanden aus 52 Musterabweichungswerten (PDVs) und 52 Gesamtabweichungswerten (TDVs) beim 24-2-Gesichtsfeldtest (zwei Punkte physiologischer Skotome wurden ausgeschlossen). Die letzte Zelle enthielt einen positiven Zeitverschiebungswert und 107 Nullen als Eingabe, da alle anderen Werte auf Null gesetzt waren. Diese eindeutigen Eingaben können das genaue Datum angeben, das der Benutzer vorhersagen möchte. LSTM = langes Kurzzeitgedächtnis; Bi-GRU = bidirektionale Gated Recurrent Unit; TDV = Gesamtabweichungswert.

Das einschichtige zeitserielle neuronale Netzwerk besteht aus sechs parallelen und verbundenen LSTM- oder Bi-GRU-Zellen. Die detaillierten Strukturen der LSTM- und GRU-Zellen sind in der ergänzenden Abbildung S1a bzw. b dargestellt.

Jede der ersten fünf Zellen verwendet 108 Merkmale als Eingabe, darunter 52 Gesamtabweichungswerte (TDVs), 52 Musterabweichungswerte (PDVs), Zuverlässigkeitsdaten (wie Falsch-Negativ- und Falsch-Positiv-Raten, Prozentsatz des Fixierungsverlusts) und Zeit Verschiebungswert. Um die Leistung des Deep-Learning-Modells zu verbessern, wurden die Eingabedaten auf einen angemessenen Bereich normalisiert. Die TDV-, PDV- und Zeitverschiebungswerte wurden in Sätze von 50, 50 bzw. 1000 unterteilt. Die Zeitverschiebung gab die Anzahl der Tage seit der letzten Gesichtsfelduntersuchung an. Wenn beispielsweise die letzte Gesichtsfelduntersuchung eine Zeitverschiebung von „0“ aufweist, weist die Gesichtsfelduntersuchung, die einen Monat (− 31 Tage) vor „0“ durchgeführt wurde, eine Zeitverschiebung von „− 31“ auf. Ein negatives Vorzeichen im Zeitverschiebungswert weist darauf hin, dass die Untersuchung in der Vergangenheit durchgeführt wurde. Bezüglich der 6 aufeinanderfolgenden Gesichtsfeld-Eingabedatenelemente verwendete das letzte Eingabedatenelement ein eindeutiges Format mit positiver Zeitverschiebung (dh dem Punkt in der Zukunft, den der Benutzer vorhersagen möchte) und 107 Nullen. Da die anderen Daten auf 0 gesetzt wurden, können diese eindeutigen Eingaben das genaue Datum angeben, das der Benutzer vorhersagen möchte. Eine Reihe von Eingabedaten wurde zusammengestellt, indem der Zeitverschiebungswert (dh von der Zukunft zur Vergangenheit) reduziert und diese Informationen dann dem neuronalen Netzwerk zugeführt wurden. Anschließend wurde die neuronale Netzwerkschicht mit der nächsten einzelnen vollständig verbundenen Schicht (dichte Schicht) mit 52 Neuronen verbunden. Diese Neuronen erzeugten eine Endausgabe von 52 TDVs, sodass ein Neuron einen einzelnen Gesichtsfeldtestpunkt erzeugte.

Als Genauigkeitsmetriken wurden der mittlere quadratische Fehler (RMSE) und der mittlere absolute Fehler (MAE) des TDV verwendet. Der RMSE wurde für jedes Auge anhand der folgenden Gleichung berechnet:

Der MAE wurde für jeden Testpunkt im Gesichtsfeld aller Augen anhand der folgenden Gleichung berechnet:

RMSE und MAE der LR-, LSTM- und Bi-GRU-Modelle wurden mithilfe der oben genannten Formeln berechnet. Eine Einweg-Varianzanalyse mit wiederholten Messungen wurde durchgeführt, um Genauigkeitsmetriken zwischen LR-, LSTM- und Bi-GRU-Modellen zu vergleichen. P < 0,05 (Einzelvergleich) und p < 0,017 (Mehrfachvergleiche) wurden als Hinweis auf statistische Signifikanz angesehen. Zum Vergleich der Variablen wurden parametrische und nichtparametrische Tests (Spearman-Korrelation und einfache LR-Analysen) durchgeführt. Diese Tests wurden verwendet, um Vorhersagefehlertrends anhand verschiedener Faktoren zu untersuchen, einschließlich der Falsch-Positiv-Rate, der Falsch-Negativ-Rate, des Prozentsatzes des Fixierungsverlusts und der mittleren Gesichtsfeldabweichung (MD).

Tabelle 2 zeigt die demografischen Merkmale des Testdatensatzes. Die häufigste Diagnose war ein primäres Offenwinkelglaukom (47,68 %). Die mittlere Vorhersagezeit (Zeitintervall zwischen Vorhersage und abschließender Gesichtsfelduntersuchung) betrug 1,00 ± 0,84 Jahre (Tabelle 1). Der mittlere RMSE und der punktweise mittlere absolute Fehler (PMAE) sind in Tabelle 3 aufgeführt. Abbildung 3 zeigt repräsentative Beispiele für PMAE im Gesichtsfeldtest.

Repräsentative Beispiele für die Gesichtsfeldvorhersage anhand der mittleren Abweichung (MD) der ersten Gesichtsfelduntersuchung. Fünf aufeinanderfolgende Eingabe-Gesichtsfelduntersuchungen werden in chronologischer Reihenfolge von links nach rechts angezeigt, gefolgt von der sechsten Untersuchung (die als wahrer Wert gilt). Die Spalten 7–9 geben die Vorhersageergebnisse der LR-, LSTM- und Bi-GRU-Modelle an. LR = lineare Regression; LSTM = langes Kurzzeitgedächtnis; Bi-GRU = bidirektionale Gated Recurrent Unit.

Bi-GRU zeigte im Vergleich zu LR und LSTM eine bessere Vorhersageleistung. Die RMSEs von Bi-GRU, LR und LSTM betrugen 3,71 ± 2,42, 4,81 ± 3,89 bzw. 4,06 ± 2,61 dB. Es gab statistisch signifikante Unterschiede in den Vorhersagefehlern zwischen den drei Modellen (F = 42,94, p < 0,001). Der RMSE war für Bi-GRU deutlich niedriger als für die anderen beiden Modelle (beide p < 0,001).

Die Anzahl der gemäß dem RMSE-Vorhersagefehler gruppierten Augen ist in Abb. 4 dargestellt. Mehr als 50 % der Augen hatten Bi-GRU-Vorhersagefehler von ≤ 2 dB (530 Augen, 41,67 %) und 2–3 dB (175 Augen, 13,76). %). Die entsprechenden LR-Vorhersagefehler betrugen ≤ 2 dB (329 Augen, 25,86 %) und 2–3 dB (254 Augen, 19,97 %), und die entsprechenden LSTM-Vorhersagefehler betrugen ≤ 2 dB (505 Augen, 39,70 %) und 2–3 dB (165 Augen, 12,97 %).

Anzahl der Augen, die gemäß dem Vorhersagefehler (RMSE, Root Mean Square Error) gruppiert wurden.

Abbildung 5 zeigt die PMAE im Gesichtsfeld. Bezogen auf die 52 TDV-Punkte wies Bi-GRU den geringsten Vorhersagefehler unter den drei Modellen auf. Bi-GRU zeigte mit 29 (rote Punkte) bzw. 49 (blaue Punkte) Punkten eine deutlich bessere Leistung im Vergleich zu LR bzw. LSTM.

Punktweiser mittlerer absoluter Fehler (PMAE) des vorhergesagten Gesamtabweichungswerts (TDV). Bi-GRU hatte den niedrigsten Vorhersagefehler (PMAE) für alle 52 Punkte. Dunklere Farben weisen auf einen höheren Fehler hin. Rote Punkte zeigen signifikante Unterschiede zwischen LR und Bi-GRU an; Blaue Punkte zeigen signifikante Unterschiede zwischen LSTM und Bi-GRU (gepaarter T-Test) an. LR = lineare Regression; LSTM = langes Kurzzeitgedächtnis; Bi-GRU = bidirektionale Gated Recurrent Unit.

Tabelle 4 zeigt den mittleren Vorhersagefehler (RMSE) nach Sektoren der Gesichtsfelduntersuchung (Abb. 6). Das 24-2-Gesichtsfeld wurde basierend auf der Anatomie des Sehnervenkopfes in die sechs von Garway-Heath et al.22 vorgeschlagenen Sektoren unterteilt (superotemporal, superonasal, temporal, nasal, inferotemporal und inferonasal) [Abb. 6b] und zwei Sektoren (zentral und peripher) [Abb. 6c]. Die Vorhersagefehler von Bi-GRU waren für alle Sektoren signifikant geringer als die Fehler von LR und LSTM (p ≤ 0,001).

Aufteilung des Sehnervenkopfes (a) und des Gesichtsfeldes (b, c). (b) Das Gesichtsfeld wurde in sechs Sektoren unterteilt, die von Garway-Heath et al.22 vorgeschlagen wurden. (c) Das Gesichtsfeld wurde in die zentrale und periphere Zone unterteilt. ST = superotemporal; SN = superonasal; T = zeitlich; N = nasal; IT = inferotemporal; IN = inferonasal; P = peripher; C = zentral.

Die nach verschiedenen Faktoren gruppierten mittleren RMSE-Werte sind in Tabelle 5 und Abb. 7 aufgeführt. Der Vorhersagefehler war für Bi-GRU hinsichtlich der Falsch-Positiv-Rate, der Falsch-Negativ-Rate und deutlich geringer als für die anderen beiden Modelle Prozentsatz des Fixationsverlusts (p ≤ 0,025). Mit zunehmender Gesichtsfeld-MD nahmen die RMSE-Vorhersagefehler aller drei Modelle ab.

Durchschnittlicher Vorhersagefehler (RMSE), gruppiert nach verschiedenen Faktoren. RMSE vs. (a) Falsch-Positiv-Rate, (b) Falsch-Negativ-Rate, (c) Prozentsatz des Fixationsverlusts und (d) mittlere Gesichtsfeldabweichung (MD). Bi-GRU zeigte den geringsten Vorhersagefehler. LR = lineare Regression; LSTM = langes Kurzzeitgedächtnis; Bi-GRU = bidirektionale Gated Recurrent Unit; RMSE = quadratischer Mittelwertfehler.

Die Korrelationskoeffizienten und LR-Analysen zwischen dem Vorhersagefehler und verschiedenen Faktoren sind in Tabelle 6 und Abb. 8 dargestellt. Bei allen Modellen korrelierte RMSE positiv mit der Falsch-Negativ-Rate und dem Prozentsatz des Fixierungsverlusts, wohingegen es negativ mit dem Gesichtsfeld korrelierte MD (alle p ≤ 0,029) (Abb. 8).

Lineare Regressionsanalyse zwischen Vorhersagefehler (RMSE) und verschiedenen Faktoren. RMSE vs. (a) Falsch-Positiv-Rate, (b) Falsch-Negativ-Rate, (c) Prozentsatz des Fixationsverlusts und (d) mittlere Gesichtsfeldabweichung (MD). LR = lineare Regression; LSTM = langes Kurzzeitgedächtnis; Bi-GRU = bidirektionale Gated Recurrent Unit; RMSE = quadratischer Mittelwertfehler.

Nach unserem besten Wissen ist diese Studie die erste, die die Bi-GRU-Architektur zur Vorhersage von Gesichtsfeldausfällen nutzt. Wir haben die Vorhersage des Gesichtsfeldverlusts mit den Modellen Bi-GRU, LR und LSTM verglichen. Das Bi-GRU-Modell zeigte die höchste Vorhersagegenauigkeit unter den drei Modellen. Die Gesamtvorhersagefehler (RMSEs) der LR-, LSTM- und Bi-GRU-Modelle betrugen 4,81 ± 3,89, 4,06 ± 2,61 bzw. 3,71 ± 2,42 dB. Der RMSE unterschied sich signifikant zwischen Bi-GRU und den anderen Modellen (p < 0,001).

In den sechs Sektoren der Gesichtsfelder gemäß der Anatomie des Sehnervenkopfes sowie in den zentralen und peripheren Gesichtsfeldbereichen zeigte Bi-GRU im Vergleich zu den beiden anderen Modellen eine überlegene Leistung (alle p < 0,001).

Die Vorhersageleistung korrelierte in allen drei Modellen negativ mit der Falsch-Negativ-Rate und dem Prozentsatz des Fixierungsverlusts. Bi-GRU wurde jedoch am wenigsten von Zuverlässigkeitsindizes beeinflusst. Eine Abnahme der MD war in allen drei Modellen mit einer geringeren Vorhersageleistung verbunden. Der RMSE war für Bi-GRU unter den drei Modellen am niedrigsten; Bi-GRU schnitt selbst bei Patienten mit fortgeschrittenem Glaukom besser ab.

In mehreren Studien wurde künstliche Intelligenz zur Erkennung des Glaukoms und seines Fortschreitens eingesetzt. Asaoka et al.23 bauten ein neuronales Deep-Feed-Forward-Netzwerk zur Erkennung eines präperimetrischen Glaukoms auf. Die Fläche unter der Receiver Operating Characteristic Curve (AUROC) des Modells betrug 92,6 %, was auf eine bessere Leistung als andere maschinelle Lernmethoden (z. B. Random Forest, Gradient Boosting, Support Vector Machine und neuronales Netzwerk) hinweist. Obwohl diese Studie die erste war, die Deep Learning zur Beurteilung des präperimetrischen Glaukoms einsetzte, wurde nur eine kleine Menge an Daten aus präperimetrischen Gesichtsfeldern von Patienten mit Glaukom (53 Augen) analysiert. Elze et al.24 klassifizierten Gesichtsfelder in 16 Archetypen und stellten fest, dass die Archetypen eng mit den klinischen Merkmalen des Glaukoms korrelierten25. Diese Studien klassifizierten jedoch Gesichtsfelder, anstatt Gesichtsfeldveränderungen vorherzusagen. Yousefi et al.26 verglichen verschiedene maschinelle Lernalgorithmen im Hinblick auf die Erkennung des Fortschreitens des Glaukoms, wobei sie die retinale Nervenfaserschicht bei der optischen Kohärenztomographie und die MD- und Musterstandardabweichung bei der Gesichtsfelduntersuchung als Eingabe verwendeten. Der Random-Forest-Klassifikator zeigte mit einem AUROC von 0,88 die beste Leistung. Wang et al.4 bewerteten die Vorhersagefähigkeit für Gesichtsfeldveränderungen anhand von Archetypen; Sie fanden heraus, dass die mittleren Treffer- und korrekten Ablehnungsraten 0,77 bzw. 0,77 betrugen, was darauf hindeutet, dass die Vorhersagefähigkeit des Archetyp-Ansatzes höher war als die Fähigkeiten anderer Methoden, wie z. B. MD-Steigung, Bewertung fortgeschrittener Glaukom-Interventionsstudien und kollaborative Bewertung anfänglicher Glaukom-Behandlungsstudien und die Permutation der punktweisen linearen Regression. Im Gegensatz zu unserer Studie konnten in früheren Studien jedoch keine Gesichtsfeldveränderungen vorhergesagt werden.

Dixit et al.14 fanden heraus, dass der Verlauf von Gesichtsfeldveränderungen mithilfe eines Deep-Learning-Algorithmus auf Basis der LSTM-Architektur mit einer Genauigkeit von 91–93 % vorhergesagt werden konnte. Der AUROC betrug 0,89–0,93, wenn mehrere Gesichtsfelduntersuchungen und klinische Basisdaten als Eingabe verwendet wurden. Darüber hinaus führte die Verwendung klinischer Daten zur Ergänzung der Gesichtsfelddaten zu einer verbesserten Modellleistung. Murata et al.5 fanden heraus, dass die lineare Variations-Bayes-Regression das Fortschreiten von Gesichtsfeldveränderungen bei Patienten mit Glaukom genauer vorhersagte als die konventionelle LR nach der Methode der kleinsten Quadrate. Wen et al.6 verwendeten Cascade-Net, eine Art Faltungs-Neuronale-Netzwerk-Architektur, um zukünftige Humphrey-Gesichtsfeldbefunde anhand nur einer einzigen Gesichtsfeldeingabe vorherzusagen. Die Modelle zeigten hervorragende Vorhersagefähigkeiten; Insgesamt betrugen PMAE und RMSE 2,47 bzw. 3,47 dB. PMAE und RMSE des Bi-GRU-Modells waren etwas höher als PMAE und RMSE des Cascade-Net-Modells. Dieses Modell spiegelt jedoch möglicherweise nicht den tatsächlichen Verlauf wider, da die Autoren eine einzelne Gesichtsfelduntersuchung als Eingabe verwendeten. Berchuck et al.7 verwendeten einen verallgemeinerten Variations-Autoencoder-Algorithmus, um Progressionsraten abzuschätzen und zukünftige Gesichtsfelder vorherzusagen. Der Gesamt-MAE betrug 1,89–2,33 dB, vergleichbar mit dem MAE unseres Modells. Park et al.13 verwendeten ein RNN, um die sechste Gesichtsfelduntersuchung vorherzusagen; Sie fanden heraus, dass der RMSE 4,31 ± 2,4 dB betrug, was darauf hinweist, dass RNN das zukünftige Gesichtsfeld besser vorhersagte als LR.

In einer früheren Studie haben wir das LSTM-Modell verwendet, um zeitsequentielle Eingaben bestehend aus Gesichtsfelduntersuchungen zu analysieren13. In der vorliegenden Studie haben wir eine Deep-Learning-Architektur basierend auf einem Bi-GRU-Netzwerk aufgebaut. Sowohl GRU als auch LSTM sind Varianten von RNN, einer hochmodernen Deep-Learning-Architektur, die sequentielle Daten zur Sequenzerkennung und -vorhersage verarbeitet27. Cho et al.16 stellten eine GRU-Architektur vor, die es jeder wiederkehrenden Einheit ermöglichte, Abhängigkeiten verschiedener Zeitskalen adaptiv zu erfassen. Sowohl GRU als auch LSTM verfügen über wiederkehrende Einheiten in der Sequenzmodellierung. GRU verfügt jedoch über Gating-Einheiten, die den Informationsfluss innerhalb der Einheit ohne separate Speicherzellen modulieren8,12,16. Chung et al.12 berichteten, dass GRU hinsichtlich der Modellierung polyphoner Musik und Sprachsignale mit LSTM vergleichbar sei. Khandelwal et al.17 fanden heraus, dass GRU LSTM hinsichtlich kürzerer Rechenzeit und niedrigerer Wortfehlerrate bei der automatischen Spracherkennung übertraf.

Herkömmliches RNN berücksichtigt nur den vorherigen Kontext der Trainingsdaten. Um die Einschränkungen eines herkömmlichen RNN zu überwinden, schlugen Shuster et al.20 ein bidirektionales RNN vor, das sowohl vergangene als auch zukünftige Eingabesequenzen berücksichtigt, um den Ausgabevektor zu schätzen. Mehrere Studien haben gezeigt, dass Bi-GRU LSTM übertrifft15,17,18. Bi-GRU erreichte die höchste Klassifizierungsgenauigkeit unter den auf tiefen neuronalen Netzwerken basierenden Modellen zur menschlichen Identifizierung auf der Grundlage der Elektrokardiogramm-Biometrie15.

In der vorliegenden Studie zeigte Bi-GRU eine bessere Vorhersageleistung als LR und LSTM für das gesamte Gesichtsfeld sowie den zentralen Bereich; Dieser Bereich ist wichtig, da der Erhalt der zentralen Sehfunktion einen starken Einfluss auf die Lebensqualität von Patienten mit Glaukom hat28,29. Bi-GRU war am wenigsten von den Zuverlässigkeitsindizes betroffen. Die Falsch-Negativ-Rate und der Fixationsverlust beeinflussten die Gesichtsfeldvorhersage in allen Modellen. Es bestand jedoch eine schlechte Korrelation zwischen Fixationsverlust und Gesichtsfeldvorhersage, was auf einen geringen Effekt des Fixationsverlusts hindeutet. Frühere Studien zeigten, dass Falsch-Negativ-Raten, jedoch kein Fixationsverlust, mit der Gesichtsfeldbeurteilung verbunden waren13,30,31. Darüber hinaus zeigten frühere Studien, dass Falsch-Negativ-Raten die häufigste Ursache für eine unzuverlässige Gesichtsfeldklassifizierung waren32,33.

Unsere Studie hatte mehrere Einschränkungen. Erstens können die Studienergebnisse nicht vollständig auf Patienten mit unterschiedlichem Schweregrad des Glaukoms übertragen werden. Die Studie umfasste eine größere Anzahl von Patienten mit frühem Glaukom (MD > − 6 dB) in den Trainings- und Testdatensätzen im Vergleich zu Patienten mit fortgeschrittenem Glaukom. Obwohl sich dieser Unterschied möglicherweise auf die Leistung des Bi-GRU-Modelllernens ausgewirkt hat, spiegelt er die in der klinischen Praxis beobachtete Verteilung des Glaukomschweregrads wider.

Zweitens haben wir im Gegensatz zur Arbeit von Dixit et al.14 keine klinischen Daten für das Training einbezogen. Zukünftige Studien sollten die Deep-Learning-Architektur verbessern, indem sie klinische Merkmale zu den Eingabedaten hinzufügen.

Drittens haben wir das Modell trainiert und getestet, indem wir fünf aufeinanderfolgende Gesichtsfelddatenelemente als Eingabe verwendet haben. Glaukomspezialisten empfehlen, mindestens fünf aufeinanderfolgende Gesichtsfelduntersuchungen durchzuführen, um das Fortschreiten des Glaukoms zu erkennen. Die im Humphrey Visual Field Analyzer enthaltene Glaukom-Progressionsanalyse erfordert mindestens fünf zuverlässige Gesichtsfelduntersuchungen und eine Nachbeobachtungszeit von 2 Jahren34. Frühere Studien verwendeten auch fünf Gesichtsfelddatenelemente als Eingabe, um die Gesichtsfeldprogression beim Glaukom vorherzusagen35,36. Darüber hinaus wurde eine sequentielle punktuelle LR mit mindestens vier Gesichtsfelduntersuchungen durchgeführt, da die Regressionsanalyse wahrscheinlich keinen Trend erkennen wird, wenn weniger Daten verfügbar sind37. Wir haben die sechste Gesichtsfelduntersuchung anhand der vorherigen fünf Untersuchungen vorhergesagt, um die Vorhersageleistungen von Bi-GRU- und LR-Modellen zu vergleichen. Das Glaukom erfordert lebenslange regelmäßige Gesichtsfelduntersuchungen38,39. Daher sind fünf aufeinanderfolgende Gesichtsfelduntersuchungen über einen Zeitraum von drei Jahren keine allzu häufige Zahl, und die Vorhersage nachfolgender Untersuchungen auf der Grundlage der ersten fünf Untersuchungen kann den Patientenkomfort erhöhen.

Bei der weiteren Analyse haben wir mithilfe des Bi-GRU-Modells das zukünftige Gesichtsfeld auf der Grundlage von vier aufeinanderfolgenden Gesichtsfelddatenelementen vorhergesagt. Die mittleren Vorhersagefehler betrugen 3,84 ± 2,48 und 2,91 ± 1,96 dB für RMSE bzw. PMAE. Obwohl es statistisch signifikante Unterschiede in den Vorhersagefehlern (beide p < 0,001) zwischen den Modellen gab, die fünf und vier Gesichtsfelddatenelemente verwendeten, war der Unterschied klinisch nicht signifikant.

Viertens konnte das Modell nur die sechste Gesichtsfelduntersuchung vorhersagen. Zukünftige Studien sollten zusätzliche Patientendaten mit einer größeren Anzahl von Gesichtsfelduntersuchungen sammeln und die Leistung unseres Modells im Hinblick auf die Vorhersage der siebten bis zehnten Gesichtsfelduntersuchungen bewerten, wobei die ersten fünf Gesichtsfelduntersuchungen als Eingabe verwendet werden. Unser Modell kann jedoch Gesichtsfelder zu zukünftigen Zeitpunkten vorhersagen. Beispielsweise kann das Modell die Gesichtsfelder 4, 8 und 12 Monate nach der fünften Gesichtsfelduntersuchung vorhersagen.

Zusammenfassend lässt sich sagen, dass eine Deep-Learning-Architektur mit dem Bi-GRU-Modell, einer Variante von RNN, zukünftige Gesichtsfelduntersuchungen deutlich besser vorhersagt als die punktweisen LR- und LSTM-Modelle. Das Bi-GRU-Modell wird weniger von den Zuverlässigkeitsindizes der Gesichtsfeld-Eingabedaten beeinflusst. Dieses Modell kann die Entscheidungsfindung erleichtern, indem es zukünftige Gesichtsfelduntersuchungen in der klinischen Praxis genau vorhersagt, insbesondere für Patienten, die Schwierigkeiten mit wiederholten Untersuchungen haben.

Die im Rahmen dieser Studie generierten oder analysierten Daten sind auf begründete Anfrage beim entsprechenden Autor (JRP) erhältlich.

Resnikoff, S. et al. Globale Daten zu Sehbehinderungen im Jahr 2002. Bull. Weltgesundheitsorganisation 9 (2004).

Weinreb, RN, Aung, T. & Medeiros, FA Die Pathophysiologie und Behandlung des Glaukoms: Eine Übersicht. JAMA 311, 1901 (2014).

Artikel PubMed PubMed Central Google Scholar

Henson, DB, Chaudry, S., Artes, PH, Faragher, EB und Ansons, A. Reaktionsvariabilität im Gesichtsfeld: Vergleich von Optikusneuritis, Glaukom, Augenhypertonie und normalen Augen. 41, 5 (2000).

Wang, M. et al. Ein Ansatz der künstlichen Intelligenz zur Erkennung der Gesichtsfeldprogression beim Glaukom basierend auf einer räumlichen Musteranalyse. Investieren. Ophthalmol. Vis. Wissenschaft. 60, 365 (2019).

Artikel PubMed PubMed Central Google Scholar

Murata, H., Araie, M. & Asaoka, R. Ein neuer Ansatz zur Messung der Gesichtsfeldprogression bei Glaukompatienten mithilfe der linearen Variations-Bayes-Regression. Investieren. Ophthalmol. Vis. Wissenschaft. 55, 8386–8392 (2014).

Artikel PubMed Google Scholar

Wen, JC et al. Vorhersage zukünftiger Humphrey-Gesichtsfelder mithilfe von Deep Learning. PLoS ONE 14, e0214875 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Berchuck, SI, Mukherjee, S. & Medeiros, FA Schätzung der Progressionsraten und Vorhersage zukünftiger Gesichtsfelder beim Glaukom mithilfe eines Deep-Variational-Autoencoders. Sci Rep 9, 18113 (2019).

Artikel CAS PubMed PubMed Central ADS Google Scholar

Salehinejad, H., Sankar, S., Barfett, J., Colak, E., Valaee, S. Jüngste Fortschritte bei wiederkehrenden neuronalen Netzen. 21.

Liu, S., Yang, N., Li, M. & Zhou, M. Ein rekursives rekurrentes neuronales Netzwerk für statistische maschinelle Übersetzung. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Band 1: Long Papers) 1491–1500 (Association for Computational Linguistics, 2014). https://doi.org/10.3115/v1/P14-1140.

Young, T., Hazarika, D., Poria, S. & Cambria, E. Aktuelle Trends in der Deep-Learning-basierten Verarbeitung natürlicher Sprache. IEEE Comput. Intel. Mag. 13, 55–75 (2018).

Artikel Google Scholar

Hochreiter, S. & Schmidhuber, J. Langes Kurzzeitgedächtnis. Neuronale Berechnung. 9, 1735–1780 (1997).

Artikel CAS PubMed Google Scholar

Chung, J., Gulcehre, C., Cho, K. und Bengio, Y. Empirische Bewertung von gesteuerten rekurrenten neuronalen Netzen zur Sequenzmodellierung. (2014) https://doi.org/10.48550/ARXIV.1412.3555.

Park, K., Kim, J. & Lee, J. Gesichtsfeldvorhersage mithilfe eines rekurrenten neuronalen Netzwerks. Sci Rep 9, 8385 (2019).

Artikel PubMed PubMed Central ADS Google Scholar

Dixit, A., Yohannan, J. & Boland, MV Beurteilung des Glaukomfortschritts mithilfe von maschinellem Lernen, trainiert auf longitudinalen Gesichtsfeld- und klinischen Daten. Ophthalmologie 128, 1016–1026 (2021).

Artikel PubMed Google Scholar

Lynn, HM, Pan, SB & Kim, P. Ein tiefes bidirektionales Gru-Netzwerkmodell für die Klassifizierung biometrischer Elektrokardiogramme basierend auf wiederkehrenden neuronalen Netzwerken. IEEE Access 7, 145395–145405 (2019).

Artikel Google Scholar

Cho, K. et al. Lernen von Phrasendarstellungen mit RNN-Encoder-Decoder für statistische maschinelle Übersetzung. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) 1724–1734 (Association for Computational Linguistics, 2014). https://doi.org/10.3115/v1/D14-1179.

Khandelwal, S., Lecouteux, B. & Besacier, L. Vergleich von GRU und LSTM für die automatische Spracherkennung. 7.

Li, X. et al. Zeitreihen-Produktionsprognosemethode basierend auf der Integration des Bi-GRU-Netzwerks (Bidirektional Gated Recurrent Unit) und des Sparrow Search-Algorithmus (SSA). J. Benzin. Wissenschaft. Ing. 208, 109309 (2022).

Artikel CAS Google Scholar

Darmawahyuni, A., Nurmaini, S., Rachmatullah, MN, Firdaus, F. & Tutuko, B. Unidirektional-bidirektionale wiederkehrende Netzwerke zur Klassifizierung von Herzerkrankungen. TELKOMNIKA 19, 902 (2021).

Artikel Google Scholar

Schuster, M. & Paliwal, KK Bidirektionale rekurrente neuronale Netze. IEEE Trans. Signalprozess. 45, 2673–2681 (1997).

Artikel ADS Google Scholar

Pascanu, R., Gulcehre, C., Cho, K. & Bengio, Y. Wie man tiefe rekurrente neuronale Netze konstruiert. (2013). https://doi.org/10.48550/ARXIV.1312.6026.

Garway-Heath, DF, Poinoosawmy, D., Fitzke, FW & Hitchings, RA Zuordnung des Gesichtsfeldes zur Papille in Augen mit Normaldruckglaukom. 107, 7 (2000).

Asaoka, R., Murata, H., Iwase, A. & Araie, M. Erkennung von präperimetrischem Glaukom mit standardmäßiger automatisierter Perimetrie unter Verwendung eines Deep-Learning-Klassifikators. Ophthalmology 123, 1974–1980 (2016).

Artikel PubMed Google Scholar

Elze, T. et al. Muster des funktionellen Sehverlusts beim Glaukom, ermittelt durch archetypische Analyse. JR Soc. Schnittstelle. 12, 20141118 (2015).

Artikel PubMed PubMed Central Google Scholar

Cai, S. et al. Klinische Korrelate rechnerisch abgeleiteter Gesichtsfelddefekt-Archetypen bei Patienten aus einer Glaukomklinik. Curr. Augenres. 42, 568–574 (2017).

Artikel PubMed Google Scholar

Yousefi, S. et al. Erkennung der longitudinalen Gesichtsfeldprogression beim Glaukom mittels maschinellem Lernen. Bin. J. Ophthalmol. 193, 71–79 (2018).

Artikel PubMed Google Scholar

Bengio, Y., Simard, P. & Frasconi, P. Das Erlernen langfristiger Abhängigkeiten mit Gradientenabstieg ist schwierig. IEEE Trans. Neuronales Netz. 5, 157–166 (1994).

Artikel CAS PubMed Google Scholar

Johnson, CA & Nelson-Quigg, JM Eine prospektive dreijährige Studie über die Reaktionseigenschaften normaler Probanden und Patienten während der automatisierten Perimetrie. Ophthalmology 100, 269–274 (1993).

Artikel CAS PubMed Google Scholar

Katz, J., Sommer, A. & Witt, K. Zuverlässigkeit der Gesichtsfeldergebnisse bei wiederholten Tests. Ophthalmology 98, 70–75 (1991).

Artikel CAS PubMed Google Scholar

Murata, H. et al. Identifizierung von Bereichen des Gesichtsfeldes, die für die Lebensqualität von Patienten mit Glaukom wichtig sind. PLoS ONE 8, e58695 (2013).

Artikel CAS PubMed PubMed Central ADS Google Scholar

Abe, RY et al. Der Einfluss des Ortes des fortschreitenden Gesichtsfeldverlusts auf longitudinale Veränderungen der Lebensqualität von Patienten mit Glaukom. Ophthalmology 123, 552–557 (2016).

Artikel PubMed Google Scholar

Rao, HL et al. Rolle der Gesichtsfeldzuverlässigkeitsindizes beim Ausschluss eines Glaukoms. JAMA Ophthalmol 133, 40 (2015).

Artikel PubMed Google Scholar

Raman, P., Khy Ching, Y., Sivagurunathan, PD, Ramli, N. & Mohd. Khalid, KH Der Zusammenhang zwischen Gesichtsfeldzuverlässigkeitsindizes und kognitiver Beeinträchtigung bei Glaukompatienten. J. Glaucoma 28, 685–690 (2019).

Casas-Llera, P. et al. Gesichtsfeldindexrate und ereignisbasierte Glaukom-Progressionsanalyse: Vergleich in einer Glaukompopulation. Br. J. Ophthalmol. 93, 1576–1579 (2009).

Artikel CAS PubMed Google Scholar

Crabb, DP, Fitzke, FW, McNaught, AI, Edgar, DF & Hitchings, RA Verbesserung der Vorhersage der Gesichtsfeldprogression beim Glaukom durch räumliche Verarbeitung. Ophthalmology 104, 517–524 (1997).

Artikel CAS PubMed Google Scholar

Bengtsson, B. Vorhersage des glaukomatösen Gesichtsfeldverlustes durch Extrapolation linearer Trends. Arch Ophthalmol 127, 1610 (2009).

Artikel PubMed Google Scholar

Nouri-Mahdavi, K. Vergleich von Methoden zur Vorhersage der Gesichtsfeldprogression beim Glaukom. Arch Ophthalmol 125, 1176 (2007).

Artikel PubMed Google Scholar

Terminologie und Leitlinien der Europäischen Glaukomgesellschaft für Glaukom, 5. Auflage. Br. J. Ophthalmol. 105, 1–169 (2021).

Prum, BE et al. Primäres Offenwinkelglaukom-Preferred-Practice-Pattern®-Leitlinien. Ophthalmology 123, S. 41–S. 111 (2016).

Artikel PubMed Google Scholar

Referenzen herunterladen

Diese Forschung wurde durch Zuschüsse von Medical Big Data unterstützt; KI-basierte Früherkennung von Sehstörungen, finanziert von Busan und verwaltet vom Busan Techno Park; Patientenzentriertes Koordinierungszentrum für klinische Forschung, finanziert vom Ministerium für Gesundheit und Soziales der Republik Korea (Zuschussnummern: HI19C0481 und HC19C0276); und National Research Foundation (NRF) Korea, finanziert von der koreanischen Regierung (Grant-Nr.: NRF-2021R1I1A1A01057767, NRF-2021R1A2B5B03087097, NRF-2017R1A5A1015722 und NRF-2022R1A5A1033624). Wir danken Textcheck (textcheck.com) für die Bearbeitung in englischer Sprache.

Diese Autoren haben gleichermaßen beigetragen: Hwayung Kim und Jiwoong Lee

Abteilung für Augenheilkunde, Pusan ​​National University College of Medicine, Busan, Korea

Hwayung Kim, Jiwoong Lee und Sangwoo Moon

Biomedizinisches Forschungsinstitut, Pusan ​​National University Hospital, Busan, Korea

Jiwoong Lee

Fakultät für Mathematik, Pusan ​​National University, Busan, Republik Korea

Sangil Kim, Taehyeong Kim und Yuanmeng Hu

Abteilung für Augenheilkunde, Dong-A University College of Medicine, Busan, Korea

Sang Wook Jin

Abteilung für Augenheilkunde, Busan Paik Hospital, Inje University College of Medicine, Busan, Korea

Jung Lim Kim

Abteilung für Augenheilkunde, Pusan ​​National University Yangsan Hospital, Medizinische Fakultät der Pusan ​​National University, Yangsan, Korea

Jonghoon Shin

Abteilung für Augenheilkunde, Kosin University College of Medicine, Busan, Korea

Seung Uk Lee

Zentrum für nichtlineare Dynamik und mathematische Anwendungen, Kyungpook National University, Daegu, Korea

Geunsoo Jang

Fakultät für Mathematik, Kyungpook National University, 80, Daehak-ro, Buk-gu, Daegu, 41566, Republik Korea

Jeong Rye Park

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

JRP baute die Architektur der künstlichen Intelligenz auf, analysierte die Daten und schrieb das Manuskript. HYK und JWL analysierten auch die Daten und verfassten das Manuskript. THK und YU bauten die Architektur der künstlichen Intelligenz und schrieben das Manuskript. SIK und GSJ analysierten die Daten. SWJ, JLK, JHS, SUL und SWM haben die Daten gesammelt. Alle Autoren diskutierten die Ergebnisse und kommentierten das Manuskript.

Korrespondenz mit Jeong Rye Park.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Kim, H., Lee, J., Moon, S. et al. Gesichtsfeldvorhersage unter Verwendung eines tiefen, bidirektionalen Gated-Recurrent-Unit-Netzwerkmodells. Sci Rep 13, 11154 (2023). https://doi.org/10.1038/s41598-023-37360-1

Zitat herunterladen

Eingegangen: 15. Juli 2022

Angenommen: 20. Juni 2023

Veröffentlicht: 10. Juli 2023

DOI: https://doi.org/10.1038/s41598-023-37360-1

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.