Neues Diagnose-Werkzeug schlägt Radiologen bei Interpretation von Röntgen-Thorax
- Michael Simm
- Studien – kurz & knapp
Kernbotschaften
Forscher haben ein Computermodell entwickelt, das künstliche Intelligenz mit selbstüberwachtem Lernen kombiniert. Nach einer Trainingsphase mit mehr als 200000 Datensätzen war „CheXzero“ in der Lage, aus Röntgenthorax-Aufnahmen und den dazugehörigen Befunden Diagnosen zu stellen, die ebenso genau waren wie die geschulter Radiologen.
Hintergrund
Die künstliche Intelligenz hält Einzug in der Radiologie. Dabei konnten einige Systeme bei der Interpretation medizinischer Aufnahmen – etwa aus Mammographie-Untersuchungen oder von Hautveränderungen – schon mehrfach Experten übertreffen. Dies setzt allerdings ein Training der entsprechenden lernfähigen Software voraus, und die Datensätze dazu müssen zunächst von Fachleuten zeitaufwändig annotiert werden. Dieses Nadelöhr hofften die Studienautoren mit der Entwicklung von Algorithmen zu überwinden, bei der die Software zusätzlich zur Mustererkennung auch noch die in natürlicher Sprache verfassten klinischen Aufzeichnungen heranzieht.
Design
Entwicklung eines Paradigmas des maschinellen Lernens, bei dem das Modell die Proben (Röntgen-Thorax-Aufnahmen) klassifiziert, ohne zuvor während des Trainings explizite Annotationen erhalten zu haben. Mit dieser Methode („CheXzero“) sollten Pathologien identifiziert werden, die zuvor nicht explizit benannt worden waren. Trainiert wurde das Model mit einem öffentlich verfügbaren Datensatz (MIMIC-CXR) aus 377000 Röntgenaufnahmen der Brust und den dazugehörigen 227000 radiologischen Berichten. Die Validierung erfolgte mit 2 separaten Sets von Röntgenthorax-Aufnahmen aus zwei Institutionen.
Ergebnisse
- CheXzero konnte verschiedene Pathologien erfolgreich identifizieren, die nicht explizit von Klinikern vermerkt worden waren. Dabei schnitt das Programm besser ab als andere aus dem Bereich des selbstüberwachten Lernens und erreichte eine Genauigkeit ähnlich der von 3 Radiologen. Gemessen wurde dies mit dem Matthews Korrelations-Koeffizienten, bei dem CheXzero für die 5 getesteten Pathologien einen Durchschnittswert von 0,523 erreichte, und die Radiologen 0,530.
- Nach der Trainingsphase erkannte die Software 3 Pathologien besser, und 2 Pathologien schlechter als die 3 Referenz-Radiologen. Die Unterschiede waren aber nicht signifikant (Differenzen mit 95%-Konfidenzintervallen):
- Konsolidierung: 0,018 (- 0,090 bis 0,123),
- Kardiomegalie: 0,058 (- 0,016 bis 0,133),
- Ödeme: 0,015 (- 0,070 bis 0,099),
- Atelektasen: - 0,078 (- 0,154 bis 0,000),
- Pleuraergüsse: - 0,040 (- 0,096 bis 0,013).
- Die Validierung erfolgte an 39053 Röntgenthorax-Aufnahmen aus einem externen Datensatz (PadChest). Unter den 57 radiologischen Befunden mit n > 50 in diesem Datensatz erreichte CheXzero bei 6 eine Trefferquote (AUC) von mindestens 0,900. Für weitere 38 Befunde lag die Trefferquote über 0,700.
Klinische Bedeutung
Den Forschern ist es offenbar gelungen, selbstlernende KI-Software für die Radiologie weiterzuentwickeln, sodass weniger Unterstützung von menschlicher Seite nötig ist, um bei den getesteten Pathologien ähnlich genaue Diagnosen wie Radiologen stellen zu können. Die Fähigkeiten von CheXzero seien generalisierbar auf ähnliche Situationen in der Medizin, wo große Mengen an unstrukturierten Daten anfallen, hieß es in einer Pressemitteilung zu der Publikation. Den Code für die Software haben die Forscher im Internet frei verfügbar gemacht.
Finanzierung: Keine Angaben.
Dieser Volltext ist leider reserviert für Angehöriger medizinischer Fachkreise
Sie haben die Maximalzahl an Artikeln für unregistrierte besucher erreicht
Kostenfreier Zugang Nur für Angehörige medizinischer Fachkreise