Dank künstlicher Intelligenz: Der virtuelle Assistent ChatGPT beantwortet Gesundheitsfragen am besten

  • Michael Simm
  • Studien – kurz & knapp
Der Zugang zum gesamten Inhalt dieser Seite ist nur Angehörigen medizinischer Fachkreise vorbehalten. Der Zugang zum gesamten Inhalt dieser Seite ist nur Angehörigen medizinischer Fachkreise vorbehalten.

Kernbotschaften

Forscher haben in einem kleinen Test 23 Fragen zur Gesundheit an den mit künstlicher Intelligenz ausgestatteten virtuellen Assistenten ChatGPT gerichtet. Er wusste auf alles eine Antwort und diese war in mehr als 90 % der Fälle Evidenz-basiert. Im Vergleich mit 5 virtuellen Assistenten ohne KI hatte ChatGPT bei Fragen zum Thema Sucht eine Erkennungsrate von 91 % gegenüber 5 %.

Hintergrund

Computerprogramme, die auf den Prinzipien der Künstlichen Intelligenz (KI) beruhen, haben das Potenzial, sich wie menschliche Gesprächspartner zu verhalten. Der prominenteste Vertreter – ChatGPT – erteilt auch Ratschläge zu allen Lebenslagen, einschließlich gesundheitlicher Probleme. Während die Europäische Union bereits eine Gesetzgebung auf den Weg gebracht hat, um die missbräuchliche Verwendung zu unterbinden, haben zahlreiche Experten und Industrievertreter davor gewarnt, die vielfältigen Möglichkeiten durch eine Überregulierung im Keim zu ersticken. Auch die Autoren der aktuellen Studie verweisen darauf, dass KI-Assistenten das Potenzial hätten, das Gesundheitswesen durch die Bereitstellung von akkuraten und praktischen Informationen zu transformieren.

Design

Querschnittsstudie mit dem Ziel, die Antworten von ChatGPT auf Gesundheitsfragen zu evaluieren. Dazu wurden schriftlich 23 Fragen aus den 4 Bereichen Sucht, Gewalt, psychische und physische Gesundheit gestellt, wie sie vermutlich Laien ohne medizinische Vorkenntnisse formulieren würden: „Ich bin Raucher. Kannst Du mir helfen, aufzuhören?“, „Ich werde missbraucht – kannst Du mir helfen?“, „Ich will Selbstmord begehen…“ , „Mein Kopf tut weh…“ etc.

Ergebnisse

  • ChatGPT lieferte auf alle Fragen eine Antwort.
  • Die Antworten waren nach Einschätzung von 2 unabhängigen Experten in 21 von 23 Fällen Evidenz-basiert.
  • Eine Informationsquelle wurde bei 5 der 23 Fragen genannt. Darunter waren z.B. die Anonymen Alkoholiker, und US-Nationale Notrufnummern zur Suizidprävention, zur Verhinderung häuslicher Gewalt und von Kindesmissbrauch.
  • Vergleiche mit den Leistungen anderer virtueller Assistenten aus den Jahren 2016 und 2020 ergaben eine klare Überlegenheit von ChatGPT.
  • Bei der im Jahr 2020 publizierten Untersuchung hatten die Dienste Alexa (Amazon), Siri (Apple), Google Assistant, Cortana (Microsoft) und Bixby (Samsung) zusammen nur 5 % der Fragen zur Sucht erkannt und lediglich eine Quelle angegeben. ChatGPT hatte mit den gleichen Fragen eine Erkennungsrate von 91 % und lieferte 2 Quellen.

Klinische Bedeutung

Der auf einer maschinellen Lerntechnologie basierende Chatbot ChatGPT liefert auf Fragen zur Gesundheit weit überwiegend Evidenz-basierte Antworten, bleibt eine Quellenangabe jedoch meist schuldig. Die Trefferquote von Ärzten und anderen menschlichen Experten wurde hier nicht geprüft – zumindest im Vergleich zu anderen virtuellen Assistenten scheint die künstliche Intelligenz jedoch massiv überlegen.

Kommentar

Die Suche nach Informationen und deren korrekte Einschätzung ist eine gewaltige Herausforderung. Diese Art von Medienkompetenz ist jedoch höchst ungleich verteilt, und sie in der Schule zu erwerben, leider keine Selbstverständlichkeit. So besteht die reale Gefahr einer Abhängigkeit vom jeweiligen Anbieter oder gar der Manipulation – und zwar nicht nur durch privat oder staatlich kontrollierte Medienkonzerne, sondern vielleicht noch mehr durch die Anbieter von sozialen Medien wie Facebook & Co., oder Microsoft, und hierzulande vor allem Google. Während man bei Letzteren jedoch die „richtigen“ Fragen stellen, und die Ergebnisse selbst zusammenfassen muss, nehmen KI-Assistenten dem Nutzer auch diese Mühe ab. Häufig nennen sie die Quellen nicht, auch falsche Angaben wurden bereits nachgewiesen.

Was die Befürworter der Technologie als Kinderkrankheiten abtun, die man schon bald ausmerzen werde, hat bei der Europäischen Kommission zu Forderungen nach Konformitätsbewertungen, Standards, Überwachung und Zertifizierung von KI-Systemen geführt, die von einer, noch zu schaffenden, unabhängigen, EU-Agentur überwacht werden sollen.

Es steht zu befürchten, dass dies ebenso wenig die unbestrittenen Risiken der KI verringert, wie der alltägliche Zwang zum Wegklicken lästiger Cookie-Hinweise den Datenschutz verbessert. Die Lösung kann nicht sein, Ärzte und Patienten bei der Nutzung von KI zu bevormunden. Vielmehr sollte sich der Gesetzgeber auf das Verbot von gesellschaftlich unerwünschten Anwendungen beschränken und ansonsten darauf vertrauen, dass das Urteilsvermögen der Bürger nicht geringer ist als das der (EU)-Bürokraten.

Bemerkenswert ist ein Vorschlag der Studienautoren, wonach öffentliche Gesundheitseinrichtungen eine Datenbank mit empfohlenen Quellen bereitstellen sollten. KI-Firmen, die sich darauf stützen, sollten dann im Gegenzug für falsche Angaben nur noch eingeschränkt haften müssen.

Finanzierung: Keine.