KI bei Gesundheitsfragen - wie zuverlässig sind die Ergebnisse?
Immer mehr Menschen nutzen bei ihrer Suche nach Informationen künstliche Intelligenz (KI oder AI) in Form von KI-Chatbots. Diese können auch bei Gesundheitsfragen schnelle Ergebnisse liefern. Aber gerade beim Thema Gesundheit sollte man den Antworten nicht blind vertrauen und im Zweifel eher eine zweite Meinung von einem Arzt einholen.
Chatbots wie z. B. ChatGPT werden mit einer großen Menge an Textdaten aus Webseiten, digitalisierten Artikeln, Büchern und anderen Quellen trainiert. Dabei erfasst die KI Muster unserer Sprache und lernt, Wahrscheinlichkeiten für Wörter und Wortfolgen bestmöglich vorherzusagen. Diese nutzt sie dann, um Antworten auf Nutzeranfragen zu generieren. So können sie auf Fragen antworten oder gleich ganze Arbeitsaufträge erledigen, indem sie z. B. Inhalte zu bestimmten Krankheiten zusammenstellen. Um die Ergebnisse richtig einzuordnen, ist es wichtig zu wissen, dass die KI in ihren Antworten zwar menschlich anmutet, sie aber nicht wie ein Mensch denkt. Sie versteht die Nutzerfragen und die eigenen Antworten nicht. Stattdessen erkennt sie Sprachmuster.
Manchmal baut die KI auch falsche Antworten zusammen. Ob die Antworten korrekt sind, überprüft sie nicht. KI-Chatbots sind außerdem darauf programmiert, auf jede Frage eine Antwort zu liefern. Das tun sie auch, wenn ihnen keine passenden Informationen zur Frage vorliegen. Dann erzeugt die KI häufig eine sogenannte Halluzination: einen Inhalt, der auf den ersten Blick zwar plausibel klingt, aber frei erfunden ist. Zudem können die Informationen, mit denen die KI trainiert wurde, veraltet sein. Eine Fehlerquelle kann auch der Nutzer selbst sein. Etwa wenn seine Frage voreingenommen formuliert ist.