Krankheitsbeschwerden im Internet recherchieren – das haben wohl die meisten Menschen schon gemacht. Mit einem KI-Chatbot kann man sich die Suche sogar noch erleichtern. Aber kann man den Antworten auch vertrauen?
Dazu ist es wichtig zu wissen, wie solche Chatbots überhaupt funktionieren. Die technische Grundlage bilden bei Chatbots meist sogenannte Large Language Models, kurz LLMs. Das ist eine künstliche Intelligenz, die mithilfe von unzähligen Daten darauf trainiert ist, menschliche Sprache zu verarbeiten und zu generieren. Sie kann auf Fragen antworten oder auch Arbeitsaufträge erledigen, zum Beispiel Inhalte zu bestimmten Krankheitssymptomen zusammenstellen.
Aber: Die KI denkt nicht wie ein Mensch. Sie kann eine Nutzerfrage oder ihre eigene Antwort darauf nicht verstehen. Vielmehr erkennt sie ein Muster in der Sprache.
Sie lernt zum Beispiel, welche Worte und Wortfolgen zu bestimmten Themen gehören. Daraus berechnet sie, welche Wörter am besten zur Nutzerfrage passen, und reiht sie aneinander.
Und das geht nicht immer gut:
Manchmal baut die KI aus ihren Informationen auch falsche Antworten zusammen. Dafür gibt es mehrere mögliche Ursachen:
- Die Informationen im Speicher der KI können veraltet oder fehlerhaft sein.
- Die KI greift eher auf die Informationen zu, die am häufigsten in ihrem Speicher sind.
Dabei bewertet sie aber nicht, ob diese auch die korrekte Antwort auf die eingegebene Frage enthalten.
Informationen, die selten vorkommen, werden weniger wahrscheinlich von der KI verwendet – auch wenn diese korrekt sind und damit die bessere Wahl wären. - Der Nutzer selbst kann die Antwort der KI beeinflussen, indem er beispielsweise seine Frage voreingenommen formuliert.
- Hat die KI keine Daten, die zur Nutzerfrage passen, kann es passieren, dass sie die Antwort erfindet.
Man nennt dies auch Halluzination. Das liegt daran, dass so eine KI darauf programmiert ist, immer zu antworten.
Sie kann richtig und falsch nicht unterscheiden, sondern erzeugt die Antwort nur aufgrund von Mustern und Wahrscheinlichkeiten, die sie in den Trainingsdaten gelernt hat. Die Antwort kann dann zwar plausibel klingen, aber frei erfunden sein.
Das gilt auch für Quellenangaben.
Stellt man der KI eine Frage zu einer Erkrankung, erhält man zwar immer eine Antwort – allerdings muss diese nicht zwingend richtig sein. Deshalb kann sie bei Gesundheitsfragen auch keinen Arztbesuch ersetzen.
Wissen ist gesund.