Immer mehr Menschen wenden sich bei gesundheitlichen Beschwerden nicht mehr an Ärztinnen und Ärzte, sondern an Suchmaschinen und KI-gestützte Chatbots. Was auf den ersten Blick wie ein Fortschritt erscheint, entpuppt sich bei genauerer Betrachtung als Symptom eines Systems, in dem selbst die Gesundheit immer stärker den Logiken des Marktes unterworfen wird.
Aktuelle Forschung zeigt deutlich, dass KI-Systeme keineswegs verlässliche medizinische Beratung leisten können. Eine schwedische Forscherin erfand die angebliche Augenkrankheit „Bixonimanie“ – eine vollständig fiktive Diagnose. Dennoch wurde diese von der KI aufgegriffen und weiterverbreitet, obwohl im Ausgangstext explizit darauf hingewiesen wurde, dass es sich um eine Erfindung handelt. Der Vorfall verdeutlicht ein grundlegendes Problem: KI reproduziert Inhalte, ohne deren Wahrheitsgehalt sicher beurteilen zu können.
Diese sogenannten „Halluzinationen“, also das Erfinden plausibel klingender, aber falscher Informationen, sind kein Randphänomen, sondern systemimmanent. Gerade im Gesundheitsbereich kann dies gravierende Folgen haben. Falsche Einschätzungen, verharmloste Symptome oder erfundene Krankheitsbilder können Menschen in falscher Sicherheit wiegen oder unnötige Angst erzeugen.
Doch warum greifen immer mehr Menschen dennoch auf solche Systeme zurück?
Die Antwort liegt nicht zuletzt in der Entwicklung der Gesundheitssysteme selbst. Lange Wartezeiten, überlastete Praxen, ökonomischer Druck im medizinischen Alltag und zunehmende Privatisierung führen dazu, dass der Zugang zu medizinischer Versorgung für viele Menschen erschwert wird. In diesem Vakuum erscheinen kostenlose, jederzeit verfügbare digitale Angebote als vermeintliche Alternative.
Tatsächlich aber sind auch diese Angebote Teil eines kapitalistischen Geschäftsmodells. Große Technologiekonzerne investieren massiv in KI-Systeme, um neue Märkte zu erschließen – auch im Gesundheitsbereich. Daten über Symptome, Krankheiten und Nutzerverhalten werden gesammelt, ausgewertet und wirtschaftlich verwertet. Gesundheit wird so zur Datenquelle, der Mensch zur Ressource.
Die Ärztekammer warnt daher zu Recht vor der Nutzung von KI für medizinische Diagnosen. Michael Sacherer, Präsident der steirischen Ärztekammer, betont, dass solche Systeme fehleranfällig sind und keine ärztliche Expertise ersetzen können. Während Ärztinnen und Ärzte auf Ausbildung, Erfahrung und persönliche Untersuchung zurückgreifen, basiert die KI auf statistischen Wahrscheinlichkeiten und Trainingsdaten – mit allen darin enthaltenen Fehlern und Verzerrungen.
Besonders problematisch ist, dass sich falsche Informationen schnell verbreiten und verfestigen können. Die erfundene Krankheit „Bixonimanie“ fand zeitweise sogar Eingang in vermeintlich wissenschaftliche Texte. Damit wird sichtbar, wie leicht sich Desinformation im digitalen Raum reproduziert – und wie schwer sie wieder zu korrigieren ist.
Die zunehmende Nutzung von „Dr. Chatbot“ ist daher nicht nur ein technologisches, sondern vor allem ein gesellschaftliches Problem. Sie zeigt die Widersprüche eines Systems, in dem grundlegende Bedürfnisse wie Gesundheit nicht mehr ausreichend kollektiv abgesichert sind, sondern zunehmend individualisiert und kommerzialisiert werden.
Eine ernsthafte Antwort auf diese Entwicklung kann nicht darin bestehen, die Verantwortung weiter auf den Einzelnen abzuwälzen. Stattdessen braucht es ein starkes öffentliches Gesundheitssystem, das allen Menschen einen niederschwelligen, qualitativ hochwertigen Zugang zu medizinischer Versorgung garantiert.
Quelle: ORF


















































































