Innerhalb von fünf Tagen haben OpenAI und Anthropic ihre Healthcare-Produkte vorgestellt. Die zeitliche Nähe ist kein Zufall – beide Big Player positionieren sich gleichzeitig in einem Markt, der massive Probleme hat und nach Lösungen sucht. Über 40 Millionen Menschen nutzen ChatGPT bereits täglich für Gesundheitsfragen. Jetzt wird aus informeller Nutzung ein formales Geschäftsfeld.
OpenAI: Zweispurig ins Gesundheitswesen
OpenAI hat am 7. Januar ChatGPT Health für Endnutzer gestartet – ein separater Tab in ChatGPT, in dem Nutzer Gesundheitsdaten aus Apps wie Apple Health, MyFitnessPal oder ihren elektronischen Patientenakten verbinden können. Das System analysiert Laborwerte, erklärt Testergebnisse und hilft bei der Vorbereitung auf Arztgespräche.
Einen Tag später folgte OpenAI for Healthcare – die Enterprise-Variante für Krankenhäuser, Versicherungen und Forschungseinrichtungen. Bereits aktiv bei Institutionen wie Boston Children’s Hospital, Cedars-Sinai und Stanford Medicine. Das Versprechen: HIPAA-konforme Infrastruktur, GPT-5-Modelle speziell für Healthcare-Workflows trainiert, Zugang zu Millionen medizinischer Studien mit transparenten Quellenangaben.
Die Aufteilung ist strategisch: Consumer-Produkt für Reichweite und Datenakquise, Enterprise-Produkt für regulierte Umgebungen und echtes Geld. OpenAI verspricht, dass Gesundheitsdaten nicht zum Training verwendet werden – ein wichtiges Signal in einem Feld, wo Vertrauen alles ist.
Anthropic: Connectors statt Insellösungen
Anthropic hat am 11. Januar Claude for Healthcare vorgestellt – keine Trennung zwischen Consumer und Enterprise, sondern ein einheitliches System mit unterschiedlichen Zugangsstufen. Der entscheidende Unterschied zu OpenAI: Connectors.
Claude kann sich direkt mit Datenbanken verbinden, die für Healthcare zentral sind: CMS Coverage Database (Medicare/Medicaid), ICD-10-Codes für Diagnosen, National Provider Identifier Registry, PubMed mit über 35 Millionen medizinischen Studien. Dazu kommen Consumer-Integrationen wie HealthEx, Apple Health und Android Health Connect.
Das Ziel: Prior Authorization beschleunigen – der bürokratische Prozess, bei dem Ärzte Versicherungen überzeugen müssen, dass eine Behandlung notwendig ist. Kliniken berichten, dass Ärzte mehr Zeit mit Papierkram als mit Patienten verbringen. Anthropic will genau dort ansetzen.
Auch Anthropic betont: HIPAA-ready, keine Nutzung von Gesundheitsdaten fürs Training, explizite Nutzerkontrollen. Das System warnt aktiv, wenn es unsicher ist, und verweist auf medizinisches Fachpersonal.
Die kritischen Punkte
Beide Unternehmen treffen auf berechtigte Skepsis. ChatGPT Health ist nicht HIPAA-konform – es ist eine Consumer-App, kein Healthcare-Provider. Nutzer haben keine Rechte unter HIPAA, wenn etwas schiefgeht. Die Nutzung erfolgt auf eigenes Risiko, reguliert nur durch die AGB zwischen Nutzer und OpenAI.
Halluzinationen bleiben ein Problem. Beide Systeme können falsche Informationen mit Überzeugung präsentieren. OpenAI und Anthropic betonen, ihre Tools seien keine medizinischen Ratgeber – aber das ändert nichts daran, dass Menschen sie genau dafür nutzen werden.
Ein konkreter Fall wurde bereits bekannt: Ein 19-Jähriger starb an einer Überdosis, nachdem er ChatGPT um medizinischen Rat gefragt hatte. Die Tools sind leistungsfähig, aber sie ersetzen keine ärztliche Beurteilung.
Was dahinter steht
Healthcare ist unter enormem Druck: steigende Nachfrage, überlastetes Personal, fragmentierte Systeme. Laut American Medical Association nutzen bereits 66 Prozent der Ärzte KI in ihrer Praxis – fast doppelt so viele wie 2023. Die Technologie wird gebraucht, ob die Systeme bereit sind oder nicht.
OpenAI und Anthropic reagieren auf eine Realität, die bereits existiert: Menschen nutzen ChatGPT und Claude für Gesundheitsfragen, Ärzte experimentieren mit KI-Tools, Kliniken suchen nach Wegen, administrative Lasten zu reduzieren. Die Frage ist nicht mehr ob, sondern wie KI ins Gesundheitswesen kommt.
Die koordinierte Offensive zeigt: Beide Unternehmen sehen Healthcare als strategisches Feld. Nicht nur wegen der kommerziellen Möglichkeiten, sondern weil es ein Testfeld für KI in hochregulierten, fehlerintoleranten Umgebungen ist. Wer hier Vertrauen aufbaut, hat einen Wettbewerbsvorteil weit über Healthcare hinaus.
Die nächsten Monate werden zeigen, ob die Versprechen halten. Bis dahin gilt: Die Tools existieren, sie werden genutzt – und die Verantwortung liegt bei allen Beteiligten, sie richtig einzusetzen.