Inquira Health Logo

Gestärkt für das Gesundheitswesen: Sicherheit von KI-Assistenten und Schutz von Patientendaten gewährleisten

Jan 6, 2026

Gestärkt für das Gesundheitswesen: Sicherheit von KI-Assistenten und Schutz von Patientendaten gewährleisten

Die Integration von Künstlicher Intelligenz in die globale Gesundheitsinfrastruktur stellt den bedeutendsten Paradigmenwechsel in der medizinischen Administration seit der Digitalisierung von Gesundheitsakten dar. Organisationen wie Inquira Health treiben diesen Wandel voran und setzen Agenten ein, die die Patientenaufnahme steuern, kurzfristig frei werdende Termine nachbesetzen und postoperative Nachsorge mit menschenähnlicher Sprachgewandtheit durchführen können. [1]

Gleichzeitig findet diese technologische Renaissance vor dem Hintergrund einer beispiellosen Sicherheitskrise statt. Die Jahre 2024 und 2025 haben die Position des Gesundheitswesens als primäres Ziel für Cyberkriminellen Syndikate gefestigt, wobei die durchschnittlichen Kosten einer Datenschutzverletzung in der Branche nahezu 9 Millionen Euro erreichen. [2] Dieser Bericht dient als umfassende Analyse der Sicherheitsarchitektur, die erforderlich ist, um KI Assistenten in diesem Umfeld mit hohen Risiken sicher einzusetzen, mit Fokus darauf, wie Inquira Health die DSGVO und HIPAA einhält und zugleich robuste Sicherheitsmaßnahmen nutzt, um Patientendaten zu schützen.

Teil I: Die humanitäre Krise der Cyberunsicherheit

Um die Notwendigkeit strenger KI Sicherheit zu verstehen, muss man sich zunächst der Realität der aktuellen Bedrohungslage stellen. In früheren Jahrzehnten war eine Datenschutzverletzung vor allem ein finanzielles und reputationsbezogenes Ärgernis. Heute bedeutet die Digitalisierung klinischer Abläufe, dass ein erfolgreicher Cyberangriff das Herzstück der Versorgung trifft.

Die tödlichen Folgen von Ausfallzeiten

Der Wandel von Cyberangriffen, weg vom Datendiebstahl hin zur systemischen Störung, hat eine neue Kennzahl auf das Dashboard des CISO gebracht, die Mortalitätsrate. Aktuelle Forschung hat eine erschütternde Korrelation zwischen Ransomware Angriffen und negativen Patientenergebnissen festgestellt. Umfragen zeigen, dass ein erheblicher Anteil der Gesundheitseinrichtungen nach einem Cyberangriff von einem anschließenden Anstieg der Mortalitätsraten berichtet, verursacht durch Verzögerungen bei Eingriffen und Untersuchungen. [3]

Der tragische Fall eines Neugeborenen im Springhill Memorial Hospital ist eine düstere Erinnerung an diese Dimension. Während eines Ransomware Angriffs waren fetale Herzmonitore nicht zugänglich, wodurch fetaler Stress nicht in Echtzeit erkannt wurde. Dieser Vorfall verdeutlicht, dass „Sicherheit“ bei KI Assistenten nicht nur bedeutet, Daten vor Diebstahl zu schützen, sondern sicherzustellen, dass Systeme verfügbar und korrekt bleiben, wenn Leben davon abhängen. [4]

Der Spillover Effekt und die finanzielle Ausblutung

Die Auswirkungen einer Datenschutzverletzung bleiben selten innerhalb der Mauern der betroffenen Einrichtung. Forschung hat einen „Spillover Effekt“ dokumentiert, bei dem ein Cyberangriff auf ein einzelnes Krankenhaus das regionale Gesundheitsökosystem destabilisiert. Benachbarte Krankenhäuser verzeichnen Anstiege bei Notaufnahmebesuchen, um bis zu 15 Prozent, da Patientinnen und Patienten von der angegriffenen Einrichtung umgeleitet werden. [5]

Finanziell sind die Folgen enorm. Das Gesundheitswesen weist seit über einem Jahrzehnt die höchsten Kosten pro Datenschutzverletzung aller Branchen auf. Der IBM Bericht „Cost of a Data Breach 2024“ bezifferte die durchschnittlichen Kosten einer Datenschutzverletzung im Gesundheitswesen auf etwa 9 Millionen Euro. [2]

Teil II: Der regulatorische Schmelztiegel, ein Ausblick für EU und USA

DSGVO: Das rechtebasierte europäische Modell

Die DSGVO hat einen breiteren Anwendungsbereich und stuft Gesundheitsdaten als „besondere Kategorien personenbezogener Daten“ ein, die einen erhöhten Schutz und eine ausdrückliche Einwilligung für die Verarbeitung erfordern. [8] Das macht granulare Opt in Mechanismen erforderlich, bei denen Patientinnen und Patienten darüber informiert werden, dass sie mit einer KI interagieren.

Zusätzlich gewährt die DSGVO das „Recht auf Erklärung“, das bedeutet, die Logik automatisierter Entscheidungen muss nachvollziehbar sein. „Black Box“ neuronale Netze, die ihre Entscheidungswege nicht erklären können, bergen Compliance Risiken. Anbieter müssen Transparenz priorisieren und sicherstellen, dass menschliche Aufsicht in den Workflow integriert ist. Inquira Health stellt die Einhaltung sicher, indem dedizierte EU Cloud Regionen angeboten werden, um strenge Anforderungen an die Datenresidenz zu erfüllen. [9]

Der EU AI Act: Eine risikobasierte Governance Ebene oberhalb der DSGVO

Während die DSGVO Daten regelt, regelt der EU AI Act das Verhalten und die Sicherheit von KI Systemen, die auf dem EU Markt bereitgestellt werden. Das Gesetz ist am 1. August 2024 in Kraft getreten und wird schrittweise umgesetzt, Verbote unzulässiger Praktiken und Pflichten zur KI Kompetenz gelten seit dem 2. Februar 2025, Pflichten für General Purpose AI, GPAI, gelten seit dem 2. August 2025, und das Gesetz wird am 2. August 2026 weitgehend anwendbar, wobei einige Zeitpläne für Hochrisiko Systeme und regulierte Produkte darüber hinausreichen.

Für das Gesundheitswesen lautet die praktische Konsequenz, Compliance ist nicht mehr „nur Datenschutz“. Je nach Use Case kann ein KI System in strengere Kategorien fallen. KI basierte Software für medizinische Zwecke kann als Hochrisiko eingestuft werden, was Anforderungen wie Risikomanagement, Datenqualität, technische Dokumentation, menschliche Aufsicht und klare Nutzerinformationen mit sich bringt.

Selbst wenn ein KI Assistent nicht als Hochrisiko gilt, zum Beispiel administrative Terminplanung, schreibt der AI Act weiterhin Transparenzpflichten vor, Menschen müssen informiert werden, wenn sie mit einem KI System interagieren, sofern dies nicht offensichtlich ist, und bestimmte synthetische Inhalte müssen offengelegt oder gekennzeichnet werden.

In der Praxis führt dies KI Einführungen im Gesundheitswesen hin zu dokumentierten Risikokontrollen, was das System kann und was nicht, zu Human in the Loop Eskalationspfaden, Auditierbarkeit und Logging sowie zu klarer Kommunikation an der Front, „Sie sprechen mit einem KI Assistenten“, all dies passt natürlicherweise zu einer starken Sicherheits und Datenschutzarchitektur.

HIPAA: Der präskriptive US Standard

Für Gesundheitsdienstleister in den USA ist HIPAA Compliance die Betriebserlaubnis. Ein zentraler Baustein für den KI Einsatz ist das Business Associate Agreement, BAA. Nach HIPAA muss jeder Anbieter, der Protected Health Information, PHI, erstellt, empfängt, verwaltet oder übermittelt, ein BAA unterzeichnen und damit rechtliche Verantwortung für die Daten übernehmen. [6]

Viele „von der Stange“ verfügbare generative KI Tools bieten keine BAAs an und sind damit für das Gesundheitswesen ungeeignet. Inquira Health hebt sich ab, indem es ausdrücklich BAAs mit seinen Kundinnen und Kunden unterzeichnet und so eine notwendige Vertrauenskette schafft. [6] Darüber hinaus müssen KI Systeme den Standard „Minimum Necessary“ einhalten, sodass Agenten nur auf die für eine Aufgabe erforderlichen Datenpunkte zugreifen, etwa zur Prüfung eines Terminslots, statt auf die vollständige klinische Historie. [7]

Schnell wechselnde Bundespolitik mit Sektorregeln und Bundesstaatengesetzen

Anders als in der EU fehlt den USA weiterhin ein einheitliches, umfassendes Bundesgesetz zur KI. Stattdessen ist die regulatorische Realität ein Modell nach Sektoren und Behörden, ergänzt um KI Gesetze auf Ebene der Bundesstaaten und eine Bundeslinie, die sich seit 2025 schnell verändert.

  1. Aufsicht über Gesundheitswesen und Medizinprodukte, FDA: Wenn KI über Administration hinaus in klinische Funktionen geht, Triage, Diagnostik Unterstützung, Monitoring oder andere „medizinische Zwecke“, wird der Rahmen der FDA für KI und ML fähige Medizinprodukte zentral. Die FDA hat Leitlinien zu Predetermined Change Control Plans, PCCPs, veröffentlicht, einem Mechanismus, der kontrollierte Modellupdates ermöglichen soll, bei gleichzeitiger Wahrung der Erwartungen an Sicherheit und Wirksamkeit.
  2. Verbraucherschutz und Durchsetzung ohne „KI Ausnahme“, FTC: Auch ohne spezielles KI Gesetz stützen sich US Regulierer auf bestehende Befugnisse, um irreführende Behauptungen und schädliche Praktiken im Zusammenhang mit KI zu verfolgen. Die FTC hat ausdrücklich klargestellt, dass Standardregeln des Verbraucherschutzes auch für KI getriebene Produkte und deren Vermarktung gelten.
  3. KI Gesetze der Bundesstaaten, Flickenteppich: Der wichtigste kurzfristige Compliance Treiber sind Gesetze der Bundesstaaten, die auf „Hochrisiko“ KI und Diskriminierungsrisiken zielen. Colorados SB24 205 verpflichtet Betreiber von Hochrisiko KI Systemen ab dem 1. Februar 2026 unter anderem dazu, angemessene Sorgfalt walten zu lassen, um Verbraucherinnen und Verbraucher vor algorithmischer Diskriminierung zu schützen.
  4. Bundespolitische Richtung im Fluss: Die KI Executive Order der Biden Ära, EO 14110, wurde im Januar 2025 aufgehoben, und nachfolgende Executive Actions betonten den Abbau von Hürden für KI Entwicklung und die Bekämpfung der Fragmentierung auf Ebene der Bundesstaaten, zuletzt mit einer Anordnung vom Dezember 2025, die sich auf die Eindämmung staatlicher KI Regulierung konzentriert, wobei die Beständigkeit einer Vorwirkung durch Executive Action umstritten ist.

Fazit: In den USA bedeutet der sichere Einsatz von KI Assistenten im Gesundheitswesen zunehmend, dass man, a, HIPAA und BAA Pflichten für PHI verfolgt, b, FDA Erwartungen berücksichtigt, sobald Funktionen in den Bereich von Medizinprodukten fallen, c, FTC Prüfungen von Aussagen und Schutzmaßnahmen einkalkuliert, und d, eine wachsende Zahl von KI Regeln der Bundesstaaten beachtet, während sich die Bundespolitik weiterentwickelt.

Teil III: Die besonderen Verwundbarkeiten generativer KI

Der Wechsel zu Generativer KI, GenAI, auf Basis großer Sprachmodelle, LLMs, führt neue Sicherheitsvektoren ein, die klassische Firewalls nicht vollständig abdecken können.

  • Prompt Injection: Angreifer können versuchen, die Sicherheitsprotokolle einer KI durch gezielte Eingaben zu überschreiben. Eine erfolgreiche Injection könnte eine KI dazu bringen, sensible Patiententerminpläne oder medizinische Codes offenzulegen. [10]
  • Halluzination: Generative Modelle können Informationen erfinden, was eine Bedrohung für die Datenintegrität darstellt. In einem klinischen Umfeld könnte eine KI, die eine nicht existente Arzneimittelallergie „halluziniert“, zu schwerwiegenden medizinischen Fehlern führen. [10]
  • Datenabfluss: Es besteht ein allgegenwärtiges Risiko, dass sensible Daten, die in ein öffentliches Modell eingegeben werden, in dessen Trainingsbestand aufgenommen und später anderen Nutzern wieder ausgegeben werden. Dieser „Mosaic Effect“ erfordert Architekturen, die Kundendaten strikt isolieren. [7]

Teil IV: Anatomie einer gehärteten Architektur, das Inquira Health Modell

Um diesen Bedrohungen zu begegnen, verfolgt Inquira Health eine „Security by Design“ Philosophie und setzt auf eine mehrschichtige Verteidigungsarchitektur.

1. Souveräne Cloud und Infrastruktur

Inquira nutzt eine souveräne Cloud Strategie mit dedizierten Regionen. EU Daten verbleiben innerhalb der Europäischen Union, während US Patientendaten ausschließlich in US basierten Rechenzentren verarbeitet werden. Diese Isolation stellt die Einhaltung lokaler Vorgaben zur Datenresidenz sicher und reduziert grenzüberschreitende Rechtsrisiken. [9]

2. Verschlüsselung auf militärischem Niveau

Die Vertraulichkeit der Daten wird durch strenge Verschlüsselungsstandards gewährleistet:

  • At Rest: Alle gespeicherten Daten, einschließlich Transkripte und Logs, werden mit AES 256 verschlüsselt. [9]
  • In Transit: Daten, die zwischen Patientinnen und Patienten und der Cloud übertragen werden, laufen durch Tunnel, die mit TLS 1.3 abgesichert sind. [9]
  • Media Streams: Sprachanrufe werden mit Secure Real time Transport Protocol, SRTP geschützt, wodurch das Abhören des Audiostreams selbst verhindert wird. [9]

3. Die Zero Retention Engine

Zur Adressierung des Risikos von Datenabfluss nutzt Inquira Enterprise Modelle, über Azure OpenAI Service, mit einer strikten Zero Retention Policy. Anders als bei Consumer KI Tools stellt Inquiras Architektur sicher, dass Eingabedaten nur flüchtig verarbeitet und niemals zum Training der zugrunde liegenden Foundation Models verwendet werden. [6] Damit wird das Risiko effektiv neutralisiert, dass Patientendaten Teil der öffentlichen Domäne werden.

4. Identity and Access Management, IAM

Inquira setzt Role Based Access Control, RBAC, und verpflichtende Multi Factor Authentication, MFA, durch. Dadurch wird sichergestellt, dass nur autorisiertes Personal auf sensible administrative Oberflächen zugreifen kann und dass der „Blast Radius“ eines möglichen Credential Compromise stark begrenzt ist. [9]

5. Zertifizierungen und Governance

Sicherheitszusagen werden durch unabhängige Audits untermauert. Inquira Health verfügt über Zertifizierungen nach ISO 27001:2023, Informationssicherheitsmanagement, und NEN 7510:2024, Informationssicherheit im Gesundheitswesen, und demonstriert damit eine reife und verifizierte Sicherheitslage. [9]

6. DPAs pro Agent und explizite Scope Kontrolle

Inquira strukturiert Compliance so, dass jeder Agent und jeder Use Case eindeutig einem definierten Verarbeitungsumfang zugeordnet ist, wodurch Unklarheiten in der juristischen und sicherheitstechnischen Prüfung reduziert werden. Das hilft sicherzustellen, dass der patientennahe Workflow dem vertraglich dokumentierten Rahmen entspricht und Überraschungen in Beschaffung und DPIA Prüfung minimiert werden. 

7. Datenminimierung, PII Validierung und Maskierung

Über Verschlüsselung hinaus setzt Inquira Datenminimierung auf Workflow Ebene durch, einschließlich PII Validierung in Erfassungsflows, PII Maskierung und Sichtbarkeit nach dem Least Privilege Prinzip, sodass Mitarbeitende und Systeme nur sehen, was sie benötigen. Das passt gut zum Minimierungsprinzip der DSGVO und reduziert zugleich die Auswirkungen von Prompt Injection oder versehentlicher Offenlegung. 

8. Audit Trails für jeden PII Zugriff

Inquira erweitert Auditierbarkeit von der Infrastruktur auf den Betrieb, PII Lese und Schreibereignisse durch Nutzer und KI werden protokolliert, Audit Trails sind im Dashboard verfügbar, und extrahierte Daten sind über Anrufe, Transkripte und APIs hinweg nachvollziehbar, zur Unterstützung von Untersuchungen, internen Kontrollen und der Beweissicherung bei Audits.   

9. EU AI Act Schutzmaßnahmen im Produkt verankert

Zur Ausrichtung an den Erwartungen des EU AI Act für administrative Assistenten mit begrenztem Risiko betont Inquira Transparenz, Transkripte plus Verknüpfungen von Daten zu Konversationen, Prompt und Workflow Einschränkungen sowie menschliche Aufsicht als zentrale Produktfunktionen, sodass Audits nicht nur prüfen können, was das Modell erzeugt hat, sondern auch warum und aus welcher Quelle es abgeleitet wurde. [11]

10. Enterprise Readiness für das Gesundheitswesen im großen Maßstab

Beschaffungsteams schauen häufig über „Security Features“ hinaus auf operative Reife. Inquira unterstützt SSO und MFA, bietet API und FHIR freundliche Konnektoren und betreibt ein öffentliches Trust Center, um Due Diligence und Onboarding zu beschleunigen. [12]

Fazit: Die Sicherheitsdividende

Die Erzählung rund um KI im Gesundheitswesen hat sich bislang stark auf Effizienz konzentriert. Die Daten aus 2024 und 2025 erzwingen jedoch einen Perspektivwechsel, Sicherheit ist ein bestimmender Faktor für Patientensicherheit. Die Kosten von Unsicherheit werden nicht mehr nur in Bußgeldern gemessen, sondern in unterbrochener Versorgung und beeinträchtigten Behandlungsergebnissen.

Durch die Umsetzung strenger Standards, souveräner Clouds, Zero Retention Architekturen und umfassender Verschlüsselung können Gesundheitseinrichtungen Sicherheit von einer Haftung in einen Wettbewerbsvorteil verwandeln. Inquira Healths Verpflichtung zu diesen Prinzipien bietet einen Fahrplan für den sicheren, wirksamen und ethischen Einsatz von KI Assistenten in der modernen Medizin.