Inquira Health Logo

Reforzado para la atención sanitaria: garantizando la seguridad de los asistentes de IA y la privacidad de los datos de los pacientes

Jan 6, 2026

Reforzado para la atención sanitaria: garantizando la seguridad de los asistentes de IA y la privacidad de los datos de los pacientes

La integración de la Inteligencia Artificial en la infraestructura sanitaria global representa el cambio de paradigma más significativo en la gestión médica desde la digitalización de las historias clínicas. Organizaciones como Inquira Health están liderando este cambio, desplegando agentes capaces de gestionar la admisión de pacientes, cubrir huecos de última hora en la agenda de citas y realizar seguimientos posoperatorios con una fluidez similar a la humana. [1]

Sin embargo, este renacimiento tecnológico se está produciendo en el contexto de una crisis de seguridad sin precedentes. Los años 2024 y 2025 han consolidado la posición de la sanidad como objetivo prioritario de las redes de ciberdelincuencia, con un coste medio de una brecha de datos en el sector que alcanza casi los 9 millones de euros. [2] Este informe ofrece un análisis exhaustivo de la arquitectura de seguridad necesaria para desplegar con seguridad asistentes de IA en este entorno de alto riesgo, con especial atención a cómo Inquira Health cumple con el RGPD y la HIPAA, al tiempo que utiliza medidas de seguridad sólidas para proteger la información de los pacientes.

Parte I: La crisis humanitaria de la ciberinseguridad

Para comprender la necesidad de una seguridad rigurosa en IA, primero hay que afrontar la realidad del panorama actual de amenazas. En décadas anteriores, una brecha de datos era en gran medida un inconveniente financiero y reputacional. Hoy, la digitalización de los flujos de trabajo clínicos significa que un ciberataque exitoso golpea el corazón mismo de la prestación asistencial.

La letalidad del tiempo de inactividad

La transición de los ciberataques, del robo de datos a la interrupción sistémica, ha introducido una nueva métrica en el panel del CISO, la tasa de mortalidad. Investigaciones recientes han establecido una correlación inquietante entre los ataques de ransomware y los resultados adversos en pacientes. Las encuestas indican que un porcentaje significativo de organizaciones sanitarias que sufren un ciberataque informan de un aumento posterior de la mortalidad debido a retrasos en procedimientos y pruebas. [3]

El trágico caso de un recién nacido en el Springhill Memorial Hospital sirve como sombrío recordatorio de lo que está en juego. Durante un ataque de ransomware, los monitores de frecuencia cardiaca fetal quedaron inaccesibles, lo que provocó que no se detectara el sufrimiento fetal en tiempo real. Este incidente subraya que la “seguridad” de los asistentes de IA no consiste solo en proteger los datos frente al robo, sino en garantizar que los sistemas sigan estando disponibles y sean precisos cuando la vida depende de ello. [4]

El efecto de arrastre y la hemorragia financiera

El impacto de una brecha rara vez queda contenido dentro de las paredes de la institución víctima. La investigación ha documentado un “efecto de arrastre”, en el que un ciberataque a un único hospital desestabiliza el ecosistema sanitario regional. Los hospitales cercanos experimentan aumentos de visitas a urgencias, de hasta un 15%, al desviarse pacientes desde el centro atacado. [5]

En términos financieros, las implicaciones son asombrosas. La sanidad ha mantenido los costes más altos por brecha de datos de cualquier sector durante más de una década. El informe IBM Cost of a Data Breach 2024 situó el coste medio de una brecha en sanidad en aproximadamente 9 millones de euros. [2]

Parte II: El crisol regulatorio, una perspectiva para la UE y EE. UU.

RGPD: El modelo europeo basado en derechos

El RGPD opera con un alcance más amplio, clasificando los datos de salud como “datos de categoría especial” que requieren una protección reforzada y un consentimiento explícito para su tratamiento. [8] Esto exige mecanismos de “opt in” granulares, en los que se informa a los pacientes de que están interactuando con una IA.

Además, el RGPD concede a las personas el “derecho a explicación”, lo que significa que la lógica de las decisiones automatizadas debe ser interpretable. Las redes neuronales de “caja negra” que no pueden explicar su razonamiento plantean riesgos de cumplimiento. Los proveedores deben priorizar la transparencia y garantizar que la supervisión humana esté integrada en el flujo de trabajo. Inquira Health garantiza el cumplimiento ofreciendo regiones cloud dedicadas en la UE para satisfacer los estrictos requisitos de residencia de datos. [9]

La Ley de IA de la UE: Una capa de gobernanza basada en el riesgo por encima del RGPD

Mientras que el RGPD regula los datos, la Ley de IA de la UE regula el comportamiento y la seguridad de los sistemas de IA comercializados en el mercado de la UE. La norma entró en vigor el 1 de agosto de 2024 y se despliega por fases, las prohibiciones de prácticas prohibidas y las obligaciones de alfabetización en IA empezaron a aplicarse el 2 de febrero de 2025, las obligaciones para la IA de propósito general (GPAI) comenzaron el 2 de agosto de 2025, y la Ley pasa a ser ampliamente aplicable el 2 de agosto de 2026, con algunos plazos adicionales para sistemas de alto riesgo y productos regulados.

Para la sanidad, la conclusión práctica es que el cumplimiento ya no es “solo privacidad”. Según el caso de uso, un sistema de IA puede encajar en niveles más estrictos. El software basado en IA destinado a fines médicos puede considerarse de alto riesgo, lo que conlleva requisitos como gestión de riesgos, calidad de los datos, documentación técnica, supervisión humana e información clara al usuario.

Incluso cuando un asistente de IA no es de alto riesgo, por ejemplo, la programación administrativa, la Ley de IA sigue imponiendo deberes de transparencia, se debe informar a las personas cuando interactúan con un sistema de IA, salvo que sea evidente, y determinados contenidos sintéticos deben divulgarse o marcarse.

En la práctica, esto empuja los despliegues de IA en sanidad hacia controles de riesgo documentados, lo que el sistema puede y no puede hacer, vías de escalado con intervención humana, auditabilidad y registro, y divulgación en primera línea, “está hablando con un asistente de IA”, todo lo cual encaja de forma natural con una arquitectura sólida de seguridad y privacidad.

HIPAA: El estándar prescriptivo de EE. UU.

Para los proveedores sanitarios con sede en EE. UU., el cumplimiento de la HIPAA es la licencia para operar. Un componente crítico para el despliegue de IA es el Business Associate Agreement (BAA). En virtud de la HIPAA, cualquier proveedor que cree, reciba, mantenga o transmita Información Sanitaria Protegida (PHI) debe firmar un BAA, asumiendo responsabilidad legal sobre los datos. [6]

Muchas herramientas de IA generativa “listas para usar” no ofrecen BAAs, lo que las hace inadecuadas para el ámbito sanitario. Inquira Health se diferencia al firmar explícitamente BAAs con sus clientes, creando una cadena de confianza necesaria. [6] Además, los sistemas de IA deben adherirse al estándar de “mínimo necesario”, garantizando que los agentes accedan solo a los datos específicos requeridos para una tarea, como comprobar un hueco en la agenda, en lugar de a toda la historia clínica. [7]

Políticas federales que cambian rápidamente, con normas sectoriales y leyes estatales

A diferencia de la UE, EE. UU. todavía carece de una única ley federal integral sobre IA. En su lugar, la realidad regulatoria es un modelo por sectores y agencias, además de leyes estatales sobre IA y una postura federal que ha cambiado con rapidez desde 2025.

  1. Supervisión sanitaria y de dispositivos médicos (FDA): Si la IA va más allá de la administración y entra en funcionalidad clínica, triaje, apoyo al diagnóstico, monitorización u otros “fines médicos”, el marco de la FDA para dispositivos habilitados por IA y aprendizaje automático se vuelve central. La FDA ha publicado directrices sobre los Predetermined Change Control Plans (PCCPs), un mecanismo destinado a permitir actualizaciones controladas del modelo manteniendo las expectativas de seguridad y eficacia.
  2. Protección del consumidor y aplicación sin “exención por IA” (FTC): Incluso sin una ley específica de IA, los reguladores estadounidenses han recurrido a la autoridad existente para perseguir afirmaciones engañosas y prácticas perjudiciales relacionadas con la IA. La FTC ha enmarcado explícitamente su actuación como la aplicación de las normas estándar de protección del consumidor a productos y marketing impulsados por IA.
  3. Leyes estatales de IA (mosaico): El impulsor de cumplimiento más relevante a corto plazo es la legislación estatal orientada a la IA “de alto riesgo” y al riesgo de discriminación. La SB24 205 de Colorado exige que los desplegadores de sistemas de IA de alto riesgo actúen con diligencia razonable para proteger a los consumidores frente a la discriminación algorítmica a partir del 1 de febrero de 2026, entre otras obligaciones.
  4. La dirección federal está en flujo: La orden ejecutiva de IA de la era Biden, EO 14110, fue revocada en enero de 2025, y las acciones ejecutivas posteriores han enfatizado la reducción de barreras al desarrollo de la IA y el cuestionamiento de la fragmentación a nivel estatal, más recientemente con una orden de diciembre de 2025 centrada en contrarrestar la regulación estatal de IA, aunque la solidez de la preeminencia por vía de acción ejecutiva es discutida.

Conclusión: En EE. UU., desplegar asistentes de IA de forma segura en sanidad significa cada vez más seguir, a, las obligaciones de HIPAA y BAA para PHI, b, las expectativas de la FDA si alguna funcionalidad entra en el terreno de los dispositivos médicos, c, el escrutinio de la FTC sobre afirmaciones y salvaguardas, y d, un conjunto creciente de normas estatales sobre IA, mientras la política federal continúa evolucionando.

Parte III: Las vulnerabilidades únicas de la IA generativa

El paso a la IA generativa, GenAI, impulsada por modelos de lenguaje de gran tamaño, LLM, introduce nuevos vectores de seguridad que los cortafuegos tradicionales no pueden abordar por completo.

  • Inyección de prompts: Actores maliciosos pueden intentar anular los protocolos de seguridad de una IA mediante entradas específicas. Una inyección exitosa podría forzar a una IA a revelar agendas sensibles de pacientes o códigos médicos. [10]
  • Alucinación: Los modelos generativos pueden inventar información, lo que supone una amenaza para la integridad de los datos. En un entorno clínico, que una IA “alucine” una alergia a un fármaco inexistente podría provocar errores médicos adversos. [10]
  • Fuga de datos: Existe un riesgo generalizado de que los datos sensibles introducidos en un modelo público puedan incorporarse a su conjunto de entrenamiento y reaparecer para otros usuarios. Este “efecto mosaico” exige arquitecturas que aíslen estrictamente los datos de cada cliente. [7]

Parte IV: Anatomía de una arquitectura fortificada, el modelo de Inquira Health

Para contrarrestar estas amenazas, Inquira Health emplea una filosofía de “seguridad desde el diseño”, aprovechando una arquitectura de defensa multicapa.

1. Nube soberana e infraestructura

Inquira utiliza una estrategia de nube soberana con regiones dedicadas. Los datos de la UE permanecen dentro de la Unión Europea, mientras que los datos de pacientes de EE. UU. se procesan exclusivamente en centros de datos ubicados en EE. UU. Este aislamiento garantiza el cumplimiento de las leyes locales de residencia de datos y mitiga los riesgos legales transfronterizos. [9]

2. Cifrado de grado militar

La confidencialidad de los datos se garantiza mediante estándares de cifrado rigurosos:

  • En reposo: Todos los datos almacenados, incluidos transcripciones y registros, se cifran con AES 256. [9]
  • En tránsito: Los datos que se mueven entre los pacientes y la nube viajan a través de túneles protegidos por TLS 1.3. [9]
  • Flujos multimedia: Las llamadas de voz se protegen mediante Secure Real time Transport Protocol, SRTP, evitando la interceptación del propio flujo de audio. [9]

3. El motor de retención cero

Para abordar el riesgo de fuga de datos, Inquira utiliza modelos de nivel empresarial, a través de Azure OpenAI Service, con una política estricta de retención cero. A diferencia de las herramientas de IA de consumo, la arquitectura de Inquira garantiza que los datos de entrada se procesen de forma efímera y nunca se utilicen para entrenar los modelos fundacionales subyacentes. [6] Esto neutraliza de forma efectiva el riesgo de que los datos de pacientes pasen a formar parte del dominio público.

4. Gestión de identidades y accesos, IAM

Inquira aplica control de acceso basado en roles, RBAC, y autenticación multifactor, MFA, obligatoria. Esto garantiza que solo el personal autorizado pueda acceder a interfaces administrativas sensibles, y que el “radio de impacto” de cualquier posible compromiso de credenciales quede severamente limitado. [9]

5. Certificaciones y gobernanza

Las afirmaciones de seguridad están respaldadas por auditorías independientes. Inquira Health cuenta con certificaciones ISO 27001:2023, gestión de la seguridad de la información, y NEN 7510:2024, seguridad de la información en sanidad, lo que demuestra una postura de seguridad madura y verificada. [9]

6. Acuerdos de tratamiento por agente y control explícito del alcance

Inquira estructura el cumplimiento de modo que cada agente y caso de uso se corresponda de forma clara con un alcance de tratamiento definido, reduciendo la ambigüedad durante la revisión legal y de seguridad. Esto ayuda a garantizar que el flujo de trabajo de cara al paciente coincida con lo documentado contractualmente, minimizando sorpresas durante la compra y la revisión de la EIPD. 

7. Minimización de datos, validación de PII y enmascaramiento

Más allá del cifrado, Inquira aplica la minimización de datos a nivel de flujo de trabajo, incluida la validación de PII en los flujos de captura, el enmascaramiento de PII y la visibilidad de mínimo privilegio, para que el personal y los sistemas solo vean lo que necesitan. Esto encaja bien con el principio de minimización del RGPD y reduce el impacto de la inyección de prompts o de una divulgación accidental. 

8. Trazas de auditoría para cada acceso a PII

Inquira amplía la auditabilidad desde la infraestructura hasta las operaciones, los eventos de lectura y escritura de PII por parte de usuarios y de la IA se registran, las trazas de auditoría están disponibles en el panel, y los datos extraídos son trazables a través de llamadas, transcripciones y APIs, lo que respalda investigaciones, controles internos y la recopilación de evidencias durante auditorías.   

9. Salvaguardas de la Ley de IA de la UE integradas en el producto

Para alinearse con las expectativas de la Ley de IA de la UE para asistentes administrativos de riesgo limitado, Inquira enfatiza la transparencia, transcripciones y enlaces entre datos y conversación, las restricciones de prompts y flujos de trabajo, y la supervisión humana como funcionalidades de primer nivel, de modo que las auditorías puedan verificar no solo lo que produjo el modelo, sino por qué y de dónde se derivó. [11]

10. Preparación empresarial para sanidad a escala

Los equipos de compras suelen mirar más allá de las “funcionalidades de seguridad” hacia la madurez operativa. Inquira admite SSO y MFA, ofrece conectores compatibles con API y FHIR, y mantiene un Trust Center público para acelerar la diligencia debida y la incorporación. [12]

Conclusión: El dividendo de la seguridad

La narrativa sobre la IA en sanidad se ha centrado en gran medida en la eficiencia. Sin embargo, los datos de 2024 y 2025 exigen un cambio de perspectiva, la seguridad es un determinante de la seguridad del paciente. El coste de la inseguridad ya no se mide solo en sanciones, sino en atención interrumpida y resultados comprometidos.

Al adoptar estándares rigurosos, nubes soberanas, arquitecturas de retención cero y cifrado integral, las organizaciones sanitarias pueden convertir la seguridad de un pasivo en una ventaja competitiva. El compromiso de Inquira Health con estos principios ofrece una hoja de ruta para el despliegue seguro, eficaz y ético de asistentes de IA en la medicina moderna.