Boletines de la Oficina de Seguridad

Servicio de Salud de las Islas Baleares

Boletín núm. 141: deep fakes y engaños con IA

Los avances en inteligencia artificial han transformado la forma en que trabajamos, nos comunicamos y accedemos a la información. Sin embargo, esta evolución también trae nuevos riesgos: unos de los más relevantes actualmente son los deep fakes y los engaños generados por IA, capaces de manipular imágenes, vídeos, audios y textos con un realismo cada vez mayor.

 

Estos contenidos, aunque pueden tener usos legítimos, se han convertido en una herramienta habitual para el fraude, la desinformación y los ataques de ingeniería social. Por ello, es fundamental conocer cómo funcionan, por qué representan un riesgo y qué podemos hacer para protegernos.

 

¿Qué son los deep fakes?

Los deep fakes son contenidos multimedia generados o modificados por medio de inteligencia artificial, diseñados para simular una realidad falsa con apariencia auténtica.

Pueden incluir: 

  • Vídeos manipulados para que una persona parezca decir o hacer algo que nunca ocurrió.
  • Audios falsos, replicando la voz de profesionales, responsables, directivos o familiares.
  • Imágenes creadas o alteradas para suplantar identidades.
  • Mensajes de texto generados por IA, utilizados para engañar o presionar con urgencia.

 

Su creciente sofisticación hace que detectar estos fraudes sea cada vez más difícil sin formación específica.

 

¿Por qué son un riesgo para nuestro entorno sanitario?

El sector sanitario gestiona información especialmente sensible y es un objetivo frecuente para la ciberdelincuencia. Los deep fakes pueden utilizarse para:

 

  1. Suplantar a profesionales o responsables

Falsificar audios o vídeos para solicitar información de pacientes, documentos internos o acceso a sistemas.

  1. Manipular instrucciones o procesos

Simular órdenes urgentes, cambios en protocolos o comunicaciones aparentemente oficiales.

  1. Facilitar ataques de ingeniería social

Los ciberdelincuentes pueden combinar deep fakes con phishing o vishing para aumentar su credibilidad.

  1. Difundir desinformación

Crear contenidos falsos sobre tratamientos, centros sanitarios o incidentes, para afectar a la confianza de pacientes y profesionales.

 

Indicadores para detectar posibles deep fakes

Aunque cada vez son más sofisticados, suelen presentar señales de alerta:

 

  • Microexpresiones o movimientos faciales inconsistentes.
  • Sincronización imperfecta entre labios y voz.
  • Cambios bruscos de iluminación o parpadeo extraño.
  • Tono emocional o lenguaje poco habitual en la persona suplantada.
  • Contexto sospechoso: urgencia injustificada, solicitudes inusuales o comunicaciones fuera de los canales oficiales.

 

Es muy importante tener en cuenta que ningún responsable solicitará datos sensibles, credenciales o accesos críticos por canales no oficiales.

 

Los deep fakes son una amenaza real en sanidad

Los deep fakes representan un riesgo creciente para el sector sanitario porque permiten suplantar a médicos, manipular y difunden información falsa con apariencia totalmente verídica. Diversos casos recientes lo demuestran:

  •  Médicos europeos fueron suplantados para difundir consejos peligrosos, como negar la existencia de la diabetes o cuestionar la eficacia de protectores solares. Estos videos deep fake manipulaban la imagen y la voz de doctores acreditados.
  • Profesionales de EEUU fueron imitados digitalmente para vender productos milagro, incluyendo la suplantación del médico Joel Bervell para promocionar tratamientos no verificados y suplementos falsos en redes sociales. 
  • Avatares creados con IA haciéndose pasar por especialistas, para difundir recomendaciones de salud sin respaldo científico y promover suplementos o remedios engañosos por medio de TikTok e Instagram. 

Estos ejemplos muestran que los deep fakes no son un riesgo teórico, sino una amenaza real que puede afectar la salud pública, la confianza en los profesionales y la seguridad del paciente.

 

Buenas prácticas para protegernos

Para reducir riesgos, aplique las medidas siguientes: 

  • Verifique siempre la identidad

Si recibe una llamada, audio o vídeo con instrucciones inusuales, confirme la información por medio de un segundo canal oficial.

  • Desconfíe de la urgencia

Los ciberdelincuentes recurren a presión emocional para evitar que reflexionemos.

  • Proteja sus credenciales

Nunca las comparta por correo electrónico, teléfono o mensajería.

  • Siga los canales oficiales de comunicación interna

Los comunicados institucionales nunca se emiten por medio de archivos multimedia no verificados.

  • Compruebe la fuente

Antes de confiar en un vídeo, audio o mensaje sobre salud, asegúrese de que proviene de un canal oficial. Un contenido creíble puede estar manipulado.

  • Desconfíe de mensajes demasiado perfectos o fuera de contexto

Si el tono, estilo o contenido no encaja con lo habitual, deténgase. Los deep fakes pueden verse muy reales, pero decir cosas que no tienen sentido.

  • No abra enlaces dudosos

Evite pulsar enlaces asociados a vídeos o audios no verificados; pueden llevar a fraudes o intentos de robo de datos.

  • Reporte cualquier sospecha

Si cree que un contenido puede ser falso o manipulado informe inmediatamente contactando con:

 

Normativa y protección

El correcto tratamiento de datos personales, especialmente los sanitarios, está protegido por el RGPD y el Código de buenas prácticas del Servicio de Salud.

Los deep fake suponen una amenaza directa para estos principios, por lo que la vigilancia, la formación y la detección precoz son fundamentales.

 

Nuestro compromiso

Continuamos reforzando las medidas de seguridad, la formación del personal y las acciones de concienciación para minimizar el impacto de estos nuevos riesgos emergentes. La colaboración de todos es esencial para mantener un entorno digital seguro, fiable y protegido frente a amenazas basadas en IA.

 

Conclusión

Los deep fakes representan un desafío creciente, pero con formación, precaución y buenas prácticas podemos reducir considerablemente los riesgos.

 

La seguridad es una responsabilidad compartida: cada verificación, cada duda y cada reporte ayudan a proteger a pacientes, profesionales y la integridad de nuestros sistemas.