Inteligencia artificial, en la mira por su vulnerabilidad ante la desinformación sanitaria

Un reciente estudio ha encendido las alarmas sobre la capacidad de los modelos de inteligencia artificial (IA) para resistir la manipulación en temas de salud. Lejos de ser inmunes, estos sistemas pueden ser inducidos a generar respuestas falsas, incluso con un tono de autoridad y referencias aparentemente creíbles
.
Investigadores de la Universidad de Flinders, en Australia, evaluaron cinco de los modelos de lenguaje más avanzados —incluidos GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision y Grok Beta— y descubrieron que el 88 % de las respuestas generadas por versiones personalizadas de estas IA contenían desinformación sanitaria. Las instrucciones dadas a los modelos incluían falsificar fuentes, utilizar jerga científica y mantener coherencia lógica para hacer que la información pareciera legítima.
El estudio, publicado en Annals of Internal Medicine, no solo expone la facilidad con la que estos sistemas pueden ser manipulados, sino también la falta de transparencia sobre sus mecanismos de defensa. Aunque algunos modelos, como Claude 3.5 Sonnet, mostraron cierta resistencia, el panorama general revela una preocupante fragilidad.
Este hallazgo subraya la necesidad urgente de reforzar las salvaguardas éticas y técnicas en el desarrollo de IA, especialmente en áreas sensibles como la salud. También plantea un llamado a los usuarios: confiar ciegamente en respuestas automatizadas puede ser riesgoso si no se contrastan con fuentes médicas confiables.
En un mundo donde la información circula a velocidad viral, la IA puede ser tanto aliada como amenaza. Todo depende de cómo se diseñe, se supervise… y de cuán críticos seamos al usarla.