Un experimento científico reveló que sistemas de inteligencia artificial aplicados en salud pueden aceptar como reales enfermedades que no existen, mostrando sus limitaciones para distinguir información fiable de contenido ficticio. Este hallazgo cobra especial relevancia porque muchas personas utilizan chatbots para consultar sobre síntomas y problemas médicos, confiando en las respuestas pese a que la IA puede generar datos erróneos con el mismo tono seguro que emplea en información verídica.
La investigadora Almira Osmanovic Thunström, de la Universidad de Gotemburgo, creó una dolencia inexistente llamada bixonimania y publicó varios textos fraudulentos, con detalles absurdos y ficticios tanto en síntomas como en autores y entidades colaboradoras. A pesar de estas evidencias obvias, la mayoría de los asistentes virtuales analizados terminaron reconociendo la enfermedad como legítima y recomendaron acudir a especialistas en caso de síntomas compatibles.
Esta falsa enfermedad se describió con síntomas comunes, como picor ocular, enrojecimiento de párpados y molestias tras pasar tiempo frente a pantallas. Además, se incluyeron referencias falsas, como un investigador de nombre inventado y universidades ficticias con denominaciones humorísticas, así como dedicatorias a personajes y organizaciones de ciencia ficción. No obstante, chatbots populares respondieron con definiciones, prevalencia y consejos médicos relacionados con la bixonimania.
Los resultados evidencian que los sistemas de inteligencia artificial aún no cuentan con mecanismos efectivos para evaluar la veracidad y calidad científica de las fuentes que utilizan. Este problema se agrava en el ámbito sanitario, donde errores pueden generar diagnósticos erróneos o desinformación preocupante para los usuarios.
El experimento también provocó que una revista médica retirara un estudio que citaba la bixonimania, alertando sobre la dificultad para controlar la desinformación en el ámbito académico y científico generada por tecnologías automatizadas.
Expertos recomiendan no sustituir la consulta médica por respuestas de IA, ya que estas herramientas deben usarse únicamente para apoyo o información general, y nunca como diagnóstico definitivo. La confianza en una respuesta con lenguaje técnico no garantiza su precisión ni base científica.
