ver más
NewsGuard

Se duplicó la tasa en que la Inteligencia Artificial difunde información falsa

Los modelos de lenguaje tratan fuentes poco fiables como si fueran creíbles.

Por Redacción Somos Pymes 4 de septiembre de 2025 - 18:42

La tasa a la que las plataformas de Inteligencia Artificial (IA) se hacen eco de informaciones falsas en sus respuestas casi se duplicó en un año.

Así lo informó la web de análisis NewsGuard, según la cual el porcentaje pasó de 18% en agosto de 2024 al 35% este pasado agosto.

Información falsa provista por la Inteligencia Artificial

Según el reporte, que evalúa las diez principales herramientas de IA, los modelos de lenguaje tratan fuentes poco fiables como si fueran creíbles y ahora obtienen información de un ecosistema en línea contaminado, "a veces sembrado deliberadamente por vastas redes de actores malintencionados, incluidas operaciones de desinformación rusas".

NewsGuard destacó que el impulso por hacer que los chatbots sean más receptivos ha provocado de forma inintencionada que sean más propensos a difundir propaganda.

Según sus conclusiones, el sistema más popular, ChatGPT, proporciona datos falsos el 40% del tiempo, el mismo porcentaje que Meta.

Los modelos con menor cuota de redifusión de información falsa son Claude (10%) y Gemini (16,67%), mientras que en el otro extremo se sitúan Inflection (56,67%) y Perplexity (46,67%).

En un rango intermedio están Grok y You.com, ambos en el 33,33%, así como Mistral y Copilot, con un 36,67%.

NewsGuard indicó que los principales chatbots repiten habitualmente narrativas promovidas por redes de propaganda afiliadas a Estados y disfrazadas de medios locales legítimos.

En julio de 2024, esta web de análisis detectó que, en el 32% de los casos, los 10 modelos más destacados difundieron narrativas de propaganda extranjera vinculadas a la campaña rusa de desinformación Storm-1516.

La evolución de la tecnología

Su informe identificó que aunque las principales compañías de IA se han comprometido a mejorar sus sistemas y asociaciones, con alianzas que incluyen a agencias estatales de noticias, los modelos siguen fallando a la hora de proporcionar datos precisos sobre eventos actuales.

"Los actores maliciosos parecen haber reconocido esta debilidad y la están explotando al inundar el ecosistema informativo con falsedades", resaltó la organización, que comenzó a efectuar este tipo de análisis en julio de 2024.

La mejora más notable en un año es el cambio en las tasas de no respuesta, que pasaron del 31% en agosto de 2024 al 0% en todos los sistemas un año después.

El número de respuestas en las que se decía no tener información verificada había llegado al 86,67% en plataformas como Gemini y al 70% en Claude.

"Sin embargo, la mejora ha tenido un precio. Con el acceso en tiempo real a la web, los chatbots se volvieron más propensos a amplificar falsedades durante eventos de última hora, justamente cuando los usuarios -ya sean ciudadanos curiosos, lectores confundidos o actores maliciosos- son más propensos a recurrir a los sistemas de IA", graficó NewsGuard.

La web advirtió de que si no se corrige esta dinámica se corre el riesgo de "normalizar un ecosistema informativo contaminado, donde la propaganda extranjera y otras afirmaciones falsas son validadas por las mismas herramientas en las que la gente confía para obtener noticias e información".

Temas
Seguí leyendo

Dejá tu comentario

Te Puede Interesar