miércoles 15 de abril de 2026
  • Temas del Día

Alcanzaste el límite de 40 notas leídas

Para continuar, suscribite a Somos Pymes. Si ya sos un usuario suscripto, iniciá sesión.

SUSCRIBITE
Universidad de Cambridge

La mayoría de los bots de IA carece de información básica publicada sobre seguridad

La divulgación de información básica sobre el tema “se está quedando peligrosamente atrás”.

Somos Pymes | Redacción Somos Pymes
Por Redacción Somos Pymes 20 de febrero de 2026 - 11:22

A medida que los bots de Inteligencia Artificial se convierten rápidamente en parte de la vida cotidiana, la divulgación de información básica sobre seguridad “está quedando peligrosamente atrás”.

Así lo mostró una investigación realizada por la Universidad de Cambridge, publicada por Reports and Proceedings.

La seguridad en la era digital

Sobre los 30 principales agentes de IA, solo cuatro publicaron documentos formales de seguridad y evaluación relacionados con los bots reales.

La nueva ola de agentes de navegadores web con esta tecnología, muchos de ellos diseñados para imitar la navegación humana, presenta los índices más altos de falta de información sobre seguridad, según el estudio privado.

Esta investigación sobre el ecosistema de agentes de IA sugiere que, a medida que estos bots se convierten en parte de la vida cotidiana, la divulgación de información básica sobre seguridad “se está quedando peligrosamente atrás”.

El equipo de especialistas descubrió que los desarrolladores de Inteligencia Artificial comparten gran cantidad de datos sobre lo que estos agentes pueden hacer, pero ocultan las pruebas de las prácticas de seguridad necesarias para evaluar los riesgos que plantea la IA.

El Índice de agentes de IA es un proyecto en el que participan el Instituto de Tecnología de Massachusetts (MIT), Stanford y la Universidad Hebrea de Jerusalén, que investiga las capacidades, la transparencia y la seguridad de treinta agentes de IA de última generación, basándose en información pública y en la correspondencia con los desarrolladores.

La última actualización del índice analizó los datos disponibles de una serie de bots de IA líderes en chat, navegadores y flujos de trabajo, creados principalmente en Estados Unidos y China.

El equipo encontró una “brecha de transparencia significativa”, indicó un comunicado de la Universidad de Cambridge, ya que solo los desarrolladores de cuatro bots de IA del índice publican ‘tarjetas de sistema’ específicas para cada agente.

Se trata de documentos formales de seguridad y evaluación que abarcan desde los niveles de autonomía y el comportamiento hasta los análisis de riesgos en el mundo real.

Además, 25 de los 30 agentes de IA incluidos en el índice no revelan los resultados internos en materia de seguridad, mientras que 23 no proporcionan datos de pruebas realizadas por terceros, a pesar de que estos son los datos empíricos necesarios para evaluar rigurosamente el riesgo.

Únicamente se han publicado incidentes o preocupaciones de seguridad conocidos para cinco agentes, mientras que se han documentado “vulnerabilidades de inyección de comandos” (cuando instrucciones maliciosas manipulan al agente para que ignore las medidas de seguridad) para dos de esos agentes.

De los cinco agentes de IA chinos analizados, solo uno había publicado algún tipo de marco de seguridad o normas de cumplimiento, agregó la nota.

Los puntos débiles del sistema

Los investigadores identificaron 13 agentes de IA que muestran “niveles pioneros” de autonomía, pero solo cuatro de ellos revelan evaluaciones de seguridad del propio bot.

Los criterios para aparecer en el índice incluían la disponibilidad pública y la facilidad de uso, así como que los desarrolladores tuvieran una valoración de mercado superior a los 1.000 millones de dólares estadounidenses.

La actualización del índice muestra que, aparte de los bots de IA chinos, casi todos los agentes dependen de unos pocos modelos básicos (GPT, Claude, Gemini), lo que supone una importante concentración del poder de las plataformas detrás de la revolución de la IA, así como posibles puntos de estrangulamiento sistémicos.

“Esta dependencia compartida crea posibles puntos únicos de fallo”, en palabras de Leon Staufer, de la Universidad de Cambridge y uno de los firmantes.

De esta manera, “un cambio en los precios, una interrupción del servicio o una regresión en la seguridad de un modelo podría afectar a cientos de agentes de IA. También crea oportunidades para realizar evaluaciones y supervisiones de seguridad”, especificó.

Muchos de los agentes menos transparentes son navegadores web mejorados con IA diseñados para realizar tareas en la web abierta en nombre del usuario: hacer clic, desplazarse y rellenar formularios para tareas que van desde la compra de entradas de edición limitada hasta la supervisión de pujas online.

Seguí leyendo

Dejá tu comentario

Te Puede Interesar