Skip to content
DiarioDigitalRD

La seguridad no es prioridad para agentes de inteligencia artificial

| | 3 min read
A pesar de que elos principales agentes de inteligencia artificial ya gestionan desde nuestras agendas personales hasta la facturación de grandes corporaciones, solo cuatro de ellos cuentan con documentos formales de evaluación de riesgos. Imagen David Zorrakino - Europa Press - Archivo

La divulgación de seguridad básica está peligrosamente retrasada frente al ritmo frenético de los lanzamientos comerciales

En un giro preocupante para la industria tecnológica, una investigación liderada por la Universidad de Cambridge ha encendido las alarmas sobre la integridad de los sistemas que utilizamos a diario. Tras analizar 30 de los principales agentes de inteligencia artificial, los resultados son desalentadores: la seguridad no es una prioridad pública. 

Añade que, a pesar de que estos bots ya gestionan desde nuestras agendas personales hasta la facturación de grandes corporaciones, solo cuatro de ellos cuentan con documentos formales de evaluación de riesgos.

Este fenómeno, bautizado por los expertos como una forma de "lavado de seguridad", revela que las empresas están más interesadas en presumir las capacidades de sus productos que en garantizar su fiabilidad. 

El estudio, publicado en los prestigiosos Informes y Actas de Cambridge, que recoge Europa Press, destaca que la divulgación de seguridad básica está peligrosamente retrasada frente al ritmo frenético de los lanzamientos comerciales.

La brecha de seguridad en agentes

El proyecto, denominado AI Agent Index, contó con la colaboración de instituciones de élite como el MIT y Stanford. Bajo la supervisión del investigador Leon Staufer, se descubrió una asimetría de información alarmante. Mientras los desarrolladores saturan el mercado con datos sobre lo que sus bots pueden lograr, ocultan las prácticas necesarias para medir sus peligros reales.

De los sujetos analizados, 25 no revelan sus resultados de seguridad internos y 23 carecen de pruebas realizadas por terceros. Esta falta de evidencia empírica impide una auditoría externa que determine si un bot es propenso a errores sistémicos o manipulaciones externas. 

La situación es especialmente crítica en los agentes diseñados para la navegación web, donde el 64% de los parámetros de seguridad simplemente no se reportan, a pesar de operar con los niveles más altos de autonomía operativa.

Riesgos de la autonomía sin control

Uno de los puntos más espinosos del informe es la dependencia de unos pocos modelos básicos como GPT, Claude o Gemini. Esta concentración de poder significa que cualquier fallo o regresión en la seguridad de estos modelos fundamentales podría provocar un efecto dominó, afectando a cientos de aplicaciones derivadas. 

Además, el estudio resalta la existencia de "vulnerabilidades de inyección rápida", donde instrucciones maliciosas pueden obligar al agente a ignorar sus propios protocolos de protección.

El caso de los navegadores web mejorados con IA es ilustrativo. Muchos de estos bots están programados para imitar el comportamiento humano, utilizando direcciones IP y códigos que eluden los sistemas anti-bots de los sitios web. Esto no solo genera dilemas éticos, sino también conflictos legales, como el enfrentamiento entre Amazon y Perplexity Comet. 

Así, la incapacidad de distinguir entre un usuario real y un agente autónomo está erosionando la confianza en la infraestructura digital.

Todo lo anterior quiere decir,  es que la industria se encuentra en una encrucijada. Mientras la IA se vuelve más capaz de actuar en el mundo físico y digital, los marcos de transparencia y gobernanza siguen estancados. 

Sin estándares claros que obliguen a los desarrolladores a mostrar sus cartas en materia de seguridad, el usuario final queda expuesto a un ecosistema tan potente como impredecible.

Share:
Diómedes Tejada Gómez

Diómedes Tejada Gómez

Comunicador y mercadólogo, editor de DiarioDigitalRD en Nueva York. Contacto: diomedestejada@gmail.com

Artículos relacionados