La seguridad de sistemas que piensan y actúan por sí mismosEscrito por Silvia Nuñez el 18/09/2025 a las 13:47:171561
(Resonsable de marketing enSoftware Quality Systems ) ![]() En los últimos años, las inteligencias artificiales autónomas, conocidas como Agentic AI, han dado un salto enorme que ya no es solo técnico, sino también funcional. Estas IAs no se limitan a procesar información: observan, razonan, aprenden… y toman decisiones. Están dejando de ser prototipos de laboratorio para formar parte de nuestro día a día, y esto plantea una pregunta urgente para quienes nos dedicamos a garantizar la calidad del software: ¿cómo aseguramos que estos sistemas sean seguros y confiables?
A diferencia de las IA tradicionales, donde cada entrada genera una salida más o menos predecible, las agentic AI actúan con cierto grado de autonomía en entornos cambiantes. Utilizan herramientas, adaptan su comportamiento e incluso modifican sus objetivos en función del contexto. Esta capacidad de autoorganización las hace especialmente útiles… pero también más difíciles de probar.
Desde QA&TEST llevamos tiempo observando esta evolución, y expertos como Robert Davis , quién será ponente en nuestra próxima edición que se celebrará en Bilbao los próximos 22, 23 y 24 de octubre, ya están trabajando en cómo testear estas nuevas IAs.
La pregunta que nos haremos durante la conferencia es ¿Cómo se testean sistemas que pueden cambiar en tiempo real? Pues claramente es aquí donde entra en juego la innovación en testing. No podemos seguir aplicando las mismas metodologías que usamos para software convencional. En su lugar, surgen enfoques más dinámicos y adaptativos, como:
Estas estrategias buscan un objetivo común: alinear el avance tecnológico con la seguridad, la regulación y el impacto real en la vida de las personas.
Robert Davis, Directo de Operaciones en la empresa The ValueCare, presentará en QA&TEST un Keynote titulado “Testing Agentic AI in Embedded Healthcare: From Safety Cases to On-Device Reality”. Davis compartirá su experiencia en la validación de tecnologías sanitarias basadas en IA en Reino Unido: desde sensores en hogares hasta dispositivos portátiles conectados a la red del NHS, su trabajo se mueve en la intersección entre normas médicas estrictas (ISO 13485, IEC 62304, etc.) y técnicas de testing que se adaptan a sistemas no deterministas.
Su mensaje es claro: no basta con probar el código, hay que entender el entorno en el que la IA va a funcionar, anticipar posibles fallos y, sobre todo, tener mecanismos preparados para actuar si algo sale mal.
Como vemos, testear una Agentic AI no es solo validar su funcionalidad, es asegurarse de que sus decisiones respeten límites éticos, legales y humanos. Porque hoy, más que nunca, la IA no está en el futuro: está en nuestros hospitales, nuestros hogares y hasta en nuestros relojes inteligentes.
En QA&TEST lo tenemos claro: el testing tiene que evolucionar al mismo ritmo que la tecnología que queremos asegurar. Y para eso, necesitamos seguir aprendiendo, compartiendo experiencias y, sobre todo, anticipándonos a los desafíos que vienen.
Silvia Nuñez Rojo Reposable de Marketing en SQS
Noticias Relacionadas:Fundamentos del Testing: claves para acometer un proceso de pruebas completo Formación en Testing y QA en la conferencia QA&TEST |