A medida que la infraestructura de TI se expande, la visibilidad y el control a menudo se quedan atrás, hasta que un incidente obliga a ajustar cuentas
24 de marzo de 2026
•
,
4 min. leer

Se dice que la complejidad es enemiga de muchas cosas, pero cuando se trata de organizaciones y sus sistemas y procesos de TI, se puede decir que la complejidad es el enemigo. El peor enemigo de la ciberseguridad.. Para muchos profesionales de TI y seguridad, esto ocurre a diario mientras luchan por administrar lo que IBM alguna vez llamó un «frankencloud,» un mosaico de entornos de nube pública y privada, a menudo aún más enredados con varios recursos locales y posiblemente heredados.
La facilidad con la que se pueden activar algunos activos de la nube, en particular las máquinas virtuales, contrasta marcadamente con la realidad de mantenerlos reforzados y monitoreados una vez que comienzan a multiplicarse. La proliferación de máquinas y software a menudo produce entornos heterogéneos y plagados de reglas inconsistentes, lo que en última instancia los hace difíciles de defender.
Cuando llueve, llueve a cántaros
Los equipos de TI y seguridad, que a menudo cuentan con sólo un puñado de personas que ya están al límite por la escasez de talento en toda la industria, se encuentran saltando entre paneles y consolas mientras intentan unir una historia coherente a partir de puntos de datos dispersos. Cada vez que un administrador cambia de herramienta o interfaz, aumenta el riesgo de perder una alerta u otro paso en falso, para deleite del atacante.
Después de todo, los malos actores no piensan en las organizaciones como conjuntos de silos separados. Ven un objetivo grande y cada vez más interconectado, donde una sola cuenta o máquina (una vez comprometida a través de credenciales filtradas u otra metedura de pata) puede usarse para movimientos laterales o como rampa de acceso para futuras intrusiones en distintos entornos.
El riesgo a menudo prospera en las “costuras” de la infraestructura: los lugares donde termina la responsabilidad de una entidad y comienza la de otra, o donde las líneas se malinterpretan, hasta que el primer incidente grave obliga a un ajuste de cuentas. En las empresas de rápido crecimiento, ese límite se descubre con demasiada frecuencia por las malas. Muchas violaciones de datos en la nube se remontan a fallos mundanos en la higiene de la seguridad y a descuidos en la gestión de implementaciones complejas, en lugar de ataques diabólicos de día cero.
Según Google Informe sobre horizontes de amenazas en la nube del segundo semestre de 2025el compromiso de credenciales y la mala configuración siguieron siendo los principales puntos de entrada para los actores de amenazas a los entornos de nube en la primera mitad de 2025. La segunda mitad del año pasado vio un giro interesante, según el informe. Problema del primer semestre de 2026 publicado hace apenas unos días, ya que ambos vectores de acceso iniciales fueron superados por exploits basados en software.
Mientras tanto, el precio de los incidentes sigue siendo elevado. IBM Costo de una filtración de datos en 2025 sitúa el costo promedio de una filtración de datos que involucra múltiples entornos en un promedio de 5,05 millones de dólares, mientras que el costo promedio de una filtración de datos que involucra “sólo” la nube pública no se queda atrás con 4,68 millones de dólares. Los costos legales y de cumplimiento y la pérdida de reputación y confianza del cliente añaden sal a la herida.
Si la complejidad es el enemigo, entonces la simplicidad debería ser el antídoto, ¿verdad? No es un hecho. Pocas organizaciones pueden permitirse el lujo de renunciar a la flexibilidad y la rentabilidad que hicieron atractiva la nube en varias de sus versiones. Tampoco deberían hacerlo. La ambición más realista es hacer que la complejidad sea legible y manejable, y esto comienza con la visibilidad. Preocupantemente, un encuesta realizada por la Cloud Security Alliance ha descubierto que solo el 23% de las organizaciones tienen visibilidad total de sus entornos de nube.
Ahora me ves
A veces hay que decir cosas que son evidentes: no se puede asegurar lo que no se puede ver. Pero la visibilidad «bruta» por sí sola no es suficiente. Sin contexto y correlación que ayuden a producir una imagen completa, lo que se obtiene es poco más que un caos mejor iluminado. Necesita una forma de imponer una política unificada en todos los entornos y luego hacer cumplir las reglas en varios sistemas, incluidas las máquinas virtuales en múltiples nubes y en todas las capas de identidad. Podría decirse que este tipo de unidad no hace que el entorno sea más pequeño, pero lo hace manejable y al mismo tiempo reduce la superficie de ataque.
Cuando cada intento de autenticación, inicio de proceso, conexión de red y modificación de archivos deja un rastro en alguna parte, el volumen de datos de telemetría puede ser abrumador. Por lo tanto, la automatización, cuando se aplica con cuidado, es igualmente importante. Ayuda a cerrar las brechas donde a los atacantes les gusta habitar, contrarrestando la «entropía» que se establece naturalmente a medida que crecen las redes. Además, las tareas rutinarias y la correlación de datos de telemetría de fuentes dispares se manejan mediante un sistema que no se cansa ni se distrae. De esa manera, los operadores humanos pueden centrarse en las partes de la respuesta al incidente que requieren juicio humano.
Por supuesto, la nube en sí no es el problema. En los sistemas que están diseñados para escalar y cambiar, es inevitable cierto grado de complejidad, especialmente a medida que el negocio se expande. Proteger las cargas de trabajo en la nube depende de garantizar que a medida que su infraestructura digital crezca, su visibilidad y control crezcan con ella. De esa manera, evitará aprender las lecciones realmente difíciles de los incidentes.



