01 AI en ascenso: la guerra oscura de la seguridad bajo la doble cara de la tecnología
Con el rápido desarrollo de la tecnología de IA, las amenazas a la ciberseguridad se están volviendo cada vez más complejas. Los métodos de ataque son no solo más eficientes y ocultos, sino que también han dado lugar a nuevas formas de "hackers de IA", lo que ha provocado todo tipo de nuevas crisis de ciberseguridad.
Primero, la IA generativa está remodelando la "precisión" del fraude en línea.
En pocas palabras, se trata de hacer que los ataques de phishing tradicionales sean más inteligentes. Por ejemplo, en escenarios más precisos, los atacantes utilizarán datos sociales públicos para entrenar modelos de IA, generando en masa correos electrónicos de phishing personalizados que imitan el estilo de escritura o los hábitos lingüísticos de usuarios específicos, llevando a cabo fraudes "personalizados" que evaden los filtros tradicionales de correo no deseado y aumentando significativamente la tasa de éxito del ataque.
A continuación se encuentran las técnicas de suplantación de identidad más conocidas, como el deepfake. Antes de que la tecnología de IA madurara, el tradicional "ataque de suplantación de identidad" o BEC (Compromiso de Correo Electrónico Empresarial) consistía en que los atacantes se hacían pasar por tu jefe, colega o socio comercial a través de correos electrónicos, con el fin de obtener información comercial, dinero u otros datos importantes.
Ahora, el "cambio de cara" realmente ha sucedido. La tecnología de intercambio de rostros y cambio de voz generada por IA puede falsificar las identidades de figuras públicas o amigos y familiares para fraude, manipulación de la opinión pública e incluso interferencia política. Hace solo dos meses, el director financiero de una empresa en Shanghái recibió una invitación por videoconferencia del "presidente", quien afirmó pagar urgentemente el "depósito de cooperación en el extranjero" a través del intercambio de rostros de IA, y el director transfirió 3,8 millones de yuanes a la cuenta designada de acuerdo con las instrucciones.
El tercero es el ataque automatizado y la explotación de vulnerabilidades. El avance de la tecnología de IA ha llevado a que muchos escenarios evolucionen hacia la inteligencia y la automatización, y los ataques cibernéticos no son una excepción. Los atacantes pueden utilizar la IA para escanear automáticamente las vulnerabilidades del sistema, generar código de ataque dinámico y llevar a cabo ataques rápidos e indiscriminados contra los objetivos, como los «ataques de día cero» impulsados por IA, que después de descubrir una vulnerabilidad, inmediatamente redactan y ejecutan un programa malicioso, lo que dificulta la respuesta en tiempo real de los sistemas de defensa tradicionales.
Durante el Festival de Primavera de este año, el sitio web oficial de DeepSeek sufrió un ataque DDoS a ultra gran escala de 3,2 Tbps, y los piratas informáticos se infiltraron e inyectaron simultáneamente muestras adversarias a través de API, manipulando los pesos de los modelos, lo que provocó que los servicios centrales quedaran paralizados durante 48 horas, con pérdidas económicas directas de más de decenas de millones de dólares.
La contaminación de datos y las vulnerabilidades del modelo también son una nueva amenaza. Los atacantes insertan información falsa en los datos de entrenamiento de la IA (es decir, envenenamiento de datos), o aprovechan las propias fallas del modelo para inducir a la IA a generar resultados incorrectos; esto representa una amenaza directa a la seguridad en áreas críticas, e incluso puede desencadenar consecuencias catastróficas en cadena, como un sistema de conducción autónoma que malinterpreta una señal de "prohibido pasar" como una "señal de límite de velocidad", o una IA médica que confunde un tumor benigno con uno maligno.
02 AI aún necesita AI治
Ante las nuevas amenazas de ciberseguridad impulsadas por la IA, los modelos de protección tradicionales han demostrado ser ineficaces. Entonces, ¿cuáles son nuestras estrategias de respuesta?
No es difícil darse cuenta de que el consenso actual en la industria apunta hacia "luchar contra la IA con IA"; esto no solo es una actualización de los medios técnicos, sino también un cambio en el paradigma de seguridad.
Los intentos existentes se dividen aproximadamente en tres grandes categorías: tecnologías de protección de la seguridad de modelos de IA, aplicaciones de defensa a nivel industrial y colaboración gubernamental e internacional en un nivel más macro.
La clave de la tecnología de protección de la seguridad de los modelos de IA radica en el refuerzo de seguridad endógeno del modelo.
Tomando como ejemplo la vulnerabilidad de "jailbreak" de los modelos de lenguaje grande (LLM), su mecanismo de protección a menudo falla debido a la ineficacia de las estrategias de aviso de jailbreak genéricas: los atacantes logran eludir sistemáticamente las capas de protección integradas en el modelo, induciendo a la IA a generar contenido violento, discriminatorio o ilegal. Para prevenir el "jailbreak" de los LLM, las diferentes empresas de modelos han hecho intentos, como Anthropic, que lanzó el "clasificador constitucional" en febrero de este año.
Aquí, la "constitución" se refiere a las reglas de lenguaje natural que no pueden ser violadas, como una medida de garantía entrenada sobre datos sintéticos. Al establecer contenido permitido y restringido, se monitorea en tiempo real la entrada y salida de contenido. En las pruebas bajo condiciones de referencia, su modelo Claude3.5, protegido por un clasificador, logró elevar la tasa de éxito en la prevención de intentos avanzados de jailbreak del 14% al 95%, reduciendo significativamente el riesgo de "jailbreak" de la IA.
Además de los modelos y de medidas de defensa más generales, las aplicaciones de defensa a nivel industrial también merecen atención, ya que la protección escenificada en sectores verticales se está convirtiendo en un punto de ruptura clave: el sector financiero está construyendo barreras contra el fraude mediante modelos de riesgo crediticio basados en IA y análisis de datos multimodales, el ecosistema de código abierto está logrando una rápida respuesta a amenazas de día cero gracias a tecnologías inteligentes de caza de vulnerabilidades, mientras que la protección de información sensible en las empresas se basa en un sistema de control dinámico impulsado por IA.
Por ejemplo, la solución presentada por Cisco en la Semana Internacional de Redes de Singapur puede interceptar en tiempo real las solicitudes de consultas de datos sensibles que los empleados envían a ChatGPT y generar automáticamente informes de auditoría de cumplimiento para optimizar el ciclo de gestión.
A nivel macro, la cooperación entre gobiernos y regiones internacionales también está avanzando rápidamente. La Agencia de Ciberseguridad de Singapur ha publicado la "Guía de Seguridad para Sistemas de Inteligencia Artificial", que restrige el abuso de la IA generativa a través de la implementación obligatoria de localización y mecanismos de cifrado de datos, estableciendo estándares de protección específicamente para la identificación de suplantación de identidad por IA en ataques de phishing; los tres países, Estados Unidos, Reino Unido y Canadá, han lanzado simultáneamente el "Programa de Agentes de Red de IA", centrado en el desarrollo de sistemas confiables y la evaluación en tiempo real de ataques APT, fortaleciendo la capacidad de defensa colectiva a través de un sistema de certificación de seguridad conjunta.
Entonces, ¿qué métodos pueden maximizar el uso de la IA para enfrentar los desafíos de ciberseguridad de la era de la IA?
"El futuro necesita un núcleo inteligente seguro de IA y construir un nuevo sistema alrededor del núcleo." En el segundo foro de innovación en ciberseguridad de Wuhan, Zhang Fu, fundador de QingTeng Cloud Security, enfatizó en su presentación que la lucha contra la IA con IA será el núcleo del sistema de defensa cibernética del futuro. "En 3 años, la IA revolucionará la industria de la seguridad existente y todas las industrias 2B. Los productos serán reconstruidos, logrando mejoras en eficiencia y capacidad sin precedentes. Los productos del futuro estarán destinados a la IA, no a las personas."
Entre una serie de soluciones, el modelo de Security Copilot claramente proporciona un excelente ejemplo de que "los productos del futuro son para IA": hace un año, Microsoft lanzó el copiloto inteligente Microsoft Security Copilot para ayudar a los equipos de seguridad a detectar, investigar y responder a los incidentes de seguridad de manera rápida y precisa; hace un mes, volvió a lanzar un agente inteligente de IA para asistir automáticamente en áreas clave como ataques de phishing, seguridad de datos y gestión de identidades.
Microsoft ha añadido seis nuevos agentes de inteligencia artificial desarrollados internamente para expandir las funciones de Security Copilot. Tres de ellos están destinados a ayudar a los profesionales de la ciberseguridad a filtrar alertas: un agente de clasificación de phishing revisa las alertas de phishing y filtra falsos positivos; los otros dos analizan las notificaciones de Purview para detectar el uso no autorizado de datos empresariales por parte de los empleados.
Los agentes de optimización de acceso condicional colaboran con Microsoft Entra para identificar reglas de acceso de usuario inseguras y generar soluciones de reparación con un solo clic para que los administradores las implementen. El agente de reparación de vulnerabilidades se integra con la herramienta de gestión de dispositivos Intune, lo que ayuda a localizar rápidamente los terminales vulnerables y aplicar parches del sistema operativo. El agente de informes de inteligencia de amenazas genera informes sobre amenazas de ciberseguridad que podrían amenazar los sistemas de la organización.
03 Sin forma: la protección de los agentes inteligentes avanzados de nivel L4
No es casualidad que, en el país, para lograr una protección de seguridad verdaderamente a nivel de "conducción autónoma", QingTeng Cloud Security haya lanzado el agente inteligente de seguridad de pila completa "Wu Xiang". Como el primer producto de IA de seguridad en el mundo que realiza la transición de "IA asistencial" a "agente autónomo" (Autopilot), su avance clave radica en revolucionar el modo de "respuesta pasiva" de las herramientas tradicionales, haciéndolo autónomo, automático e inteligente.
A través de la fusión de tecnologías de aprendizaje automático, gráficos de conocimiento y decisiones automatizadas, "Wu Xiang" puede completar de forma independiente todo el proceso cerrado desde la detección de amenazas, la evaluación de impactos hasta la respuesta y disposición, logrando una verdadera toma de decisiones autónoma y orientada a objetivos. Su diseño de "arquitectura de IA Agentic" simula la lógica de colaboración del equipo de seguridad humano: con un "cerebro" que integra la base de conocimientos de ciberseguridad para respaldar la capacidad de planificación, "ojos" que perciben dinámicamente el entorno de la red con granularidad, "manos y pies" que invocan de manera flexible una variedad de cadenas de herramientas de seguridad, y a través de la colaboración de múltiples agentes forman una red de evaluación eficiente de información compartida, colaborando y compartiendo información.
En términos de implementación técnica, "sin forma" utiliza el "modo ReAct" (ciclo Actuar-Observar-Pensar-Actuar) junto con la "arquitectura de doble motor Plan AI + Action AI", asegurando la capacidad de corrección dinámica en tareas complejas. Cuando hay una anomalía en la llamada de la herramienta, el sistema puede cambiar de forma autónoma a un plan alternativo en lugar de interrumpir el proceso. Por ejemplo, en el análisis de ataques APT, Plan AI actúa como "organizador" descomponiendo los objetivos de la tarea, mientras que Action AI, como "experto en investigación", ejecuta el análisis de registros y la modelización de amenazas. Ambos avanzan en paralelo basándose en un gráfico de conocimiento compartido en tiempo real.
A nivel de módulo funcional, "Wuxiang" ha construido un ecosistema completo de toma de decisiones autónomo: la persona del agente simula el pensamiento reflexivo e iterativo de los analistas de seguridad y optimiza dinámicamente la ruta de toma de decisiones; La invocación de herramientas integra la consulta de registros de seguridad del host, la recuperación de inteligencia de amenazas de red y el análisis de código malicioso impulsado por LLM; Consciente del entorno: captura en tiempo real de los activos del host y la información de la red; El grafo de conocimiento almacena dinámicamente las asociaciones de entidades para ayudar a la toma de decisiones; La colaboración multiagente ejecuta tareas en paralelo a través de la división de tareas y el intercambio de información.
Actualmente, "sin forma" se destaca en las tres principales aplicaciones de evaluación de alertas, análisis de origen y generación de informes de seguridad.
En las operaciones de seguridad tradicionales, la identificación de la autenticidad de una gran cantidad de alarmas consume mucho tiempo y esfuerzo. Tomemos como ejemplo una alarma de elevación de privilegios local: el agente inteligente de evaluación de alarmas analiza automáticamente las características de la amenaza, invoca herramientas como análisis de permisos de procesos, rastreo de procesos padres y verificación de firmas de programas, y finalmente determina que se trata de una falsa alarma, todo sin intervención manual. En las pruebas de alarmas actuales de QingTeng, este sistema ha logrado una cobertura del 100% de alarmas y una tasa de precisión de evaluación del 99.99%, reduciendo la carga de trabajo manual en más del 95%.
Frente a amenazas reales como los ataques de Webshell, el agente confirma en segundos la efectividad del ataque a través de la extracción de características del código, el análisis de permisos de archivos y otras correlaciones en múltiples dimensiones. La profunda investigación que tradicionalmente requería la colaboración de múltiples departamentos y tomaba días, ahora es realizada automáticamente por el sistema, que conecta flujos de datos como registros de host, tráfico de red y líneas base de comportamiento, generando un informe completo de la cadena de ataque y reduciendo el ciclo de respuesta de "días" a "minutos".
"Nuestro núcleo es cambiar la relación de colaboración entre la IA y los humanos, donde la IA puede trabajar como una persona, logrando la transición de L2 a L4, es decir, de la conducción asistida a la conducción autónoma de alto nivel." Hu Jun, vicepresidente de productos de Qingteng Lianchuang, compartió, "A medida que la IA puede adaptarse a más escenarios y la tasa de éxito en la toma de decisiones es más alta, gradualmente puede asumir más responsabilidades, por lo que la división de responsabilidades entre humanos e IA cambiará."
En el escenario de análisis de trazabilidad, primero se activa una alerta de Webshell que desencadena la colaboración del equipo de seguridad de múltiples agentes impulsado por "IA sin características": el "experto en evaluación" localiza el archivo one.jsp basado en la alerta, generando tareas paralelas como análisis de contenido del archivo, trazabilidad del autor, inspección del mismo directorio y seguimiento de procesos. El agente "investigador de seguridad" utiliza una herramienta de registro de archivos para identificar rápidamente el proceso java (12606) como la fuente de escritura; este proceso y el host asociado 10.108.108.23 (descubierto a través de registros de acceso con interacciones de alta frecuencia) son incluidos en la investigación.
Los agentes inteligentes amplían dinámicamente las pistas a través de un mapa de amenazas, profundizando capa por capa desde un solo archivo hasta procesos y hosts, evaluando los resultados de las tareas recopilados por expertos para determinar el riesgo de manera integral. Este proceso reduce la verificación que normalmente tomaría horas o días a solo minutos, superando la precisión de los expertos en seguridad avanzados humanos al restaurar toda la cadena de ataque, rastreando sin dejar rincones los caminos de movimiento lateral, y la evaluación del equipo rojo también muestra que es difícil evitar su investigación exhaustiva.
"Los grandes modelos son mejores que los humanos porque pueden investigar a fondo todos los rincones, en lugar de descartar situaciones de baja probabilidad basándose en la experiencia." explicó Hu Jun, "esto equivale a tener tanto una mayor amplitud como profundidad."
Después de investigar escenarios de ataques complejos, organizar alarmas y pistas de investigación y generar informes a menudo consume mucho tiempo y esfuerzo. La IA puede lograr un resumen con un solo clic, presentando de manera clara el proceso de ataque en forma de una línea de tiempo visual, mostrando de manera coherente los nodos clave como si fuera una película: el sistema automáticamente ordena las pruebas clave para generar los fotogramas clave de la cadena de ataque y, combinando la información del contexto ambiental, finalmente genera un mapa dinámico de la ruta de ataque, presentando toda la trayectoria del ataque de manera intuitiva y tridimensional.
04 Conclusión
Es obvio que el desarrollo de la tecnología de IA trae desafíos duales para la ciberseguridad.
Por un lado, los atacantes utilizan la IA para automatizar, personalizar y ocultar los ataques; por otro lado, la parte defensiva debe acelerar la innovación tecnológica, mejorando la capacidad de detección y respuesta a través de la IA. En el futuro, la competencia tecnológica de IA entre atacantes y defensores determinará la situación general de la ciberseguridad, y la mejora de los agentes de seguridad será clave para equilibrar el riesgo y el desarrollo.
Y el agente inteligente de seguridad "Wu Xiang" ha traído cambios nuevos tanto en la arquitectura de seguridad como en el nivel cognitivo.
"Sin forma" es esencialmente un cambio en la forma de utilizar la IA, su innovación radica en fundir la percepción de datos multidimensionales, la generación de estrategias de protección y la interpretabilidad de decisiones en un todo orgánico, transformando el modelo anterior de utilizar la IA como una herramienta en un empoderamiento de la IA para que pueda trabajar de manera autónoma y automática.
A través del análisis de asociación de registros, textos, flujos y otros datos heterogéneos, el sistema puede capturar pistas de actividades APT antes de que el atacante construya una cadena de ataque completa. Lo más importante es que la visualización del proceso de toma de decisiones y su explicación razonada hacen que las alertas en caja negra de las herramientas tradicionales, que "saben lo que sucede pero no saben por qué", sean cosa del pasado: el equipo de seguridad no solo puede ver la amenaza, sino también comprender la lógica de evolución de la amenaza.
La esencia de esta innovación es la transición del pensamiento de seguridad de "arreglar el establo después de haber perdido las ovejas" a "prevenir antes de que ocurra la lluvia", lo que implica una redefinición de las reglas del juego entre ataque y defensa.
"Sin forma" es como un cazador con intuición digital: a través de la modelación en tiempo real de operaciones de memoria y otras características de comportamiento microscópico, puede identificar caballos de Troya personalizados ocultos en un mar de ruido; el motor de gestión dinámica de la superficie de ataque evalúa continuamente el peso del riesgo de los activos, asegurando que los recursos de protección se dirijan con precisión a los sistemas clave; mientras que el mecanismo de digestión inteligente de inteligencia de amenazas convierte decenas de miles de alertas diarias en órdenes de defensa accionables, e incluso predice la dirección de evolución de las variantes de ataque—mientras que las soluciones tradicionales aún se esfuerzan por hacer frente a las intrusiones ocurridas, "sin forma" ya está anticipando y bloqueando el siguiente movimiento de los atacantes.
"El nacimiento del Sistema Central Inteligente de IA (Agente Inteligente de Alta Seguridad) transformará por completo el panorama de la ciberseguridad. Y lo único que necesitamos hacer es aprovechar esta oportunidad al máximo." Dijo Zhang Fu.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
"AI Hacker" ha llegado, ¿cómo puede Agentic AI convertirse en el nuevo guardián?
Autor: bomba de geek
01 AI en ascenso: la guerra oscura de la seguridad bajo la doble cara de la tecnología
Con el rápido desarrollo de la tecnología de IA, las amenazas a la ciberseguridad se están volviendo cada vez más complejas. Los métodos de ataque son no solo más eficientes y ocultos, sino que también han dado lugar a nuevas formas de "hackers de IA", lo que ha provocado todo tipo de nuevas crisis de ciberseguridad.
Primero, la IA generativa está remodelando la "precisión" del fraude en línea.
En pocas palabras, se trata de hacer que los ataques de phishing tradicionales sean más inteligentes. Por ejemplo, en escenarios más precisos, los atacantes utilizarán datos sociales públicos para entrenar modelos de IA, generando en masa correos electrónicos de phishing personalizados que imitan el estilo de escritura o los hábitos lingüísticos de usuarios específicos, llevando a cabo fraudes "personalizados" que evaden los filtros tradicionales de correo no deseado y aumentando significativamente la tasa de éxito del ataque.
A continuación se encuentran las técnicas de suplantación de identidad más conocidas, como el deepfake. Antes de que la tecnología de IA madurara, el tradicional "ataque de suplantación de identidad" o BEC (Compromiso de Correo Electrónico Empresarial) consistía en que los atacantes se hacían pasar por tu jefe, colega o socio comercial a través de correos electrónicos, con el fin de obtener información comercial, dinero u otros datos importantes.
Ahora, el "cambio de cara" realmente ha sucedido. La tecnología de intercambio de rostros y cambio de voz generada por IA puede falsificar las identidades de figuras públicas o amigos y familiares para fraude, manipulación de la opinión pública e incluso interferencia política. Hace solo dos meses, el director financiero de una empresa en Shanghái recibió una invitación por videoconferencia del "presidente", quien afirmó pagar urgentemente el "depósito de cooperación en el extranjero" a través del intercambio de rostros de IA, y el director transfirió 3,8 millones de yuanes a la cuenta designada de acuerdo con las instrucciones.
El tercero es el ataque automatizado y la explotación de vulnerabilidades. El avance de la tecnología de IA ha llevado a que muchos escenarios evolucionen hacia la inteligencia y la automatización, y los ataques cibernéticos no son una excepción. Los atacantes pueden utilizar la IA para escanear automáticamente las vulnerabilidades del sistema, generar código de ataque dinámico y llevar a cabo ataques rápidos e indiscriminados contra los objetivos, como los «ataques de día cero» impulsados por IA, que después de descubrir una vulnerabilidad, inmediatamente redactan y ejecutan un programa malicioso, lo que dificulta la respuesta en tiempo real de los sistemas de defensa tradicionales.
Durante el Festival de Primavera de este año, el sitio web oficial de DeepSeek sufrió un ataque DDoS a ultra gran escala de 3,2 Tbps, y los piratas informáticos se infiltraron e inyectaron simultáneamente muestras adversarias a través de API, manipulando los pesos de los modelos, lo que provocó que los servicios centrales quedaran paralizados durante 48 horas, con pérdidas económicas directas de más de decenas de millones de dólares.
La contaminación de datos y las vulnerabilidades del modelo también son una nueva amenaza. Los atacantes insertan información falsa en los datos de entrenamiento de la IA (es decir, envenenamiento de datos), o aprovechan las propias fallas del modelo para inducir a la IA a generar resultados incorrectos; esto representa una amenaza directa a la seguridad en áreas críticas, e incluso puede desencadenar consecuencias catastróficas en cadena, como un sistema de conducción autónoma que malinterpreta una señal de "prohibido pasar" como una "señal de límite de velocidad", o una IA médica que confunde un tumor benigno con uno maligno.
02 AI aún necesita AI治
Ante las nuevas amenazas de ciberseguridad impulsadas por la IA, los modelos de protección tradicionales han demostrado ser ineficaces. Entonces, ¿cuáles son nuestras estrategias de respuesta?
No es difícil darse cuenta de que el consenso actual en la industria apunta hacia "luchar contra la IA con IA"; esto no solo es una actualización de los medios técnicos, sino también un cambio en el paradigma de seguridad.
Los intentos existentes se dividen aproximadamente en tres grandes categorías: tecnologías de protección de la seguridad de modelos de IA, aplicaciones de defensa a nivel industrial y colaboración gubernamental e internacional en un nivel más macro.
La clave de la tecnología de protección de la seguridad de los modelos de IA radica en el refuerzo de seguridad endógeno del modelo.
Tomando como ejemplo la vulnerabilidad de "jailbreak" de los modelos de lenguaje grande (LLM), su mecanismo de protección a menudo falla debido a la ineficacia de las estrategias de aviso de jailbreak genéricas: los atacantes logran eludir sistemáticamente las capas de protección integradas en el modelo, induciendo a la IA a generar contenido violento, discriminatorio o ilegal. Para prevenir el "jailbreak" de los LLM, las diferentes empresas de modelos han hecho intentos, como Anthropic, que lanzó el "clasificador constitucional" en febrero de este año.
Aquí, la "constitución" se refiere a las reglas de lenguaje natural que no pueden ser violadas, como una medida de garantía entrenada sobre datos sintéticos. Al establecer contenido permitido y restringido, se monitorea en tiempo real la entrada y salida de contenido. En las pruebas bajo condiciones de referencia, su modelo Claude3.5, protegido por un clasificador, logró elevar la tasa de éxito en la prevención de intentos avanzados de jailbreak del 14% al 95%, reduciendo significativamente el riesgo de "jailbreak" de la IA.
Además de los modelos y de medidas de defensa más generales, las aplicaciones de defensa a nivel industrial también merecen atención, ya que la protección escenificada en sectores verticales se está convirtiendo en un punto de ruptura clave: el sector financiero está construyendo barreras contra el fraude mediante modelos de riesgo crediticio basados en IA y análisis de datos multimodales, el ecosistema de código abierto está logrando una rápida respuesta a amenazas de día cero gracias a tecnologías inteligentes de caza de vulnerabilidades, mientras que la protección de información sensible en las empresas se basa en un sistema de control dinámico impulsado por IA.
Por ejemplo, la solución presentada por Cisco en la Semana Internacional de Redes de Singapur puede interceptar en tiempo real las solicitudes de consultas de datos sensibles que los empleados envían a ChatGPT y generar automáticamente informes de auditoría de cumplimiento para optimizar el ciclo de gestión.
A nivel macro, la cooperación entre gobiernos y regiones internacionales también está avanzando rápidamente. La Agencia de Ciberseguridad de Singapur ha publicado la "Guía de Seguridad para Sistemas de Inteligencia Artificial", que restrige el abuso de la IA generativa a través de la implementación obligatoria de localización y mecanismos de cifrado de datos, estableciendo estándares de protección específicamente para la identificación de suplantación de identidad por IA en ataques de phishing; los tres países, Estados Unidos, Reino Unido y Canadá, han lanzado simultáneamente el "Programa de Agentes de Red de IA", centrado en el desarrollo de sistemas confiables y la evaluación en tiempo real de ataques APT, fortaleciendo la capacidad de defensa colectiva a través de un sistema de certificación de seguridad conjunta.
Entonces, ¿qué métodos pueden maximizar el uso de la IA para enfrentar los desafíos de ciberseguridad de la era de la IA?
"El futuro necesita un núcleo inteligente seguro de IA y construir un nuevo sistema alrededor del núcleo." En el segundo foro de innovación en ciberseguridad de Wuhan, Zhang Fu, fundador de QingTeng Cloud Security, enfatizó en su presentación que la lucha contra la IA con IA será el núcleo del sistema de defensa cibernética del futuro. "En 3 años, la IA revolucionará la industria de la seguridad existente y todas las industrias 2B. Los productos serán reconstruidos, logrando mejoras en eficiencia y capacidad sin precedentes. Los productos del futuro estarán destinados a la IA, no a las personas."
Entre una serie de soluciones, el modelo de Security Copilot claramente proporciona un excelente ejemplo de que "los productos del futuro son para IA": hace un año, Microsoft lanzó el copiloto inteligente Microsoft Security Copilot para ayudar a los equipos de seguridad a detectar, investigar y responder a los incidentes de seguridad de manera rápida y precisa; hace un mes, volvió a lanzar un agente inteligente de IA para asistir automáticamente en áreas clave como ataques de phishing, seguridad de datos y gestión de identidades.
Microsoft ha añadido seis nuevos agentes de inteligencia artificial desarrollados internamente para expandir las funciones de Security Copilot. Tres de ellos están destinados a ayudar a los profesionales de la ciberseguridad a filtrar alertas: un agente de clasificación de phishing revisa las alertas de phishing y filtra falsos positivos; los otros dos analizan las notificaciones de Purview para detectar el uso no autorizado de datos empresariales por parte de los empleados.
Los agentes de optimización de acceso condicional colaboran con Microsoft Entra para identificar reglas de acceso de usuario inseguras y generar soluciones de reparación con un solo clic para que los administradores las implementen. El agente de reparación de vulnerabilidades se integra con la herramienta de gestión de dispositivos Intune, lo que ayuda a localizar rápidamente los terminales vulnerables y aplicar parches del sistema operativo. El agente de informes de inteligencia de amenazas genera informes sobre amenazas de ciberseguridad que podrían amenazar los sistemas de la organización.
03 Sin forma: la protección de los agentes inteligentes avanzados de nivel L4
No es casualidad que, en el país, para lograr una protección de seguridad verdaderamente a nivel de "conducción autónoma", QingTeng Cloud Security haya lanzado el agente inteligente de seguridad de pila completa "Wu Xiang". Como el primer producto de IA de seguridad en el mundo que realiza la transición de "IA asistencial" a "agente autónomo" (Autopilot), su avance clave radica en revolucionar el modo de "respuesta pasiva" de las herramientas tradicionales, haciéndolo autónomo, automático e inteligente.
A través de la fusión de tecnologías de aprendizaje automático, gráficos de conocimiento y decisiones automatizadas, "Wu Xiang" puede completar de forma independiente todo el proceso cerrado desde la detección de amenazas, la evaluación de impactos hasta la respuesta y disposición, logrando una verdadera toma de decisiones autónoma y orientada a objetivos. Su diseño de "arquitectura de IA Agentic" simula la lógica de colaboración del equipo de seguridad humano: con un "cerebro" que integra la base de conocimientos de ciberseguridad para respaldar la capacidad de planificación, "ojos" que perciben dinámicamente el entorno de la red con granularidad, "manos y pies" que invocan de manera flexible una variedad de cadenas de herramientas de seguridad, y a través de la colaboración de múltiples agentes forman una red de evaluación eficiente de información compartida, colaborando y compartiendo información.
En términos de implementación técnica, "sin forma" utiliza el "modo ReAct" (ciclo Actuar-Observar-Pensar-Actuar) junto con la "arquitectura de doble motor Plan AI + Action AI", asegurando la capacidad de corrección dinámica en tareas complejas. Cuando hay una anomalía en la llamada de la herramienta, el sistema puede cambiar de forma autónoma a un plan alternativo en lugar de interrumpir el proceso. Por ejemplo, en el análisis de ataques APT, Plan AI actúa como "organizador" descomponiendo los objetivos de la tarea, mientras que Action AI, como "experto en investigación", ejecuta el análisis de registros y la modelización de amenazas. Ambos avanzan en paralelo basándose en un gráfico de conocimiento compartido en tiempo real.
A nivel de módulo funcional, "Wuxiang" ha construido un ecosistema completo de toma de decisiones autónomo: la persona del agente simula el pensamiento reflexivo e iterativo de los analistas de seguridad y optimiza dinámicamente la ruta de toma de decisiones; La invocación de herramientas integra la consulta de registros de seguridad del host, la recuperación de inteligencia de amenazas de red y el análisis de código malicioso impulsado por LLM; Consciente del entorno: captura en tiempo real de los activos del host y la información de la red; El grafo de conocimiento almacena dinámicamente las asociaciones de entidades para ayudar a la toma de decisiones; La colaboración multiagente ejecuta tareas en paralelo a través de la división de tareas y el intercambio de información.
Actualmente, "sin forma" se destaca en las tres principales aplicaciones de evaluación de alertas, análisis de origen y generación de informes de seguridad.
En las operaciones de seguridad tradicionales, la identificación de la autenticidad de una gran cantidad de alarmas consume mucho tiempo y esfuerzo. Tomemos como ejemplo una alarma de elevación de privilegios local: el agente inteligente de evaluación de alarmas analiza automáticamente las características de la amenaza, invoca herramientas como análisis de permisos de procesos, rastreo de procesos padres y verificación de firmas de programas, y finalmente determina que se trata de una falsa alarma, todo sin intervención manual. En las pruebas de alarmas actuales de QingTeng, este sistema ha logrado una cobertura del 100% de alarmas y una tasa de precisión de evaluación del 99.99%, reduciendo la carga de trabajo manual en más del 95%.
Frente a amenazas reales como los ataques de Webshell, el agente confirma en segundos la efectividad del ataque a través de la extracción de características del código, el análisis de permisos de archivos y otras correlaciones en múltiples dimensiones. La profunda investigación que tradicionalmente requería la colaboración de múltiples departamentos y tomaba días, ahora es realizada automáticamente por el sistema, que conecta flujos de datos como registros de host, tráfico de red y líneas base de comportamiento, generando un informe completo de la cadena de ataque y reduciendo el ciclo de respuesta de "días" a "minutos".
"Nuestro núcleo es cambiar la relación de colaboración entre la IA y los humanos, donde la IA puede trabajar como una persona, logrando la transición de L2 a L4, es decir, de la conducción asistida a la conducción autónoma de alto nivel." Hu Jun, vicepresidente de productos de Qingteng Lianchuang, compartió, "A medida que la IA puede adaptarse a más escenarios y la tasa de éxito en la toma de decisiones es más alta, gradualmente puede asumir más responsabilidades, por lo que la división de responsabilidades entre humanos e IA cambiará."
En el escenario de análisis de trazabilidad, primero se activa una alerta de Webshell que desencadena la colaboración del equipo de seguridad de múltiples agentes impulsado por "IA sin características": el "experto en evaluación" localiza el archivo one.jsp basado en la alerta, generando tareas paralelas como análisis de contenido del archivo, trazabilidad del autor, inspección del mismo directorio y seguimiento de procesos. El agente "investigador de seguridad" utiliza una herramienta de registro de archivos para identificar rápidamente el proceso java (12606) como la fuente de escritura; este proceso y el host asociado 10.108.108.23 (descubierto a través de registros de acceso con interacciones de alta frecuencia) son incluidos en la investigación.
Los agentes inteligentes amplían dinámicamente las pistas a través de un mapa de amenazas, profundizando capa por capa desde un solo archivo hasta procesos y hosts, evaluando los resultados de las tareas recopilados por expertos para determinar el riesgo de manera integral. Este proceso reduce la verificación que normalmente tomaría horas o días a solo minutos, superando la precisión de los expertos en seguridad avanzados humanos al restaurar toda la cadena de ataque, rastreando sin dejar rincones los caminos de movimiento lateral, y la evaluación del equipo rojo también muestra que es difícil evitar su investigación exhaustiva.
"Los grandes modelos son mejores que los humanos porque pueden investigar a fondo todos los rincones, en lugar de descartar situaciones de baja probabilidad basándose en la experiencia." explicó Hu Jun, "esto equivale a tener tanto una mayor amplitud como profundidad."
Después de investigar escenarios de ataques complejos, organizar alarmas y pistas de investigación y generar informes a menudo consume mucho tiempo y esfuerzo. La IA puede lograr un resumen con un solo clic, presentando de manera clara el proceso de ataque en forma de una línea de tiempo visual, mostrando de manera coherente los nodos clave como si fuera una película: el sistema automáticamente ordena las pruebas clave para generar los fotogramas clave de la cadena de ataque y, combinando la información del contexto ambiental, finalmente genera un mapa dinámico de la ruta de ataque, presentando toda la trayectoria del ataque de manera intuitiva y tridimensional.
04 Conclusión
Es obvio que el desarrollo de la tecnología de IA trae desafíos duales para la ciberseguridad.
Por un lado, los atacantes utilizan la IA para automatizar, personalizar y ocultar los ataques; por otro lado, la parte defensiva debe acelerar la innovación tecnológica, mejorando la capacidad de detección y respuesta a través de la IA. En el futuro, la competencia tecnológica de IA entre atacantes y defensores determinará la situación general de la ciberseguridad, y la mejora de los agentes de seguridad será clave para equilibrar el riesgo y el desarrollo.
Y el agente inteligente de seguridad "Wu Xiang" ha traído cambios nuevos tanto en la arquitectura de seguridad como en el nivel cognitivo.
"Sin forma" es esencialmente un cambio en la forma de utilizar la IA, su innovación radica en fundir la percepción de datos multidimensionales, la generación de estrategias de protección y la interpretabilidad de decisiones en un todo orgánico, transformando el modelo anterior de utilizar la IA como una herramienta en un empoderamiento de la IA para que pueda trabajar de manera autónoma y automática.
A través del análisis de asociación de registros, textos, flujos y otros datos heterogéneos, el sistema puede capturar pistas de actividades APT antes de que el atacante construya una cadena de ataque completa. Lo más importante es que la visualización del proceso de toma de decisiones y su explicación razonada hacen que las alertas en caja negra de las herramientas tradicionales, que "saben lo que sucede pero no saben por qué", sean cosa del pasado: el equipo de seguridad no solo puede ver la amenaza, sino también comprender la lógica de evolución de la amenaza.
La esencia de esta innovación es la transición del pensamiento de seguridad de "arreglar el establo después de haber perdido las ovejas" a "prevenir antes de que ocurra la lluvia", lo que implica una redefinición de las reglas del juego entre ataque y defensa.
"Sin forma" es como un cazador con intuición digital: a través de la modelación en tiempo real de operaciones de memoria y otras características de comportamiento microscópico, puede identificar caballos de Troya personalizados ocultos en un mar de ruido; el motor de gestión dinámica de la superficie de ataque evalúa continuamente el peso del riesgo de los activos, asegurando que los recursos de protección se dirijan con precisión a los sistemas clave; mientras que el mecanismo de digestión inteligente de inteligencia de amenazas convierte decenas de miles de alertas diarias en órdenes de defensa accionables, e incluso predice la dirección de evolución de las variantes de ataque—mientras que las soluciones tradicionales aún se esfuerzan por hacer frente a las intrusiones ocurridas, "sin forma" ya está anticipando y bloqueando el siguiente movimiento de los atacantes.
"El nacimiento del Sistema Central Inteligente de IA (Agente Inteligente de Alta Seguridad) transformará por completo el panorama de la ciberseguridad. Y lo único que necesitamos hacer es aprovechar esta oportunidad al máximo." Dijo Zhang Fu.