01 A Ascensão da IA: A Guerra Secreta da Segurança Sob a Lâmina Dupla da Tecnologia
Com o rápido desenvolvimento da tecnologia de IA, as ameaças à segurança cibernética tornaram-se cada vez mais complexas, com métodos de ataque não apenas mais eficientes e ocultos, mas também gerando novas formas de "hackers de IA", o que provocou uma série de novas crises de segurança cibernética.
Primeiro, a IA generativa está a redefinir a "precisão" das fraudes online.
De forma simples, isso significa tornar os ataques de phishing tradicionais mais inteligentes. Por exemplo, em cenários mais precisos, os atacantes usam dados sociais públicos para treinar modelos de IA, gerando em massa e-mails de phishing personalizados que imitam o estilo de escrita ou hábitos linguísticos de usuários específicos, realizando fraudes "personalizadas", contornando os filtros de spam tradicionais e aumentando significativamente a taxa de sucesso dos ataques.
Em seguida, temos o deepfake, que é o mais conhecido pelo público, e a usurpação de identidade. Antes do amadurecimento da tecnologia de IA, o tradicional "ataque de troca de rosto", ou seja, a fraude BEC, que significa "Business Email Compromise", refere-se especificamente a um ataque em que o agressor se disfarça de seu líder, colega ou parceiro comercial por meio do e-mail, com o intuito de obter informações comerciais ou dinheiro, ou ainda acessar outros dados importantes.
Agora, a "mudança de rosto" realmente aconteceu. A tecnologia de troca de rostos e mudança de voz gerada por IA pode falsificar as identidades de figuras públicas ou amigos e parentes para fraude, manipulação da opinião pública e até interferência política. Apenas dois meses atrás, o diretor financeiro de uma empresa em Xangai recebeu um convite por videoconferência do "presidente", que alegou pagar urgentemente o "depósito de cooperação no exterior" por meio de troca facial de IA, e o diretor transferiu 3,8 milhões de yuans para a conta designada de acordo com as instruções.
A terceira é o ataque automatizado e a exploração de vulnerabilidades. O avanço da tecnologia de IA está a levar muitos cenários a evoluir para a inteligência e automação, e os ataques cibernéticos não são exceção. Os atacantes podem usar a IA para escanear automaticamente vulnerabilidades no sistema, gerar código de ataque dinâmico e realizar ataques rápidos e indiscriminados ao alvo, como os "zero-day attacks" impulsionados por IA que, após descobrir uma vulnerabilidade, imediatamente escrevem e executam programas maliciosos, sendo difícil para os sistemas de defesa tradicionais responderem em tempo real.
Neste Ano Novo Chinês, o site da DeepSeek sofreu um ataque DDoS em grande escala de 3,2 Tbps, com hackers a infiltrarem-se simultaneamente através da API, injetando amostras adversárias e alterando os pesos do modelo, resultando na paralisia dos serviços principais por 48 horas, com perdas econômicas diretas superiores a dezenas de milhões de dólares. A investigação posterior revelou vestígios de infiltração de longa data da NSA dos EUA.
A contaminação de dados e as vulnerabilidades dos modelos são igualmente uma nova ameaça. Os atacantes inserem informações falsas nos dados de treinamento da IA (ou seja, envenenamento de dados), ou exploram as próprias falhas do modelo, induzindo a IA a produzir resultados incorretos - isso pode representar uma ameaça de segurança direta em áreas críticas e até provocar consequências catastróficas em cadeia, como um sistema de condução automática que interpreta um exemplo adversarial de "proibido passar" como "sinal de limite de velocidade", ou uma IA médica que confunde um tumor benigno com um maligno.
02 AI ainda precisa de AI
Diante das novas ameaças de segurança cibernética impulsionadas pela IA, os modelos de proteção tradicionais já se mostraram insuficientes. Então, quais são as nossas estratégias de resposta?
Não é difícil perceber que o consenso atual na indústria aponta para "combater IA com IA" - isso não é apenas uma atualização dos meios técnicos, mas também uma mudança de paradigma de segurança.
As tentativas existentes podem ser grosso modo divididas em três grandes categorias: técnicas de proteção de segurança para modelos de IA, aplicações de defesa a nível industrial e uma colaboração governamental e internacional em um nível mais macro.
A chave da tecnologia de proteção de segurança de modelos de IA reside no reforço de segurança inerente do modelo.
Tomando como exemplo a vulnerabilidade de "jailbreaking" de grandes modelos de linguagem (LLM), seu mecanismo de proteção de segurança frequentemente falha devido à ineficácia das estratégias de aviso de jailbreak genéricas—os atacantes contornam sistematicamente a camada de proteção embutida no modelo, induzindo a IA a gerar conteúdo violento, discriminatório ou ilegal. Para evitar o "jailbreaking" de LLM, várias empresas de modelos têm feito tentativas, como a Anthropic, que lançou o "classificador constitucional" em fevereiro deste ano.
Aqui, a "constituição" refere-se às regras de linguagem natural que não podem ser violadas, como uma medida de proteção treinada em dados sintéticos, monitorando em tempo real o conteúdo de entrada e saída ao estabelecer o que é permitido e o que é restrito. Nos testes em condições de referência, a taxa de sucesso na prevenção de tentativas de jailbreak avançadas do seu modelo Claude3.5, sob a proteção do classificador, aumentou de 14% para 95%, reduzindo significativamente o risco de "jailbreak" da IA.
Além das defesas baseadas em modelos e de métodos de defesa mais gerais, as aplicações de defesa em nível industrial também merecem atenção, pois a proteção contextualizada em setores verticais está se tornando um ponto de ruptura chave: o setor financeiro constrói barreiras contra fraudes por meio de modelos de risco com IA e análise de dados multimodais, o ecossistema de código aberto utiliza técnicas de captura de vulnerabilidades inteligentes para uma resposta rápida a ameaças de zero dia, enquanto a proteção de informações sensíveis das empresas se baseia em um sistema de controle dinâmico impulsionado por IA.
Por exemplo, a solução apresentada pela Cisco na Semana Internacional de Redes em Cingapura pode interceptar em tempo real as solicitações de consulta de dados sensíveis enviadas pelos funcionários para o ChatGPT e gerar automaticamente relatórios de auditoria de conformidade para otimizar o ciclo de gestão.
A nível macro, a colaboração inter-regional entre governos e a comunidade internacional está a ser acelerada. A Autoridade de Cibersegurança de Singapura publicou o "Guia de Segurança de Sistemas de Inteligência Artificial", impondo a localização obrigatória e mecanismos de criptografia de dados para restringir o abuso de IA gerativa, estabelecendo padrões de proteção especificamente para a identificação de falsificação de identidade por IA em ataques de phishing; os três países, EUA, Reino Unido e Canadá, lançaram simultaneamente o "Programa de Agentes de Rede de IA", focando no desenvolvimento de sistemas confiáveis e na avaliação em tempo real de ataques APT, reforçando a capacidade de defesa coletiva através de um sistema de certificação de segurança conjunto.
Então, quais métodos podem maximizar o uso de IA para enfrentar os desafios de segurança cibernética na era da IA?
"O futuro precisa de um núcleo inteligente de segurança AI e de construir um novo sistema em torno deste núcleo." Na segunda edição do Fórum de Inovação em Cibersegurança de Wuhan, Zhang Fu, fundador da QingTeng Cloud Security, enfatizou em sua apresentação que a luta contra a AI será o núcleo do sistema de defesa em cibersegurança do futuro: "Dentro de 3 anos, a AI irá revolucionar a indústria de segurança existente e todos os setores B2B. Os produtos serão reconstruídos, alcançando eficiências e capacidades sem precedentes. Os produtos do futuro serão feitos para a AI, e não para as pessoas."
Entre as várias soluções, o modo do Security Copilot oferece claramente um bom exemplo de que "os produtos do futuro são para uso da IA": há um ano, a Microsoft lançou o copiloto inteligente Microsoft Security Copilot para ajudar as equipas de segurança a detectar, investigar e responder rapidamente e com precisão a incidentes de segurança; há um mês, lançou novamente um agente de IA para assistência automática em áreas críticas como ataques de phishing, segurança de dados e gestão de identidade.
A Microsoft adicionou seis novas inteligências artificiais desenvolvidas internamente para expandir as funcionalidades do Security Copilot. Três delas são usadas para auxiliar os profissionais de segurança cibernética na triagem de alertas: um agente de classificação de phishing revisa alertas de phishing e filtra falsos positivos; os outros dois analisam notificações do Purview, detectando casos de uso não autorizado de dados empresariais por funcionários.
O agente de otimização de acesso condicional colabora com o Microsoft Entra, identificando regras de acesso de usuários inseguras e gerando uma solução de correção com um clique para os administradores executarem. O agente de correção de vulnerabilidades integra-se com a ferramenta de gerenciamento de dispositivos Intune, ajudando a localizar rapidamente terminais vulneráveis e aplicar patches de sistema operacional. O agente de boletim de inteligência de ameaças gera relatórios de ameaças cibernéticas que podem ameaçar os sistemas organizacionais.
03 Sem forma: A proteção de um agente inteligente de alto nível L4
Sem surpresa, no país, para alcançar um verdadeiro nível de segurança de "condução autónoma", a Qingting Cloud Security lançou o agente inteligente de segurança "Wuxiang". Sendo o primeiro produto de IA de segurança do mundo a realizar a transição de "IA assistiva" para "agente autónomo" (Autopilot), sua principal inovação reside em revolucionar o modo de "resposta passiva" das ferramentas tradicionais, tornando-o autónomo, automático e inteligente.
Através da fusão de aprendizagem de máquina, grafos de conhecimento e tecnologia de decisão automatizada, "Wu Xiang" pode completar de forma independente todo o ciclo de processos de deteção de ameaças, avaliação de impacto até resposta e tratamento, realizando uma verdadeira tomada de decisão autónoma e orientada a objetivos. O seu design de "Arquitetura Agentic AI" simula a lógica de colaboração de equipas de segurança humanas: o "cérebro" integra a base de conhecimento em cibersegurança para apoiar a capacidade de planeamento, os "olhos" percebem dinamicamente o ambiente da rede a um nível granular, e as "mãos e pés" chamam de forma flexível uma variedade de cadeias de ferramentas de segurança, formando através da colaboração de múltiplos agentes uma rede de avaliação eficiente de partilha de informações, com divisão de trabalho e partilha de informações.
Na implementação técnica, "sem forma" utiliza o "modo ReAct" (ciclo Act-Observe-Think-Act) e a "arquitetura de dupla motor AI + Ação AI", garantindo a capacidade de correção dinâmica em tarefas complexas. Quando há uma anomalia na chamada de ferramentas, o sistema pode mudar automaticamente para um plano de backup em vez de interromper o fluxo, por exemplo, na análise de ataques APT, o Plan AI atua como "organizador" desagregando os objetivos da tarefa, enquanto o Action AI funciona como "especialista em investigação" executando a análise de logs e modelagem de ameaças, ambos avançando em paralelo com base em um grafo de conhecimento compartilhado em tempo real.
No nível dos módulos funcionais, "sem forma" construiu um ecossistema completo de decisão autônoma: a simulação do perfil do agente inteligente reflete o pensamento iterativo do analista de segurança, otimizando dinamicamente os caminhos de decisão; a integração da chamada de ferramentas consulta de logs de segurança do host, recuperação de inteligência de ameaças na rede e análise de código malicioso impulsionada por LLM; a percepção ambiental captura em tempo real ativos do host e informações da rede; o grafo de conhecimento armazena dinamicamente associações de entidades, auxiliando na decisão; a colaboração entre múltiplos agentes inteligentes executa tarefas em paralelo por meio da divisão de tarefas e compartilhamento de informações.
Atualmente, o "Wuxiang" destaca-se nas três principais áreas de aplicação: análise de alarmes, análise de rastreamento e geração de relatórios de segurança.
Na operação de segurança tradicional, a verificação da autenticidade dos alertas em massa é demorada e trabalhosa. Tomemos como exemplo um alerta de elevação de privilégios local: o agente inteligente de avaliação de alertas analisa automaticamente as características da ameaça, utilizando ferramentas como análise de permissões de processos, rastreamento de processos pais e verificação de assinatura de programas, e, no final, determina que se trata de um falso positivo — todo o processo sem intervenção humana. Nos testes de alertas existentes da Qing Teng, este sistema já alcançou 100% de cobertura de alertas e 99,99% de precisão na avaliação, reduzindo a carga de trabalho manual em mais de 95%.
Perante ameaças reais como ataques Webshell, os agentes confirmam em segundos a eficácia do ataque através da extração de características de código, análise de permissões de ficheiros e outras associações multidimensionais. O tradicional processo de rastreamento profundo, que requer a colaboração de múltiplos departamentos e demora dias (como a restauração de caminhos de propagação e a avaliação de impactos horizontais), agora é automatizado pelo sistema, que interliga os fluxos de dados de registos de máquinas, tráfego de rede e linhas de base comportamentais, gerando um relatório completo da cadeia de ataque e comprimindo o ciclo de resposta de "dias" para "minutos".
"O nosso núcleo é inverter a relação de colaboração entre a IA e os humanos, podendo tratar a IA como uma pessoa para colaborar, realizando a transição do L2 para o L4, ou seja, da condução assistida para a condução autónoma de alto nível." Hu Jun, cofundador da Qingteng e vice-presidente de produtos, partilhou, "À medida que a IA se adapta a mais cenários, a taxa de sucesso das decisões aumenta, sendo gradualmente capaz de assumir mais responsabilidades, assim, a divisão de responsabilidades entre humanos e IA mudará."
No cenário de análise de origem, primeiro é o alerta de Webshell que aciona a equipe de segurança de múltiplos agentes, impulsionada por "IA sem forma" para colaboração na origem: o "especialista em avaliação" localiza o arquivo one.jsp com base no alerta, gerando tarefas paralelas de análise do conteúdo do arquivo, rastreamento do autor, verificação de diretórios e rastreamento de processos. O agente "investigador de segurança" utiliza a ferramenta de registro de arquivos para rapidamente identificar o processo java (12606) como a fonte de escrita, e esse processo e o host associado 10.108.108.23 (descoberto através de registros de acesso com interações frequentes) foram incluídos na investigação.
Os agentes inteligentes expandem dinamicamente as pistas através de mapas de ameaças, aprofundando-se em camadas a partir de um único arquivo até processos e máquinas, analisando os resultados das tarefas resumidos pelos especialistas para determinar o risco global. Este processo comprime a investigação que normalmente levaria horas ou dias a apenas algumas dezenas de minutos, superando a precisão dos especialistas em segurança de alto nível e reconstituindo toda a cadeia de ataque, rastreando sem lacunas os caminhos de movimentação lateral, e a avaliação da equipe vermelha também mostra que é difícil evitar sua investigação em larga escala.
"Modelos grandes são melhores que humanos porque podem investigar todos os cantos e recantos, em vez de excluir situações com baixa probabilidade com base na experiência." explicou Hu Jun, "isso é equivalente a ter melhor amplitude e profundidade."
Após investigar cenários de ataques complexos, organizar alarmes e pistas de investigação e gerar relatórios costuma ser demorado e trabalhoso. No entanto, a IA pode realizar um resumo com um único clique, apresentando de forma clara o processo de ataque na forma de uma linha do tempo visual, exibindo de maneira coesa os pontos-chave, como se fosse um filme — o sistema irá automaticamente organizar as provas-chave para gerar os quadros-chave da cadeia de ataque e, combinando com informações contextuais do ambiente, finalmente gerar um mapa dinâmico da cadeia de ataque, apresentando toda a trajetória do ataque de forma intuitiva e tridimensional.
04 Conclusão
É evidente que o desenvolvimento da tecnologia de IA traz desafios duplos para a segurança cibernética.
Por um lado, os atacantes utilizam IA para automatizar, personalizar e ocultar os ataques; por outro lado, a defesa deve acelerar a inovação tecnológica, aumentando a capacidade de detecção e resposta através da IA. No futuro, a competição em tecnologia de IA entre atacantes e defensores determinará a situação geral da cibersegurança, enquanto o aprimoramento dos agentes de segurança será a chave para equilibrar risco e desenvolvimento.
E o agente inteligente de segurança "Wuxiang" trouxe novas mudanças tanto na arquitetura de segurança quanto no nível cognitivo.
"Sem forma" é essencialmente uma mudança na forma como a IA é utilizada, sendo a sua inovação a fusão da percepção de dados multidimensionais, a geração de estratégias de proteção e a interpretabilidade da decisão em um todo orgânico - mudando do uso da IA como uma ferramenta para o empoderamento da IA para que ela possa trabalhar de forma autônoma e automática.
Através da análise associativa de logs, textos, tráfego e outros dados heterogêneos, o sistema consegue capturar os indícios de atividades APT antes que o atacante construa uma cadeia de ataque completa. Mais crucialmente, a visualização do processo de tomada de decisão e a explicação da inferência tornam os alertas em caixa-preta das ferramentas tradicionais, que "sabem o que é, mas não sabem o porquê", uma coisa do passado — a equipe de segurança não apenas consegue ver a ameaça, mas também entender a lógica da evolução da ameaça.
A essência desta inovação é a transição do pensamento de segurança de "tapar o buraco depois que a ovelha fugiu" para "prevenir antes que a chuva caia", sendo uma redefinição das regras do jogo de ataque e defesa.
"Sem Forma" é como um caçador com intuição digital: através da modelagem em tempo real de características de comportamento micro como operações de memória, ele consegue identificar cavalos de Troia personalizados escondidos em meio a um vasto ruído; o motor de gestão dinâmica da superfície de ataque avalia continuamente o peso do risco dos ativos, garantindo que os recursos de proteção sejam direcionados com precisão aos sistemas críticos; e o mecanismo inteligente de digestão de inteligência de ameaças converte diariamente dezenas de milhares de alertas em comandos de defesa acionáveis, e até mesmo prevê a direção da evolução das variantes de ataque — enquanto as soluções tradicionais ainda lutam para lidar com invasões já ocorridas, "Sem Forma" já está antecipando e bloqueando os próximos movimentos dos atacantes.
"O nascimento do Sistema Central Inteligente de IA (Agente Inteligente de Segurança Avançada) irá reconfigurar completamente o panorama da segurança cibernética. E tudo o que precisamos fazer é aproveitar essa oportunidade ao máximo." disse Zhang Fu.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
«AI Hacker» à vista, como a Agentic AI pode tornar-se o novo guardião?
Autor: bombear Geek
01 A Ascensão da IA: A Guerra Secreta da Segurança Sob a Lâmina Dupla da Tecnologia
Com o rápido desenvolvimento da tecnologia de IA, as ameaças à segurança cibernética tornaram-se cada vez mais complexas, com métodos de ataque não apenas mais eficientes e ocultos, mas também gerando novas formas de "hackers de IA", o que provocou uma série de novas crises de segurança cibernética.
Primeiro, a IA generativa está a redefinir a "precisão" das fraudes online.
De forma simples, isso significa tornar os ataques de phishing tradicionais mais inteligentes. Por exemplo, em cenários mais precisos, os atacantes usam dados sociais públicos para treinar modelos de IA, gerando em massa e-mails de phishing personalizados que imitam o estilo de escrita ou hábitos linguísticos de usuários específicos, realizando fraudes "personalizadas", contornando os filtros de spam tradicionais e aumentando significativamente a taxa de sucesso dos ataques.
Em seguida, temos o deepfake, que é o mais conhecido pelo público, e a usurpação de identidade. Antes do amadurecimento da tecnologia de IA, o tradicional "ataque de troca de rosto", ou seja, a fraude BEC, que significa "Business Email Compromise", refere-se especificamente a um ataque em que o agressor se disfarça de seu líder, colega ou parceiro comercial por meio do e-mail, com o intuito de obter informações comerciais ou dinheiro, ou ainda acessar outros dados importantes.
Agora, a "mudança de rosto" realmente aconteceu. A tecnologia de troca de rostos e mudança de voz gerada por IA pode falsificar as identidades de figuras públicas ou amigos e parentes para fraude, manipulação da opinião pública e até interferência política. Apenas dois meses atrás, o diretor financeiro de uma empresa em Xangai recebeu um convite por videoconferência do "presidente", que alegou pagar urgentemente o "depósito de cooperação no exterior" por meio de troca facial de IA, e o diretor transferiu 3,8 milhões de yuans para a conta designada de acordo com as instruções.
A terceira é o ataque automatizado e a exploração de vulnerabilidades. O avanço da tecnologia de IA está a levar muitos cenários a evoluir para a inteligência e automação, e os ataques cibernéticos não são exceção. Os atacantes podem usar a IA para escanear automaticamente vulnerabilidades no sistema, gerar código de ataque dinâmico e realizar ataques rápidos e indiscriminados ao alvo, como os "zero-day attacks" impulsionados por IA que, após descobrir uma vulnerabilidade, imediatamente escrevem e executam programas maliciosos, sendo difícil para os sistemas de defesa tradicionais responderem em tempo real.
Neste Ano Novo Chinês, o site da DeepSeek sofreu um ataque DDoS em grande escala de 3,2 Tbps, com hackers a infiltrarem-se simultaneamente através da API, injetando amostras adversárias e alterando os pesos do modelo, resultando na paralisia dos serviços principais por 48 horas, com perdas econômicas diretas superiores a dezenas de milhões de dólares. A investigação posterior revelou vestígios de infiltração de longa data da NSA dos EUA.
A contaminação de dados e as vulnerabilidades dos modelos são igualmente uma nova ameaça. Os atacantes inserem informações falsas nos dados de treinamento da IA (ou seja, envenenamento de dados), ou exploram as próprias falhas do modelo, induzindo a IA a produzir resultados incorretos - isso pode representar uma ameaça de segurança direta em áreas críticas e até provocar consequências catastróficas em cadeia, como um sistema de condução automática que interpreta um exemplo adversarial de "proibido passar" como "sinal de limite de velocidade", ou uma IA médica que confunde um tumor benigno com um maligno.
02 AI ainda precisa de AI
Diante das novas ameaças de segurança cibernética impulsionadas pela IA, os modelos de proteção tradicionais já se mostraram insuficientes. Então, quais são as nossas estratégias de resposta?
Não é difícil perceber que o consenso atual na indústria aponta para "combater IA com IA" - isso não é apenas uma atualização dos meios técnicos, mas também uma mudança de paradigma de segurança.
As tentativas existentes podem ser grosso modo divididas em três grandes categorias: técnicas de proteção de segurança para modelos de IA, aplicações de defesa a nível industrial e uma colaboração governamental e internacional em um nível mais macro.
A chave da tecnologia de proteção de segurança de modelos de IA reside no reforço de segurança inerente do modelo.
Tomando como exemplo a vulnerabilidade de "jailbreaking" de grandes modelos de linguagem (LLM), seu mecanismo de proteção de segurança frequentemente falha devido à ineficácia das estratégias de aviso de jailbreak genéricas—os atacantes contornam sistematicamente a camada de proteção embutida no modelo, induzindo a IA a gerar conteúdo violento, discriminatório ou ilegal. Para evitar o "jailbreaking" de LLM, várias empresas de modelos têm feito tentativas, como a Anthropic, que lançou o "classificador constitucional" em fevereiro deste ano.
Aqui, a "constituição" refere-se às regras de linguagem natural que não podem ser violadas, como uma medida de proteção treinada em dados sintéticos, monitorando em tempo real o conteúdo de entrada e saída ao estabelecer o que é permitido e o que é restrito. Nos testes em condições de referência, a taxa de sucesso na prevenção de tentativas de jailbreak avançadas do seu modelo Claude3.5, sob a proteção do classificador, aumentou de 14% para 95%, reduzindo significativamente o risco de "jailbreak" da IA.
Além das defesas baseadas em modelos e de métodos de defesa mais gerais, as aplicações de defesa em nível industrial também merecem atenção, pois a proteção contextualizada em setores verticais está se tornando um ponto de ruptura chave: o setor financeiro constrói barreiras contra fraudes por meio de modelos de risco com IA e análise de dados multimodais, o ecossistema de código aberto utiliza técnicas de captura de vulnerabilidades inteligentes para uma resposta rápida a ameaças de zero dia, enquanto a proteção de informações sensíveis das empresas se baseia em um sistema de controle dinâmico impulsionado por IA.
Por exemplo, a solução apresentada pela Cisco na Semana Internacional de Redes em Cingapura pode interceptar em tempo real as solicitações de consulta de dados sensíveis enviadas pelos funcionários para o ChatGPT e gerar automaticamente relatórios de auditoria de conformidade para otimizar o ciclo de gestão.
A nível macro, a colaboração inter-regional entre governos e a comunidade internacional está a ser acelerada. A Autoridade de Cibersegurança de Singapura publicou o "Guia de Segurança de Sistemas de Inteligência Artificial", impondo a localização obrigatória e mecanismos de criptografia de dados para restringir o abuso de IA gerativa, estabelecendo padrões de proteção especificamente para a identificação de falsificação de identidade por IA em ataques de phishing; os três países, EUA, Reino Unido e Canadá, lançaram simultaneamente o "Programa de Agentes de Rede de IA", focando no desenvolvimento de sistemas confiáveis e na avaliação em tempo real de ataques APT, reforçando a capacidade de defesa coletiva através de um sistema de certificação de segurança conjunto.
Então, quais métodos podem maximizar o uso de IA para enfrentar os desafios de segurança cibernética na era da IA?
"O futuro precisa de um núcleo inteligente de segurança AI e de construir um novo sistema em torno deste núcleo." Na segunda edição do Fórum de Inovação em Cibersegurança de Wuhan, Zhang Fu, fundador da QingTeng Cloud Security, enfatizou em sua apresentação que a luta contra a AI será o núcleo do sistema de defesa em cibersegurança do futuro: "Dentro de 3 anos, a AI irá revolucionar a indústria de segurança existente e todos os setores B2B. Os produtos serão reconstruídos, alcançando eficiências e capacidades sem precedentes. Os produtos do futuro serão feitos para a AI, e não para as pessoas."
Entre as várias soluções, o modo do Security Copilot oferece claramente um bom exemplo de que "os produtos do futuro são para uso da IA": há um ano, a Microsoft lançou o copiloto inteligente Microsoft Security Copilot para ajudar as equipas de segurança a detectar, investigar e responder rapidamente e com precisão a incidentes de segurança; há um mês, lançou novamente um agente de IA para assistência automática em áreas críticas como ataques de phishing, segurança de dados e gestão de identidade.
A Microsoft adicionou seis novas inteligências artificiais desenvolvidas internamente para expandir as funcionalidades do Security Copilot. Três delas são usadas para auxiliar os profissionais de segurança cibernética na triagem de alertas: um agente de classificação de phishing revisa alertas de phishing e filtra falsos positivos; os outros dois analisam notificações do Purview, detectando casos de uso não autorizado de dados empresariais por funcionários.
O agente de otimização de acesso condicional colabora com o Microsoft Entra, identificando regras de acesso de usuários inseguras e gerando uma solução de correção com um clique para os administradores executarem. O agente de correção de vulnerabilidades integra-se com a ferramenta de gerenciamento de dispositivos Intune, ajudando a localizar rapidamente terminais vulneráveis e aplicar patches de sistema operacional. O agente de boletim de inteligência de ameaças gera relatórios de ameaças cibernéticas que podem ameaçar os sistemas organizacionais.
03 Sem forma: A proteção de um agente inteligente de alto nível L4
Sem surpresa, no país, para alcançar um verdadeiro nível de segurança de "condução autónoma", a Qingting Cloud Security lançou o agente inteligente de segurança "Wuxiang". Sendo o primeiro produto de IA de segurança do mundo a realizar a transição de "IA assistiva" para "agente autónomo" (Autopilot), sua principal inovação reside em revolucionar o modo de "resposta passiva" das ferramentas tradicionais, tornando-o autónomo, automático e inteligente.
Através da fusão de aprendizagem de máquina, grafos de conhecimento e tecnologia de decisão automatizada, "Wu Xiang" pode completar de forma independente todo o ciclo de processos de deteção de ameaças, avaliação de impacto até resposta e tratamento, realizando uma verdadeira tomada de decisão autónoma e orientada a objetivos. O seu design de "Arquitetura Agentic AI" simula a lógica de colaboração de equipas de segurança humanas: o "cérebro" integra a base de conhecimento em cibersegurança para apoiar a capacidade de planeamento, os "olhos" percebem dinamicamente o ambiente da rede a um nível granular, e as "mãos e pés" chamam de forma flexível uma variedade de cadeias de ferramentas de segurança, formando através da colaboração de múltiplos agentes uma rede de avaliação eficiente de partilha de informações, com divisão de trabalho e partilha de informações.
Na implementação técnica, "sem forma" utiliza o "modo ReAct" (ciclo Act-Observe-Think-Act) e a "arquitetura de dupla motor AI + Ação AI", garantindo a capacidade de correção dinâmica em tarefas complexas. Quando há uma anomalia na chamada de ferramentas, o sistema pode mudar automaticamente para um plano de backup em vez de interromper o fluxo, por exemplo, na análise de ataques APT, o Plan AI atua como "organizador" desagregando os objetivos da tarefa, enquanto o Action AI funciona como "especialista em investigação" executando a análise de logs e modelagem de ameaças, ambos avançando em paralelo com base em um grafo de conhecimento compartilhado em tempo real.
No nível dos módulos funcionais, "sem forma" construiu um ecossistema completo de decisão autônoma: a simulação do perfil do agente inteligente reflete o pensamento iterativo do analista de segurança, otimizando dinamicamente os caminhos de decisão; a integração da chamada de ferramentas consulta de logs de segurança do host, recuperação de inteligência de ameaças na rede e análise de código malicioso impulsionada por LLM; a percepção ambiental captura em tempo real ativos do host e informações da rede; o grafo de conhecimento armazena dinamicamente associações de entidades, auxiliando na decisão; a colaboração entre múltiplos agentes inteligentes executa tarefas em paralelo por meio da divisão de tarefas e compartilhamento de informações.
Atualmente, o "Wuxiang" destaca-se nas três principais áreas de aplicação: análise de alarmes, análise de rastreamento e geração de relatórios de segurança.
Na operação de segurança tradicional, a verificação da autenticidade dos alertas em massa é demorada e trabalhosa. Tomemos como exemplo um alerta de elevação de privilégios local: o agente inteligente de avaliação de alertas analisa automaticamente as características da ameaça, utilizando ferramentas como análise de permissões de processos, rastreamento de processos pais e verificação de assinatura de programas, e, no final, determina que se trata de um falso positivo — todo o processo sem intervenção humana. Nos testes de alertas existentes da Qing Teng, este sistema já alcançou 100% de cobertura de alertas e 99,99% de precisão na avaliação, reduzindo a carga de trabalho manual em mais de 95%.
Perante ameaças reais como ataques Webshell, os agentes confirmam em segundos a eficácia do ataque através da extração de características de código, análise de permissões de ficheiros e outras associações multidimensionais. O tradicional processo de rastreamento profundo, que requer a colaboração de múltiplos departamentos e demora dias (como a restauração de caminhos de propagação e a avaliação de impactos horizontais), agora é automatizado pelo sistema, que interliga os fluxos de dados de registos de máquinas, tráfego de rede e linhas de base comportamentais, gerando um relatório completo da cadeia de ataque e comprimindo o ciclo de resposta de "dias" para "minutos".
"O nosso núcleo é inverter a relação de colaboração entre a IA e os humanos, podendo tratar a IA como uma pessoa para colaborar, realizando a transição do L2 para o L4, ou seja, da condução assistida para a condução autónoma de alto nível." Hu Jun, cofundador da Qingteng e vice-presidente de produtos, partilhou, "À medida que a IA se adapta a mais cenários, a taxa de sucesso das decisões aumenta, sendo gradualmente capaz de assumir mais responsabilidades, assim, a divisão de responsabilidades entre humanos e IA mudará."
No cenário de análise de origem, primeiro é o alerta de Webshell que aciona a equipe de segurança de múltiplos agentes, impulsionada por "IA sem forma" para colaboração na origem: o "especialista em avaliação" localiza o arquivo one.jsp com base no alerta, gerando tarefas paralelas de análise do conteúdo do arquivo, rastreamento do autor, verificação de diretórios e rastreamento de processos. O agente "investigador de segurança" utiliza a ferramenta de registro de arquivos para rapidamente identificar o processo java (12606) como a fonte de escrita, e esse processo e o host associado 10.108.108.23 (descoberto através de registros de acesso com interações frequentes) foram incluídos na investigação.
Os agentes inteligentes expandem dinamicamente as pistas através de mapas de ameaças, aprofundando-se em camadas a partir de um único arquivo até processos e máquinas, analisando os resultados das tarefas resumidos pelos especialistas para determinar o risco global. Este processo comprime a investigação que normalmente levaria horas ou dias a apenas algumas dezenas de minutos, superando a precisão dos especialistas em segurança de alto nível e reconstituindo toda a cadeia de ataque, rastreando sem lacunas os caminhos de movimentação lateral, e a avaliação da equipe vermelha também mostra que é difícil evitar sua investigação em larga escala.
"Modelos grandes são melhores que humanos porque podem investigar todos os cantos e recantos, em vez de excluir situações com baixa probabilidade com base na experiência." explicou Hu Jun, "isso é equivalente a ter melhor amplitude e profundidade."
Após investigar cenários de ataques complexos, organizar alarmes e pistas de investigação e gerar relatórios costuma ser demorado e trabalhoso. No entanto, a IA pode realizar um resumo com um único clique, apresentando de forma clara o processo de ataque na forma de uma linha do tempo visual, exibindo de maneira coesa os pontos-chave, como se fosse um filme — o sistema irá automaticamente organizar as provas-chave para gerar os quadros-chave da cadeia de ataque e, combinando com informações contextuais do ambiente, finalmente gerar um mapa dinâmico da cadeia de ataque, apresentando toda a trajetória do ataque de forma intuitiva e tridimensional.
04 Conclusão
É evidente que o desenvolvimento da tecnologia de IA traz desafios duplos para a segurança cibernética.
Por um lado, os atacantes utilizam IA para automatizar, personalizar e ocultar os ataques; por outro lado, a defesa deve acelerar a inovação tecnológica, aumentando a capacidade de detecção e resposta através da IA. No futuro, a competição em tecnologia de IA entre atacantes e defensores determinará a situação geral da cibersegurança, enquanto o aprimoramento dos agentes de segurança será a chave para equilibrar risco e desenvolvimento.
E o agente inteligente de segurança "Wuxiang" trouxe novas mudanças tanto na arquitetura de segurança quanto no nível cognitivo.
"Sem forma" é essencialmente uma mudança na forma como a IA é utilizada, sendo a sua inovação a fusão da percepção de dados multidimensionais, a geração de estratégias de proteção e a interpretabilidade da decisão em um todo orgânico - mudando do uso da IA como uma ferramenta para o empoderamento da IA para que ela possa trabalhar de forma autônoma e automática.
Através da análise associativa de logs, textos, tráfego e outros dados heterogêneos, o sistema consegue capturar os indícios de atividades APT antes que o atacante construa uma cadeia de ataque completa. Mais crucialmente, a visualização do processo de tomada de decisão e a explicação da inferência tornam os alertas em caixa-preta das ferramentas tradicionais, que "sabem o que é, mas não sabem o porquê", uma coisa do passado — a equipe de segurança não apenas consegue ver a ameaça, mas também entender a lógica da evolução da ameaça.
A essência desta inovação é a transição do pensamento de segurança de "tapar o buraco depois que a ovelha fugiu" para "prevenir antes que a chuva caia", sendo uma redefinição das regras do jogo de ataque e defesa.
"Sem Forma" é como um caçador com intuição digital: através da modelagem em tempo real de características de comportamento micro como operações de memória, ele consegue identificar cavalos de Troia personalizados escondidos em meio a um vasto ruído; o motor de gestão dinâmica da superfície de ataque avalia continuamente o peso do risco dos ativos, garantindo que os recursos de proteção sejam direcionados com precisão aos sistemas críticos; e o mecanismo inteligente de digestão de inteligência de ameaças converte diariamente dezenas de milhares de alertas em comandos de defesa acionáveis, e até mesmo prevê a direção da evolução das variantes de ataque — enquanto as soluções tradicionais ainda lutam para lidar com invasões já ocorridas, "Sem Forma" já está antecipando e bloqueando os próximos movimentos dos atacantes.
"O nascimento do Sistema Central Inteligente de IA (Agente Inteligente de Segurança Avançada) irá reconfigurar completamente o panorama da segurança cibernética. E tudo o que precisamos fazer é aproveitar essa oportunidade ao máximo." disse Zhang Fu.