「AI Hacker」 đến, Agentic AI làm thế nào để trở thành người bảo vệ mới?

Tác giả: bơm phong cách

01 AI nổi lên: Cuộc chiến an ninh trong bóng tối dưới lưỡi dao hai mặt của công nghệ

Với sự phát triển nhanh chóng của công nghệ AI, các mối đe dọa đối với an ninh mạng ngày càng trở nên phức tạp, phương thức tấn công không chỉ hiệu quả và kín đáo hơn mà còn sinh ra các hình thức "hack AI" mới, do đó đã gây ra nhiều loại khủng hoảng an ninh mạng mới.

Đầu tiên, AI sinh tạo đang tái định hình "độ chính xác" của lừa đảo trực tuyến.

Nói một cách đơn giản, đó là việc hiện đại hóa các cuộc tấn công phishing truyền thống, chẳng hạn như trong các tình huống chính xác hơn, kẻ tấn công sẽ sử dụng dữ liệu xã hội công khai để đào tạo mô hình AI, tạo ra hàng loạt email phishing cá nhân hóa, bắt chước phong cách viết hoặc thói quen ngôn ngữ của người dùng cụ thể, thực hiện lừa đảo "tùy chỉnh", vượt qua các bộ lọc thư rác truyền thống, nâng cao đáng kể tỷ lệ thành công của cuộc tấn công.

Tiếp theo là những điều mà công chúng biết đến nhiều nhất về giả mạo sâu (Deepfake) và đánh cắp danh tính. Trước khi công nghệ AI phát triển, hình thức lừa đảo truyền thống "đánh cắp mặt" hay còn gọi là lừa đảo BEC, viết tắt của "Business Email Compromise", cụ thể là kẻ tấn công giả mạo người gửi email thành lãnh đạo, đồng nghiệp hoặc đối tác kinh doanh của bạn, từ đó lừa đảo thông tin kinh doanh hoặc tiền bạc, hoặc thu thập các tài liệu quan trọng khác.

Ngày nay, "biến mặt" thực sự đã xảy ra. Công nghệ tạo khuôn mặt và biến giọng nói bằng AI có thể giả mạo danh tính của người nổi tiếng hoặc bạn bè và người thân, phục vụ cho lừa đảo, thao túng dư luận thậm chí can thiệp chính trị. Chỉ cách đây hai tháng, giám đốc tài chính của một công ty ở Thượng Hải đã nhận được lời mời tham gia hội nghị video từ "Chủ tịch", người này đã sử dụng công nghệ biến mặt và giọng nói bằng AI để yêu cầu khẩn cấp chuyển "tiền đặt cọc hợp tác nước ngoài", giám đốc này đã chuyển 3,8 triệu nhân dân tệ vào tài khoản được chỉ định, sau đó phát hiện ra rằng đây là một băng nhóm lừa đảo nước ngoài đã sử dụng công nghệ giả mạo sâu.

Thứ ba là tấn công tự động và khai thác lỗ hổng. Sự tiến bộ của công nghệ AI đã khiến nhiều tình huống tiến tới tính thông minh và tự động hóa, và các cuộc tấn công mạng cũng như vậy. Kẻ tấn công có thể sử dụng AI để tự động quét lỗ hổng hệ thống, tạo mã tấn công động và thực hiện các cuộc tấn công nhanh chóng không phân biệt đối tượng vào mục tiêu, chẳng hạn như các cuộc tấn công "zero-day" do AI điều khiển sẽ ngay lập tức viết và thực hiện chương trình độc hại sau khi phát hiện lỗ hổng, khiến hệ thống phòng thủ truyền thống khó có thể phản ứng kịp thời.

Trong năm nay, vào dịp Tết Nguyên Đán, trang web của DeepSeek đã遭遇 cuộc tấn công DDoS quy mô lớn 3.2Tbps, tin tặc đồng thời thông qua API thâm nhập và tiêm các mẫu chống lại, làm thay đổi trọng số mô hình dẫn đến dịch vụ cốt lõi bị tê liệt trong 48 giờ, thiệt hại kinh tế trực tiếp lên tới hàng chục triệu đô la, sau đó điều tra phát hiện dấu vết xâm nhập lâu dài của NSA Mỹ.

Ô nhiễm dữ liệu và lỗ hổng mô hình cũng là một mối đe dọa mới. Kẻ tấn công thông qua việc cấy thông tin giả vào dữ liệu đào tạo AI (tức là đầu độc dữ liệu), hoặc tận dụng các khiếm khuyết của chính mô hình, khiến AI xuất ra kết quả sai lệch - điều này sẽ gây ra mối đe dọa an ninh trực tiếp đến các lĩnh vực quan trọng, thậm chí có thể gây ra những hậu quả thảm khốc dây chuyền, chẳng hạn như hệ thống lái tự động nhầm lẫn mẫu đối kháng "cấm đi" thành "biển báo giới hạn tốc độ", hoặc AI y tế nhầm lẫn khối u lành tính thành ác tính.

02 AI còn cần AI trị

Đối mặt với những mối đe dọa an ninh mạng mới do AI thúc đẩy, các mô hình bảo vệ truyền thống đã tỏ ra yếu kém. Vậy, chúng ta có những giải pháp nào để ứng phó?

Không khó để nhận ra, hiện nay sự đồng thuận trong ngành đã chỉ ra rằng "sử dụng AI để chống lại AI" - điều này không chỉ là sự nâng cấp về phương tiện kỹ thuật, mà còn là sự chuyển biến trong mô hình an ninh.

Các nỗ lực hiện tại chủ yếu được chia thành ba loại lớn, bao gồm công nghệ bảo vệ an toàn cho mô hình AI, ứng dụng phòng thủ cấp ngành và hợp tác chính phủ và quốc tế ở cấp độ vĩ mô hơn.

Công nghệ bảo vệ an toàn mô hình AI chủ yếu dựa vào việc tăng cường an toàn nội sinh của mô hình.

Lấy ví dụ về lỗ hổng "vượt ngục" của mô hình ngôn ngữ lớn (LLM), cơ chế bảo vệ an ninh thường thất bại do chiến lược nhắc nhở vượt ngục chung - kẻ tấn công vượt qua lớp bảo vệ tích hợp của mô hình một cách hệ thống, khiến AI tạo ra nội dung bạo lực, phân biệt hoặc vi phạm pháp luật. Để ngăn chặn việc "vượt ngục" của LLM, các công ty mô hình đã thực hiện nhiều nỗ lực, chẳng hạn như Anthropic đã phát hành "Bộ phân loại Hiến pháp" vào tháng 2 năm nay.

Tại đây, "hiến pháp" đề cập đến các quy tắc ngôn ngữ tự nhiên không thể vi phạm, như một biện pháp bảo đảm được đào tạo trên dữ liệu tổng hợp, thông qua việc quy định nội dung được phép và bị hạn chế, giám sát nội dung đầu vào và đầu ra theo thời gian thực, trong các bài kiểm tra điều kiện cơ bản, tỷ lệ ngăn chặn thành công các nỗ lực jailbreak cấp cao của mô hình Claude3.5 dưới sự bảo vệ của bộ phân loại đã tăng từ 14% lên 95%, giảm thiểu đáng kể rủi ro "jailbreak" của AI.

Ngoài các phương pháp phòng thủ dựa trên mô hình và tổng quát hơn, các ứng dụng phòng thủ cấp ngành cũng đáng được chú ý, với việc bảo vệ theo kịch bản trong các lĩnh vực chuyên biệt đang trở thành điểm đột phá quan trọng: Ngành tài chính xây dựng hàng rào chống gian lận thông qua mô hình kiểm soát rủi ro AI và phân tích dữ liệu đa phương thức, hệ sinh thái mã nguồn mở sử dụng công nghệ săn lùng lỗ hổng thông minh để phản ứng nhanh với các mối đe dọa zero-day, trong khi việc bảo vệ thông tin nhạy cảm của doanh nghiệp dựa vào hệ thống quản lý động được hỗ trợ bởi AI.

Ví dụ, giải pháp mà Cisco trình diễn tại tuần lễ mạng quốc tế Singapore có thể chặn ngay lập tức các yêu cầu truy vấn dữ liệu nhạy cảm mà nhân viên gửi đến ChatGPT và tự động tạo báo cáo kiểm toán tuân thủ để tối ưu hóa vòng quản lý.

Ở cấp độ vĩ mô, sự hợp tác giữa chính phủ và quốc tế qua các khu vực đang được thúc đẩy nhanh chóng. Cơ quan An ninh mạng Singapore đã phát hành "Hướng dẫn về An toàn Hệ thống Trí tuệ Nhân tạo", thông qua việc yêu cầu triển khai nội địa và cơ chế mã hóa dữ liệu để hạn chế lạm dụng AI sinh tạo, đặc biệt là việc thiết lập tiêu chuẩn bảo vệ cho việc nhận diện danh tính giả mạo của AI trong các cuộc tấn công lừa đảo; ba quốc gia Mỹ, Anh, Canada đã đồng thời khởi động "Chương trình đại lý mạng AI", tập trung vào phát triển hệ thống đáng tin cậy và đánh giá thời gian thực các cuộc tấn công APT, thông qua việc củng cố khả năng phòng thủ tập thể bằng hệ thống chứng nhận an ninh liên kết.

Vậy, những phương pháp nào có thể tối đa hóa việc sử dụng AI để đối phó với những thách thức an ninh mạng trong kỷ nguyên AI?

"Tương lai cần một trung tâm thông minh an toàn AI và xây dựng hệ thống mới xung quanh trung tâm đó." Tại diễn đàn đổi mới an ninh mạng lần thứ hai ở Vũ Hán, Zhang Fu, người sáng lập QingTeng Cloud Security, đã nhấn mạnh rằng việc sử dụng AI để chống lại AI sẽ là cốt lõi của hệ thống phòng thủ an ninh mạng trong tương lai, "Trong vòng 3 năm, AI sẽ lật đổ ngành an ninh hiện tại và tất cả các ngành 2B. Sản phẩm sẽ được tái cấu trúc, đạt được hiệu quả và khả năng nâng cao chưa từng có trước đây. Sản phẩm tương lai sẽ dành cho AI, chứ không phải cho con người."

Trong số nhiều giải pháp, mô hình của Security Copilot rõ ràng đã cung cấp một ví dụ tốt cho việc "sản phẩm trong tương lai là để AI sử dụng": cách đây một năm, Microsoft đã ra mắt trợ lý thông minh Microsoft Security Copilot để giúp các đội an ninh phát hiện, điều tra và phản ứng nhanh chóng và chính xác với các sự kiện an ninh; một tháng trước, họ lại phát hành một AI thông minh để tự động hỗ trợ trong các lĩnh vực quan trọng như tấn công lừa đảo, an toàn dữ liệu và quản lý danh tính.

Microsoft đã thêm sáu AI thông minh tự phát triển để mở rộng chức năng Security Copilot. Trong đó, ba AI được sử dụng để hỗ trợ nhân viên an ninh mạng lọc cảnh báo: AI phân loại lừa đảo xem xét cảnh báo lừa đảo, lọc báo động sai; hai AI còn lại phân tích thông báo Purview, phát hiện việc nhân viên sử dụng dữ liệu doanh nghiệp không được phép.

Cơ chế tối ưu hóa truy cập điều kiện hợp tác với Microsoft Entra, chỉ ra các quy tắc truy cập người dùng không an toàn và tạo ra giải pháp sửa chữa một lần nhấp để quản trị viên thực hiện. Cơ chế sửa chữa lỗ hổng tích hợp với công cụ quản lý thiết bị Intune, giúp nhanh chóng xác định các điểm cuối dễ bị tấn công và áp dụng bản vá hệ điều hành. Cơ chế báo cáo tình báo mối đe dọa tạo ra báo cáo mối đe dọa an ninh mạng có thể đe dọa hệ thống của tổ chức.

03 Vô tướng: Hộ tống của trí tuệ nhân tạo cấp L4 cao cấp

Thật trùng hợp, tại Trung Quốc, để đạt được sự bảo vệ an toàn của "lái xe tự động" theo đúng nghĩa, Qingteng Cloud Security đã ra mắt "Wuxiang" thông minh bảo mật toàn diện. Là sản phẩm AI bảo mật đầu tiên trên thế giới thực hiện bước nhảy vọt từ "AI được hỗ trợ" sang "tác nhân tự động" (Autopilot), bước đột phá cốt lõi của nó nằm ở việc lật đổ mô hình "phản hồi thụ động" của các công cụ truyền thống, làm cho chúng trở nên tự chủ, tự chủ và thông minh.

Thông qua việc kết hợp học máy, đồ thị tri thức và công nghệ ra quyết định tự động, "Vô tướng" có thể hoàn thành độc lập toàn bộ quy trình từ phát hiện mối đe dọa, đánh giá tác động đến xử lý phản ứng, thực hiện quyết định tự chủ và mục tiêu thực sự. Thiết kế "Kiến trúc AI Tác động" mô phỏng logic hợp tác của đội ngũ an ninh con người: "Bộ não" tích hợp cơ sở tri thức an ninh mạng hỗ trợ khả năng lập kế hoạch, "Đôi mắt" cảm nhận động thái môi trường mạng với độ chi tiết cao, "Đôi tay và chân" linh hoạt gọi ra chuỗi công cụ an ninh đa dạng, và thông qua hợp tác đa tác nhân hình thành mạng lưới phân tích hiệu quả với chia sẻ thông tin, phân công hợp tác, chia sẻ thông tin.

Về mặt kỹ thuật, "Vô Hình" áp dụng "Mô Hình ReAct" (Vòng lặp Hành động - Quan sát - Suy nghĩ - Hành động) và "Kiến trúc Động cơ Kế hoạch AI + Hành động AI kép", đảm bảo khả năng sửa lỗi động trong các nhiệm vụ phức tạp. Khi công cụ gọi bị bất thường, hệ thống có thể tự động chuyển đổi sang phương án dự phòng thay vì ngắt quãng quy trình, chẳng hạn như trong phân tích tấn công APT, Plan AI đóng vai trò "người tổ chức" để phân tách mục tiêu nhiệm vụ, Action AI đóng vai trò "chuyên gia điều tra" thực hiện phân tích nhật ký và mô hình hóa mối đe dọa, cả hai đều tiến hành song song dựa trên đồ thị tri thức chia sẻ theo thời gian thực.

Mặt chức năng, "Vô tướng" đã xây dựng một hệ sinh thái quyết định tự chủ hoàn chỉnh: Mô phỏng nhân vật trí tuệ nhân tạo với tư duy phản xạ của nhà phân tích an ninh, tối ưu hóa động các lộ trình quyết định; Tích hợp công cụ gọi lại truy vấn nhật ký an ninh máy chủ, truy xuất thông tin tình báo mạng và phân tích mã độc dựa trên LLM; Nhận thức môi trường thu thập thông tin tài sản máy chủ và mạng theo thời gian thực; Lưu trữ động các thực thể liên kết trong đồ thị tri thức, hỗ trợ quyết định; Hợp tác đa tác nhân thực hiện nhiệm vụ song song thông qua phân chia nhiệm vụ và chia sẻ thông tin.

Hiện tại, "Vô Hình" có hiệu suất tốt nhất trong ba kịch bản ứng dụng cốt lõi: đánh giá cảnh báo, phân tích nguồn gốc và xuất báo cáo an toàn.

Trong hoạt động an ninh truyền thống, việc xác minh tính xác thực của hàng triệu cảnh báo tốn thời gian và công sức. Lấy một cảnh báo nâng quyền cục bộ làm ví dụ: trí tuệ nhân tạo phân tích cảnh báo không có hình thức tự động phân tích đặc điểm mối đe dọa, gọi các công cụ phân tích quyền truy cập quy trình, truy xuất quy trình cha, xác minh chữ ký chương trình, và cuối cùng xác định là báo động giả — toàn bộ quá trình không cần can thiệp của con người. Trong thử nghiệm cảnh báo hiện có của QingTeng, hệ thống này đã đạt được tỷ lệ bao phủ cảnh báo 100% và độ chính xác phân tích 99.99%, đồng thời giảm hơn 95% khối lượng công việc của con người.

Đối mặt với các mối đe dọa thực sự như tấn công Webshell, các tác nhân thông qua việc trích xuất đặc trưng mã, phân tích quyền tệp và các liên kết đa chiều khác, xác nhận hiệu quả tấn công trong vòng giây. Quy trình truyền thống cần sự phối hợp của nhiều bộ phận, mất vài ngày để truy nguyên sâu (như phục hồi đường truyền phát tán, đánh giá tác động ngang), hiện được hệ thống tự động liên kết nhật ký máy chủ, lưu lượng mạng, và cơ sở hành vi, tạo ra báo cáo chuỗi tấn công hoàn chỉnh, rút ngắn thời gian phản hồi từ "ngày" xuống "phút".

"Cốt lõi của chúng tôi là đảo ngược mối quan hệ hợp tác giữa AI và con người, có thể xem AI như một người để hợp tác, thực hiện sự chuyển đổi từ L2 đến L4, tức là từ hỗ trợ lái xe sang lái xe tự động cao cấp." Hu Jun, Phó Giám đốc sản phẩm của Qingteng Lianc, chia sẻ, "Khi mà AI có thể thích ứng với nhiều tình huống hơn, tỷ lệ thành công trong quyết định cao hơn, dần dần có thể đảm nhận nhiều trách nhiệm hơn, thì sự phân công trách nhiệm giữa con người và AI sẽ có sự thay đổi."

Trong bối cảnh phân tích nguồn gốc, trước tiên là cảnh báo Webshell kích hoạt đội ngũ an ninh đa tác nhân do "AI vô hình" điều khiển phối hợp phân tích nguồn gốc: "chuyên gia đánh giá" dựa trên cảnh báo xác định tệp one.jsp, tạo ra phân tích nội dung tệp, truy xuất tác giả, kiểm tra cùng thư mục và theo dõi quá trình như các nhiệm vụ song song, được "nhân viên điều tra an ninh" gọi công cụ nhật ký tệp, nhanh chóng xác định tiến trình java (12606) là nguồn ghi, tiến trình này và máy chủ liên quan 10.108.108.23 (phát hiện tương tác tần suất cao qua nhật ký truy cập) lần lượt được đưa vào điều tra.

Các tác nhân thông minh mở rộng các manh mối một cách động thông qua bản đồ đe dọa, từ một tệp đơn lẻ đào sâu từng lớp đến quy trình, máy chủ, đánh giá kết quả nhiệm vụ do các chuyên gia tổng hợp để xác định rủi ro. Quá trình này nén lại việc kiểm tra mà con người cần từ vài giờ đến vài ngày thành chỉ vài chục phút, với độ chính xác vượt trội so với các chuyên gia an ninh cao cấp của con người để khôi phục toàn bộ chuỗi tấn công, theo dõi đường di chuyển ngang mà không có điểm mù, và đánh giá của đội đỏ cũng cho thấy khó có thể tránh khỏi cuộc điều tra toàn diện của nó.

"Mô hình lớn tốt hơn con người vì nó có thể kiểm tra mọi ngóc ngách, chứ không chỉ loại bỏ các khả năng thấp dựa trên kinh nghiệm." Hu Jun giải thích, "Điều này tương đương với việc có độ rộng và độ sâu tốt hơn."

Sau khi hoàn thành điều tra các tình huống tấn công phức tạp, việc sắp xếp cảnh báo và các manh mối điều tra để tạo báo cáo thường tốn thời gian và công sức. Tuy nhiên, AI có thể thực hiện tóm tắt chỉ bằng một cú nhấp chuột, trình bày rõ ràng quá trình tấn công dưới dạng dòng thời gian trực quan, giống như một bộ phim thể hiện liên tục các điểm quan trọng - hệ thống sẽ tự động sắp xếp các bằng chứng quan trọng để tạo ra các khung hình chính của chuỗi tấn công, kết hợp với thông tin ngữ cảnh môi trường, cuối cùng tạo ra một bản đồ động của chuỗi tấn công, cho phép toàn bộ quỹ đạo tấn công được trình bày một cách trực quan và sinh động.

04 Kết luận

Rõ ràng, sự phát triển của công nghệ AI mang lại thách thức kép cho an ninh mạng.

Một mặt, kẻ tấn công sử dụng AI để tự động hóa, cá nhân hóa và bí mật hóa các cuộc tấn công; mặt khác, bên phòng thủ cần tăng tốc đổi mới công nghệ, nâng cao khả năng phát hiện và phản ứng thông qua AI. Trong tương lai, cuộc đua công nghệ AI giữa hai bên tấn công và phòng thủ sẽ quyết định tình hình an ninh mạng tổng thể, trong khi việc hoàn thiện các tác nhân an toàn sẽ là chìa khóa để cân bằng giữa rủi ro và phát triển.

Và trí tuệ an toàn "Vô Tướng" đã mang lại những thay đổi mới cả trong kiến trúc an toàn và cấp độ nhận thức.

"Vô hình" về bản chất đã thay đổi cách sử dụng AI, sự đột phá của nó nằm ở việc hợp nhất nhận thức dữ liệu đa chiều, tạo ra chiến lược bảo vệ và khả năng giải thích quyết định thành một tổng thể hữu cơ - chuyển từ mô hình sử dụng AI như một công cụ sang việc trao quyền cho AI để nó có thể hoạt động một cách tự chủ và tự động.

Thông qua việc phân tích liên kết giữa các nhật ký, văn bản, lưu lượng và các dữ liệu không đồng nhất khác, hệ thống có thể phát hiện dấu hiệu của hoạt động APT trước khi kẻ tấn công xây dựng xong chuỗi tấn công hoàn chỉnh. Quan trọng hơn, việc trực quan hóa quá trình ra quyết định và giải thích lý do đã biến các cảnh báo hộp đen của các công cụ truyền thống từ "biết mà không hiểu" trở thành dĩ vãng — nhóm an ninh không chỉ thấy mối đe dọa mà còn hiểu được logic tiến hóa của mối đe dọa.

Bản chất của sự đổi mới này là sự chuyển đổi mô hình từ tư duy an toàn "chữa cháy" sang "chuẩn bị trước" và là sự định nghĩa lại các quy tắc của trò chơi tấn công và phòng thủ.

「Vô tướng」 giống như một thợ săn có trực giác số: thông qua việc mô hình hóa thời gian thực các hành vi vi mô như thao tác bộ nhớ, nó có thể phát hiện các Trojan tùy chỉnh tiềm ẩn từ giữa hàng triệu tiếng ồn; động cơ quản lý bề mặt tấn công liên tục đánh giá trọng số rủi ro tài sản, đảm bảo tài nguyên bảo vệ được hướng tới các hệ thống quan trọng một cách chính xác; và cơ chế tiêu hóa thông minh của tình báo đe dọa, chuyển đổi hàng nghìn cảnh báo mỗi ngày thành các chỉ thị phòng thủ có thể hành động, thậm chí dự đoán hướng phát triển của các biến thể tấn công - khi các giải pháp truyền thống vẫn đang vật lộn để đối phó với những cuộc xâm nhập đã xảy ra, 「Vô tướng」 đã dự đoán và chặn đứng bước đi tiếp theo của kẻ tấn công.

"Sự ra đời của hệ thống trung tâm thông minh AI (cơ thể thông minh an toàn cao cấp) sẽ hoàn toàn tái định hình bức tranh an ninh mạng. Và điều duy nhất chúng ta cần làm là nắm bắt hoàn toàn cơ hội này." Trương Phúc Đạo.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)