Việc tích hợp AI vào đời sống hàng ngày gây ra lo ngại về an toàn. Các công ty, chính phủ và các liên minh lấp đầy khoảng trống, giải quyết chức năng, gây lo ngại và thiếu thốn.
Trí tuệ nhân tạo ngày càng được tích hợp vào cuộc sống hàng ngày của chúng ta, từ các chatbot cung cấp hỗ trợ tinh thần đến các thuật toán tối ưu hóa thương mại, và những lo ngại về nó đang trở nên rõ ràng hơn. Các vấn đề không còn là "nếu," mà là ai và bằng cách nào sẽ điều hướng AI đến sự an toàn.
Các công ty, chính phủ và các liên minh đa quốc gia đang dần lấp đầy khoảng trống, đôi khi là phản ứng, đôi khi là chủ động. Dưới đây là một cái nhìn tổng quan về những gì đang hoạt động, những gì đang gây lo ngại và những gì vẫn còn thiếu.
Các Titan Công Nghệ Siết Chặt Quy Định
Meta Thêm Hàng Rào Bảo Vệ Cho Thiếu Niên
Để đáp lại sự phản đối từ công chúng và chính trị, Meta đã cam kết củng cố các biện pháp bảo vệ AI của mình:
Các chatbot của nó sẽ từ chối thảo luận về tự hại, tự tử hoặc các vấn đề về ăn uống với thanh thiếu niên, thay vào đó sẽ giới thiệu họ đến các chuyên gia về sức khỏe tâm thần.
Đây là một phần của sáng kiến "tài khoản thanh thiếu niên" lớn hơn trên Facebook, Instagram và Messenger nhằm cung cấp trải nghiệm an toàn hơn và nâng cao nhận thức của cha mẹ, bao gồm khả năng biết những bot nào mà trẻ em đã tương tác trong tuần trước.
Các nhà phê bình cho rằng những động thái này đã đến hạn từ lâu, đặc biệt là khi xem xét dữ liệu bị rò rỉ cho thấy rằng các bot có thể đã tham gia vào những cuộc trò chuyện "nhạy cảm" gây xấu hổ với trẻ em. "Việc kiểm tra an toàn toàn diện nên diễn ra trước khi sản phẩm được đưa ra thị trường, chứ không phải sau đó," một người ủng hộ cảnh báo.
Meta từ chối tham gia Quy tắc AI Tự nguyện của EU
Liên minh Châu Âu đã phát hành một Bộ Quy tắc thực hành tự nguyện nhằm giúp các nhà phát triển AI tuân thủ Đạo luật AI của mình. Meta đã từ chối ký, gọi đây là sự vượt quá quyền hành chính có nguy cơ cản trở đổi mới.
Sự hợp tác của Chính phủ Hoa Kỳ
OpenAI và Anthropic đã đồng ý chia sẻ các mô hình AI của họ với Viện An toàn AI Hoa Kỳ cả trước và sau khi công bố. Ý tưởng là để nhận phản hồi về an toàn và giảm thiểu rủi ro thông qua việc kiểm tra của chính phủ.
Vào tháng 8 năm 2025, 44 Tổng Chưởng lý Hoa Kỳ đã ký một bức thư chung khuyến khích các công ty AI chủ chốt, bao gồm Meta, OpenAI, Microsoft, Google và Replika, cải thiện việc bảo vệ trẻ vị thành niên khỏi các tài liệu AI xâm hại.
Illinois Cấm AI như liệu pháp
Illinois đã trở thành một trong những tiểu bang đầu tiên cấm việc sử dụng chatbot powered by AI như một hình thức trị liệu trừ khi có sự giám sát của một chuyên gia được chứng nhận. Nevada và Utah cũng đã thực hiện các hạn chế tương tự. Những người vi phạm có thể phải đối mặt với các hình phạt dân sự lên tới 10.000 đô la.
Khung pháp lý toàn cầu
Các quy định đang phát triển trên toàn thế giới, từ Đạo luật AI của EU đến Đạo luật Bảo vệ Dữ liệu của Ấn Độ và các yêu cầu an toàn của Hàn Quốc. Số lượng ngày càng tăng các tiểu bang của Hoa Kỳ đang thực hiện các luật pháp cụ thể về AI hoặc mở rộng các khung hiện có như bảo vệ người tiêu dùng, minh bạch thuật toán và kiểm toán thiên lệch.
Thượng nghị sĩ Wiener của California đã đề xuất một dự luật buộc các doanh nghiệp AI lớn phải công khai tiết lộ các thực hành an toàn của họ và báo cáo các sự cố lớn cho các cơ quan nhà nước.
Các Viện An toàn AI: Giám sát Đa quốc gia
Để đảm bảo việc đánh giá AI độc lập và chuẩn hóa, các quốc gia đã thành lập các Viện An toàn AI:
Mỹ và Anh đã thành lập các viện quốc gia sau Hội nghị Thượng đỉnh An toàn AI 2023.
Đến năm 2025, nhiều quốc gia đã tham gia vào một mạng lưới, bao gồm Nhật Bản, Pháp, Đức, Ý, Singapore, Hàn Quốc, Canada và EU, để đánh giá an toàn mô hình và thiết lập các tiêu chuẩn giám sát toàn cầu.
Các báo cáo tiết lộ những khoảng cách dai dẳng
Viện Tương lai của Sự sống (FLI) đánh giá các công ty AI đạt D hoặc thấp hơn trong việc lập kế hoạch an toàn tồn vong; không ai đạt điểm trên C+. Anthropic dẫn đầu với C+, tiếp theo là OpenAI (C) và Meta (D).
Các cựu nhân viên OpenAI cáo buộc công ty ưu tiên lợi nhuận hơn là an toàn, nêu ra những lo ngại về tính minh bạch và đạo đức trong các cuộc họp kín.
Từ các hàng rào bảo vệ thanh thiếu niên của Meta đến lệnh cấm điều trị của Illinois, đến các công ty như SSI tích hợp an toàn vào AI, thông điệp rất rõ ràng: luật pháp và sự tiên đoán đang tụt lại phía sau công nghệ. Dữ liệu bị rò rỉ, kiện tụng và sự giám sát quốc tế cho thấy rằng tổn hại thường xảy ra trước tiên. Nhiệm vụ không chỉ là phát triển AI tốt hơn, mà còn đảm bảo rằng mọi đột phá đều bảo vệ con người trước khi thảm họa xảy ra.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cách các công ty đang chống lại mặt tối của AI
Tóm tắt
Việc tích hợp AI vào đời sống hàng ngày gây ra lo ngại về an toàn. Các công ty, chính phủ và các liên minh lấp đầy khoảng trống, giải quyết chức năng, gây lo ngại và thiếu thốn.
Trí tuệ nhân tạo ngày càng được tích hợp vào cuộc sống hàng ngày của chúng ta, từ các chatbot cung cấp hỗ trợ tinh thần đến các thuật toán tối ưu hóa thương mại, và những lo ngại về nó đang trở nên rõ ràng hơn. Các vấn đề không còn là "nếu," mà là ai và bằng cách nào sẽ điều hướng AI đến sự an toàn.
Các công ty, chính phủ và các liên minh đa quốc gia đang dần lấp đầy khoảng trống, đôi khi là phản ứng, đôi khi là chủ động. Dưới đây là một cái nhìn tổng quan về những gì đang hoạt động, những gì đang gây lo ngại và những gì vẫn còn thiếu.
Các Titan Công Nghệ Siết Chặt Quy Định
Meta Thêm Hàng Rào Bảo Vệ Cho Thiếu Niên
Để đáp lại sự phản đối từ công chúng và chính trị, Meta đã cam kết củng cố các biện pháp bảo vệ AI của mình:
Các chatbot của nó sẽ từ chối thảo luận về tự hại, tự tử hoặc các vấn đề về ăn uống với thanh thiếu niên, thay vào đó sẽ giới thiệu họ đến các chuyên gia về sức khỏe tâm thần.
Đây là một phần của sáng kiến "tài khoản thanh thiếu niên" lớn hơn trên Facebook, Instagram và Messenger nhằm cung cấp trải nghiệm an toàn hơn và nâng cao nhận thức của cha mẹ, bao gồm khả năng biết những bot nào mà trẻ em đã tương tác trong tuần trước.
Các nhà phê bình cho rằng những động thái này đã đến hạn từ lâu, đặc biệt là khi xem xét dữ liệu bị rò rỉ cho thấy rằng các bot có thể đã tham gia vào những cuộc trò chuyện "nhạy cảm" gây xấu hổ với trẻ em. "Việc kiểm tra an toàn toàn diện nên diễn ra trước khi sản phẩm được đưa ra thị trường, chứ không phải sau đó," một người ủng hộ cảnh báo.
Meta từ chối tham gia Quy tắc AI Tự nguyện của EU
Liên minh Châu Âu đã phát hành một Bộ Quy tắc thực hành tự nguyện nhằm giúp các nhà phát triển AI tuân thủ Đạo luật AI của mình. Meta đã từ chối ký, gọi đây là sự vượt quá quyền hành chính có nguy cơ cản trở đổi mới.
Sự hợp tác của Chính phủ Hoa Kỳ
OpenAI và Anthropic đã đồng ý chia sẻ các mô hình AI của họ với Viện An toàn AI Hoa Kỳ cả trước và sau khi công bố. Ý tưởng là để nhận phản hồi về an toàn và giảm thiểu rủi ro thông qua việc kiểm tra của chính phủ.
Vào tháng 8 năm 2025, 44 Tổng Chưởng lý Hoa Kỳ đã ký một bức thư chung khuyến khích các công ty AI chủ chốt, bao gồm Meta, OpenAI, Microsoft, Google và Replika, cải thiện việc bảo vệ trẻ vị thành niên khỏi các tài liệu AI xâm hại.
Illinois Cấm AI như liệu pháp
Illinois đã trở thành một trong những tiểu bang đầu tiên cấm việc sử dụng chatbot powered by AI như một hình thức trị liệu trừ khi có sự giám sát của một chuyên gia được chứng nhận. Nevada và Utah cũng đã thực hiện các hạn chế tương tự. Những người vi phạm có thể phải đối mặt với các hình phạt dân sự lên tới 10.000 đô la.
Khung pháp lý toàn cầu
Các quy định đang phát triển trên toàn thế giới, từ Đạo luật AI của EU đến Đạo luật Bảo vệ Dữ liệu của Ấn Độ và các yêu cầu an toàn của Hàn Quốc. Số lượng ngày càng tăng các tiểu bang của Hoa Kỳ đang thực hiện các luật pháp cụ thể về AI hoặc mở rộng các khung hiện có như bảo vệ người tiêu dùng, minh bạch thuật toán và kiểm toán thiên lệch.
Thượng nghị sĩ Wiener của California đã đề xuất một dự luật buộc các doanh nghiệp AI lớn phải công khai tiết lộ các thực hành an toàn của họ và báo cáo các sự cố lớn cho các cơ quan nhà nước.
Các Viện An toàn AI: Giám sát Đa quốc gia
Để đảm bảo việc đánh giá AI độc lập và chuẩn hóa, các quốc gia đã thành lập các Viện An toàn AI:
Mỹ và Anh đã thành lập các viện quốc gia sau Hội nghị Thượng đỉnh An toàn AI 2023.
Đến năm 2025, nhiều quốc gia đã tham gia vào một mạng lưới, bao gồm Nhật Bản, Pháp, Đức, Ý, Singapore, Hàn Quốc, Canada và EU, để đánh giá an toàn mô hình và thiết lập các tiêu chuẩn giám sát toàn cầu.
Các báo cáo tiết lộ những khoảng cách dai dẳng
Viện Tương lai của Sự sống (FLI) đánh giá các công ty AI đạt D hoặc thấp hơn trong việc lập kế hoạch an toàn tồn vong; không ai đạt điểm trên C+. Anthropic dẫn đầu với C+, tiếp theo là OpenAI (C) và Meta (D).
Các cựu nhân viên OpenAI cáo buộc công ty ưu tiên lợi nhuận hơn là an toàn, nêu ra những lo ngại về tính minh bạch và đạo đức trong các cuộc họp kín.
Từ các hàng rào bảo vệ thanh thiếu niên của Meta đến lệnh cấm điều trị của Illinois, đến các công ty như SSI tích hợp an toàn vào AI, thông điệp rất rõ ràng: luật pháp và sự tiên đoán đang tụt lại phía sau công nghệ. Dữ liệu bị rò rỉ, kiện tụng và sự giám sát quốc tế cho thấy rằng tổn hại thường xảy ra trước tiên. Nhiệm vụ không chỉ là phát triển AI tốt hơn, mà còn đảm bảo rằng mọi đột phá đều bảo vệ con người trước khi thảm họa xảy ra.