Giám đốc điều hành của Palantir Vương quốc Anh cho biết việc sử dụng AI trong mục tiêu chiến tranh do các lực lượng quân sự quyết định

Giám đốc Palantir UK nói rằng đó là trách nhiệm của quân đội trong việc quyết định cách sử dụng AI nhắm mục tiêu trong chiến tranh

4 ngày trước

Chia sẻLưu

Thêm vào mục yêu thích trên Google

Marc Cieslak,phóng viên AI và

Matt Murphy,BBC Verify

Louis Mosley của Palantir nói rằng quân đội chịu trách nhiệm về cách các hệ thống AI được sử dụng

Gã khổng lồ công nghệ Palantir đã phản bác trước những lo ngại rằng việc quân đội sử dụng các nền tảng AI của họ có thể dẫn đến những rủi ro không lường trước được, trong một cuộc phỏng vấn độc quyền với BBC, nhấn mạnh rằng cách công nghệ đó được sử dụng là trách nhiệm của các khách hàng quân sự của họ.

Điều này diễn ra trong bối cảnh các chuyên gia đã bày tỏ lo ngại về việc sử dụng nền tảng phòng thủ do AI của Palantir - Maven Smart System - trong thời chiến và việc được cho là đã được sử dụng trong các cuộc tấn công của Mỹ nhằm vào Iran.

Các nhà phân tích cảnh báo rằng việc quân đội sử dụng nền tảng này, giúp nhân sự lên kế hoạch cho các cuộc tấn công, khiến không còn nhiều thời gian cho “việc xác minh có ý nghĩa” đối với đầu ra của nó và có thể dẫn đến các mục tiêu sai bị đánh trúng.

Tuy nhiên, giám đốc phụ trách Anh và châu Âu của công ty là Louis Mosley nói với BBC trong một cuộc phỏng vấn toàn diện rằng, dù các nền tảng AI như Maven đã “đóng vai trò then chốt” đối với việc điều hành cuộc chiến Iran của Mỹ, thì trách nhiệm về cách đầu ra của chúng được sử dụng luôn phải “thuộc về tổ chức quân sự”.

“Luôn có một con người trong vòng lặp, vì vậy luôn có một con người đưa ra quyết định cuối cùng. Đó là thiết lập hiện tại.”

Maven Smart System được Lầu Năm Góc khởi động vào năm 2017 và được thiết kế nhằm tăng tốc các quyết định nhắm mục tiêu quân sự bằng cách tập hợp một khối lượng dữ liệu lớn, bao gồm nhiều loại hình tình báo, hình ảnh vệ tinh và hình ảnh từ máy bay không người lái.

Hệ thống phân tích dữ liệu này và sau đó có thể đưa ra các khuyến nghị để nhắm mục tiêu. Nó cũng có thể gợi ý mức độ sử dụng lực lượng dựa trên sự sẵn có của nhân sự và trang bị quân sự, như máy bay.

Nhưng sự soi xét đối với việc sử dụng các công cụ như vậy trong chiến tranh đã gia tăng. Tháng Hai, Lầu Năm Góc thông báo rằng họ sẽ dần loại bỏ hệ thống AI Claude của Anthropic - hệ thống giúp vận hành Maven - sau khi công ty từ chối cho phép sử dụng AI của họ trong vũ khí tự động và giám sát. Palantir cho rằng các phương án thay thế có thể thay thế nó.

Kể từ khi cuộc chiến với Iran bắt đầu vào tháng Hai, Mỹ được cho là đã sử dụng Maven để lên kế hoạch các đòn tấn công trên khắp đất nước.

Hình ảnh trình diễn của Palantir Maven Smart System

Được BBC thúc đẩy về rủi ro rằng Maven có thể gợi ý các mục tiêu không chính xác - có thể bao gồm dân thường - Mosley nhấn mạnh rằng nền tảng này chỉ được dùng như một hướng dẫn để tăng tốc quá trình ra quyết định cho nhân sự quân sự và không nên được xem như một hệ thống nhắm mục tiêu tự động.

“Bạn có thể nghĩ nó như một công cụ hỗ trợ,” Mosley nói. “Nó cho phép họ tổng hợp một lượng thông tin khổng lồ mà trước đây họ sẽ phải làm thủ công từng việc một.”

Tuy nhiên, khi BBC chất vấn Mosley về rủi ro các chỉ huy bị ép thời gian ra lệnh cho cấp dưới coi đầu ra của Maven như đã được đóng dấu hợp lệ, Mosley đã chuyển sang để các lực lượng quân sự riêng lẻ tự quyết định.

“Đó thực sự là một câu hỏi dành cho các khách hàng quân sự của chúng tôi. Họ là những người quyết định khung chính sách quy định ai là người được đưa ra quyết định nào,” ông nói. “Đó không phải vai trò của chúng tôi.”

Kể từ ngày 28 tháng Hai, Mỹ đã tiến hành hơn 11.000 cuộc không kích vào Iran, nhiều cuộc được cho là đã được xác định bởi Maven.

Đô đốc Brad Cooper, người đứng đầu lực lượng quân sự Mỹ tại Trung Đông, đã ca ngợi các hệ thống AI vì giúp các sĩ quan “lọc qua một lượng dữ liệu khổng lồ trong vài giây, để các nhà lãnh đạo của chúng tôi có thể vượt qua sự nhiễu loạn và đưa ra các quyết định thông minh hơn nhanh hơn kẻ thù có thể phản ứng”.

Công ty AI Anthropic tìm chuyên gia vũ khí để ngăn người dùng “lạm dụng”

OpenAI thay đổi thỏa thuận với quân đội Mỹ sau phản ứng dữ luận

Trump ra lệnh cho chính phủ ngừng sử dụng Anthropic trong chiến sự vì việc sử dụng AI

Nhưng một số người lo ngại rằng việc AI tham gia vào lập kế hoạch nhiệm vụ tạo ra những rủi ro đáng kể.

“Việc ưu tiên tốc độ và quy mô, cùng với việc sử dụng lực lượng, sau đó để lại rất ít thời gian cho việc xác minh có ý nghĩa đối với các mục tiêu nhằm đảm bảo rằng chúng không vô tình bao gồm các mục tiêu là dân thường,” Tiến sĩ Elke Schwarz thuộc Đại học Queen Mary London cho biết.

“Nếu có rủi ro giết người và bạn đánh cắp phần suy nghĩ phản biện quan trọng của mình cho phần mềm để phần mềm xử lý những việc đó thay bạn, thì bạn sẽ chỉ còn phụ thuộc vào phần mềm,” bà nói thêm. “Đó là cuộc đua xuống đáy.”

Trong vài tuần gần đây, các quan chức của Lầu Năm Góc đã phải đối mặt với những câu hỏi liệu các công cụ AI như Maven có được sử dụng để xác định mục tiêu trong cuộc tấn công chết người vào một trường học ở thị trấn Minab của Iran hay không. Các quan chức Iran cho biết cuộc tấn công đã làm 168 người thiệt mạng, trong đó có khoảng 110 trẻ em, vào ngày đầu tiên của cuộc chiến.

Tại Quốc hội, một số nghị sĩ Dân chủ cấp cao đã kêu gọi tăng cường giám sát đối với các nền tảng AI như Maven. Dân biểu Sara Jacobs - thành viên của Ủy ban Quân lực Hạ viện - đã kêu gọi các quy định và điều luật được thực thi rõ ràng về cách thức và thời điểm các hệ thống AI được sử dụng.

“Các công cụ AI không đáng tin cậy 100% — chúng có thể thất bại theo những cách tinh vi và tuy vậy các người vận hành vẫn tiếp tục đặt quá nhiều niềm tin vào chúng,” bà nói với NBC News vào tháng trước.

“Chúng tôi có trách nhiệm phải thiết lập các hàng rào bảo vệ nghiêm ngặt đối với việc quân đội sử dụng AI và đảm bảo luôn có một con người trong vòng lặp ở mọi quyết định sử dụng lực lượng gây chết người, vì cái giá phải trả nếu làm sai có thể là thảm họa đối với dân thường và các thành viên phục vụ thực hiện những nhiệm vụ này.”

Nhưng Mosley đã bác bỏ các gợi ý rằng tốc độ của nền tảng công ty ông đang làm vội quá trình ra quyết định tại Lầu Năm Góc và có thể tạo ra những tình huống nguy hiểm. Thay vào đó, ông lập luận rằng tốc độ mà các chỉ huy hiện nay thực hiện hành động là “hệ quả của việc tăng hiệu quả” mà Maven đã giúp tạo ra.

Trích dẫn “an ninh tác nghiệp”, Lầu Năm Góc từ chối bình luận khi BBC tiếp cận về cách các hệ thống AI như Maven sẽ được sử dụng trong tương lai hoặc ai sẽ là người chịu trách nhiệm nếu có chuyện gì đó xảy ra sai.

Nhưng có vẻ các quan chức tại Mỹ đang tiến tới với các kế hoạch nhằm tích hợp thêm Maven vào các hệ thống của họ.

Tuần trước, hãng tin Reuters đưa tin rằng Lầu Năm Góc đã chỉ định Maven là “một chương trình chính thức để ghi nhận” - thiết lập nó như một công nghệ sẽ được tích hợp lâu dài trên toàn quân đội Mỹ.

Trong một bức thư có được bởi Reuters, Thứ trưởng Quốc phòng Steve Feinberg cho biết nền tảng này sẽ cung cấp cho các chỉ huy “những công cụ mới nhất cần thiết để phát hiện, ngăn chặn và thống trị các đối thủ của chúng ta trong mọi lĩnh vực”.

Thông tin bổ sung bởi Jemimah Herd

Trí tuệ nhân tạo

Chiến tranh Iran

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim