Chấn động : Lầu Năm Góc đã dùng Claude AI để lên kế hoạch bắt giữ Maduro

đéo có hình chó nó tin

Địt Bùng Đạo Tổ
The Anthropic website displayed on a laptop.

Gabby Jones/Bloomberg News


Theo những người quen thuộc với vấn đề này, công cụ trí tuệ nhân tạo Claude của Anthropic đã được sử dụng trong chiến dịch của quân đội Mỹ nhằm bắt giữ cựu Tổng thống Venezuela Nicolás Maduro, cho thấy các mô hình AI đang ngày càng được sử dụng rộng rãi trong Lầu Năm Góc.

Chiến dịch bắt giữ Maduro và vợ ông ta bao gồm việc đánh bom một số địa điểm ở Caracas vào tháng trước. Hướng dẫn sử dụng của Anthropic nghiêm cấm việc sử dụng Claude để tạo điều kiện cho bạo lực, phát triển vũ khí hoặc tiến hành giám sát.

“Chúng tôi không thể bình luận về việc liệu Claude, hay bất kỳ mô hình AI nào khác, có được sử dụng cho bất kỳ hoạt động cụ thể nào, dù là mật hay không,” một phát ngôn viên của Anthropic cho biết. “Bất kỳ việc sử dụng Claude nào—cho dù trong khu vực tư nhân hay trong chính phủ—đều phải tuân thủ Chính sách Sử dụng của chúng tôi, quy định cách thức triển khai Claude. Chúng tôi hợp tác chặt chẽ với các đối tác để đảm bảo tuân thủ.”

Bộ Quốc phòng từ chối bình luận.

Việc triển khai Claude được thực hiện thông qua sự hợp tác giữa Anthropic và công ty dữ liệu Palantir Technologies, công ty có các công cụ thường được Bộ Quốc phòng và các cơ quan thực thi pháp luật liên bang sử dụng, theo nguồn tin cho biết. Tờ Wall Street Journal trước đó đã đưa tin rằng những lo ngại của Anthropic về cách Lầu Năm Góc có thể sử dụng Claude đã khiến các quan chức chính quyền xem xét việc hủy bỏ hợp đồng trị giá lên tới 200 triệu đô la. Palantir chưa đưa ra phản hồi ngay lập tức về yêu cầu bình luận.

Anthropic là nhà phát triển mô hình AI đầu tiên được Bộ Quốc phòng sử dụng trong các hoạt động mật. Có thể các công cụ AI khác đã được sử dụng trong chiến dịch ở Venezuela cho các nhiệm vụ không mật. Các công cụ này có thể được sử dụng cho mọi việc, từ tóm tắt tài liệu đến điều khiển máy bay không người lái tự hành.

Việc được quân đội áp dụng được xem là một cú hích quan trọng đối với các công ty AI đang cạnh tranh để giành được sự công nhận và tìm cách đáp ứng mức định giá khổng lồ từ các nhà đầu tư.

Giám đốc điều hành của Anthropic, Dario Amodei, và các CEO khác đã công khai tranh luận về sức mạnh của các mô hình của họ và những rủi ro mà chúng có thể gây ra cho xã hội. Amodei đã đi ngược lại với nhiều giám đốc điều hành khác trong ngành khi kêu gọi tăng cường quy định và các biện pháp bảo vệ để ngăn ngừa những tác hại từ trí tuệ nhân tạo. Công ty chú trọng đến an toàn này và các công ty khác trong ngành đã mất đi nhiều nhân viên, những người mô tả họ là ưu tiên tăng trưởng hơn là phát triển công nghệ một cách có trách nhiệm.

Tại một sự kiện hồi tháng Giêng công bố việc Lầu Năm Góc sẽ hợp tác với xAI, Bộ trưởng Quốc phòng Pete Hegseth cho biết cơ quan này sẽ không “sử dụng các mô hình AI không cho phép tiến hành chiến tranh”, một nhận xét đề cập đến các cuộc thảo luận mà các quan chức chính quyền đã có với Anthropic, theo tờ Journal đưa tin.

Hợp đồng trị giá 200 triệu đô la đã được trao cho Anthropic vào mùa hè năm ngoái. Theo những người quen thuộc với vấn đề này, Amodei đã công khai bày tỏ lo ngại về việc sử dụng trí tuệ nhân tạo trong các hoạt động tự động gây chết người và giám sát nội địa, hai điểm mấu chốt chính trong các cuộc đàm phán hợp đồng hiện tại của họ với Lầu Năm Góc.

Những hạn chế này đã làm leo thang cuộc chiến giữa công ty với chính quyền Trump , bao gồm cả cáo buộc rằng Anthropic đang làm suy yếu chiến lược trí tuệ nhân tạo ít bị kiểm soát của Nhà Trắng bằng cách kêu gọi áp đặt thêm các biện pháp kiểm soát và giới hạn đối với việc xuất khẩu chip AI.

Amodei và các nhà đồng sáng lập khác của Anthropic trước đây từng làm việc tại OpenAI, công ty gần đây đã hợp tác với Gemini của Google để phát triển nền tảng trí tuệ nhân tạo dành cho quân nhân được khoảng ba triệu người sử dụng. Công ty và Bộ Quốc phòng cho biết phiên bản tùy chỉnh của ChatGPT sẽ được sử dụng để phân tích tài liệu, tạo báo cáo và hỗ trợ nghiên cứu.

 

Có thể bạn quan tâm

Top