🔍
Chuyên mục: Thế giới

OpenAI bổ sung điều khoản trong hợp đồng với Bộ Quốc phòng Mỹ

2 giờ trước
Công ty công nghệ OpenAI vừa thông báo sẽ sửa đổi thỏa thuận đạt được trước đó với Lầu Năm Góc về việc triển khai các mô hình trí tuệ nhân tạo (AI) trên mạng lưới mật của Bộ Quốc phòng Mỹ. Động thái này nhằm làm rõ các giới hạn sử dụng, bảo đảm công nghệ không bị khai thác cho mục đích 'giám sát trong nước', trong bối cảnh xuất hiện lo ngại thỏa thuận có thể trao quá nhiều quyền cho giới chức quân sự mà thiếu cơ chế giám sát phù hợp.

Biểu tượng của Hãng OpenAI. Ảnh: Reuters

Trên mạng xã hội X, Giám đốc điều hành OpenAI Sam Altman cho biết, hệ thống AI của công ty “sẽ không được sử dụng có chủ ý để tiến hành giám sát nội địa đối với công dân và người mang quốc tịch Mỹ”, đồng thời khẳng định việc triển khai phải tuân thủ quy định pháp luật hiện hành, bao gồm Tu chính án thứ tư của Hiến pháp Mỹ. Theo ông Altman, Bộ Quốc phòng Mỹ đã đồng ý áp dụng các biện pháp bảo vệ kỹ thuật, trong đó nêu rõ giới hạn về việc theo dõi, giám sát hoặc thu thập, sử dụng thông tin cá nhân từ các kênh thương mại đối với công dân và người mang quốc tịch Mỹ.

Trước đó, ngày 27/2, công ty mẹ của ChatGPT thông báo đạt thỏa thuận triển khai các mô hình AI trên mạng lưới mật của Bộ Quốc phòng Mỹ, kèm các “hàng rào an toàn” kỹ thuật. Thỏa thuận được công bố trong bối cảnh Tổng thống Mỹ Donald Trump chỉ đạo các cơ quan liên bang ngừng sử dụng công cụ của Anthropic và các cuộc đàm phán giữa công ty này với Lầu Năm Góc không đạt kết quả.

Theo ông Altman, Bộ Quốc phòng Mỹ xác nhận các công cụ của OpenAI sẽ không được các cơ quan tình báo, trong đó có NSA, sử dụng. Trước những hoài nghi về hiệu quả biện pháp bảo vệ, OpenAI sẽ bổ sung điều khoản làm rõ giới hạn liên quan đến giám sát và an toàn. Ông Altman cũng thừa nhận việc công bố thỏa thuận trước đó còn vội vàng và khẳng định hai bên sẽ tiếp tục hoàn thiện các cơ chế bảo đảm kỹ thuật.

Lầu Năm Góc tại Washington, D.C. Mỹ. Ảnh: Britannica

Liên quan đến Anthropic, trước đó Bộ trưởng Quốc phòng Mỹ Pete Hegseth cho biết công ty này bị xếp vào diện rủi ro chuỗi cung ứng. Anthropic tuyên bố sẽ kiện quyết định trên ra tòa, cho rằng động thái này có thể tạo tiền lệ bất lợi cho các doanh nghiệp Mỹ trong quá trình đàm phán với chính phủ. Về phần mình, ông Altman bày tỏ không đồng tình với việc coi Anthropic là rủi ro chuỗi cung ứng, đồng thời cho biết OpenAI và Anthropic có những “giới hạn đỏ” tương đồng liên quan đến an toàn và giám sát.

Diễn biến trên cho thấy những tranh luận đang tiếp tục xoay quanh việc triển khai AI trong lĩnh vực quốc phòng, đặc biệt liên quan đến vấn đề giám sát, bảo vệ dữ liệu cá nhân và các giới hạn an toàn trong ứng dụng công nghệ mới.

Minh Phương

Nguồn: Axios, CNBC, Reuters

















Home Icon VỀ TRANG CHỦ