OpenAI hợp tác với Bộ Quốc phòng Mỹ: Chuyên gia ủng hộ, hàng triệu người tẩy chay ChatGPT
Vài năm gần đây, trí tuệ nhân tạo (AI) đã trở thành một trong những công nghệ chiến lược quan trọng nhất với quân đội Mỹ. Quốc phòng Mỹ đang triển khai hàng loạt chương trình nhằm đưa AI vào các hoạt động quân sự, từ phân tích dữ liệu tình báo, điều khiển drone (máy bay không người lái) cho tới hỗ trợ lập kế hoạch tác chiến.
Để thực hiện điều này, Bộ Quốc phòng Mỹ đã tìm đến các công ty AI hàng đầu tại Thung lũng Silicon. GenAI.mil được công bố vào tháng 12/2025 như một nền tảng AI nội bộ của Bộ Quốc phòng Mỹ nhằm tích hợp các mô hình AI thương mại vào hệ thống quân sự.
Tháng 6.2025, Bộ Quốc phòng Mỹ ký hợp đồng trị giá khoảng 200 triệu USD với OpenAI. Theo đó, OpenAI sẽ phát triển các mô hình AI tiên tiến nhằm hỗ trợ cả hoạt động hành chính quân sự lẫn tác chiến của quân đội Mỹ.
Ngoài OpenAI, Bộ Quốc phòng Mỹ còn triển khai chương trình hợp tác với các công ty AI khác, gồm Anthropic (công ty khởi nghiệp phát triển mô hình Claude), Google và xAI của Elon Musk, với mỗi hợp đồng 200 triệu USD. Mục tiêu là giúp quân đội Mỹ tăng tốc ứng dụng AI vào phân tích tình báo, lập kế hoạch chiến trường, xử lý dữ liệu lớn và hỗ trợ ra quyết định quân sự.
Tuy nhiên, Anthropic gần đây đã xung đột với Bộ Quốc phòng Mỹ vì từ chối gỡ bỏ các “hàng rào đạo đức” của Claude, dẫn tới việc công ty bị gắn nhãn “rủi ro chuỗi cung ứng” và sau đó kiện cơ quan này ra tòa.
Hai triết lý khác nhau về AI và quân sự
7 đồng sáng lập Anthropic từng là nhà nghiên cứu tại OpenAI. Tuy nhiên, cách hai công ty khởi nghiệp AI hàng đầu Mỹ nhìn nhận vai trò của AI trong quân sự lại khác nhau.
Anthropic xây dựng các mô hình Claude dựa trên triết lý ưu tiên an toàn AI. Công ty cho rằng các hệ thống AI mạnh có thể gây rủi ro nghiêm trọng nếu bị sử dụng sai mục đích, đặc biệt trong các lĩnh vực như giám sát hay chiến tranh. Vì vậy, Anthropic đặt ra hai giới hạn quan trọng với Claude là không sử dụng cho giám sát hàng loạt người dân và không sử dụng để điều khiển vũ khí tự động hoàn toàn.
Trong khi đó, OpenAI có cách tiếp cận linh hoạt hơn. “Cha đẻ ChatGPT” vẫn tuyên bố ủng hộ các nguyên tắc an toàn, nhưng cho rằng việc sử dụng AI trong quân sự là quyết định thuộc về Bộ Quốc phòng Mỹ, chứ không phải doanh nghiệp.
Giám đốc điều hành Sam Altman nói với nhân viên tại cuộc họp toàn công ty hôm 3.3 rằng OpenAI “không có quyền đưa ra các quyết định tác chiến” liên quan đến cách AI của mình được Bộ Quốc phòng Mỹ sử dụng.
“Có thể bạn nghĩ cuộc tấn công Iran là đúng, còn với Venezuela là sai. Bạn không có quyền tham gia quyết định về điều đó”, Sam Altman phát biểu.

Sam Altman nói OpenAI không có quyền đưa ra các quyết định tác chiến liên quan đến cách AI của mình được Bộ Quốc phòng Mỹ sử dụng - Ảnh: Getty Images
Hôm 27.2, sau khi Anthropic bị gắn nhãn “rủi ro chuỗi cung ứng”, OpenAI đã công bố một thỏa thuận với Bộ Quốc phòng Mỹ. Theo đó, các mô hình AI của OpenAI sẽ được triển khai trong mạng lưới điện toán mật của chính phủ Mỹ. Sam Altman cho biết hợp đồng vẫn bao gồm một số nguyên tắc an toàn, chẳng hạn AI không được sử dụng cho giám sát trong nước và con người phải chịu trách nhiệm cuối cùng trong việc sử dụng vũ lực.
Tuy nhiên, nhiều nhà phê bình cho rằng các điều khoản này khá mơ hồ và không mang tính ràng buộc pháp lý. Điều này khiến một số người trong ngành công nghệ lo ngại rằng AI của OpenAI có thể bị sử dụng cho các mục đích quân sự gây tranh cãi.
Vụ Anthropic kiện Bộ Quốc phòng Mỹ gây xôn xao ngành công nghệ Mỹ. Điểm đáng chú ý là một số nhân viên OpenAI, Google đã ký vào một bản kiến nghị ủng hộ Anthropic trong vụ kiện này vì cho rằng quyết định của Bộ Quốc phòng có thể gây tổn hại cho ngành AI Mỹ và làm suy yếu năng lực cạnh tranh công nghệ của nước này. Theo họ, việc trừng phạt một công ty AI hàng đầu có thể tạo ra sự bất ổn và làm chậm sự đổi mới trong ngành.
Microsoft vừa nộp bản đệ trình ủng hộ vụ kiện của Anthropic, đề nghị tòa án tạm thời chặn quyết định từ Bộ Quốc phòng Mỹ xếp công ty khởi nghiệp AI đứng sau Claude là “rủi ro chuỗi cung ứng”.
Trong hồ sơ gửi tòa, Microsoft lập luận rằng lệnh cấm tạm thời là cần thiết để ngăn chặn những gián đoạn tốn kém với các nhà cung cấp. Nếu không, Microsoft cùng các công ty khác sẽ phải gấp rút xây dựng lại các sản phẩm và dịch vụ vốn đang dựa trên công nghệ của Anthropic. Theo Microsoft, dù Bộ Quốc phòng Mỹ tự đặt ra thời hạn 6 tháng để loại bỏ dần công nghệ Anthropic, nhưng không cung cấp cùng một khoảng thời gian chuyển tiếp tương tự cho các nhà thầu đang sử dụng sản phẩm hoặc dịch vụ của công ty khởi nghiệp AI để thực hiện các hợp đồng với cơ quan này.
Hàng triệu người kêu gọi tẩy chay ChatGPT
Sau khi OpenAI ký hợp đồng với Lầu Năm Góc, một số chiến dịch trên mạng xã hội đã kêu gọi người dùng tẩy chay ChatGPT và chuyển sang sử dụng Claude. Điều này giúp Claude từng vượt ChatGPT vài ngày để trở thành ứng dụng miễn phí dẫn đầu bảng xếp hạng Apple App Store ở Mỹ hồi cuối tháng 2 và đầu tháng 3.
Trên các mạng xã hội, những chiến dịch trực tuyến kêu gọi tẩy chay ChatGPT xuất hiện và lan truyền nhanh chóng. Phong trào này đã thu hút sự chú ý đáng kể trên mạng, với hàng triệu người dùng tuyên bố sẽ ngừng sử dụng hoặc hủy đăng ký ChatGPT để phản đối thỏa thuận giữa OpenAI và Lầu Năm Góc. Hôm 5.3, một nhóm vận động có tên QuitGPT cho biết hơn 2,5 triệu người đã tham gia ký cam kết tẩy chay ChatGPT hoặc chia sẻ thông tin về chiến dịch này trên mạng xã hội.
Tuy vậy, quy mô thực tế của phong trào tẩy chay ChatGPT hiện vẫn còn khá hạn chế nếu so với tổng lượng người dùng chatbot AI của OpenAI trên toàn cầu. Theo OpenAI, ChatGPT hiện có hơn 900 triệu người dùng hoạt động hàng tuần.
Dù thế nào, sự kiện trên cho thấy khi AI ngày càng gắn với các ứng dụng quân sự và an ninh quốc gia, các công ty như OpenAI có thể phải đối mặt với phản ứng mạnh mẽ từ chính cộng đồng người dùng của mình.
Các cuộc biểu tình nhỏ cũng đã diễn ra trước trụ sở OpenAI tại thành phố San Francisco (Mỹ), sau khi công ty công bố thỏa thuận hợp tác với Bộ Quốc phòng Mỹ để triển khai công nghệ AI cho một số hệ thống quân sự. Những người tham gia biểu tình chủ yếu là các nhà hoạt động công nghệ, sinh viên, nhà nghiên cứu và một số cư dân địa phương lo ngại về việc AI có thể bị sử dụng trong chiến tranh hoặc giám sát xã hội. Trong các cuộc biểu tình này, nhiều người cầm biểu ngữ với khẩu hiệu phản đối việc “quân sự hóa AI” và cảnh báo nguy cơ hình thành một “chính phủ giám sát bằng AI”.
Theo trang Insider, số người tham gia mỗi cuộc biểu tình không quá đông, thường chỉ vài chục người, nhưng bầu không khí khá sôi nổi. Họ cho rằng các hãng công nghệ cần đặt ra những giới hạn rõ ràng về việc sử dụng AI trong quân sự, thay vì để nó trở thành công cụ phục vụ chiến tranh hoặc giám sát quy mô lớn.

Những người biểu tình tập trung trước trụ sở OpenAI để phản đối thỏa thuận của công ty với Lầu Năm Góc - Ảnh: Insider
Ngoài ra, phong trào phản đối AI quân sự cũng xuất hiện tại nhiều thành phố khác ở Mỹ. Có thời điểm hàng trăm người đã tham gia các cuộc tuần hành trước trụ sở của nhiều công ty AI lớn như Google và Meta để kêu gọi các hãng công nghệ hạn chế hợp tác với quân đội. Những cuộc biểu tình này cho thấy sự lo ngại ngày càng tăng trong một bộ phận cộng đồng về việc AI đang được tích hợp ngày càng sâu vào các hoạt động quân sự và an ninh quốc gia.
Sau khi OpenAI công bố hợp đồng hợp tác với Bộ Quốc phòng Mỹ, một số nhân viên đã quyết định rời công ty vì lo ngại về những vấn đề đạo đức liên quan đến việc sử dụng AI trong quân sự. Điển hình là Caitlin Kalinowski - người phụ trách mảng robot và phần cứng của OpenAI. Bà tuyên bố từ chức vì cho rằng các vấn đề như giám sát quy mô lớn hay vũ khí tự động cần được thảo luận và thiết lập các biện pháp kiểm soát chặt chẽ hơn trước khi triển khai công nghệ AI trong lĩnh vực quốc phòng.
Nhiều chuyên gia ủng hộ OpenAI
Dù OpenAI phải đối mặt với nhiều tranh cãi sau khi ký thỏa thuận hợp tác với Bộ Quốc phòng Mỹ, không phải ai trong giới công nghệ cũng phản đối quyết định này. Trên thực tế, vẫn có nhiều chuyên gia và nhà hoạch định chính sách cho rằng việc các công ty AI hợp tác với quân đội là điều bình thường, thậm chí cần thiết trong bối cảnh cạnh tranh công nghệ toàn cầu ngày càng gay gắt.
Một trong những lập luận phổ biến là lịch sử phát triển công nghệ tại Mỹ vốn gắn chặt với quân đội. Nhiều công nghệ nền tảng của thế giới số ngày nay ban đầu đều được phát triển trong các chương trình quốc phòng. Ví dụ, mạng internet bắt nguồn từ dự án ARPANET của Bộ Quốc phòng Mỹ vào thập niên 1960. Trong khi hệ thống định vị toàn cầu GPS cũng được quân đội Mỹ phát triển trước khi trở thành dịch vụ phổ biến cho dân sự. Theo quan điểm này, việc AI được phát triển cùng quân đội không phải điều quá bất thường.
Một số chuyên gia còn cho rằng nếu các hãng công nghệ Mỹ từ chối hợp tác với quân đội, điều đó có thể khiến Mỹ mất lợi thế trong cuộc đua AI với các cường quốc khác. Nhiều nhà phân tích thường nhắc đến Trung Quốc như đối thủ lớn nhất của Mỹ trong lĩnh vực AI. Lập luận của họ khá đơn giản: Quốc gia nào dẫn đầu về AI sẽ có lợi thế lớn về kinh tế, quân sự và địa chính trị trong nhiều thập niên tới.
Theo ông Jake Laperruque - chuyên gia chính sách công nghệ tại tổ chức Center for Democracy & Technology, vấn đề quan trọng không phải là có hợp tác với quân đội Mỹ hay không, mà là theo cách nào. Ông cho rằng các thỏa thuận như giữa OpenAI với Lầu Năm Góc cần minh bạch hơn để công chúng hiểu rõ các giới hạn đạo đức và pháp lý mà công nghệ AI phải tuân thủ. Nếu những điều khoản này được thiết kế tốt, AI có thể được sử dụng cho các mục đích như phân tích dữ liệu tình báo, hỗ trợ phòng thủ hoặc bảo vệ cơ sở hạ tầng quan trọng mà không gây ra các rủi ro lớn với xã hội.
Một số chuyên gia quốc phòng cũng đưa ra góc nhìn tương tự. Họ cho rằng AI đang trở thành công nghệ cốt lõi của chiến tranh hiện đại, từ việc phân tích hình ảnh vệ tinh, nhận diện mục tiêu cho đến tối ưu hóa hệ thống phòng thủ tên lửa. Nếu không được tiếp cận với những mô hình AI tiên tiến nhất, quân đội Mỹ có thể bị tụt hậu so với các đối thủ. Trong bối cảnh đó, sự hợp tác giữa các hãng công nghệ và chính phủ được coi là cách để đảm bảo Mỹ vẫn duy trì ưu thế chiến lược.
Ngoài ra, một số người trong ngành cho rằng việc OpenAI hợp tác với chính phủ có thể giúp thiết lập các tiêu chuẩn an toàn tốt hơn cho AI quân sự.
Ở chiều ngược lại, Anthropic được một bộ phận trong ngành công nghệ xem như biểu tượng của phong trào AI có trách nhiệm. Việc Anthropic kiện chính phủ Mỹ để bảo vệ các giới hạn đạo đức được nhiều nhà nghiên cứu coi là một bước đi táo bạo.
Một số người cho rằng nếu các công ty không đặt ra giới hạn ngay từ đầu, AI có thể bị sử dụng cho các mục đích nguy hiểm.
Ông Alan Z. Rozenshtein, giáo sư luật tại Đại học Minnesota (Mỹ), cho rằng tranh chấp giữa Anthropic và Bộ Quốc phòng Mỹ cho thấy một khoảng trống lớn trong hệ thống pháp lý. Theo ông, hiện nay các quy tắc về AI quân sự đang được quyết định thông qua các cuộc thương lượng riêng lẻ giữa chính phủ Mỹ và từng hãng công nghệ, thay vì thông qua luật hoặc chính sách được Quốc hội thông qua.
Alan Z. Rozenshtein nhận định rằng việc Lầu Năm Góc gắn nhãn “rủi ro chuỗi cung ứng” với Anthropic là biện pháp quá mạnh. Tuy nhiên, vấn đề sâu xa hơn là Mỹ chưa có khung pháp lý rõ ràng về việc AI nên và không nên được sử dụng trong quân sự.
Theo ông, quyết định về các giới hạn này không nên do một hãng công nghệ hay cơ quan quân sự đơn lẻ đưa ra, mà nên được quy định ở cấp lập pháp.
Sơn Vân