Andy Markoff: Claude và các mô hình AI khác không có khả năng nhận dạng mục tiêu
Khi Anthropic có thể còn do dự về việc trao cho quân đội Mỹ quyền truy cập không hạn chế vào các mô hình (trí tuệ nhân tạo) Claude của mình, một số công ty khởi nghiệp khác đang phát triển các hệ thống AI tiên tiến được thiết kế riêng cho mục đích quân sự. Điển hình là Smack Technologies - công ty khởi nghiệp có trụ sở ở bang California (Mỹ) - vừa công bố vòng gọi vốn 32 triệu USD trong tuần này.
Smack Technologies đang phát triển các mô hình AI mà họ cho rằng sẽ sớm vượt qua khả năng của Claude khi nói đến việc lập kế hoạch và thực thi các hoạt động quân sự. Không giống Anthropic, Smack Technologies dường như ít quan tâm đến việc hạn chế AI được dùng cho một số hoạt động quân sự nhất định.
“Khi phục vụ trong quân đội, bạn tuyên thệ rằng mình sẽ phục vụ một cách danh dự, hợp pháp và tuân thủ các quy tắc chiến tranh. Theo tôi, những người triển khai công nghệ và đảm bảo nó được sử dụng một cách có đạo đức nên là các quân nhân”, Andy Markoff (Giám đốc điều hành Smack Technologies) tuyên bố.
Andy Markoff không phải là lãnh đạo AI điển hình. Andy Markoff từng là chỉ huy tại Bộ Tư lệnh Tác chiến Đặc biệt của Thủy quân Lục chiến Mỹ, nơi ông tham gia thực hiện các chiến dịch đặc nhiệm có rủi ro cao tại Iraq và Afghanistan. Ông đồng sáng lập Smack Technologies cùng Clint Alanis (cựu lính thủy đánh bộ khác) và Dan Gould (nhà khoa học máy tính từng giữ chức phó chủ tịch công nghệ tại Tinder).
Các mô hình AI của Smack Technologies học cách xác định kế hoạch nhiệm vụ tối ưu thông qua quá trình thử và sai, tương tự cách Google huấn luyện chương trình AlphaGo vào năm 2017. Trong trường hợp của Smack Technologies, chiến lược này gồm cả việc cho mô hình chạy qua nhiều kịch bản mô phỏng chiến tranh khác nhau. Sau đó, các nhà phân tích chuyên môn sẽ đưa ra tín hiệu cho biết liệu chiến lược mà mô hình AI lựa chọn có mang lại kết quả tốt hay không.
Dù không có ngân sách lớn như các phòng thí nghiệm AI hàng đầu, Smack Technologies vẫn đang chi hàng triệu USD để huấn luyện những mô hình AI đầu tiên của mình, theo Andy Markoff.
“Các mô hình ngôn ngữ lớn hiện nay chưa được tối ưu cho mục đích quân sự”
Việc sử dụng AI trong quân sự đã trở thành chủ đề nóng tại Thung lũng Silicon sau khi các quan chức Bộ Quốc phòng Mỹ đối đầu với ban lãnh đạo Anthropic về điều khoản của một hợp đồng trị giá khoảng 200 triệu USD.
Một trong những vấn đề dẫn đến sự đổ vỡ khiến Bộ trưởng Quốc phòng Mỹ Pete Hegseth tuyên bố Anthropic là rủi ro với chuỗi cung ứng, vì mong muốn của công ty này trong việc hạn chế việc sử dụng các mô hình Claude trong vũ khí tự động và giám sát người dân Mỹ hàng loạt.
Andy Markoff cho rằng sự tranh cãi này che khuất một thực tế: Các mô hình ngôn ngữ lớn hiện nay chưa được tối ưu cho mục đích quân sự. Theo ông, các mô hình AI đa dụng như Claude có thể tóm tắt báo cáo rất tốt, nhưng không được huấn luyện trên dữ liệu quân sự và cũng thiếu hiểu biết về thế giới vật lý ở mức độ con người, nên không phù hợp để điều khiển phần cứng ngoài thực địa. “Tôi có thể nói rằng chúng hoàn toàn không có khả năng nhận dạng mục tiêu”, Andy Markoff khẳng định.
Ông cũng cho rằng: “Theo hiểu biết của tôi, không ai trong Bộ Quốc phòng Mỹ đang nói đến việc tự động hóa hoàn toàn chuỗi tiêu diệt mục tiêu”, ám chỉ các bước ra quyết định liên quan đến việc sử dụng vũ lực gây chết người.

Andy Markoff: Claude và các mô hình AI khác hiện nay chưa được tối ưu cho mục đích quân sự - Ảnh: Internet
Theo trang WSJ, mô hình Claude được quân đội Mỹ sử dụng trong các cuộc không kích vào Iran cuối tuần qua cũng như cho việc bắt giữ cựu lãnh đạo Venezuela Nicolás Maduro và vợ ông là bà Cilia Flores hồi tháng 1.
Theo một số nguồn tin, Claude không hoạt động độc lập mà được tích hợp vào hệ thống AI quân sự gọi là Maven Smart System, do Bộ Quốc phòng Mỹ phát triển với sự tham gia của Palantir và các hãng công nghệ khác. Hệ thống này hoạt động như một trung tâm xử lý dữ liệu chiến trường, tổng hợp thông tin từ nhiều nguồn như vệ tinh do thám, drone trinh sát, radar, cảm biến điện tử, thông tin tình báo. Sau đó, AI sẽ phân tích dữ liệu và tạo ra “bức tranh chiến trường thống nhất” giúp các chỉ huy hiểu rõ tình hình trong thời gian thực.
Anthropic đã phát triển phiên bản riêng cho chính phủ và quân đội Mỹ gọi là Claude Gov, được thiết kế để hoạt động trong môi trường mạng quân sự tuyệt mật.
Jack Shanahan, Trung tướng Không quân Mỹ đã nghỉ hưu, gọi Claude là “hệ thống AI được triển khai rộng nhất trong quân đội Mỹ”. Ông từng là Giám đốc đầu tiên của Joint Artificial Intelligence Center (JAIC), cơ quan chịu trách nhiệm triển khai AI trong quân đội Mỹ.
Phạm vi nhiệm vụ
Trên thực tế, quân đội Mỹ và nhiều quốc gia khác đã sử dụng vũ khí tự động trong một số tình huống, chẳng hạn các hệ thống phòng thủ tên lửa cần phản ứng với tốc độ vượt quá khả năng con người.
Rebecca Crootof - chuyên gia về các vấn đề pháp lý liên quan đến vũ khí tự động tại Trường Luật thuộc Đại học Richmond - cho biết: “Mỹ và hơn 30 quốc gia khác đã triển khai các hệ thống vũ khí với nhiều mức độ tự động khác nhau, trong đó có những hệ thống mà tôi coi là hoàn toàn tự động”.
Trong tương lai, các mô hình AI chuyên dụng như của Smack Technologies đang phát triển cũng có thể được sử dụng để lập kế hoạch nhiệm vụ, theo Andy Markoff. Các mô hình AI của Smack Technologies giúp các chỉ huy tự động hóa phần lớn những công việc tẻ nhạt khi phác thảo kế hoạch tác chiến. Hiện nay, việc lập kế hoạch quân sự vẫn thường được thực hiện thủ công bằng bảng trắng và sổ ghi chép.
Andy Markoff cho rằng nếu Mỹ phải đối đầu với một đối thủ ngang tầm như Nga hoặc Trung Quốc, khả năng ra quyết định tự động có thể mang lại cho Mỹ “ưu thế quyết định” rất cần thiết.
Tuy nhiên, liệu AI có thể được sử dụng một cách đáng tin cậy trong những tình huống như vậy hay không vẫn là một câu hỏi bỏ ngỏ. Một thí nghiệm gần đây do các nhà nghiên cứu tại Đại học King’s College London (Anh) thực hiện đã gây lo ngại khi cho thấy các mô hình ngôn ngữ lớn có xu hướng làm leo thang xung đột hạt nhân trong các mô phỏng chiến tranh.
Các cuộc xung đột gần đây, đặc biệt là giữa Nga và Ukraine, cũng cho thấy tầm quan trọng của các hệ thống bán tự động chi phí thấp được xây dựng từ phần cứng và phần mềm thương mại. Năm 2023, Hải quân Mỹ đã thử nghiệm những hệ thống tự động mới tại Vịnh Ba Tư nhằm nhận diện máy bay không người lái (drone) do các phiến quân được Iran hậu thuẫn vận hành, cùng nhiều nhiệm vụ khác.
Một số chuyên gia cho rằng cần phải thiết lập các “lằn ranh đỏ” rõ ràng hơn về cách quân đội triển khai AI, đặc biệt khi các hợp đồng hiện nay thường được ký với các điều khoản rất rộng.
Anna Hehir - người phụ trách quản trị AI quân sự tại Future of Life Institute (tổ chức phi lợi nhuận phản đối việc phát triển vũ khí tự động do AI điều khiển) - cho rằng, ngay cả khi các mô hình AI của Anthropic hiện chưa được sử dụng để điều khiển hệ thống hoàn toàn tự động, chúng vẫn có thể được tích hợp vào chuỗi tiêu diệt theo những cách gây tranh cãi.
“AI quá thiếu tin cậy, khó dự đoán và khó giải thích để có thể được sử dụng trong những kịch bản có mức rủi ro cao như vậy. Các hệ thống AI này không thể nhận biết ai là chiến binh, ai là trẻ em, chứ chưa nói đến việc hiểu được hành động đầu hàng”, Anna Hehir nói.
Andy Markoff cho rằng việc đặt ra giới hạn với mức độ tự động là cần thiết, bởi chiến tranh vốn đầy hỗn loạn. “Tôi chưa từng thực hiện một chiến dịch thực tế nào mà diễn ra đúng quá 50% so với kế hoạch ban đầu, và điều đó sẽ không thay đổi”, ông nhấn mạnh.
Sơn Vân
3 giờ trước
1 ngày trước
1 ngày trước
4 ngày trước
4 ngày trước
2 giờ trước
29 phút trước
6 phút trước
13 phút trước
2 phút trước
37 phút trước
45 phút trước
55 phút trước
1 giờ trước