Tranh luận gay gắt khi AI được sử dụng trong các cuộc tấn công ở Trung Đông
Theo các báo cáo, nhiều dạng trí tuệ nhân tạo khác nhau đã được sử dụng để hướng dẫn chiến dịch của Israel ở Gaza và vụ bắt giữ nhà lãnh đạo Venezuela Nicolas Maduro trong một cuộc đột kích của Mỹ.

AI được tích hợp vào máy bay không người lái tấn công bán tự động và nhiều loại vũ khí khác
Các chuyên gia cho rằng, công nghệ này đã giúp lựa chọn mục tiêu cho hàng nghìn cuộc không kích của Mỹ và Israel nhằm vào Iran kể từ ngày 28-2, mặc dù mục đích sử dụng chính xác vẫn chưa được xác nhận.
Ngày nay, "mọi cường quốc quân sự đều đầu tư rất lớn vào các ứng dụng quân sự của trí tuệ nhân tạo" - chuyên gia Laure de Roucy - Rochegonde thuộc Viện nghiên cứu IFRI của Pháp cho biết.
"Hầu như mọi chức năng quân sự đều có thể được tăng cường bằng trí tuệ nhân tạo", từ "hậu cần đến trinh sát, quan sát, chiến tranh thông tin, chiến tranh điện tử và an ninh mạng".
Các công cụ trí tuệ nhân tạo cũng có thể được tích hợp vào máy bay không người lái tấn công bán tự động và các loại vũ khí khác.
Nhưng một trong những ứng dụng nổi tiếng nhất của chúng là rút ngắn cái gọi là "chuỗi tiêu diệt", tức là khoảng thời gian và quá trình ra quyết định giữa lúc phát hiện mục tiêu và lúc tấn công mục tiêu đó.
Lực lượng Mỹ sử dụng Hệ thống thông minh Maven (MSS) do Palantir chế tạo, có khả năng xác định và ưu tiên các mục tiêu tiềm năng.
Tờ Washington Post đưa tin, mô hình trí tuệ nhân tạo tạo sinh Claude của Anthropic đã được tích hợp với Maven để tăng cường khả năng phát hiện và mô phỏng của công cụ này.
Ông Bertrand Rondepierre, người đứng đầu Cơ quan AI của quân đội Pháp, AMIAD, cho biết: "Các thuật toán AI cho phép xử lý thông tin nhanh hơn nhiều và toàn diện hơn".
Ông cho biết thêm, công nghệ này có thể sàng lọc số lượng lớn dữ liệu, bao gồm “hình ảnh vệ tinh, radar, sóng điện từ, âm thanh, hình ảnh từ máy bay không người lái và đôi khi cả video theo thời gian thực”.
Việc triển khai trí tuệ nhân tạo trong chiến tranh đặt ra nhiều câu hỏi về đạo đức và pháp lý, đặc biệt là về mức độ kiểm soát của con người đối với hành động của chúng.
Cuộc tranh luận này nổi lên trong cuộc giao tranh ở Gaza, nơi lực lượng Israel sử dụng một chương trình có tên gọi "Lavender" để xác định mục tiêu - với một sai số nhất định. Ứng dụng đó hiệu quả "vì nó chỉ bao phủ một khu vực rất hạn chế" - bà Roucy-Rochegonde nói.
Israel cũng có một “hệ thống giám sát quy mô lớn” có thể cung cấp dữ liệu về cư dân của vùng lãnh thổ này cho Lavender. "Có vẻ như khả năng một hệ thống như vậy được thiết lập ở Iran là rất thấp," bà nói thêm.
“Nếu có sự cố xảy ra, thì ai sẽ chịu trách nhiệm?”, ông Peter AsaAsarola - Chủ tịch Ủy ban Quốc tế về Kiểm soát Cánh tay Robot (ICRAC), cho biết trong một cuộc phỏng vấn.
Ông nói thêm rằng vụ đánh bom trường học ở Iran mà chính quyền nước này cho biết đã khiến 150 người thiệt mạng - có thể là do trí tuệ nhân tạo nhắm mục tiêu nhầm lẫn.
Địa điểm trường học này nằm gần 2 cơ sở do Lực lượng Vệ binh Cách mạng Hồi giáo (IRGC) kiểm soát. “Họ đã không phân biệt nó với căn cứ quân sự như lẽ ra phải làm, (nhưng) "họ" ở đây là con người hay máy móc?" - ông Peter AsaAsarola nói.
Ông Rondepierre cho rằng trí tuệ nhân tạo “hoạt động mà không có người điều khiển” là “khoa học viễn tưởng”. "Không một nhà hoạch định chính sách quân sự nào lại đồng ý sử dụng trí tuệ nhân tạo nếu họ không tin tưởng và không kiểm soát được những gì nó đang làm" - ông nói.
Hôm nay chỉ mới là “khởi đầu” cho việc các lực lượng vũ trang trên thế giới sử dụng trí tuệ nhân tạo. "Chúng ta sẽ phải mất cả một thế hệ mới thực sự hiểu rõ điều này" - ông Benjamin Jensen thuộc Viện nghiên cứu CSIS có trụ sở tại Washington, Mỹ nhận định.
Theo Bangkokpost
Thu Nguyên
9 giờ trước
18 giờ trước
1 ngày trước
5 giờ trước
57 phút trước
2 giờ trước
1 giờ trước
1 giờ trước
1 giờ trước