Siết quản lý chatbot AI tạo deepfake, kiểm soát rủi ro, bảo vệ quyền con người trên không gian mạng

Luật Trí tuệ nhân tạo nghiêm cấm hành vi sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật
Trao đổi về vấn đề này, ông Trần Văn Sơn, Phó Viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia (Bộ KH&CN) cho biết, Luật Trí tuệ nhân tạo được Quốc hội thông qua ngày 10/12/2025 và có hiệu lực từ ngày 1/3/2026, đã thiết lập khuôn khổ pháp lý tương đối đầy đủ để phân loại rủi ro, quy định trách nhiệm của các chủ thể liên quan và trao thẩm quyền cho cơ quan quản lý nhà nước trong việc can thiệp, xử lý các hệ thống AI vi phạm.
Nghiêm cấm hành vi sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật
Căn cứ vào các tiêu chí phân loại của Luật Trí tuệ nhân tạo, đa số các hệ thống trí tuệ nhân tạo tạo sinh cơ bản được xếp vào nhóm rủi ro trung bình do có khả năng tạo ra nội dung gây nhầm lẫn hoặc tác động đến người sử dụng.
Luật quy định các chủ thể liên quan có trách nhiệm xử lý sự cố, bao gồm việc kịp thời phát hiện, áp dụng biện pháp kỹ thuật để khắc phục, tạm dừng hoặc thu hồi hệ thống nhằm bảo đảm an toàn và trật tự xã hội. Đồng thời, nhà cung cấp và bên triển khai phải thực hiện trách nhiệm giải trình trước cơ quan nhà nước có thẩm quyền về mục đích sử dụng, nguyên lý hoạt động, biện pháp quản lý rủi ro và bảo vệ quyền, lợi ích hợp pháp của tổ chức, cá nhân trong trường hợp xảy ra vi phạm hoặc khi có yêu cầu thanh tra, kiểm tra.
Luật quy định nghiêm cấm hành vi sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật, đồng thời yêu cầu các hệ thống AI tạo sinh phải tuân thủ các nghĩa vụ kỹ thuật: Phải dán nhãn thông báo đối với nội dung được tạo ra hoặc chỉnh sửa bởi AI; phải có giải pháp ký hiệu nhận dạng (watermark) đối với sản phẩm do AI tạo ra để phục vụ công tác quản lý và truy vết.
Về thẩm quyền và biện pháp xử lý vi phạm, Bộ Khoa học và Công nghệ là cơ quan đầu mối chịu trách nhiệm chính trước Chính phủ thực hiện quản lý nhà nước về trí tuệ nhân tạo, chủ trì hướng dẫn quy trình phân loại rủi ro và đánh giá sự phù hợp.
Khi xảy ra sự cố nghiêm trọng hoặc phát hiện hệ thống có nguy cơ gây thiệt hại, cơ quan quản lý nhà nước có thẩm quyền yêu cầu nhà cung cấp tạm dừng hoạt động, thu hồi hoặc đánh giá lại hệ thống AI.
Vi phạm nghiêm trọng có thể bị xử lý hình sự
Đối với các hành vi đặc biệt nghiêm trọng như tạo deepfake khiêu dâm trẻ em hoặc gây rối trật tự an toàn xã hội, việc xử lý sẽ không chỉ dừng lại ở các biện pháp quản lý theo Luật Trí tuệ nhân tạo.
Theo quy định, ngoài việc tạm dừng hoặc hạn chế dịch vụ AI, các cá nhân và tổ chức liên quan còn có thể bị truy cứu trách nhiệm hình sự hoặc xử phạt vi phạm hành chính. Trường hợp gây thiệt hại, các chủ thể vi phạm còn phải bồi thường theo quy định của pháp luật dân sự.
Cách tiếp cận này thể hiện rõ quan điểm quản lý của Nhà nước, đó là khuyến khích đổi mới sáng tạo, nhưng không chấp nhận việc lạm dụng trí tuệ nhân tạo để xâm phạm quyền con người và gây mất an toàn xã hội, qua đó bảo đảm AI được phát triển và ứng dụng một cách có trách nhiệm, an toàn và bền vững.
Theo baochinhphu.vn
1 ngày trước
15 ngày trước
18 ngày trước
23 ngày trước
23 ngày trước
25 ngày trước
25 ngày trước
25 ngày trước
25 ngày trước
26 ngày trước
28 ngày trước
28 ngày trước
28 ngày trước
29 ngày trước
2 giờ trước
18 phút trước
1 giờ trước
1 phút trước
6 phút trước
6 phút trước
6 phút trước
15 phút trước
16 phút trước
22 phút trước
29 phút trước