Luật Trí tuệ nhân tạo: Việt Nam cần có cách ứng xử phù hợp trong môi trường mạng

Theo quy định, Luật Trí tuệ nhân tạo áp dụng đối với cơ quan, tổ chức, cá nhân, tổ chức Việt Nam và nước ngoài có hoạt động phát triển, cung cấp, sử dụng hệ thống AI tại Việt Nam. (Nguồn: Shutterstock)
ĐBQH Nguyễn Hữu Toàn (đoàn Lai Châu) bày tỏ sự quan tâm đặc biệt đến phạm vi không áp dụng của Luật.
Theo quy định, Luật Trí tuệ nhân tạo áp dụng đối với cơ quan, tổ chức, cá nhân, tổ chức Việt Nam và nước ngoài có hoạt động phát triển, cung cấp, sử dụng hệ thống AI tại Việt Nam.
Tuy nhiên, về phạm vi điều chỉnh lại không áp dụng đối với hệ thống AI được phát triển, cung cấp, triển khai, sử dụng riêng cho mục đích quốc phòng, an ninh, tình báo, cơ yếu.
Đại biểu cho rằng, việc không áp dụng này chỉ nên giới hạn trong nội bộ của các hệ thống đó. Với những sản phẩm AI từ bên ngoài biên giới vào, có tính chất tương tự, Việt Nam vẫn cần phải có cách ứng xử phù hợp trong môi trường mạng.
Đại biểu kiến nghị: "đối với việc nghiên cứu, phát triển, cung cấp, triển khai, sử dụng cho mục đích quốc phòng, an ninh, tình báo, cơ yếu thì nên giao cho các bộ Quốc phòng hoặc Bộ Công an hướng dẫn chứ không phải để loại trừ", luật vẫn phải bảo đảm quốc phòng, an ninh trong quá trình thực hiện".
Bên cạnh đó, dự thảo Luật cũng không áp dụng đối với hệ thống AI tạo ra mô hình được phát triển, cung cấp, sử dụng trong phạm vi nội bộ một cơ sở nghiên cứu.
Đại biểu Nguyễn Hữu Toàn bày tỏ lo ngại nếu việc quy định như vậy sẽ vô hình chung cho phép các đơn vị làm những việc vi phạm pháp luật trong nội bộ, mà không biết hệ thống nội bộ đó rộng thế nào, trong khi một số hệ thống nội bộ có thể rất lớn.
Đại biểu nhấn mạnh: "Nếu vi phạm pháp luật thì phải xử lý, dù là trong nội bộ, hoạt động nghiên cứu cũng phải tuân thủ các điều kiện, quy định".
Về chính sách của Nhà nước về AI, ĐBQH Nguyễn Hữu Toàn cơ bản đồng tình với các chính sách được nêu, đề nghị làm rõ hơn việc "Nhà nước bảo đảm quyền tiếp cận, học tập và thụ hưởng lợi ích từ trí tuệ nhân tạo của tất cả các tổ chức, cá nhân".
Đại biểu nhận định quy định này chưa phù hợp, việc tạo điều kiện để người dân tiếp cận là đúng, nhưng Nhà nước không có nhiệm vụ bảo đảm toàn bộ cho việc học tập và thụ hưởng lợi ích từ AI. Người dùng, cá nhân phải tự bỏ chi phí hoặc đầu tư để làm, để hưởng lợi ích lớn hơn cho bản thân hoặc cho ứng dụng trong sản xuất, đầu tư. Đại biểu đề nghị chỉnh sửa cho phù hợp.
Ngoài ra, về Ủy ban quốc gia về trí tuệ nhân tạo (cơ quan liên ngành phụ điều phối chiến lược, chính sách), đại biểu Nguyễn Hữu Toàn cho rằng không nên quy định ở Luật, thay vào đó, những vấn đề chỉ đạo, điều phối, điều hành thuộc trách nhiệm của Chính phủ sẽ bảo đảm tính linh hoạt và phù hợp hơn.
Về phân loại rủi ro và trách nhiệm xử lý sự cố, đại biểu Nguyễn Hữu Toàn thống nhất với cách phân loại mức độ rủi ro (không chấp nhận được, rủi ro cao, trung bình, thấp). Tuy nhiên, việc phân loại phải gắn với đối tượng sử dụng, vì rủi ro trung bình với người lớn có thể lại tác động đến trẻ em.
Cần có quy định để kiểm soát việc đưa ra ứng dụng trong thực tiễn, có cảnh báo và xác định rõ đối tượng sử dụng (ví dụ: chỉ dành cho người lớn), đặc biệt, cần quan tâm đến vấn đề lừa đảo thông qua công nghệ cao/AI, chủ yếu nhắm vào những người thiếu hiểu biết hơn.
Đối với hệ thống AI có rủi ro cao (có thể gây thiệt hại đến tính mạng, sức khỏe, quyền lợi, lợi ích hợp pháp của tổ chức, cá nhân và lợi ích công cộng khác), đại biểu Nguyễn Hữu Toàn cho rằng việc chấp nhận cho loại này đưa vào ứng dụng phải có cơ quan có thẩm quyền. Đại biểu kiến nghị việc kiểm soát AI rủi ro cao nên áp dụng công nghệ cao để kiểm soát liên tục hệ thống, chứ không chỉ định kỳ, vì khi xảy ra sự cố sẽ rất khó xử lý.
Trong khi đó, ĐBQH Nguyễn Thị Lan Anh (tỉnh Lào Cai) hoàn toàn nhất trí về sự cần thiết ban hành Luật, dù Việt Nam là một trong số ít nước (ngoài EU) có Luật về Trí tuệ nhân tạo, dẫn đến tham chiếu còn hạn chế. Đại biểu lưu ý, Luật cần bảo đảm tính mở vì công nghệ phát triển theo ngày, theo giờ, tránh "đóng khung quá" làm khó phát huy lĩnh vực công nghệ đổi mới sáng tạo.
Về sự cố AI, đại biểu cũng quan tâm đến định nghĩa sự cố liên quan đến y tế, sức khỏe con người và an ninh, đề nghị làm rõ: thang bậc sự cố trong y tế, an ninh; quy trình đánh giá, cơ chế thông báo sự cố. Theo đại biểu, cần có hệ thống thiết kế quy trình xử lý rõ ràng, xác định bên nào xử lý, mức nào cần cảnh báo và đặc biệt là hệ thống giám sát cảnh báo sớm.
Đại biểu kiến nghị cần phân loại, định nghĩa cụ thể các dạng sự cố của AI, xây dựng hệ thống giám sát và cảnh báo, cụ thể hóa quy trình xử lý theo mức độ rủi ro, và rõ ràng hơn trách nhiệm pháp lý về cơ chế bồi thường của các bên liên quan (nhà phát triển mô hình, cơ quan quản lý, người dùng cuối cùng).
Đại biểu Nguyễn Thị Lan Anh cũng lưu ý sự cố có thể do chính nhà phát triển không đảm bảo dữ liệu, có lỗ hổng, tương tự như các phần mềm khác.
Việt An
10 giờ trước
15 giờ trước
18 giờ trước
1 ngày trước
1 ngày trước
1 ngày trước
1 ngày trước
1 ngày trước
1 ngày trước
1 ngày trước
3 phút trước
9 giờ trước
10 giờ trước
58 phút trước
10 giờ trước
10 giờ trước
11 giờ trước
11 giờ trước