Phân loại AI rủi ro cao: Phép thử đầu tiên của Luật Trí tuệ nhân tạo Chủ nhật, 1/3/2026, 07:00 (GMT+7) Ngày 1/3, Luật Trí tuệ nhân tạo chính thức có hiệu lực, trong đó cách xác định và quản lý hệ thống "rủi ro cao" sẽ quyết định tác động thực tế của khung pháp lý mới. Luật Trí tuệ nhân tạo có hiệu lực đánh dấu lần đầu Việt Nam có một khung pháp lý riêng cho AI. Với 8 chương, 35 điều, luật đặt ra nguyên tắc AI phải phục vụ con người, không thay thế thẩm quyền và trách nhiệm của con người.Ở góc nhìn doanh nghiệp, ông Phùng Quang Hưng, CEO One Mount cho rằng sự ra đời và đi vào cuộc sống của luật là một bước tiến đáng chờ đợi. "Khi một lĩnh vực mới như AI có hành lang pháp lý và quy định rõ ràng, doanh nghiệp có cơ sở để dựa vào và thực hiện đúng", ông nói, thêm rằng luật giúp tạo cách hiểu thống nhất về nghĩa vụ khi ứng dụng và phát triển AI, đặc biệt trong việc bảo vệ quyền lợi người dùng và chủ thể dữ liệu.Tuy nhiên, sau khi luật được ban hành, sự chú ý của cộng đồng công nghệ lại tập trung vào một điểm cụ thể: cách quản lý AI "rủi ro cao".Theo luật, hệ thống AI được phân loại quản lý theo ba mức độ rủi ro: cao, trung bình và thấp. Trong đó, nhóm rủi ro cao phải thực hiện nghĩa vụ nghiêm ngặt hơn như đánh giá sự phù hợp, lưu giữ hồ sơ kỹ thuật, bảo đảm khả năng giám sát, can thiệp của con người. Nhóm này được định nghĩa "có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia".Danh mục AI rủi ro cao hiện vẫn ở dạng dự thảo. Trong đó, nhiều hệ thống AI quen thuộc có khả năng bị xếp "rủi ro cao" nếu đạt ngưỡng nhất định về quy mô hoặc mức độ tự động hóa. Ví dụ, hệ thống sàng lọc hồ sơ, đánh giá hiệu suất hay chấm dứt hợp đồng sẽ thuộc diện này nếu áp dụng cho từ 500 lao động mỗi năm trở lên, hoặc khi kết quả là căn cứ chính cho quyết định nhân sự.Trong tài chính, hệ thống xét duyệt tín dụng, định giá bảo hiểm có thể vào nhóm rủi ro cao nếu ảnh hưởng trực tiếp tới 1.000 khách hàng mỗi năm trở lên, hoặc khi quyết định được tự động hóa từ 30% trở lên. Tương tự, hệ thống đánh giá kết quả học tập, tuyển sinh sẽ phải chịu quản lý chặt hơn nếu áp dụng với từ 500 người học mỗi năm.Một số trường hợp như hệ thống AI nhận dạng sinh trắc học từ xa trong không gian công cộng hoặc trên diện rộng; hệ thống AI hỗ trợ chẩn đoán, điều trị... phải được đánh giá và có chứng nhận sự phù hợp trước khi đưa vào sử dụng. Người dùng đăng ký xác thực khuôn mặt trên một ứng dụng ngân hàng. Ảnh: Trọng Đạt Cách tiếp cận này nhằm bảo vệ quyền con người và lợi ích công cộng. Tuy nhiên, với doanh nghiệp, ngưỡng 500 hay 1.000 người mỗi năm không phải con số lớn, đồng nghĩa nhiều hệ thống đang vận hành có thể thuộc diện quản lý chặt chẽ hơn. Một khi đã vào nhóm "rủi ro cao", câu chuyện không còn dừng ở nhãn phân loại."Vấn đề mấu chốt không nằm ở việc phân loại có hợp lý không, hay có phải xin đánh giá sự phù hợp hay không, mà là quy trình đánh giá được thực hiện thế nào", ông Ngô Minh Quân, Giám đốc chuyển đổi số Rikkeisoft, nhận định.Theo ông, khi một luật mới được ban hành, nhất là trong lĩnh vực công nghệ, tâm lý lo ngại ở giai đoạn đầu khó tránh khỏi. Bản chất luật sinh ra để bảo vệ số đông, nên những nhóm đang hưởng lợi từ "vùng xám" sẽ bị ảnh hưởng. Tuy nhiên, điều doanh nghiệp quan tâm là tính dự đoán được của quy trình. AI phát triển nhanh, chu kỳ sản phẩm ngắn. Một quy trình đánh giá kéo dài hoặc thiếu rõ ràng có thể làm thay đổi nhịp phát triển. Với hệ thống AI rủi ro cao, phải thực hiện đánh giá sự phù hợp, sẽ có trường hợp cần "chờ duyệt". Khi đó, tốc độ triển khai khó có thể nhanh như trước."Nhưng nếu quy trình minh bạch, rõ ràng ai chịu trách nhiệm, thời gian xử lý bao lâu và không làm gián đoạn hoạt động kinh doanh, vận hành của doanh nghiệp, thì hoàn toàn chấp nhận được", ông nói thêm.Theo giám đốc chuyển đổi số này, các ý kiến phản đối hiện nay xuất phát từ việc chưa nắm rõ quy trình đánh giá AI sẽ được triển khai thế nào, chứ không hẳn vì việc phân loại rủi ro của hệ thống. Do đó, ông đề xuất một cơ chế linh hoạt hơn, chẳng hạn chỉ yêu cầu đánh giá đầy đủ khi hệ thống được triển khai ở quy mô thực sự lớn.Ông Lê Thanh Hưng, chuyên gia phát triển cộng đồng tại Hiệp hội mã nguồn mở châu Á (FOSSASIA), admin cộng đồng Bình dân học AI, thừa nhận có những lo lắng nhất định từ các nhà phát triển. Theo ông, trước đây nhiều sản phẩm AI được phát triển trong môi trường tương đối linh hoạt. Khi có luật, đặc biệt với cơ chế phân loại rủi ro, doanh nghiệp buộc phải rà soát lại hệ thống và dữ liệu của mình.Ông cho rằng bản chất của AI là dữ liệu và thuật toán. Nếu việc kiểm soát dữ liệu quá chặt, doanh nghiệp có thể lo ngại ảnh hưởng đến hoạt động nghiên cứu và phát triển. Ngoài ra, vấn đề an ninh dữ liệu và quyền sở hữu trí tuệ cũng là mối quan tâm của các startup. Ông Lê Thanh Hưng, chuyên gia của Hiệp hội mã nguồn mở châu Á (FOSSASIA), admin cộng đồng Bình dân học AI. Ảnh: Trọng Đạt Tuy vậy, ông nhìn nhận cơ quan soạn thảo có cơ sở khi đưa ra danh mục về mức độ rủi ro. "Nếu dữ liệu của người dùng bị rò rỉ sang bên thứ ba, hệ quả rất lớn. Khi đó không chỉ doanh nghiệp chịu thiệt hại mà cả xã hội bị ảnh hưởng", ông lấy ví dụ.Trong cộng đồng nhà phát triển cũng xuất hiện một số băn khoăn về khả năng phát sinh thủ tục hành chính. Theo ông Hưng, nếu quy trình đánh giá minh bạch, không gây cản trở, doanh nghiệp sẽ dễ chấp nhận. "Luật cần linh hoạt và có sự điều chỉnh theo thực tế", ông nói.Ở góc nhìn tích cực, CEO One Mount Phùng Quang Hưng cho rằng cần tìm được điểm cân bằng giữa kiểm soát và phát triển. Cũng như nhiều luật mới khác, Luật Trí tuệ nhân tạo sẽ cần thời gian để có các hướng dẫn chi tiết và tiếp nhận góp ý từ doanh nghiệp, người dân.Dù ủng hộ việc đưa ra nguyên tắc ứng dụng AI có đạo đức, ông cũng lưu ý cơ quan quản lý cần làm sao để không sinh ra các thủ tục "cản trở đổi mới sáng tạo", cụ thể là các thủ tục hành chính liên quan đến giấy chứng nhận, hay xin cấp phép."Quan trọng là phải cân bằng giữa mục tiêu kiểm soát, bảo vệ quyền lợi, ứng dụng AI một cách lành mạnh, có đạo đức và không để các thủ tục làm ảnh hưởng tới tốc độ đổi mới sáng tạo", ông nói.Dù Luật Trí tuệ nhân tạo đã có hiệu lực, phép thử thực sự sẽ đến từ những văn bản hướng dẫn thi hành luật, gần nhất là Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao đang trong quá trình hoàn thiện. Các quy định này có thể thúc đẩy sự phát triển của AI, nhưng cũng có thể dẫn tới sự chần chừ, do dự hay hoang mang từ phía các nhà phát triển.Trọng Đạt 'AI là phép thử về năng lực thích nghi của người lao động Việt Nam' Ông Trương Gia Bình: 'Mong có triệu thanh niên Việt Nam dấn thân làm AI' Luật Trí tuệ nhân tạo - bước tiến về quản lý, phát triển AI cho Việt Nam 'AI là phép thử về năng lực thích nghi của người lao động Việt Nam' Ông Trương Gia Bình: 'Mong có triệu thanh niên Việt Nam dấn thân làm AI' Luật Trí tuệ nhân tạo - bước tiến về quản lý, phát triển AI cho Việt Nam Góp ý kiến tạo Bạn có thể đặt mọi câu hỏi, vấn đề về Khoa học công nghệ, Đổi mới sáng tạo, Chuyển đổi số trực tiếp cho Bộ Khoa học và Công nghệ Gửi góp ý Link bài viết: https://vnexpress.net/Phan-loai-AI-rui-ro-cao-Phep-thu-dau-tien-cua-Luat-Tri-tue-nhan-tao-5045115.html Facebook Google Tweet Danh mục tin tức Tin tức liên quan Tối nay Việt Nam đón 'trăng máu' Hàng tỷ người trên thế giới, bao gồm Việt Nam, có cơ hội chứng kiến Mặt Trăng chuyển đỏ (trăng máu) khi nguyệt thực toàn phần diễn ra tối nay (3/3). iPad Air M4 trình làng với RAM 12 GB iPad Air thế hệ thứ 8 không đổi thiết kế nhưng nâng cấp vi xử lý M4, tăng RAM và sử dụng chip mạng, modem không dây mới của Apple. iPhone 17e hỗ trợ MagSafe, thêm màu hồng, giá từ 18 triệu đồng iPhone 17e nâng cấp bộ nhớ trong khởi điểm lên gấp đôi là 256 GB, dùng chip A19 như iPhone 17, thêm trang bị MagSafe so với model tiền nhiệm. Cậu bé 12 tuổi chế tạo thành công lò phản ứng nhiệt hạch Aiden McMillan, học sinh lớp 7 ở Dallas, Texas, chế tạo lò phản ứng nhiệt hạch hoạt động được tại nhà sau 4 năm nghiên cứu. 'Tài trợ nghiên cứu ổn định hơn cho khoa học cơ bản' Bộ Khoa học và Công nghệ sẽ hoàn thiện cơ chế tài trợ nghiên cứu ổn định hơn cho khoa học cơ bản, linh hoạt để kết nối nghiên cứu với ứng dụng, theo Bộ trưởng Nguyễn Mạnh Hùng. Chống nhìn trộm của S26 Ultra khác gì miếng dán 300.000 đồng? Màn hình Privacy Display của S26 Ultra có thể chống nhìn trộm hai cấp độ, theo vùng và không bị giảm chất lượng hiển thị nhiều như miếng dán thông thường. Ứng dụng Google Maps trên Android gặp lỗi định vị Nhiều người dùng Android tại Hà Nội phản ánh tính năng định vị trên Google Maps hiển thị sai vị trí, đồng loạt hiển thị khu vực Nội Bài. FPT có tân giám đốc công nghệ 8X Tiến sĩ AI Nguyễn Xuân Phong, sinh năm 1989, được bổ nhiệm làm Giám đốc Công nghệ (CTO) tập đoàn FPT, từ ngày 1/3. Robot Phone của Honor trình diễn trên sân khấu Hãng điện thoại Trung Quốc Honor hé lộ khả năng chuyển động linh hoạt của Robot Phone, điện thoại có cánh tay robot gắn camera và tích hợp AI. Trung tâm dữ liệu AWS bị cháy ở UAE Amazon Web Service (AWS) cho biết hệ thống điện cho trung tâm dữ liệu tại UAE bị ngắt tạm thời do liên quan đến "vật thể lạ" đánh trúng. Xiaomi 17 - đối thủ của Galaxy S26 và iPhone 17 Xiaomi 17 mới ra mắt có ba camera do Leica phát triển và là smartphone đầu tiên tại Việt Nam dùng chip Snapdragon 8 Elite Gen 5. CEO Anthropic lên tiếng sau mâu thuẫn với Lầu Năm Góc CEO Dario Amodei cho biết Anthropic đang thực hiện quyền tự do ngôn luận khi từ chối các điều khoản của Lầu Năm Góc về việc sử dụng AI. Xe vá ổ gà trong hai phút Một số thành phố Mỹ đang sử dụng Cimline P5, xe vá ổ gà một người lái, để sửa nhanh mặt đường và giảm tai nạn giao thông. Xiaomi ra 17 Ultra với camera Leica, giá cao hơn iPhone 17 Pro Max Điện thoại cao cấp nhất 17 Ultra của Xiaomi trang bị camera Leica, cảm biến ảnh một inch, có giá từ 40 triệu đồng, đắt hơn iPhone 17 Pro Max và Galaxy S26 Ultra. Chatbot Anthropic đứng đầu bảng ứng dụng miễn phí App Store Mỹ Trong bối cảnh Anthropic đối đầu với Lầu Năm Góc, chatbot Claude của công ty tăng mạnh độ phổ biến với người dùng thiết bị Apple. Xem tất cả