Ngày 1/3, Luật Trí tuệ nhân tạo chính thức có hiệu lực, trong đó cách xác định và quản lý hệ thống "rủi ro cao" sẽ quyết định tác động thực tế của khung pháp lý mới. Luật Trí tuệ nhân tạo có hiệu lực đánh dấu lần đầu Việt Nam có một khung pháp lý riêng cho AI. Với 8 chương, 35 điều, luật đặt ra nguyên tắc AI phải phục vụ con người, không thay thế thẩm quyền và trách nhiệm của con người. Ở góc nhìn doanh nghiệp, ông Phùng Quang Hưng, CEO One Mount cho rằng sự ra đời và đi vào cuộc sống của luật là một bước tiến đáng chờ đợi. "Khi một lĩnh vực mới như AI có hành lang pháp lý và quy định rõ ràng, doanh nghiệp có cơ sở để dựa vào và thực hiện đúng", ông nói, thêm rằng luật giúp tạo cách hiểu thống nhất về nghĩa vụ khi ứng dụng và phát triển AI, đặc biệt trong việc bảo vệ quyền lợi người dùng và chủ thể dữ liệu. Tuy nhiên, sau khi luật được ban hành, sự chú ý của cộng đồng công nghệ lại tập trung vào một điểm cụ thể: cách quản lý AI "rủi ro cao". Theo luật, hệ thống AI được phân loại quản lý theo ba mức độ rủi ro: cao, trung bình và thấp. Trong đó, nhóm rủi ro cao phải thực hiện nghĩa vụ nghiêm ngặt hơn như đánh giá sự phù hợp, lưu giữ hồ sơ kỹ thuật, bảo đảm khả năng giám sát, can thiệp của con người. Nhóm này được định nghĩa "có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia". Danh mục AI rủi ro cao hiện vẫn ở dạng dự thảo. Trong đó, nhiều hệ thống AI quen thuộc có khả năng bị xếp "rủi ro cao" nếu đạt ngưỡng nhất định về quy mô hoặc mức độ tự động hóa. Ví dụ, hệ thống sàng lọc hồ sơ, đánh giá hiệu suất hay chấm dứt hợp đồng sẽ thuộc diện này nếu áp dụng cho từ 500 lao động mỗi năm trở lên, hoặc khi kết quả là căn cứ chính cho quyết định nhân sự. Trong tài chính, hệ thống xét duyệt tín dụng, định giá bảo hiểm có thể vào nhóm rủi ro cao nếu ảnh hưởng trực tiếp tới 1.000 khách hàng mỗi năm trở lên, hoặc khi quyết định được tự động hóa từ 30% trở lên. Tương tự, hệ thống đánh giá kết quả học tập, tuyển sinh sẽ phải chịu quản lý chặt hơn nếu áp dụng với từ 500 người học mỗi năm. Một số trường hợp như hệ thống AI nhận dạng sinh trắc học từ xa trong không gian công cộng hoặc trên diện rộng; hệ thống AI hỗ trợ chẩn đoán, điều trị... phải được đánh giá và có chứng nhận sự phù hợp trước khi đưa vào sử dụng. Người dùng đăng ký xác thực khuôn mặt trên một ứng dụng ngân hàng. Ảnh: Trọng Đạt Cách tiếp cận này nhằm bảo vệ quyền con người và lợi ích công cộng. Tuy nhiên, với doanh nghiệp, ngưỡng 500 hay 1.000 người mỗi năm không phải con số lớn, đồng nghĩa nhiều hệ thống đang vận hành có thể thuộc diện quản lý chặt chẽ hơn. Một khi đã vào nhóm "rủi ro cao", câu chuyện không còn dừng ở nhãn phân loại. "Vấn đề mấu chốt không nằm ở việc phân loại có hợp lý không, hay có phải xin đánh giá sự phù hợp hay không, mà là quy trình đánh giá được thực hiện thế nào", ông Ngô Minh Quân, Giám đốc chuyển đổi số Rikkeisoft, nhận định. Theo ông, khi một luật mới được ban hành, nhất là trong lĩnh vực công nghệ, tâm lý lo ngại ở giai đoạn đầu khó tránh khỏi. Bản chất luật sinh ra để bảo vệ số đông, nên những nhóm đang hưởng lợi từ "vùng xám" sẽ bị ảnh hưởng. Tuy nhiên, điều doanh nghiệp quan tâm là tính dự đoán được của quy trình. AI phát triển nhanh, chu kỳ sản phẩm ngắn. Một quy trình đánh giá kéo dài hoặc thiếu rõ ràng có thể làm thay đổi nhịp phát triển. Với hệ thống AI rủi ro cao, phải thực hiện đánh giá sự phù hợp, sẽ có trường hợp cần "chờ duyệt". Khi đó, tốc độ triển khai khó có thể nhanh như trước. "Nhưng nếu quy trình minh bạch, rõ ràng ai chịu trách nhiệm, thời gian xử lý bao lâu và không làm gián đoạn hoạt động kinh doanh, vận hành của doanh nghiệp, thì hoàn toàn chấp nhận được", ông nói thêm. Theo giám đốc chuyển đổi số này, các ý kiến phản đối hiện nay xuất phát từ việc chưa nắm rõ quy trình đánh giá AI sẽ được triển khai thế nào, chứ không hẳn vì việc phân loại rủi ro của hệ thống. Do đó, ông đề xuất một cơ chế linh hoạt hơn, chẳng hạn chỉ yêu cầu đánh giá đầy đủ khi hệ thống được triển khai ở quy mô thực sự lớn. Ông Lê Thanh Hưng, chuyên gia phát triển cộng đồng tại Hiệp hội mã nguồn mở châu Á (FOSSASIA), admin cộng đồng Bình dân học AI, thừa nhận có những lo lắng nhất định từ các nhà phát triển. Theo ông, trước đây nhiều sản phẩm AI được phát triển trong môi trường tương đối linh hoạt. Khi có luật, đặc biệt với cơ chế phân loại rủi ro, doanh nghiệp buộc phải rà soát lại hệ thống và dữ liệu của mình. Ông cho rằng bản chất của AI là dữ liệu và thuật toán. Nếu việc kiểm soát dữ liệu quá chặt, doanh nghiệp có thể lo ngại ảnh hưởng đến hoạt động nghiên cứu và phát triển. Ngoài ra, vấn đề an ninh dữ liệu và quyền sở hữu trí tuệ cũng là mối quan tâm của các startup. Ông Lê Thanh Hưng, chuyên gia của Hiệp hội mã nguồn mở châu Á (FOSSASIA), admin cộng đồng Bình dân học AI. Ảnh: Trọng Đạt Tuy vậy, ông nhìn nhận cơ quan soạn thảo có cơ sở khi đưa ra danh mục về mức độ rủi ro. "Nếu dữ liệu của người dùng bị rò rỉ sang bên thứ ba, hệ quả rất lớn. Khi đó không chỉ doanh nghiệp chịu thiệt hại mà cả xã hội bị ảnh hưởng", ông lấy ví dụ. Trong cộng đồng nhà phát triển cũng xuất hiện một số băn khoăn về khả năng phát sinh thủ tục hành chính. Theo ông Hưng, nếu quy trình đánh giá minh bạch, không gây cản trở, doanh nghiệp sẽ dễ chấp nhận. "Luật cần linh hoạt và có sự điều chỉnh theo thực tế", ông nói. Ở góc nhìn tích cực, CEO One Mount Phùng Quang Hưng cho rằng cần tìm được điểm cân bằng giữa kiểm soát và phát triển. Cũng như nhiều luật mới khác, Luật Trí tuệ nhân tạo sẽ cần thời gian để có các hướng dẫn chi tiết và tiếp nhận góp ý từ doanh nghiệp, người dân. "Quan trọng là phải cân bằng giữa mục tiêu kiểm soát, bảo vệ quyền lợi, ứng dụng AI một cách lành mạnh, có đạo đức và không để các thủ tục làm ảnh hưởng tới tốc độ đổi mới sáng tạo", ông nói. Dù Luật Trí tuệ nhân tạo đã có hiệu lực, phép thử thực sự sẽ đến từ những văn bản hướng dẫn thi hành luật, gần nhất là Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao đang trong quá trình hoàn thiện. Các quy định này có thể thúc đẩy sự phát triển của AI, nhưng cũng có thể dẫn tới sự chần chừ, do dự hay hoang mang từ phía các nhà phát triển. Trọng Đạt 'AI là phép thử về năng lực thích nghi của người lao động Việt Nam' Ông Trương Gia Bình: 'Mong có triệu thanh niên Việt Nam dấn thân làm AI' Luật Trí tuệ nhân tạo - bước tiến về quản lý, phát triển AI cho Việt Nam Góp ý kiến tạo Bạn có thể đặt mọi câu hỏi, vấn đề về Khoa học công nghệ, Đổi mới sáng tạo, Chuyển đổi số trực tiếp cho Bộ Khoa học và Công nghệ Gửi góp ý Adblock test (Why?)Nguồn VNExpress