Các chuyên gia quốc tế cho rằng để phát triển trí tuệ nhân tạo (AI) có trách nhiệm Việt Nam cần xây dựng trên nguyên tắc về pháp luật, đạo đức và tính bền vững về kỹ thuật, công nghệ hướng tới lợi ích vì con người. Thông tin được các diễn giả, chuyên gia chia sẻ tại hội thảo về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của AI có trách nhiệm, sáng 5/7, do Trường Đại học luật, Đại học Quốc gia Hà Nội tổ chức dưới sự hỗ trợ của Chương trình Aus4Innovation. Theo PGS.TS Nguyễn Thị Quế Anh, Hiệu trưởng Trường Đại học luật, Đại học Quốc gia Hà Nội, sự phát triển mạnh mẽ của AI đang làm dấy lên quan ngại về các rủi ro tiềm ẩn, tác động tới xã hội khi các ứng dụng AI vi phạm các chuẩn mực đạo đức và pháp lý như việc các thuật toán có thể gây ra sự thiên vị, phân biệt đối xử, xâm phạm quyền riêng tư và dữ liệu cá nhân. PGS.TS Nguyễn Thị Quế Anh phát biểu khai mạc hội thảo. Ảnh: Kim Bách Bà cho biết 5 năm qua, nhiều tổ chức quốc tế, quốc gia đã xây dựng thể chế, chính sách và triển khai xây dựng bộ nguyên tắc thúc đẩy phát triển AI đáng tin cậy và có trách nhiệm nhằm hạn chế tác động tiêu cực, hạn chế rủi ro như tổ chức OECD, UNESCO, Australia, Mỹ, Liên minh châu Âu, Trung Quốc, ASEAN. So với các quốc gia, các thảo luận chính sách về AI có đạo đức hay AI có trách nhiệm ở Việt Nam còn khá ít. Thông qua hội thảo, PGS Quế Anh mong muốn các chuyên gia thảo luận, chia sẻ kinh nghiệm cho Việt Nam trong xây dựng bộ nguyên tắc và chính sách phát triển AI có trách nhiệm. GS. TS Andy Hall, chuyên gia cao cấp CSIRO nhìn nhận việc xây dựng bộ nguyên tắc đạo đức thúc đẩy sử phát triển AI có trách nhiệm trước hết để xây dựng niềm tin của người dùng và xã hội vào các hệ thống AI vốn đang được ứng dụng mọi mặt đời sống. Chuyên gia Australia đánh giá những tác động và rủi ro không thể lường trước như gián đoạn, rủi ro đạo đức, sử dụng công nghệ không phù hợp, tội phạm công nghệ. Ông dẫn ví dụ trước đây tại châu Âu, lo ngại về sản phẩm biến đổi gene khiến các nhà khoa học phải thảo luận về mặt trái của công nghệ bên cạnh lợi ích nó đem lại. "Phát triển AI tiềm ẩn rủi ro, bất định do đó 'đổi mới có trách nhiệm' cần dựa vào chủ động lựa chọn công nghệ an toàn, có đạo đức và phù hợp giá trị xã hội", ông nói. GS. TS Andy Hall chia sẻ kinh nghiệm của Australia trong xây dựng nguyên tắc phát triển AI. Ảnh: Kim Bách Theo giáo sư cần xây dựng nguyên tắc mang tính linh hoạt, thích ứng bổ sung theo sự phát triển nhanh chóng của AI. Ông nhấn mạnh đánh giá giám sát tác động tiêu cực trong khoa học để thích ứng, bao gồm yếu tố dự đoán, tiếp cận rủi ro, phân tích tác động mặt trái công nghệ và phản ứng kịp thời để lựa chọn được công nghệ phù hợp. Giáo sư gợi ý cần cập nhật chính sách, quy định để giám sát quản lý chủ động và dự đoán hậu quả trong tương lai, đồng thời hợp tác thúc đẩy sáng tạo, chia sẻ minh bạch nhằm giảm thiểu rủi ro gặp phải. TS Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam, gợi ý có thể thông qua mô hình Readiness Assessment Methodology (RAM) để xây dựng nguyên tắc đạo đức AI và đánh giá mức độ sẵn sàng của các quốc gia. Ông cho hay khi thực hiện khảo sát từ 37 quốc gia nhằm tham vấn xây dựng khuyến nghị về AI, UNESCO phát hiện "khoảng trống" trong một số công cụ đánh giá về mức độ sẵn sàng AI hiện nay. Trong đó chỉ ra việc chưa có sự thống nhất về chỉ số, thu thập dữ liệu chưa chuẩn xác dẫn đến so sánh giữa các quốc gia không đồng nhất. "Cách tiếp cận của bộ công cụ RAM đảm bảo bao trùm 5 lĩnh vực chỉ số gồm pháp lý, xã hội, khoa học giáo dục, kinh tế và bao trùm công nghệ, cơ sở hạ tầng". Hiện RAM được áp dụng trên 50 quốc gia và các nguyên tắc của UNESCO đang là cơ sở để các nước xây dựng quy định về đạo đức AI. Các nguyên tắc này xây dựng dựa trên tính đa dạng, bao trùm nhiều khía cạnh như AI tác động đến môi trường, văn hóa. Dẫn ví dụ Chile cũng phát triển Chiến lược AI quốc gia vào năm 2021, TS Wallace Baker gợi ý Việt Nam cần tăng cường khung thể chế, xây dựng cập nhật chính sách chiến lược, cơ chế sandbox, thúc đẩy đạo đức AI đánh giá thách thức tiềm ẩn nhằm tìm ra phương pháp phù hợp. TS Đỗ Giang Nam, Trường Đại học Luật, ĐHQG Hà Nội, cho rằng để phát triển AI có trách nhiệm, cần có một hệ thống thể chế, chính sách, nguyên tắc điều chỉnh với sự kết hợp chặt chẽ giữa các quy định pháp luật cứng mang tính ràng buộc với các quy tắc "mềm" như đạo đức, hướng dẫn, khuyến nghị. Ông cho hay Liên minh châu Âu đã thông qua các nguyên tắc trong đạo luật AI Act 2024. Đây là đạo luật chung về AI, tiếp cận dựa mức độ rủi ro của Ủy ban châu Âu với những sáng kiến nhằm đối phó nguy cơ từ AI. Mô hình sẽ dựa trên rủi ro của các mô hình AI để điều chỉnh luật pháp theo hướng tương ứng, cùng với đó là khung pháp lý thử nghiệm (sandbox) và cách tiếp cận 'mềm hóa' về đạo đức, độ tin cậy và tính trách nhiệm. "Đối với các công nghệ mới nổi, cách tiếp cận kết hợp giữa luật cứng và luật mềm là sự lựa chọn phù hợp nhất", TS Nam nói. Chuyên gia cũng chỉ ra ba trụ cột cốt lõi để phát triển AI gồm tính hợp pháp, đạo đức và tính bền vững về kỹ thuật/công nghệ. Điểm chung các bộ nguyên tắc thế giới đều dựa trên lợi ích của con người, tôn trọng tính tự chủ và sự giám sát của con người đối với AI, bền vững kỹ thuật và an toàn, quyền riêng tư và quản trị dữ liệu, tính minh bạch và có thể giải thích được, tính đa dạng, bao trùm, bình đẳng, không phân biệt đối xử và công bằng, trách nhiệm và trách nhiệm giải trình. Ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao, Bộ Khoa học và Công nghệ, cho hay Việt Nam dựa trên kinh nghiệm quốc tế xây dựng bộ nguyên tắc riêng nhằm phát triển hệ thống AI có đạo đức, trách nhiệm. Việc nguyên tắc xây dựng không chỉ kịp với sự thay đổi thế giới còn hướng tới phát huy khai thác công nghệ tốt nhất và sử dụng AI có đạo đức trong tương lai. Dẫn 9 nguyên tắc nghiên cứu, phát triển hệ thống AI có trách nhiệm Việt Nam mới ban hành, ông cho hay việc xây dựng bộ nguyên tắc hướng tới lấy con người làm trung tâm, đảm bảo cân bằng hợp lý giữa lợi ích và rủi ro các hệ thống AI. Như Quỳnh Mua hàng tại Tin Học Như ÝNguồn VNExpress