Kiểm toán AI Việt Nam: Khung Pháp Lý Nào Cho Tương Lai Trách Nhiệm?
Trong bối cảnh cuộc cách mạng công nghiệp 4.0 đang diễn ra mạnh mẽ, Trí tuệ Nhân tạo (AI) đã trở thành một trong những công nghệ cốt lõi, định hình lại mọi mặt của đời sống kinh tế – xã hội. Từ y tế, tài chính đến giao thông và giáo dục, AI mang lại những tiềm năng đột phá chưa từng có. Tuy nhiên, sự phát triển nhanh chóng của AI cũng đặt ra những thách thức lớn về đạo đức, tính minh bạch, công bằng và trách nhiệm giải trình. Theo báo cáo của Gartner, đến năm 2026, hơn 80% các tổ chức lớn sử dụng AI sẽ phải đối mặt với các vấn đề pháp lý hoặc đạo đức liên quan đến việc sử dụng AI không có kiểm soát. Điều này nhấn mạnh tầm quan trọng cấp thiết của việc thiết lập một khung pháp lý vững chắc cho kiểm toán AI, đặc biệt tại Việt Nam – một quốc gia đang tích cực đẩy mạnh ứng dụng và phát triển công nghệ này.
Việt Nam đã và đang thể hiện sự chủ động trong việc nắm bắt xu hướng AI thông qua các chiến lược quốc gia và chính sách khuyến khích đổi mới sáng tạo. Tuy nhiên, để đảm bảo AI phát triển bền vững, có trách nhiệm và tạo ra giá trị thực sự cho xã hội, việc xây dựng một khung pháp lý kiểm toán AI toàn diện là không thể thiếu. Khung pháp lý này không chỉ giúp quản lý rủi ro mà còn củng cố niềm tin của công chúng vào công nghệ, thúc đẩy sự đổi mới có đạo đức và tạo ra một sân chơi công bằng cho các doanh nghiệp. Bài viết này của Viện Công nghệ Bản quyền và Tài sản số (CTDA) sẽ đi sâu phân tích sự cần thiết, thực trạng, các bài học quốc tế và lộ trình kiến tạo khung pháp lý kiểm toán AI tại Việt Nam.
Mục Lục
- 1. Sự Cần Thiết Của Kiểm Toán AI Trong Kỷ Nguyên Số
- 2. Thực Trạng Khung Pháp Lý AI Tại Việt Nam: Những Nền Tảng Ban Đầu
- 3. Các Nguyên Tắc Kiểm Toán AI Quốc Tế: Bài Học Cho Việt Nam
- 4. Xây Dựng Khung Pháp Lý Kiểm Toán AI Tại Việt Nam: Lộ Trình & Thách Thức
- 5. Vai Trò Của CTDA Trong Kiến Tạo Khung Pháp Lý Kiểm Toán AI
- 6. Kết Luận & Tầm Nhìn Tương Lai
1. Sự Cần Thiết Của Kiểm Toán AI Trong Kỷ Nguyên Số
Sự bùng nổ của AI đã mang lại những lợi ích to lớn, nhưng cũng tiềm ẩn nhiều rủi ro nếu không được kiểm soát chặt chẽ. Kiểm toán AI không chỉ là một yêu cầu kỹ thuật mà còn là một imperative đạo đức và pháp lý, nhằm đảm bảo các hệ thống AI hoạt động một cách đáng tin cậy, công bằng và có trách nhiệm. Các lý do chính cho sự cần thiết của kiểm toán AI bao gồm:
- Xây dựng niềm tin và sự chấp nhận: Khi AI ngày càng được tích hợp sâu vào các quyết định quan trọng (tuyển dụng, cho vay, chẩn đoán y tế), công chúng cần có niềm tin rằng các hệ thống này hoạt động một cách công bằng và không thiên vị. Kiểm toán AI cung cấp sự đảm bảo cần thiết này.
- Đảm bảo tính công bằng và chống phân biệt đối xử: Các mô hình AI có thể học được những thành kiến từ dữ liệu đào tạo, dẫn đến các quyết định phân biệt đối xử. Kiểm toán giúp phát hiện và giảm thiểu những thành kiến này, đảm bảo AI đưa ra quyết định khách quan.
- Tăng cường tính minh bạch và khả năng giải thích: Nhiều hệ thống AI, đặc biệt là các mô hình học sâu, thường được coi là “hộp đen” (black box), khó hiểu cách chúng đưa ra quyết định. Kiểm toán AI yêu cầu các cơ chế giải thích rõ ràng, giúp người dùng và các bên liên quan hiểu được lý do đằng sau các kết quả của AI.
- Quản lý rủi ro và an ninh: AI có thể bị tấn công, thao túng hoặc chứa các lỗ hổng bảo mật. Kiểm toán giúp xác định và giảm thiểu các rủi ro an ninh mạng, đảm bảo tính toàn vẹn và bảo mật của hệ thống AI.
- Tuân thủ pháp luật và quy định: Với sự ra đời của các quy định về bảo vệ dữ liệu cá nhân (như GDPR, Nghị định 13/2023/NĐ-CP của Việt Nam) và các đạo luật AI sắp tới, kiểm toán trở thành công cụ thiết yếu để chứng minh sự tuân thủ.
- Trách nhiệm giải trình: Khi AI gây ra thiệt hại, việc xác định trách nhiệm là vô cùng phức tạp. Kiểm toán AI thiết lập các quy trình để theo dõi, ghi lại và đánh giá hoạt động của AI, từ đó xác định trách nhiệm một cách rõ ràng hơn.
Không có kiểm toán, AI có thể trở thành một nguồn rủi ro lớn, làm xói mòn niềm tin xã hội và cản trở sự phát triển bền vững của công nghệ này. Do đó, việc thiết lập một khung pháp lý kiểm toán AI là bước đi chiến lược để Việt Nam khai thác tối đa tiềm năng của AI một cách an toàn và có đạo đức.
2. Thực Trạng Khung Pháp Lý AI Tại Việt Nam: Những Nền Tảng Ban Đầu
Hiện tại, Việt Nam chưa có một đạo luật chuyên biệt về kiểm toán AI. Tuy nhiên, các văn bản pháp luật hiện hành và các chiến lược phát triển AI quốc gia đã đặt ra những nền tảng ban đầu quan trọng, tạo tiền đề cho việc xây dựng khung pháp lý toàn diện hơn trong tương lai.
2.1. Các Văn Bản Pháp Luật Liên Quan
- Luật An toàn thông tin mạng (2015) và Luật An ninh mạng (2018): Đặt ra các yêu cầu về bảo mật thông tin, bảo vệ hệ thống thông tin và dữ liệu cá nhân, những yếu tố cốt lõi mà AI phải tuân thủ. Mặc dù không trực tiếp đề cập đến AI, các quy định này tạo ra một môi trường pháp lý cơ bản cho việc quản lý rủi ro công nghệ.
- Nghị định số 13/2023/NĐ-CP về Bảo vệ dữ liệu cá nhân: Đây là một bước tiến lớn, thiết lập các nguyên tắc xử lý dữ liệu cá nhân, quyền của chủ thể dữ liệu và trách nhiệm của bên xử lý dữ liệu. Đối với AI, việc kiểm toán sẽ cần đảm bảo các mô hình AI tuân thủ nghiêm ngặt các quy định về thu thập, xử lý và sử dụng dữ liệu cá nhân, đặc biệt là trong các ứng dụng AI sử dụng dữ liệu nhạy cảm.
- Luật Giao dịch điện tử (sửa đổi 2023): Mở rộng phạm vi công nhận giá trị pháp lý của thông điệp dữ liệu, chữ ký điện tử và hợp đồng điện tử. Điều này có thể gián tiếp ảnh hưởng đến việc ghi nhận và xác thực các kết quả kiểm toán AI dưới dạng điện tử.
- Luật Bảo vệ quyền lợi người tiêu dùng (sửa đổi 2023): Đặt ra các quy định về trách nhiệm của tổ chức, cá nhân kinh doanh trong việc cung cấp thông tin minh bạch, chính xác về sản phẩm, dịch vụ. Đối với AI, điều này có thể mở rộng sang việc yêu cầu các nhà cung cấp AI phải giải thích rõ ràng về cách thức hoạt động và rủi ro tiềm ẩn của sản phẩm AI.
2.2. Chiến Lược Quốc Gia Về AI
Quyết định số 127/QĐ-TTg của Thủ tướng Chính phủ phê duyệt “Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng Trí tuệ nhân tạo đến năm 2030” đã thể hiện tầm nhìn và cam kết của Việt Nam đối với AI. Chiến lược này nhấn mạnh việc phát triển AI có trách nhiệm, đảm bảo an toàn, bảo mật và đạo đức. Mặc dù chưa đi sâu vào cơ chế kiểm toán cụ thể, nhưng đây là cơ sở định hướng quan trọng để các cơ quan chức năng, đặc biệt là Bộ Thông tin và Truyền thông (MIC), xây dựng các văn bản pháp lý chi tiết hơn trong tương lai.
2.3. Những Khoảng Trống và Hạn Chế
Mặc dù có những nền tảng ban đầu, khung pháp lý hiện tại vẫn còn nhiều khoảng trống đối với kiểm toán AI:
- Thiếu định nghĩa và tiêu chuẩn cụ thể: Chưa có định nghĩa rõ ràng về “kiểm toán AI”, “AI có rủi ro cao” hay các tiêu chuẩn kỹ thuật, phương pháp luận để thực hiện kiểm toán.
- Cơ chế thực thi và giám sát: Thiếu các cơ quan chuyên trách, quy trình cấp phép, chứng nhận hoặc giám sát độc lập cho các hệ thống AI.
- Trách nhiệm pháp lý: Vấn đề xác định trách nhiệm khi AI gây ra lỗi hoặc thiệt hại vẫn còn mơ hồ, đặc biệt là trong chuỗi cung ứng AI phức tạp.
Việc lấp đầy những khoảng trống này đòi hỏi một nỗ lực phối hợp giữa các nhà hoạch định chính sách, chuyên gia pháp lý, kỹ thuật và đạo đức.
3. Các Nguyên Tắc Kiểm Toán AI Quốc Tế: Bài Học Cho Việt Nam
Trong khi Việt Nam đang trong quá trình xây dựng khung pháp lý, việc tham khảo các nguyên tắc và mô hình kiểm toán AI tiên tiến trên thế giới là vô cùng cần thiết. Các sáng kiến quốc tế như Đạo luật AI của EU, Khung quản lý rủi ro AI của NIST (Mỹ) và các tiêu chuẩn ISO/IEC cung cấp những bài học quý giá.
3.1. Đạo Luật AI của Liên minh Châu Âu (EU AI Act)
Đạo luật AI của EU là một trong những khung pháp lý toàn diện nhất thế giới, áp dụng cách tiếp cận dựa trên rủi ro. Các hệ thống AI được phân loại thành các cấp độ rủi ro khác nhau (không thể chấp nhận, rủi ro cao, rủi ro hạn chế, rủi ro tối thiểu), với các yêu cầu kiểm toán và tuân thủ nghiêm ngặt đối với AI rủi ro cao. Các yêu cầu chính bao gồm:
- Hệ thống quản lý chất lượng: Các nhà cung cấp AI rủi ro cao phải thiết lập hệ thống quản lý chất lượng toàn diện.
- Đánh giá sự phù hợp (Conformity Assessment): Trước khi đưa ra thị trường, AI rủi ro cao phải trải qua quy trình đánh giá sự phù hợp, có thể bao gồm tự đánh giá hoặc đánh giá bởi bên thứ ba.
- Giám sát hậu thị trường (Post-market Monitoring): Yêu cầu giám sát liên tục hoạt động của AI sau khi triển khai để phát hiện và khắc phục sự cố.
- Ghi nhật ký và khả năng truy vết: Các hệ thống AI phải có khả năng ghi nhật ký hoạt động, cho phép truy vết và kiểm tra.
- Giám sát của con người: Đảm bảo luôn có sự giám sát của con người đối với các quyết định quan trọng của AI.
3.2. Khung Quản Lý Rủi Ro AI của NIST (NIST AI RMF)
Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) đã phát triển Khung Quản lý Rủi ro AI (AI RMF) như một hướng dẫn tự nguyện để các tổ chức quản lý rủi ro liên quan đến AI. Khung này tập trung vào bốn chức năng chính: Quản trị (Govern), Lập bản đồ (Map), Đo lường (Measure) và Quản lý (Manage). NIST AI RMF khuyến khích các tổ chức phát triển một cách tiếp cận toàn diện để hiểu, đánh giá và giảm thiểu rủi ro AI trong suốt vòng đời của hệ thống.
3.3. Tiêu Chuẩn ISO/IEC 42001
ISO/IEC 42001 là tiêu chuẩn quốc tế về Hệ thống quản lý AI (AI Management System – AIMS). Tiêu chuẩn này cung cấp một khuôn khổ để các tổ chức thiết lập, triển khai, duy trì và cải tiến liên tục một hệ thống quản lý AI có trách nhiệm. Nó bao gồm các yêu cầu về quản trị, đạo đức, rủi ro, bảo mật và quyền riêng tư liên quan đến AI, có thể được sử dụng làm cơ sở để chứng nhận và kiểm toán các hệ thống AI.
3.4. So Sánh Các Khung Pháp Lý & Tiêu Chuẩn
Để hình dung rõ hơn, bảng dưới đây so sánh một số đặc điểm chính của các khung pháp lý và tiêu chuẩn quốc tế:
| Đặc điểm | EU AI Act | NIST AI RMF | ISO/IEC 42001 |
|---|---|---|---|
| Phạm vi | Pháp lý, bắt buộc (đối với AI rủi ro cao) | Hướng dẫn tự nguyện | Tiêu chuẩn hệ thống quản lý, có thể chứng nhận |
| Cách tiếp cận | Dựa trên rủi ro | Dựa trên rủi ro, toàn diện | Hệ thống quản lý |
| Mục tiêu chính | Đảm bảo an toàn, quyền cơ bản, thúc đẩy đổi mới | Quản lý rủi ro AI, thúc đẩy AI đáng tin cậy | Thiết lập AIMS có trách nhiệm |
| Cơ chế kiểm toán | Đánh giá sự phù hợp, giám sát hậu thị trường | Đánh giá rủi ro, đo lường hiệu suất | Kiểm toán nội bộ/bên ngoài AIMS |
Việt Nam có thể học hỏi từ các mô hình này, đặc biệt là cách tiếp cận dựa trên rủi ro của EU AI Act và NIST AI RMF, đồng thời tích hợp các nguyên tắc quản lý của ISO/IEC 42001 để xây dựng một khung pháp lý phù hợp với bối cảnh và điều kiện riêng của mình.
4. Xây Dựng Khung Pháp Lý Kiểm Toán AI Tại Việt Nam: Lộ Trình & Thách Thức
Việc xây dựng một khung pháp lý kiểm toán AI tại Việt Nam là một quá trình phức tạp, đòi hỏi sự phối hợp đa ngành và tầm nhìn chiến lược. Dưới đây là lộ trình đề xuất và những thách thức cần vượt qua:
4.1. Lộ Trình Đề Xuất
Để kiến tạo một khung pháp lý kiểm toán AI hiệu quả, Việt Nam có thể triển khai theo các giai đoạn sau:
- Giai đoạn 1: Xây dựng Nguyên tắc và Định nghĩa (Ngắn hạn: 1-2 năm)
- Ban hành các nguyên tắc đạo đức AI: Dựa trên các nguyên tắc quốc tế về AI có trách nhiệm (minh bạch, công bằng, an toàn, bảo mật, trách nhiệm giải trình, giám sát của con người).
- Định nghĩa rõ ràng về AI và các loại hình AI: Phân loại AI theo mức độ rủi ro (tương tự EU AI Act) để áp dụng các yêu cầu kiểm toán phù hợp.
- Xây dựng thuật ngữ pháp lý chuẩn: Đồng bộ hóa các khái niệm liên quan đến kiểm toán AI trong hệ thống pháp luật Việt Nam.
- Giai đoạn 2: Phát triển Tiêu chuẩn Kỹ thuật và Phương pháp Kiểm toán (Trung hạn: 2-4 năm)
- Xây dựng tiêu chuẩn kỹ thuật quốc gia: Dựa trên ISO/IEC 42001 và các tiêu chuẩn ngành, phát triển các tiêu chuẩn về chất lượng dữ liệu, độ tin cậy của mô hình, khả năng giải thích, an toàn và bảo mật cho các hệ thống AI.
- Phát triển phương pháp luận kiểm toán AI: Hướng dẫn chi tiết về quy trình, công cụ và kỹ thuật để thực hiện kiểm toán AI (ví dụ: kiểm toán thuật toán, kiểm toán dữ liệu, kiểm toán quy trình).
- Thí điểm và đánh giá: Triển khai các dự án thí điểm kiểm toán AI trong các ngành có rủi ro cao (y tế, tài chính) để thu thập kinh nghiệm thực tiễn.
- Giai đoạn 3: Thiết lập Cơ chế Giám sát và Thực thi (Dài hạn: 4-6 năm)
- Thành lập cơ quan quản lý/chứng nhận: Chỉ định hoặc thành lập một cơ quan chuyên trách chịu trách nhiệm về việc cấp phép, chứng nhận và giám sát các hệ thống AI, đặc biệt là AI rủi ro cao.
- Xây dựng khung pháp lý về trách nhiệm: Quy định rõ ràng về trách nhiệm pháp lý của các bên liên quan (nhà phát triển, nhà cung cấp, người triển khai) khi AI gây ra thiệt hại.
- Phát triển năng lực chuyên gia: Đào tạo và cấp chứng chỉ cho các kiểm toán viên AI, chuyên gia pháp lý và kỹ thuật.
- Hợp tác quốc tế: Tăng cường hợp tác với các tổ chức quốc tế và các quốc gia có kinh nghiệm để học hỏi và hài hòa hóa các quy định.
4.2. Những Thách Thức Cần Vượt Qua
Quá trình này không tránh khỏi những thách thức lớn:
- Thiếu hụt nguồn nhân lực chất lượng cao: Cần có sự kết hợp của chuyên gia pháp lý, kỹ thuật, đạo đức và kinh tế để xây dựng và thực thi khung pháp lý. Việt Nam đang đối mặt với sự thiếu hụt nghiêm trọng trong lĩnh vực này.
- Tốc độ phát triển của AI: Công nghệ AI thay đổi nhanh chóng, khiến việc ban hành và cập nhật pháp luật luôn đi sau thực tiễn. Khung pháp lý cần đủ linh hoạt để thích ứng.
- Tính phức tạp của AI: Việc kiểm toán các hệ thống AI phức tạp, đặc biệt là các mô hình học sâu, đòi hỏi công cụ và phương pháp chuyên biệt, khó định lượng các khái niệm như “công bằng” hay “minh bạch”.
- Chi phí tuân thủ: Các yêu cầu kiểm toán có thể tạo gánh nặng chi phí đáng kể cho các doanh nghiệp, đặc biệt là các doanh nghiệp vừa và nhỏ, có thể cản trở đổi mới.
- Hài hòa hóa với pháp luật quốc tế: Đảm bảo khung pháp lý Việt Nam tương thích với các tiêu chuẩn và quy định quốc tế để tạo điều kiện cho hợp tác và hội nhập.
5. Vai Trò Của CTDA Trong Kiến Tạo Khung Pháp Lý Kiểm Toán AI
Trong bối cảnh Việt Nam đang nỗ lực xây dựng một hệ sinh thái AI có trách nhiệm, Viện Công nghệ Bản quyền và Tài sản số (CTDA) tự hào là đơn vị tiên phong trong nghiên cứu và tư vấn về các vấn đề pháp lý, công nghệ liên quan đến tài sản số và AI. Với đội ngũ chuyên gia đa ngành, CTDA đóng vai trò quan trọng trong việc kiến tạo khung pháp lý kiểm toán AI tại Việt Nam.
- Nghiên cứu và Phân tích Chính sách chuyên sâu: CTDA liên tục theo dõi, nghiên cứu và phân tích các xu hướng pháp lý, công nghệ AI toàn cầu và Việt Nam. Chúng tôi cung cấp các báo cáo chuyên sâu, đánh giá tác động và đề xuất chính sách cho các cơ quan quản lý nhà nước, giúp định hình các văn bản pháp luật phù hợp với thực tiễn và xu thế quốc tế.
- Tư vấn xây dựng Tiêu chuẩn và Quy trình Kiểm toán: Với kinh nghiệm sâu rộng về sở hữu trí tuệ số, blockchain và quản trị dữ liệu, CTDA tư vấn cho các doanh nghiệp và tổ chức trong việc thiết lập các tiêu chuẩn kỹ thuật, quy trình và phương pháp luận kiểm toán AI nội bộ, đảm bảo tuân thủ các nguyên tắc về minh bạch, công bằng và trách nhiệm.
- Phát triển Công cụ Hỗ trợ Kiểm toán AI: CTDA nghiên cứu và phát triển các giải pháp công nghệ tiên tiến, bao gồm ứng dụng blockchain để tạo ra dấu vết số (digital fingerprinting) cho dữ liệu đào tạo, mô hình AI và các quyết định của AI. Điều này giúp tăng cường khả năng truy vết, minh bạch và tính bất biến của quá trình kiểm toán.
- Đào tạo và Nâng cao Năng lực: Chúng tôi tổ chức các khóa đào tạo, hội thảo chuyên đề về pháp lý AI, đạo đức AI và kiểm toán AI cho các chuyên gia pháp lý, kỹ sư, nhà quản lý và cộng đồng. Mục tiêu là trang bị kiến thức và kỹ năng cần thiết để vận hành, kiểm toán và quản lý AI một cách có trách nhiệm.
- Cầu nối giữa Nhà nước, Doanh nghiệp và Cộng đồng: CTDA đóng vai trò là cầu nối quan trọng, thúc đẩy đối thoại và hợp tác giữa các nhà hoạch định chính sách, doanh nghiệp phát triển AI và cộng đồng nghiên cứu, nhằm xây dựng một hệ sinh thái AI vững mạnh, đáng tin cậy tại Việt Nam.
Đứng trước bài toán phức tạp về kiểm toán AI, các chuyên gia tại Viện CTDA khuyến nghị các doanh nghiệp nên chủ động xây dựng các chính sách quản trị AI nội bộ, áp dụng các tiêu chuẩn quốc tế và chuẩn bị sẵn sàng cho các yêu cầu pháp lý trong tương lai. Với sự đồng hành của CTDA, các tổ chức có thể tự tin phát triển và triển khai AI một cách an toàn, hiệu quả và tuân thủ.
6. Kết Luận & Tầm Nhìn Tương Lai
Việc xây dựng một khung pháp lý kiểm toán AI vững chắc không chỉ là một yêu cầu cấp thiết mà còn là một cơ hội chiến lược để Việt Nam khẳng định vị thế trong kỷ nguyên số. Một khung pháp lý toàn diện sẽ là nền tảng để thúc đẩy sự phát triển AI có trách nhiệm, đảm bảo tính minh bạch, công bằng và an toàn, từ đó củng cố niềm tin của công chúng và tạo ra giá trị bền vững cho xã hội.
Mặc dù còn nhiều thách thức phía trước, với sự quyết tâm của Chính phủ, sự tham gia tích cực của các tổ chức nghiên cứu như CTDA và cộng đồng doanh nghiệp, Việt Nam hoàn toàn có thể kiến tạo một hành lang pháp lý kiểm toán AI tiên tiến, hài hòa giữa đổi mới và quản trị rủi ro. Tầm nhìn của chúng ta là một tương lai nơi AI không chỉ là công cụ mạnh mẽ mà còn là đối tác đáng tin cậy, góp phần vào sự phát triển thịnh vượng và bền vững của đất nước.
Liên hệ ngay Viện CTDA để được tư vấn chuyên sâu về thiết lập khung pháp lý, bảo vệ bản quyền số và ứng dụng Blockchain cho doanh nghiệp của bạn.
Khám phá thêm các báo cáo nghiên cứu chuyên sâu và tham gia các hội thảo của CTDA về quản trị AI có trách nhiệm tại website của chúng tôi.
Câu Hỏi Thường Gặp (FAQ)
Kiểm toán AI là gì và tại sao nó lại quan trọng?
Kiểm toán AI là quá trình đánh giá độc lập các hệ thống Trí tuệ Nhân tạo để đảm bảo chúng hoạt động một cách công bằng, minh bạch, an toàn, hiệu quả và tuân thủ các quy định pháp luật cũng như nguyên tắc đạo đức. Nó quan trọng vì giúp xây dựng niềm tin, giảm thiểu rủi ro (như thiên vị, phân biệt đối xử, vi phạm quyền riêng tư), đảm bảo trách nhiệm giải trình và tuân thủ pháp luật trong quá trình phát triển và triển khai AI.
Việt Nam hiện có luật cụ thể nào về kiểm toán AI không?
Hiện tại, Việt Nam chưa có một đạo luật chuyên biệt về kiểm toán AI. Tuy nhiên, các văn bản pháp luật hiện hành như Luật An toàn thông tin mạng, Luật An ninh mạng, Nghị định về Bảo vệ dữ liệu cá nhân (Nghị định 13/2023/NĐ-CP) và Chiến lược quốc gia về AI đến năm 2030 đã đặt ra những nền tảng và định hướng quan trọng cho việc xây dựng khung pháp lý này trong tương lai.
Các nguyên tắc kiểm toán AI quốc tế nào có thể áp dụng cho Việt Nam?
Việt Nam có thể học hỏi từ các khung pháp lý và tiêu chuẩn quốc tế như Đạo luật AI của Liên minh Châu Âu (EU AI Act) với cách tiếp cận dựa trên rủi ro, Khung Quản lý Rủi ro AI của NIST (Hoa Kỳ) tập trung vào quản trị, lập bản đồ, đo lường và quản lý rủi ro, cùng với tiêu chuẩn ISO/IEC 42001 về Hệ thống quản lý AI. Các nguyên tắc chung bao gồm minh bạch, công bằng, an toàn, bảo mật, trách nhiệm giải trình và giám sát của con người.
CTDA có vai trò gì trong việc xây dựng khung pháp lý kiểm toán AI tại Việt Nam?
Viện CTDA đóng vai trò quan trọng trong việc nghiên cứu, phân tích chính sách, tư vấn xây dựng tiêu chuẩn và quy trình kiểm toán AI. Chúng tôi cũng phát triển các công cụ hỗ trợ kiểm toán (như ứng dụng blockchain để truy vết), tổ chức đào tạo nâng cao năng lực và là cầu nối giữa nhà nước, doanh nghiệp và cộng đồng để thúc đẩy một hệ sinh thái AI có trách nhiệm và tuân thủ pháp luật tại Việt Nam.
Tác giả
Hội đồng Chuyên môn & Ban Nghiên cứu – Viện CTDA




