Trong bối cảnh toàn cầu đang chứng kiến sự bùng nổ của Trí tuệ Nhân tạo (AI), từ các hệ thống tự động hóa công nghiệp đến AI tạo sinh và các ứng dụng y tế, vấn đề xác định trách nhiệm pháp lý khi AI gây ra thiệt hại ngày càng trở nên cấp bách. Theo báo cáo mới nhất từ IDC, chi tiêu toàn cầu cho AI dự kiến sẽ vượt 500 tỷ USD vào năm 2027, cho thấy mức độ thâm nhập sâu rộng của công nghệ này vào mọi lĩnh vực đời sống. Tại Việt Nam, với chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, việc xây dựng một hành lang pháp lý vững chắc, đặc biệt là về trách nhiệm pháp lý của AI, không chỉ là yêu cầu cấp thiết để thúc đẩy đổi mới mà còn để bảo vệ quyền lợi của người dân và doanh nghiệp. Bài viết này của Viện Công nghệ Bản quyền và Tài sản số (CTDA) sẽ đi sâu phân tích thực trạng, thách thức và đề xuất các định hướng quan trọng cho việc kiến tạo khung pháp lý trách nhiệm AI tại Việt Nam.
Mục Lục
- Thực trạng Phát triển AI và Vấn đề Trách nhiệm tại Việt Nam
- Các Mô hình Trách nhiệm Pháp lý Truyền thống và Hạn chế với AI
- Kinh nghiệm Quốc tế và Định hướng cho Việt Nam
- Kiến tạo Khung Pháp lý Trách nhiệm AI tại Việt Nam: Vai trò của CTDA
Thực trạng Phát triển AI và Vấn đề Trách nhiệm tại Việt Nam
Việt Nam đang trên đà phát triển mạnh mẽ về AI, với nhiều sáng kiến và chính sách hỗ trợ từ Chính phủ. Các ứng dụng AI đã và đang được triển khai rộng rãi trong nhiều lĩnh vực như y tế (chẩn đoán hình ảnh, hỗ trợ phẫu thuật), tài chính (phát hiện gian lận, tư vấn đầu tư), giao thông (xe tự hành, quản lý giao thông thông minh) và sản xuất (robot tự động, tối ưu hóa quy trình). Tuy nhiên, sự phát triển nhanh chóng này cũng đặt ra những câu hỏi hóc búa về trách nhiệm pháp lý khi các hệ thống AI gây ra lỗi hoặc thiệt hại.
Thách thức từ bản chất của AI
- Tính tự chủ và khả năng học hỏi: Nhiều hệ thống AI hiện đại có khả năng tự học và đưa ra quyết định mà không cần sự can thiệp trực tiếp của con người. Điều này làm mờ đi ranh giới giữa hành vi của con người và hành vi của máy móc, gây khó khăn trong việc quy kết trách nhiệm.
- Hộp đen (Black Box): Đối với một số thuật toán AI phức tạp, đặc biệt là mạng nơ-ron sâu, việc giải thích cách thức AI đưa ra một quyết định cụ thể là vô cùng khó khăn. Điều này cản trở việc xác định nguyên nhân gốc rễ của lỗi và ai là người chịu trách nhiệm.
- Đa chủ thể liên quan: Một hệ thống AI thường là sản phẩm của nhiều bên: nhà phát triển thuật toán, nhà cung cấp dữ liệu huấn luyện, nhà tích hợp hệ thống, nhà triển khai và người dùng cuối. Việc phân định trách nhiệm giữa các chủ thể này là một bài toán phức tạp.
- Thiệt hại phi vật chất: Ngoài các thiệt hại vật chất, AI còn có thể gây ra các thiệt hại phi vật chất như phân biệt đối xử, vi phạm quyền riêng tư, thao túng tâm lý, mà các quy định pháp luật hiện hành chưa thể bao quát đầy đủ.
Các Mô hình Trách nhiệm Pháp lý Truyền thống và Hạn chế với AI
1. Trách nhiệm Dân sự
- Trách nhiệm theo hợp đồng: Phát sinh khi có vi phạm nghĩa vụ hợp đồng giữa các bên liên quan đến AI (ví dụ: hợp đồng cung cấp phần mềm AI). Tuy nhiên, không phải mọi thiệt hại do AI gây ra đều có thể quy kết qua hợp đồng.
- Trách nhiệm ngoài hợp đồng (bồi thường thiệt hại): Điều 584 Bộ luật Dân sự 2015 quy định về bồi thường thiệt hại ngoài hợp đồng khi có hành vi xâm phạm tính mạng, sức khỏe, danh dự, nhân phẩm, uy tín, tài sản, quyền, lợi ích hợp pháp khác của người khác mà gây thiệt hại. Để áp dụng, cần chứng minh có lỗi (cố ý hoặc vô ý) của người gây thiệt hại. Với AI, việc xác định “lỗi” của một hệ thống tự động là một thách thức lớn.
2. Trách nhiệm Sản phẩm
Luật Bảo vệ quyền lợi người tiêu dùng và các quy định liên quan đến chất lượng sản phẩm có thể được áp dụng cho AI như một “sản phẩm”. Tuy nhiên, AI không phải là sản phẩm tĩnh mà có khả năng thay đổi, học hỏi. Việc xác định “lỗi sản phẩm” trong một hệ thống AI tự học, tự cải tiến là rất khó khăn, đặc biệt khi lỗi phát sinh sau quá trình sử dụng và học hỏi.
3. Trách nhiệm Hình sự
Trách nhiệm hình sự đòi hỏi yếu tố lỗi (lỗi cố ý hoặc vô ý) và hành vi phạm tội của một chủ thể cụ thể. Việc quy kết trách nhiệm hình sự cho một hệ thống AI là không khả thi theo các nguyên tắc pháp lý hiện hành, vì AI không có ý chí, nhận thức hay khả năng chịu trách nhiệm hình sự. Thay vào đó, trách nhiệm có thể được quy cho người đã lập trình, vận hành hoặc giám sát AI nếu có yếu tố lỗi của họ.
Rõ ràng, các khung pháp lý hiện có chưa đủ linh hoạt và toàn diện để giải quyết các vấn đề phức tạp về trách nhiệm do AI gây ra. Điều này đòi hỏi Việt Nam cần có một cách tiếp cận mới, mang tính đột phá và phù hợp với đặc thù của công nghệ AI.
Kinh nghiệm Quốc tế và Định hướng cho Việt Nam
Nhiều quốc gia và khu vực trên thế giới đã và đang tích cực xây dựng các khung pháp lý về AI, trong đó có vấn đề trách nhiệm. Việt Nam có thể học hỏi từ các kinh nghiệm này để định hình lộ trình của mình.
1. Liên minh Châu Âu (EU)
EU là khu vực tiên phong với Đạo luật AI (EU AI Act), áp dụng cách tiếp cận dựa trên rủi ro. Các điểm đáng chú ý:
- Phân loại rủi ro: AI được phân loại thành các cấp độ rủi ro (không thể chấp nhận, rủi ro cao, rủi ro hạn chế, rủi ro tối thiểu) với các quy định khác nhau.
- Trách nhiệm đối với AI rủi ro cao: Các hệ thống AI rủi ro cao (ví dụ: trong y tế, giao thông, thực thi pháp luật) phải tuân thủ các yêu cầu nghiêm ngặt về quản trị dữ liệu, minh bạch, giám sát của con người và an ninh mạng.
- Dự thảo Chỉ thị về Trách nhiệm AI: Đề xuất một khung trách nhiệm dân sự hài hòa, bao gồm việc đảo ngược gánh nặng chứng minh đối với các hệ thống AI rủi ro cao, giúp nạn nhân dễ dàng hơn trong việc yêu cầu bồi thường.
2. Hoa Kỳ
Hoa Kỳ hiện chưa có một đạo luật AI toàn diện mà chủ yếu dựa vào các luật hiện hành và các chỉ thị hành pháp. Sắc lệnh hành pháp về AI của Tổng thống Biden (tháng 10/2023) tập trung vào an toàn, bảo mật và trách nhiệm giải trình, yêu cầu các nhà phát triển AI chia sẻ kết quả kiểm tra an toàn và phát triển các tiêu chuẩn chung.
3. Trung Quốc
Trung Quốc đã ban hành nhiều quy định về quản lý thuật toán, dữ liệu và AI tạo sinh, tập trung vào trách nhiệm của các nhà cung cấp dịch vụ AI trong việc đảm bảo nội dung hợp pháp, bảo vệ quyền riêng tư và an ninh dữ liệu. Các quy định này nhấn mạnh trách nhiệm của nhà cung cấp trong việc đảm bảo tính công bằng và minh bạch của thuật toán.
Bài học cho Việt Nam
Từ kinh nghiệm quốc tế, Việt Nam cần:
- Tiếp cận dựa trên rủi ro: Phân loại AI theo mức độ rủi ro để áp dụng các quy định phù hợp, tránh kìm hãm đổi mới.
- Xác định rõ vai trò và trách nhiệm: Phân định trách nhiệm giữa nhà phát triển, nhà triển khai, nhà cung cấp dữ liệu và người dùng.
- Tăng cường minh bạch và giải trình: Yêu cầu các hệ thống AI, đặc biệt là AI rủi ro cao, phải có khả năng giải thích được (explainable AI) và có cơ chế giám sát của con người.
- Cập nhật các quy định hiện hành: Sửa đổi, bổ sung Bộ luật Dân sự, Luật Bảo vệ quyền lợi người tiêu dùng và các văn bản pháp luật liên quan để phù hợp với đặc thù của AI.
- Phát triển cơ chế bồi thường: Xây dựng các cơ chế bồi thường hiệu quả cho nạn nhân, có thể bao gồm việc đảo ngược gánh nặng chứng minh trong một số trường hợp.
Kiến tạo Khung Pháp lý Trách nhiệm AI tại Việt Nam: Vai trò của CTDA
Việc xây dựng một khung pháp lý toàn diện về trách nhiệm AI tại Việt Nam là một quá trình phức tạp, đòi hỏi sự phối hợp đa ngành và tầm nhìn chiến lược. Viện Công nghệ Bản quyền và Tài sản số (CTDA), với vai trò là đơn vị tiên phong trong nghiên cứu và tư vấn về công nghệ và pháp lý tài sản số, cam kết đồng hành cùng các cơ quan quản lý, doanh nghiệp và cộng đồng trong việc kiến tạo hành lang pháp lý này.
Các khuyến nghị từ CTDA
Đứng trước bài toán này, các chuyên gia tại Viện CTDA khuyến nghị Việt Nam nên tập trung vào các trụ cột sau:
- Xây dựng Luật AI chuyên biệt hoặc sửa đổi luật hiện hành: Cân nhắc xây dựng một đạo luật AI riêng hoặc tích hợp các quy định về AI vào các luật hiện hành như Luật Giao dịch điện tử, Luật Sở hữu trí tuệ, Bộ luật Dân sự. Điều này cần được thực hiện một cách thận trọng, đảm bảo tính linh hoạt để thích ứng với sự phát triển nhanh chóng của công nghệ.
- Thiết lập các tiêu chuẩn kỹ thuật và đạo đức: Phát triển các tiêu chuẩn kỹ thuật về an toàn, bảo mật, khả năng giải thích và tính công bằng của AI. Đồng thời, xây dựng bộ quy tắc đạo đức AI để định hướng phát triển và ứng dụng AI có trách nhiệm.
- Cơ chế xác định trách nhiệm đa tầng: Áp dụng mô hình trách nhiệm liên đới hoặc phân tầng, trong đó trách nhiệm có thể được phân bổ cho nhà phát triển (thiết kế lỗi), nhà triển khai (cấu hình sai), hoặc người dùng (sử dụng không đúng cách).
- Vai trò của bảo hiểm AI: Khuyến khích phát triển các sản phẩm bảo hiểm chuyên biệt cho rủi ro AI, giúp giảm thiểu gánh nặng tài chính cho các bên liên quan khi xảy ra thiệt hại.
- Ứng dụng công nghệ hỗ trợ: CTDA đang nghiên cứu và phát triển các giải pháp công nghệ như Blockchain cho truy xuất nguồn gốc dữ liệu và thuật toán, giúp tăng cường minh bạch và khả năng giải trình của hệ thống AI. Việc ghi lại các thay đổi của mô hình, dữ liệu huấn luyện trên sổ cái phân tán có thể cung cấp bằng chứng quan trọng trong việc xác định nguyên nhân lỗi và quy kết trách nhiệm.
Với hệ thống xác thực bản quyền và tài sản số dựa trên Blockchain do CTDA nghiên cứu, chúng tôi có thể hỗ trợ các doanh nghiệp trong việc quản lý vòng đời của dữ liệu và thuật toán AI, từ đó thiết lập một nền tảng vững chắc cho việc giải trình và xác định trách nhiệm.
Vấn đề pháp lý về trách nhiệm AI tại Việt Nam không chỉ là một thách thức mà còn là cơ hội để định hình một tương lai số an toàn, công bằng và bền vững. Việc chủ động xây dựng một khung pháp lý rõ ràng, linh hoạt và phù hợp với thông lệ quốc tế sẽ là yếu tố then chốt để Việt Nam khai thác tối đa tiềm năng của AI, đồng thời bảo vệ quyền lợi của các bên liên quan. CTDA cam kết tiếp tục nghiên cứu, phân tích và cung cấp các giải pháp chuyên sâu, góp phần vào sự phát triển có trách nhiệm của AI tại Việt Nam.
Liên hệ CTDA
Liên hệ ngay Viện CTDA để được tư vấn chuyên sâu về thiết lập khung pháp lý, bảo vệ bản quyền số và ứng dụng Blockchain cho doanh nghiệp của bạn. Chúng tôi cung cấp các giải pháp toàn diện từ tư vấn chiến lược đến triển khai công nghệ, giúp doanh nghiệp của bạn vững bước trong kỷ nguyên số.
Khám phá thêm
Đừng bỏ lỡ các báo cáo nghiên cứu chuyên sâu khác của CTDA về sở hữu trí tuệ trong kỷ nguyên số, Blockchain và Web3, cũng như các hội thảo chuyên đề do chúng tôi tổ chức. Theo dõi website của CTDA để cập nhật những thông tin và phân tích mới nhất.
Câu hỏi thường gặp về Pháp lý Trách nhiệm AI
Trách nhiệm pháp lý của AI là gì?
Trách nhiệm pháp lý của AI là việc xác định ai (cá nhân, tổ chức) phải chịu trách nhiệm về những thiệt hại hoặc hậu quả tiêu cực do một hệ thống Trí tuệ Nhân tạo gây ra. Điều này bao gồm các vấn đề về bồi thường dân sự, trách nhiệm sản phẩm, và trong một số trường hợp, cả trách nhiệm hình sự liên quan đến hành vi của AI.
Tại sao việc xác định trách nhiệm AI lại khó khăn?
Việc xác định trách nhiệm AI khó khăn do nhiều yếu tố: tính tự chủ và khả năng học hỏi của AI (khiến AI đưa ra quyết định không dự đoán trước), tính “hộp đen” của nhiều thuật toán (khó giải thích nguyên nhân lỗi), sự tham gia của nhiều chủ thể (nhà phát triển, nhà triển khai, người dùng) và sự thiếu hụt các quy định pháp luật chuyên biệt cho AI.
Việt Nam cần làm gì để giải quyết vấn đề trách nhiệm AI?
Việt Nam cần xây dựng một khung pháp lý toàn diện, có thể là luật AI chuyên biệt hoặc sửa đổi các luật hiện hành. Khung pháp lý này nên áp dụng cách tiếp cận dựa trên rủi ro, xác định rõ vai trò và trách nhiệm của các bên liên quan, tăng cường minh bạch và khả năng giải trình của AI, đồng thời phát triển các cơ chế bồi thường hiệu quả và khuyến khích bảo hiểm AI.
CTDA có vai trò gì trong việc kiến tạo khung pháp lý trách nhiệm AI?
Viện CTDA đóng vai trò quan trọng trong việc nghiên cứu, phân tích và tư vấn chuyên sâu về các vấn đề pháp lý và công nghệ liên quan đến AI. Chúng tôi cung cấp các khuyến nghị chính sách, hỗ trợ xây dựng tiêu chuẩn kỹ thuật và đạo đức, đồng thời phát triển các giải pháp công nghệ như Blockchain để tăng cường minh bạch và khả năng truy xuất nguồn gốc của dữ liệu và thuật toán AI, giúp các doanh nghiệp và cơ quan quản lý giải quyết bài toán trách nhiệm AI.
Tác giả
Hội đồng Chuyên môn & Ban Nghiên cứu – Viện CTDA

