Luật Trí tuệ nhân tạo 2025: AI gây thiệt hại thì ai phải bồi thường?

Việc Quốc hội chính thức thông qua Luật Trí tuệ nhân tạo 2025 đánh dấu một bước ngoặt lớn trong quá trình xây dựng khung pháp lý cho AI tại Việt Nam. Một trong những nội dung được giới doanh nghiệp, giới công nghệ và pháp lý quan tâm nhất chính là câu hỏi: khi AI gây ra thiệt hại, ai sẽ là người chịu trách nhiệm?

Đây không chỉ là vấn đề pháp lý, mà còn là bài toán thực tế cho mọi doanh nghiệp đang và sẽ ứng dụng AI vào sản phẩm, dịch vụ và quy trình vận hành.

AI làm sai: Luật 2025 quy định thế nào?

Theo Điều 29 Dự thảo Luật Trí tuệ nhân tạo, đối với các hệ thống AI rủi ro cao, trong trường hợp hệ thống được quản lý, vận hành và sử dụng đúng quy định nhưng vẫn phát sinh thiệt hại, thì bên triển khai AI (tức đơn vị trực tiếp sử dụng AI) phải chịu trách nhiệm bồi thường cho người bị thiệt hại.

Sau khi đã thực hiện nghĩa vụ bồi thường, bên triển khai có quyền yêu cầu nhà cung cấp, nhà phát triển AI hoặc các bên liên quan hoàn trả khoản tiền đã bồi thường, nếu giữa các bên có thỏa thuận hợp đồng.

Điểm mấu chốt ở đây là: trách nhiệm với người dùng cuối luôn thuộc về đơn vị triển khai trước tiên.

Ví dụ thực tế: Doanh nghiệp dùng AI không thể “đổ lỗi cho máy”

Giả sử công ty A thuê một hệ thống AI của công ty B để xử lý hồ sơ, tư vấn khách hàng hoặc ra quyết định tự động. Trong quá trình hoạt động, hệ thống AI phát sinh lỗi và gây thiệt hại cho khách hàng của công ty A.

Ngay cả khi:

  • Nhân sự công ty A không có lỗi chủ quan
  • AI được sử dụng đúng hướng dẫn
  • Lỗi đến từ thuật toán hoặc dữ liệu huấn luyện

Thì theo Luật, công ty A vẫn phải đứng ra bồi thường cho khách hàng trước. Sau đó, A mới làm việc với công ty B để yêu cầu chia sẻ hoặc hoàn trả trách nhiệm theo hợp đồng.

Luật không cho phép doanh nghiệp nói rằng: “AI làm sai chứ không phải con người”.

Vì sao Luật chọn cách tiếp cận này?

Cách tiếp cận của Luật Trí tuệ nhân tạo 2025 được đánh giá là:

  • Ưu tiên bảo vệ quyền lợi người tiêu dùng
  • Giải quyết triệt để tranh cãi kéo dài nhiều năm về việc “AI gây lỗi thì ai chịu”
  • Buộc doanh nghiệp phải có trách nhiệm thực sự khi đưa AI vào vận hành

Đối với người dùng cuối, họ không cần và cũng không thể phân biệt lỗi đến từ nhà cung cấp AI hay đơn vị sử dụng. Do đó, Luật xác định rõ một đầu mối chịu trách nhiệm là bên triển khai.

Thông điệp pháp lý quan trọng dành cho doanh nghiệp

Từ quy định này, Luật gửi đi một thông điệp rất rõ ràng:

  • AI không phải là công cụ miễn trừ trách nhiệm pháp lý
  • Ứng dụng AI càng sâu thì trách nhiệm quản trị càng lớn
  • Không thể phó mặc hoàn toàn quyết định cho thuật toán

Doanh nghiệp sử dụng AI để tạo ra sản phẩm, dịch vụ hay quyết định ảnh hưởng đến người khác thì vẫn phải chịu trách nhiệm pháp lý đầy đủ, giống như khi sử dụng bất kỳ công cụ hay công nghệ nào khác.

Doanh nghiệp cần thay đổi gì khi áp dụng AI?

Luật Trí tuệ nhân tạo 2025 buộc các doanh nghiệp phải thay đổi tư duy từ “triển khai cho nhanh” sang “triển khai có kiểm soát”. Cụ thể:

  • Lựa chọn nhà cung cấp AI uy tín, minh bạch về công nghệ
  • Ký hợp đồng rõ ràng về trách nhiệm, bồi thường, hỗ trợ kỹ thuật
  • Thiết lập quy trình giám sát, kiểm tra và can thiệp của con người
  • Ưu tiên đối tác chịu ràng buộc pháp lý tại Việt Nam để chia sẻ rủi ro

Việc sử dụng AI không còn là câu chuyện thuần kỹ thuật, mà đã trở thành vấn đề quản trị rủi ro và tuân thủ pháp luật.

Kết luận: AI có thể tự động hóa, nhưng trách nhiệm thì không

Luật Trí tuệ nhân tạo 2025 khẳng định một nguyên tắc quan trọng: con người vẫn là trung tâm của mọi quyết định quan trọng.

AI có thể giúp doanh nghiệp tăng năng suất, giảm chi phí và mở rộng quy mô, nhưng trách nhiệm pháp lý không thể giao cho thuật toán. Càng phụ thuộc vào AI, doanh nghiệp càng phải kiểm soát chặt chẽ hơn.

Trong kỷ nguyên AI, câu hỏi không còn là “có nên dùng AI hay không”, mà là: bạn đã sẵn sàng chịu trách nhiệm cho những gì AI tạo ra hay chưa?

Post a Comment

Previous Post Next Post