Chọn trang

Luật AI 2025: Bước Ngoặt Pháp Lý Lịch Sử Cho Kỷ Nguyên Số Việt Nam Từ 1/3/2026

Luật Trí tuệ nhân tạo Việt Nam 2025

Ngày 1/3/2026 sẽ đi vào lịch sử ngành công nghệ Việt Nam khi Luật Trí tuệ nhân tạo (Luật AI) 2025 chính thức có hiệu lực. Trong bối cảnh thế giới đang chạy đua khốc liệt về công nghệ, việc Việt Nam ban hành một bộ luật riêng biệt về AI không chỉ khẳng định tầm nhìn chiến lược của Chính phủ mà còn tạo ra một ‘sân chơi’ minh bạch, an toàn cho cả doanh nghiệp và người dùng. Đây là cột mốc quan trọng, chuyển từ giai đoạn phát triển tự phát sang giai đoạn phát triển có kiểm soát và bền vững.

1. Bối cảnh ra đời và Sự cấp thiết của Luật AI 2025

Sự bùng nổ của các mô hình ngôn ngữ lớn (LLM), trí tuệ nhân tạo tạo sinh (Generative AI) và các ứng dụng tự động hóa đã đặt ra những thách thức chưa từng có đối với hệ thống pháp luật hiện hành. Trước khi Luật AI 2025 ra đời, các quy định liên quan đến AI tại Việt Nam nằm rải rác trong Luật Công nghệ thông tin, Luật An toàn thông tin mạng và Luật An ninh mạng. Tuy nhiên, các văn bản này chưa đủ độ sâu để điều chỉnh các đặc thù của AI như tính ‘hộp đen’ của thuật toán, quyền sở hữu trí tuệ đối với sản phẩm do AI tạo ra hay trách nhiệm bồi thường thiệt hại do AI gây ra.

Luật AI 2025 ra đời nhằm giải quyết ba bài toán lớn: Thúc đẩy đổi mới sáng tạo, Quản trị rủi roBảo vệ quyền con người. Việt Nam học hỏi có chọn lọc từ Đạo luật AI của EU (EU AI Act) nhưng có những điều chỉnh linh hoạt để phù hợp với thực tiễn quốc gia đang phát triển, ưu tiên hỗ trợ các doanh nghiệp khởi nghiệp và thu hút đầu tư nước ngoài vào lĩnh vực công nghệ cao.

2. Phân loại rủi ro: Trọng tâm của quản lý AI

Một trong những điểm sáng nhất của Luật AI 2025 là phương pháp tiếp cận dựa trên rủi ro. Thay vì áp dụng một quy định cứng nhắc cho tất cả các loại hình AI, luật phân chia các hệ thống AI thành bốn cấp độ rủi ro chính:

  • Rủi ro không thể chấp nhận: Các hệ thống AI vi phạm quyền con người cơ bản, như hệ thống chấm điểm tín nhiệm xã hội (social scoring) hoặc các kỹ thuật thao túng tâm lý độc hại. Những hệ thống này sẽ bị cấm hoàn toàn tại Việt Nam từ ngày 1/3/2026.
  • Rủi ro cao: Bao gồm AI ứng dụng trong y tế, giáo dục, cơ sở hạ tầng trọng yếu và các hệ thống sinh trắc học. Các doanh nghiệp vận hành AI thuộc nhóm này phải trải qua quy trình đánh giá sự phù hợp khắt khe và lưu trữ nhật ký hệ thống chi tiết.
  • Rủi ro trung bình: Các hệ thống như Chatbot hay Deepfake. Luật yêu cầu tính minh bạch tuyệt đối, buộc người dùng phải được thông báo rằng họ đang tương tác với máy thay vì người thật.
  • Rủi ro thấp: Các ứng dụng lọc thư rác, trò chơi điện tử hoặc các hệ thống hỗ trợ văn phòng cơ bản. Nhóm này được khuyến khích tuân thủ các quy tắc đạo đức tự nguyện mà không cần sự can thiệp sâu của cơ quan quản lý.

3. Cơ chế ‘Sandbox’ – Đòn bẩy cho doanh nghiệp khởi nghiệp

Nhận thức được rằng các quy định quá khắt khe có thể bóp nghẹt sự sáng tạo, Luật AI 2025 đã dành riêng một chương quy định về Cơ chế thử nghiệm có kiểm soát (Regulatory Sandbox). Đây là không gian pháp lý an toàn để các doanh nghiệp thử nghiệm các mô hình AI mới mà không lo ngại về các rào cản pháp lý thông thường trong một thời gian nhất định.

Tại Sandbox, các startup có thể nhận được sự tư vấn trực tiếp từ các chuyên gia của Bộ Thông tin và Truyền thông và Bộ Khoa học và Công nghệ. Nếu dự án chứng minh được tính an toàn và hiệu quả, nó sẽ được cấp phép phổ biến rộng rãi. Đây là cơ hội vàng để Việt Nam tạo ra những ‘Kỳ lân’ công nghệ trong lĩnh vực AI, giúp sản phẩm ‘Made in Vietnam’ có thể cạnh tranh trên bản đồ thế giới.

4. Trách nhiệm của doanh nghiệp và Quyền lợi của người dùng

Luật AI 2025 quy định rất rõ trách nhiệm của các nhà phát triển (Providers) và bên triển khai (Deployers). Doanh nghiệp phải đảm bảo dữ liệu dùng để huấn luyện AI là dữ liệu ‘sạch’, không vi phạm bản quyền và không chứa các định kiến (bias) gây phân biệt đối xử. Đặc biệt, vấn đề bảo vệ dữ liệu cá nhân được đặt lên hàng đầu, kết nối chặt chẽ với Nghị định bảo vệ dữ liệu cá nhân (PDPD) đã ban hành trước đó.

Người tiêu dùng Việt Nam từ năm 2026 sẽ có quyền yêu cầu giải thích về các quyết định do AI thực hiện (Right to explanation). Ví dụ, nếu một hồ sơ vay vốn bị AI từ chối, ngân hàng có trách nhiệm cung cấp thông tin về các tiêu chí chính dẫn đến kết quả đó. Điều này giúp loại bỏ sự bất công và tăng cường niềm tin của xã hội vào công nghệ mới.

5. Lộ trình thực thi và những thách thức phía trước

Từ nay đến ngày 1/3/2026, Chính phủ sẽ ban hành một loạt các Nghị định và Thông tư hướng dẫn chi tiết. Thách thức lớn nhất nằm ở năng lực thực thi của các cơ quan quản lý. Việc thẩm định các thuật toán phức tạp đòi hỏi đội ngũ chuyên gia có trình độ kỹ thuật cực cao, điều mà hiện nay chúng ta vẫn đang trong quá trình bồi dưỡng.

Ngoài ra, chi phí tuân thủ cũng là một vấn đề đau đầu đối với các doanh nghiệp nhỏ và vừa (SMEs). Việc phải thiết lập hệ thống quản trị dữ liệu, kiểm định an toàn có thể làm tăng chi phí vận hành. Do đó, Luật cũng đề cập đến các chính sách hỗ trợ thuế và tín dụng cho các doanh nghiệp tiên phong trong việc tuân thủ các tiêu chuẩn AI an toàn.

6. Tầm nhìn đến năm 2030: Việt Nam là trung tâm AI khu vực

Luật AI 2025 không chỉ là một văn bản hành chính, nó là nền móng cho Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo. Với hành lang pháp lý vững chắc, Việt Nam đặt mục tiêu đến năm 2030 sẽ nằm trong nhóm 4 quốc gia dẫn đầu khu vực ASEAN về AI. Việc minh bạch hóa luật chơi sẽ thu hút các tập đoàn công nghệ lớn như Google, Microsoft, Meta đầu tư mạnh mẽ hơn vào các trung tâm dữ liệu và R&D tại Việt Nam.

Kết luận: Sự xuất hiện của Luật AI 2025 là một bước đi tất yếu và kịp thời. Đối với doanh nghiệp, đây là lúc cần rà soát lại quy trình công nghệ và chuẩn bị nguồn lực cho việc tuân thủ. Đối với người dân, đây là lá chắn bảo vệ họ trước những rủi ro tiềm ẩn của công nghệ. Ngày 1/3/2026 sẽ mở ra một trang mới, nơi trí tuệ nhân tạo phục vụ con người Việt Nam một cách an toàn, nhân văn và hiệu quả nhất.