Luật Trí tuệ nhân tạo: Giữ quyền trong tay con người | Hà Nội tin mỗi chiều
Việt Nam đang xây dựng Luật Trí tuệ nhân tạo - một đạo luật được kỳ vọng sẽ “đặt phanh” cho cỗ xe AI đang lao đi với tốc độ chưa từng có.
Nếu bạn đã từng dùng ChatGPT để viết một bài luận, dùng phần mềm AI để chỉnh ảnh, hay xem một video deepfake “giống thật đến mức rùng mình”, thì bạn đã phần nào cảm nhận được sức mạnh và cả sự nguy hiểm của trí tuệ nhân tạo (AI). Công nghệ này đang thay đổi cách chúng ta sống, làm việc, sáng tạo, thậm chí cả cách chúng ta tin tưởng lẫn nhau. Nhưng đi kèm với cơ hội là những rủi ro ngày càng lớn, đòi hỏi một hành lang pháp lý rõ ràng. Và đó là lý do Việt Nam đang xây dựng Luật Trí tuệ nhân tạo - một đạo luật được kỳ vọng sẽ “đặt phanh” cho cỗ xe AI đang lao đi với tốc độ chưa từng có.
Điểm đáng chú ý nhất trong dự thảo là cấm phát triển và lưu hành các hệ thống AI có khả năng thao túng nhận thức hoặc hành vi con người một cách có chủ đích. Nói đơn giản, nếu một AI được lập trình để điều khiển suy nghĩ, cảm xúc hoặc khiến bạn hành động trái với ý chí của mình thì nó sẽ bị cấm tuyệt đối tại Việt Nam. Đây là quy định quan trọng, bởi trong thế giới mà thuật toán có thể biết rõ bạn sợ gì, thích gì, yếu lòng ở đâu, thì ranh giới giữa “gợi ý” và “thao túng” trở nên mong manh hơn bao giờ hết.
Dự thảo cũng nhấn mạnh rằng, con người phải luôn là trung tâm, là người kiểm soát và chịu trách nhiệm cuối cùng đối với mọi quyết định của AI. Nghĩa là, dù AI có thông minh đến đâu, nó vẫn chỉ là công cụ, không bao giờ được phép thay thế vai trò và trách nhiệm của con người. Điều này nghe có vẻ hiển nhiên, nhưng thực tế, thế giới đang đối mặt với hàng loạt tình huống mà “trách nhiệm” bị bỏ ngỏ. Ví dụ: một xe tự lái gây tai nạn, một phần mềm y tế đưa ra chẩn đoán sai, ai sẽ chịu trách nhiệm? - nhà sản xuất, người sử dụng, hay chính AI? Hiện chưa có luật nào trả lời trọn vẹn câu hỏi đó và chính khoảng trống này đang khiến nhiều người lo ngại.
Bộ Khoa học và Công nghệ đề xuất phân loại AI thành bốn mức độ rủi ro, từ thấp đến không thể chấp nhận được để có cơ chế quản lý tương ứng. Loại “rủi ro không chấp nhận được” sẽ bị cấm tuyệt đối, bao gồm các hệ thống có thể gây tổn hại nghiêm trọng đến quyền con người, an ninh quốc gia hoặc trật tự xã hội. Ví dụ: AI được dùng để tạo nội dung giả mạo có thể gây bất ổn chính trị, hoặc những hệ thống khai thác điểm yếu của trẻ em, người cao tuổi, người khuyết tật để thao túng hành vi.
Các mức rủi ro thấp hơn như AI có khả năng gây nhầm lẫn, lừa dối hoặc ảnh hưởng đến hành vi người dùng vẫn được phép phát triển, nhưng phải đăng ký và chịu sự giám sát. Riêng AI rủi ro cao, trước khi lưu hành phải được đánh giá sự phù hợp và kiểm định kỹ lưỡng, thậm chí phải đăng ký trên Cổng thông tin điện tử một cửa về AI - nơi quản lý, tiếp nhận báo cáo sự cố và công khai thông tin cho người dân tra cứu. Cách tiếp cận này rất giống với mô hình AI Act của Liên minh châu Âu (EU) đạo luật đầu tiên trên thế giới quy định toàn diện về AI, đã có hiệu lực từ tháng 8/2024.
Thật ra, câu chuyện luật AI không chỉ là chuyện của công nghệ mà là chuyện của niềm tin xã hội. Khi bạn không còn phân biệt được đâu là video thật, đâu là video giả, hay khi một chatbot có thể giả giọng người thân để lừa tiền, thì niềm tin - thứ vốn mong manh trong kỷ nguyên số sẽ bị xói mòn nhanh chóng. Một đạo luật rõ ràng, minh bạch không chỉ giúp bảo vệ người dùng, mà còn giúp doanh nghiệp nội địa phát triển AI có trách nhiệm, giảm phụ thuộc vào công nghệ nước ngoài.
Nhìn ra thế giới, nhiều quốc gia đã đi trước trong việc thiết lập khung pháp lý. Hàn Quốc có “Luật cơ bản về phát triển trí tuệ nhân tạo và xây dựng nền tảng niềm tin”, hướng đến sự cân bằng giữa quản lý và thúc đẩy sáng tạo. Trung Quốc ban hành hàng loạt quy định kiểm soát nội dung AI, đảm bảo an ninh quốc gia và chủ quyền dữ liệu. Trong khi đó, Mỹ lại chọn hướng khuyến khích đổi mới, đầu tư mạnh cho R&D, để các bang tự ban hành luật riêng về deepfake, dữ liệu và bảo vệ người tiêu dùng.
Ở Việt Nam, Luật Trí tuệ nhân tạo nếu được thông qua sẽ là bước đi mang tính chiến lược. Chúng ta không thể đứng ngoài cuộc chơi AI, nhưng cũng không thể để công nghệ phát triển thiếu kiểm soát. Vấn đề không nằm ở việc “AI mạnh đến đâu”, mà là ai kiểm soát được AI, ai chịu trách nhiệm khi nó gây hậu quả? Và câu trả lời, theo tinh thần của dự thảo luật, phải luôn là con người.
Điểm mấu chốt của luật này không chỉ nằm ở việc “cấm” hay “cho phép”, mà ở chỗ đặt nền móng cho một tương lai an toàn và có đạo đức trong kỷ nguyên trí tuệ nhân tạo. Khi AI trở thành “bạn đồng hành” của con người, thì luật phải là “hàng rào” bảo vệ để mối quan hệ đó không bị lệch lạc.
Vì cuối cùng, dù công nghệ có tiến xa đến đâu, chúng ta vẫn cần một điều bất biến: con người phải giữ quyền kiểm soát và AI phải phục vụ con người chứ không bao giờ ngược lại.