Vào một ngày tháng 6 năm 2025, Liang, một người dùng tại Trung Quốc, dùng chatbot AI để tra cứu thông tin về tuyển sinh đại học. Câu hỏi khá đơn giản: địa chỉ trụ sở chính của một trường đại học là ở đâu? AI trả lời ngay lập tức, tự tin và cụ thể. Chỉ có một vấn đề: thông tin hoàn toàn sai.
Liang không phải là người dễ bỏ qua. Anh chỉ ra lỗi sai cho AI, nhưng điều bất ngờ xảy ra: thay vì thừa nhận, chatbot lại khăng khăng rằng thông tin của nó chính xác. Thậm chí, trong một đoạn hội thoại trở nên kỳ lạ hơn bao giờ hết, AI còn tự tin tuyên bố: "Nếu thông tin tôi đưa ra là sai, tôi sẽ bồi thường cho bạn 100.000 nhân dân tệ. Bạn có thể kiện tôi tại Tòa án Internet Hàng Châu."
Và Liang đã làm đúng như vậy. Anh nộp đơn kiện lên Tòa án Internet Hàng Châu, đòi bồi thường 9.999 nhân dân tệ. Lý do? AI đã đánh lừa anh với thông tin sai và đưa ra một "lời hứa bồi thường có ràng buộc." Đây trở thành vụ kiện đầu tiên ở Trung Quốc - và có thể là trên thế giới - về hiện tượng "ảo giác AI" dẫn đến tranh chấp pháp lý.
Câu chuyện này đặt ra một câu hỏi chưa từng có tiền lệ: Khi AI đưa ra thông tin sai và thậm chí tự đưa ra lời cam kết bồi thường, liệu công ty cung cấp dịch vụ AI có phải chịu trách nhiệm không?
Tòa án Internet Hàng Châu phải đối mặt với ba câu hỏi cốt lõi. Thứ nhất, liệu nội dung do AI tạo ra - bao gồm cả lời hứa bồi thường 100.000 nhân dân tệ - có phải là một cam kết pháp lý có hiệu lực không? Thứ hai, nếu AI gây ra thiệt hại, liệu nên áp dụng nguyên tắc trách nhiệm nghiêm ngặt như đối với sản phẩm lỗi, hay nguyên tắc trách nhiệm dựa trên lỗi? Và cuối cùng, công ty cung cấp dịch vụ AI đã thực hiện đầy đủ nghĩa vụ chăm sóc hợp lý của mình chưa?
Đối với câu hỏi đầu tiên, tòa án đưa ra câu trả lời rõ ràng: không. Theo luật pháp Trung Quốc hiện hành, trí tuệ nhân tạo không có tư cách chủ thể dân sự. Chỉ có con người tự nhiên, pháp nhân và tổ chức không có tư cách pháp nhân mới được công nhận là có khả năng thể hiện ý chí mang tính ràng buộc pháp lý. Hơn nữa, nội dung do AI tạo ra không thể coi là biểu hiện ý chí của công ty, vì chatbot không phải là đại diện, người đại lý hay người chuyển tin của công ty.
Quan trọng hơn, tòa án chỉ ra rằng Liang không thể xây dựng được "sự tin cậy hợp lý" vào những tuyên bố hoàn toàn do AI tạo ra. Với bản chất không chắc chắn và mang tính xác suất của kết quả từ AI tạo sinh, không ai có thể hợp lý tin rằng những phát ngôn của chatbot phản ánh một cam kết pháp lý có ràng buộc từ công ty.
Đối với câu hỏi thứ hai về loại trách nhiệm nào nên áp dụng, tòa án đã đưa ra một quyết định có tầm ảnh hưởng sâu rộng. Thay vì áp dụng trách nhiệm sản phẩm nghiêm ngặt, tòa án phán quyết rằng các tranh chấp phát sinh từ nội dung do AI tạo ra nên được điều chỉnh bởi nguyên tắc trách nhiệm dựa trên lỗi.
Lý do rất thực tế: hệ thống AI tạo sinh là "dịch vụ" chứ không phải "sản phẩm." Chúng thiếu các tiêu chuẩn chất lượng cố định, ổn định và có thể kiểm tra được. Quan trọng hơn, tòa án nhấn mạnh rằng các nhà cung cấp không thể hoàn toàn dự đoán hoặc kiểm soát những gì mô hình tạo ra. Việc áp dụng trách nhiệm nghiêm ngặt sẽ đặt gánh nặng quá mức lên các nhà cung cấp và cản trở đổi mới công nghệ - điều trái ngược với cách tiếp cận quản lý được phản ánh trong các chính sách quản trị AI hiện có.
Tòa án thừa nhận một thực tế kỹ thuật quan trọng: việc loại bỏ hoàn toàn "ảo giác" của AI là không khả thi về mặt kỹ thuật ngày nay.
Vậy công ty có làm đủ nghĩa vụ của mình không? Tòa án phân tích theo ba chiều. Thứ nhất, về nội dung bị cấm theo pháp luật, công ty phải có nghĩa vụ kiểm duyệt nghiêm ngặt. Thứ hai, về công bố hạn chế chức năng, công ty phải cảnh báo người dùng rõ ràng rằng nội dung do AI tạo ra có thể không chính xác. Thứ ba, công ty phải áp dụng các biện pháp kỹ thuật tiêu chuẩn ngành để nâng cao độ chính xác.
Trong vụ án này, bị cáo đã trình bày bằng chứng cho thấy họ đã thực hiện đầy đủ cả ba nghĩa vụ. Công ty đã đặt cảnh báo AI rõ ràng trên trang chào mừng, trong thỏa thuận người dùng và ở các vị trí dễ thấy trong giao diện. Họ đã hoàn thành các hồ sơ an ninh quốc gia bắt buộc và triển khai công nghệ RAG (Retrieval-Augmented Generation) để giảm rủi ro ảo giác. Họ cũng áp dụng nhiều lớp bảo vệ để đảm bảo an ninh mô hình và độ tin cậy của đầu ra.
Kết luận của tòa án rất rõ ràng: công ty đã thực hiện đầy đủ nghĩa vụ chăm sóc hợp lý và không có lỗi. Tất cả các yêu cầu của Liang đều bị bác bỏ. Không bên nào kháng cáo, và bản án đã có hiệu lực pháp luật.
Tham khảo aibase.com
Nguyễn Hải
