Anthropic vừa công bố cáo buộc nghiêm trọng rằng ba công ty trí tuệ nhân tạo của Trung Quốc đã tiến hành các chiến dịch quy mô công nghiệp nhằm đánh cắp công nghệ từ chatbot Claude.
Trong một bài đăng blog hôm thứ Hai, hãng này cho biết DeepSeek, Moonshot AI và MiniMax đã tạo ra khoảng 24.000 tài khoản giả mạo để thực hiện hơn 16 triệu lượt tương tác với Claude, vi phạm nghiêm trọng các điều khoản dịch vụ và hạn chế truy cập theo khu vực địa lý.
Các công ty này đã sử dụng một kỹ thuật gọi là “chưng cất kiến thức” (distillation) - một phương pháp huấn luyện mô hình AI yếu hơn dựa trên đầu ra của mô hình mạnh hơn. Mặc dù “chưng cất” là kỹ thuật hợp pháp được các phòng lab AI sử dụng để tạo phiên bản nhỏ gọn, rẻ hơn từ chính mô hình của họ, nhưng đối thủ cạnh tranh có thể lợi dụng nó để sao chép khả năng của các công ty khác trong thời gian ngắn và với chi phí thấp hơn rất nhiều so với việc tự phát triển độc lập.
Quy mô của mỗi cuộc tấn công khác nhau đáng kể. Anthropic phát hiện DeepSeek đã thực hiện hơn 150.000 lượt trao đổi nhằm cải thiện logic nền tảng và điều chỉnh mô hình, đặc biệt tập trung vào việc tạo ra các phương án thay thế an toàn kiểm duyệt cho các truy vấn nhạy cảm về chính sách.
Trong khi đó, Moonshot AI đã tiến hành hơn 3,4 triệu lượt tương tác nhắm vào khả năng suy luận chủ động, sử dụng công cụ, lập trình, phân tích dữ liệu và thị giác máy tính.
Đáng chú ý nhất là chiến dịch của MiniMax với 13 triệu lượt trao đổi, tập trung vào lập trình chủ động, sử dụng và điều phối công cụ. Anthropic cho biết họ đã phát hiện chiến dịch này khi nó vẫn đang diễn ra, trước khi MiniMax phát hành mô hình mà họ đang huấn luyện.
Đặc biệt, khi Anthropic ra mắt một phiên bản Claude mới trong thời gian MiniMax đang hoạt động, công ty này đã chuyển hướng trong vòng 24 giờ, điều chỉnh gần một nửa lưu lượng truy cập của họ để thu thập khả năng từ hệ thống mới nhất.
Anthropic nhấn mạnh rằng các chiến dịch này đang gia tăng về cường độ và mức độ tinh vi. Hãng cảnh báo các mô hình được tạo ra thông qua chưng cất bất hợp pháp sẽ thiếu các biện pháp bảo vệ cần thiết, tạo ra rủi ro an ninh quốc gia đáng kể. Nếu những mô hình này được phát hành dưới dạng mã nguồn mở, rủi ro sẽ nhân lên khi khả năng lan truyền tự do ngoài tầm kiểm soát của bất kỳ chính phủ đơn lẻ nào.
Công ty, vừa huy động được 30 tỷ USD trong vòng gọi vốn mới nhất với định giá 380 tỷ USD, khẳng định các cuộc tấn công “chưng cất” này củng cố lý do cho các biện pháp kiểm soát xuất khẩu chip. Việc hạn chế tiếp cận chip không chỉ giảm khả năng huấn luyện mô hình trực tiếp mà còn hạn chế quy mô của hoạt động “chưng cất” bất hợp pháp, vì quy mô khai thác mà DeepSeek, MiniMax và Moonshot thực hiện đòi hỏi phải có quyền truy cập vào các chip tiên tiến.
Anthropic kêu gọi phản ứng phối hợp giữa ngành công nghiệp AI, các nhà cung cấp đám mây và các nhà hoạch định chính sách. Hãng cho biết sẽ tiếp tục đầu tư vào các biện pháp phòng thủ khiến các cuộc tấn công “chưng cất” khó thực hiện hơn và dễ xác định hơn, đồng thời nhấn mạnh cửa sổ thời gian để hành động đang thu hẹp và mối đe dọa vượt xa bất kỳ công ty hay khu vực đơn lẻ nào.
Hiện các công ty DeepSeek, Moonshot và MiniMax chưa đưa ra phản hồi ngay lập tức về các cáo buộc này.
Nguyễn Hải
