Chỉ trong 20 ngày, nhân viên của Samsung Semiconductor đã sử dụng ChatGPT ít nhất ba lần để tìm cách khắc phục nhanh các sự cố nội bộ. Trong một trường hợp, một nhân viên đã nhập mã nguồn của một chương trình độc quyền vào bot. Còn với một trường hợp khác, ai đó đã cung cấp cho ChatGPT một loạt trình tự kiểm tra có tính bảo mật cao để xác định các chip bị lỗi và yêu cầu trợ giúp để tối ưu hóa. Ở trường hợp thứ ba, một nhân viên đã sử dụng trình dịch AI Naver Clova để chuyển đổi cuộc họp được ghi lại thành tài liệu, sau đó yêu cầu ChatGPT biến cuộc họp đó thành bản trình bày.
Vì ChatGPT được quản lý bởi một công ty bên thứ ba sử dụng máy chủ bên ngoài, nên chỉ cần nhập mã của Samsung, trình tự kiểm tra và nội dung cuộc họp nội bộ vào chương trình dẫn đến vụ rò rỉ. Một khi thông tin đó được chuyển giao, Samsung không thể kiểm soát được nữa. Bất cứ ai ở đầu bên kia có thể làm hầu như bất cứ điều gì họ muốn với dữ liệu đó.
Samsung Electronics đã nhanh chóng thông báo cho cả lãnh đạo và nhân viên của mình rằng định dạng dữ liệu học tập mở của ChatGPT đặt ra quá nhiều rủi ro bảo mật để áp dụng vào công việc hàng ngày, mặc dù ngay từ đầu họ đã giới thiệu công cụ này cho các nhân viên của mình.
Nhiều công ty đã bắt đầu tích hợp ChatGPT và các công cụ AI tổng quát khác vào công việc của họ. Một nghiên cứu gần đây do Aberdeen thực hiện trên 642 chuyên gia cho thấy 59% đã sử dụng AI sáng tạo cho công việc. Khi mọi người tiếp tục tận dụng các công cụ mạnh mẽ như ChatGPT và DALL-E 2, họ sẽ phải tìm cách giảm thiểu rủi ro rò rỉ hoặc tránh đạo văn, hay đơn giản là tránh sử dụng các công cụ này trong những trường hợp cụ thể.
Tuy nhiên, hậu quả trong sai lầm của Samsung không hoàn toàn tiêu cực. Công ty hiện đang làm việc để phát triển công cụ AI kiểu ChatGPT của riêng mình chỉ dành cho mục đích sử dụng nội bộ để nhân viên công ty có thể nhận được trợ giúp nhanh chóng mà không phải hy sinh tính bảo mật. Bên cạnh đó, Samsung Electronics đang áp dụng một loạt các biện pháp bảo vệ để ngăn chặn những rò rỉ tương tự trong tương lai.
Thái An