Theo các nguồn tin của Reuters thì công ty mẹ của Google đã khuyên nhân viên không nhập các tài liệu bí mật của mình vào các chatbot AI.
Các chatbot, trong số đó có Bard và ChatGPT, là các chương trình nghe giống con người, sử dụng cái gọi là trí tuệ nhân tạo tổng quát để tổ chức các cuộc trò chuyện với người dùng và trả lời vô số các vấn đề khác.
Alphabet cũng cảnh báo các kỹ sư của mình tránh sử dụng trực tiếp mã máy tính mà chatbot có thể tạo ra, một số người cho biết.
Khi được yêu cầu bình luận, công ty cho biết Bard có thể đưa ra các đề xuất mã không mong muốn, nhưng dù sao thì nó cũng giúp ích cho các lập trình viên. Google cũng cho biết họ muốn minh bạch về những hạn chế trong công nghệ của mình.
Những lo ngại cho thấy Google muốn tránh các thiệt hại kinh doanh từ phần mềm mà hãng tung ra để cạnh tranh với ChatGPT như thế nào. Với Chatbot Bard, Google đã đổ vào hàng tỷ USD và việc đầu tư vẫn chưa dừng lại. Thậm chí, công ty còn từng chịu khá nhiều thiệt hại khi Bard đưa ra những câu trả lời không chính xác ngay lần đầu tiên ra mắt trước đó.
Sự thận trọng của Google cũng phản ánh những gì đang trở thành tiêu chuẩn bảo mật cho các tập đoàn, cụ thể là cảnh báo nhân viên về việc sử dụng các chương trình trò chuyện có sẵn công khai.
Ngày càng nhiều doanh nghiệp trên khắp thế giới đã thiết lập các biện pháp bảo vệ trên các chatbot AI, trong số đó có Samsung, Amazon và Deutsche Bank...
Theo một cuộc khảo sát với gần 12.000 người được hỏi, bao gồm cả từ các công ty hàng đầu có trụ sở tại Hoa Kỳ, được thực hiện bởi trang mạng Fishbowl thì có khoảng 43% chuyên gia đang sử dụng ChatGPT hoặc các công cụ AI khác kể từ tháng 1 thường không thông báo với người quản lý của họ.
Hồi tháng 2, Google đã phải yêu cầu nhân viên kiểm tra Bard trước khi ra mắt, lưu ý không được cung cấp thông tin nội bộ. Tính đến hiện tại, Google đang triển khai Bard tới hơn 180 quốc gia và bằng 40 ngôn ngữ như một bàn đạp cho sự sáng tạo và các cảnh báo của nó mở rộng đến các đề xuất mã của nó.
Google nói với Reuters rằng họ đã có các cuộc trò chuyện chi tiết với Ủy ban bảo vệ dữ liệu của Ireland và đang giải quyết các câu hỏi của cơ quan quản lý, sau một báo cáo của Politico hôm thứ Ba cho rằng công ty đã hoãn việc ra mắt Bard's EU trong tuần này để chờ thêm thông tin về tác động của chatbot đối với quyền riêng tư.
Các Chatbot AI có thể soạn thảo email, tài liệu, thậm chí cả phần mềm, hứa hẹn sẽ tăng tốc đáng kể các tác vụ trong thời gian tới. Tuy nhiên, các nội dung mà chatbot AI đưa ra có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc thậm chí là các đoạn có bản quyền.
Thông báo về quyền riêng tư của Google được cập nhật vào ngày 1 tháng 6 cũng nêu rõ: "Không bao gồm thông tin bí mật hoặc nhạy cảm trong các cuộc trò chuyện trên Bard của bạn".
Google và Microsoft cũng đang cung cấp các công cụ đàm thoại cho khách hàng doanh nghiệp với mức giá cao hơn nhưng không thu thập dữ liệu vào các mô hình AI công cộng. Cài đặt mặc định trong Bard và ChatGPT là lưu lịch sử hội thoại của người dùng, người dùng có thể chọn xóa lịch sử này.
Yusuf Mehdi, giám đốc tiếp thị người tiêu dùng của Microsoft cho biết "có lý" khi các công ty không muốn nhân viên của họ sử dụng chatbot công cộng cho công việc.
Mehdi cho biết: “Các công ty đang có quan điểm thận trọng hợp lý khi giải thích cách so sánh chatbot Bing miễn phí của Microsoft với phần mềm doanh nghiệp của họ. "Ở đó, các chính sách của chúng tôi nghiêm ngặt hơn nhiều."
Microsoft từ chối bình luận về việc liệu họ có lệnh cấm hoàn toàn đối với nhân viên nhập thông tin bí mật vào các chương trình AI công khai hay không, bao gồm cả chương trình của chính họ, mặc dù một giám đốc điều hành khác ở đó nói với Reuters rằng cá nhân ông đã hạn chế sử dụng.
Matthew Prince, Giám đốc điều hành của Cloudflare, nói rằng việc nhập các vấn đề bí mật vào chatbot giống như "lật tẩy một loạt nghiên cứu sinh tiến sĩ trong tất cả các hồ sơ cá nhân của bạn."
Anh Nguyễn (theo Reuters)