Kiểm duyệt nội dung là một trong những vấn đề gai góc nhất trên internet trong nhiều thập kỷ. Đây là một chủ đề khó giải quyết đối với bất kỳ ai, khi xem xét tính chủ quan đi đôi với việc tìm ra nội dung nào sẽ được cho phép trên một nền tảng nhất định. Nhà sản xuất ChatGPT cho rằng AI có thể giúp giải quyết vấn đề này. Đó là lý do vì sao GPT-4 đã được tận dụng cho việc kiểm tra nội dung. Nó đang sử dụng mô hình đa phương thức lớn "để xây dựng một hệ thống kiểm duyệt nội dung có thể mở rộng, nhất quán và có thể tùy chỉnh".
OpenAI đã viết trong một bài đăng trên blog rằng GPT-4 không chỉ có thể giúp đưa ra các quyết định kiểm duyệt nội dung mà còn hỗ trợ phát triển các chính sách và lặp lại nhanh chóng các thay đổi về chính sách, "giảm chu kỳ từ hàng tháng xuống hàng giờ". Họ tuyên bố rằng mô hình có thể phân tích cú pháp các quy định và sắc thái khác nhau trong chính sách nội dung và thích ứng ngay lập tức với bất kỳ bản cập nhật nào. Điều này sẽ giúp việc gắn nhãn nội dung nhất quán hơn.
"Chúng tôi tin rằng điều này mang lại một tầm nhìn tích cực hơn về tương lai của các nền tảng kỹ thuật số, nơi AI có thể giúp điều tiết lưu lượng truy cập trực tuyến theo chính sách dành riêng cho nền tảng và giảm bớt gánh nặng tinh thần cho một số lượng lớn người điều hành", đại diện OpenAI cho biết.
"Bất kỳ ai có quyền truy cập API OpenAI đều có thể triển khai phương pháp này để tạo hệ thống kiểm duyệt hỗ trợ AI của riêng họ", OpenAI tuyên bố các công cụ kiểm duyệt GPT-4 có thể giúp các công ty thực hiện số lượng công việc tương đương khoảng sáu tháng trong khoảng một ngày.
Đã có tài liệu rõ ràng rằng việc kiểm duyệt thủ công những nội dung gây tổn thương có thể tác động đáng kể đến sức khỏe tâm thần của người điều hành, đặc biệt là khi nói đến tài liệu đồ họa. Năm 2020, Meta đã đồng ý trả cho hơn 11.000 người điều hành ít nhất 1.000 USD mỗi người để bồi thường cho các vấn đề sức khỏe tâm thần có thể bắt nguồn từ việc xem xét tài liệu đã được đăng trên Facebook.
Việc sử dụng AI để giảm bớt một số gánh nặng từ những người đánh giá là con người có thể mang lại lợi ích rất lớn. Ví dụ, Meta đã sử dụng AI để trợ giúp người điều hành lâu năm. Tuy nhiên, OpenAI nói rằng, cho đến nay, người điều hành là con người đã nhận được sự trợ giúp từ "các mô hình máy học nhỏ hơn dành riêng cho ngành dọc. Quá trình này vốn đã chậm và có thể dẫn đến căng thẳng tinh thần cho người điều hành là con người."
Các mô hình AI vẫn còn rất lâu mới đạt được đến sự hoàn hảo. Các công ty lớn từ lâu đã sử dụng AI trong các quy trình kiểm duyệt của họ và dù có hoặc không có sự trợ giúp của công nghệ, vẫn có những trường hợp sai sót. Vẫn còn phải xem liệu hệ thống của OpenAI có thể tránh được nhiều bẫy kiểm duyệt chính mà các công ty khác đã vướng phải trong nhiều năm hay không.
Trong mọi trường hợp, OpenAI đồng ý rằng con người vẫn cần tham gia vào quá trình này. Vallone, người làm việc trong nhóm chính sách của OpenAI, cho biết: “Chúng tôi đã tiếp tục có sự đánh giá của con người để xác minh một số phán đoán của mô hình".
"Các đánh giá của các mô hình ngôn ngữ dễ bị ảnh hưởng bởi những sai lệch không mong muốn có thể đã được đưa vào mô hình trong quá trình đào tạo. Như với bất kỳ ứng dụng AI nào, kết quả và đầu ra sẽ cần được theo dõi, xác thực và tinh chỉnh cẩn thận bằng cách duy trì con người trong vòng kiểm duyệt đó".
"Bằng cách giảm sự tham gia của con người vào một số phần của quy trình kiểm duyệt có thể được xử lý bằng các mô hình ngôn ngữ, nguồn nhân lực có thể tập trung hơn vào việc giải quyết các trường hợp phức tạp cần thiết nhất cho việc tinh chỉnh chính sách", OpenAI cho biết.
Anh Nguyễn