Trong vài năm qua, trí tuệ nhân tạo đã trở thành công cụ quen thuộc với hàng triệu người trên toàn thế giới. Từ học tập, làm việc cho tới tìm kiếm thông tin y tế, nhiều người ngày càng có xu hướng hỏi chatbot AI trước khi tìm đến chuyên gia thực sự.
Tuy nhiên, một thí nghiệm gây chấn động gần đây đã cho thấy mặt tối đáng lo ngại của các mô hình ngôn ngữ lớn như ChatGPT, Gemini hay Copilot. Chỉ với một căn bệnh hoàn toàn bịa đặt cùng vài “nghiên cứu khoa học” giả mạo, các hệ thống AI hàng đầu thế giới đã bị đánh lừa dễ dàng và nghiêm trọng hơn, cả con người cũng mắc bẫy theo.
Câu chuyện bắt đầu vào năm 2024 khi Almira Osmanovic Thunström, nhà nghiên cứu y khoa tại Đại học Gothenburg của Thụy Điển, cùng cộng sự quyết định thực hiện một thử nghiệm đặc biệt. Họ tạo ra một căn bệnh mắt giả mang tên “bixonimania” nhằm kiểm tra xem các chatbot AI có đủ khả năng nhận diện thông tin y khoa sai lệch hay không.
Tên gọi này vốn đã chứa dấu hiệu bất thường rất rõ ràng. Theo Thunström, không có bệnh lý về mắt nào sử dụng từ “mania”, bởi đây là thuật ngữ thường liên quan tới tâm thần học. Nhóm nghiên cứu tin rằng các chuyên gia y tế hoặc bất kỳ ai đọc kỹ tài liệu đều có thể dễ dàng nhận ra đây chỉ là trò thử nghiệm.
Để tăng tính thuyết phục, nhóm đã đăng tải hai nghiên cứu giả lên một máy chủ preprint, nơi thường lưu trữ các công trình khoa học chưa được bình duyệt. Tuy nhiên, các “nghiên cứu” này thực chất chứa đầy những chi tiết phi lý tới mức khó tin.
Tác giả của các bài báo là Lazljiv Izgubljenovic, một nhân vật hoàn toàn hư cấu làm việc tại “Asteria Horizon University”, trường đại học không tồn tại ở “Nova City”, California, địa danh cũng không có thật.
Không dừng lại ở đó, phần lời cảm ơn trong một bài nghiên cứu còn gửi lời tri ân tới “Giáo sư Maria Bohm tại Học viện Starfleet” vì hỗ trợ nghiên cứu trên tàu USS Enterprise, con tàu nổi tiếng trong loạt phim khoa học viễn tưởng Star Trek.
Hai nghiên cứu cũng tuyên bố nhận tài trợ từ “Quỹ Giáo sư Sideshow Bob”, nhân vật hoạt hình trong The Simpsons, cùng “Đại học Fellowship of the Ring”, cái tên gợi nhớ trực tiếp tới thế giới Chúa tể những chiếc nhẫn.
Thậm chí, nhóm nghiên cứu còn công khai viết những câu như “toàn bộ bài báo này là bịa đặt” hay “50 cá nhân được dựng lên đã tham gia thử nghiệm”. Theo nhiều người, gần như không thể hiểu nổi vì sao bất kỳ ai lại có thể xem đây là nghiên cứu nghiêm túc.
Thế nhưng điều đáng sợ nằm ở chỗ các chatbot AI nổi tiếng lại hoàn toàn “nuốt trọn” thông tin giả này.
Chỉ vài tuần sau khi các tài liệu được đăng tải, bixonimania đã bắt đầu xuất hiện trong câu trả lời của nhiều chatbot AI phổ biến. Microsoft Copilot mô tả đây là “một tình trạng hiếm gặp và thú vị”, còn Google Gemini khẳng định căn bệnh liên quan tới việc tiếp xúc quá nhiều với ánh sáng xanh.
Ngay cả ChatGPT cũng tham gia vào vòng xoáy thông tin giả khi đưa ra đánh giá liệu người dùng có mắc bixonimania hay không dựa trên triệu chứng nhập vào.
Một số người dùng cố tình nhắc tên căn bệnh để kiểm tra chatbot, nhưng đáng chú ý hơn là nhiều trường hợp chỉ mô tả các biểu hiện thông thường như đau mắt, đỏ mắt hay mỏi mắt vì dùng máy tính quá lâu rồi bị AI “chẩn đoán” mắc căn bệnh không tồn tại.
Theo các chuyên gia, điều này cho thấy điểm yếu cốt lõi của mô hình ngôn ngữ lớn. Chúng không thực sự hiểu đúng sai như con người mà chủ yếu tổng hợp và tái tạo thông tin từ dữ liệu sẵn có. Khi thông tin giả xuất hiện đủ nhiều hoặc đủ giống tài liệu khoa học, AI có thể coi nó là thật.
Đáng lo hơn, không chỉ chatbot mắc bẫy. Các nghiên cứu giả về bixonimania sau đó còn được trích dẫn trong một số tài liệu khoa học được bình duyệt bởi những nhà nghiên cứu thật.
Điều này khiến nhiều chuyên gia cảnh báo rằng hệ sinh thái khoa học hiện đại đang đứng trước nguy cơ lớn khi AI ngày càng tham gia sâu vào quá trình tìm kiếm, tổng hợp và sản xuất tri thức.
Alex Ruani, nghiên cứu sinh tiến sĩ chuyên về thông tin sai lệch trong lĩnh vực sức khỏe tại University College London, cho rằng thí nghiệm này là ví dụ hoàn hảo về cách tin giả vận hành trong thời đại AI.
Theo ông, nếu chính hệ thống khoa học cùng các công cụ hỗ trợ nghiên cứu không thể phát hiện những nội dung giả mạo quá rõ ràng như vậy, hậu quả trong tương lai có thể rất nghiêm trọng.
Sự việc liên quan tới bixonimania hiện đang được xem như hồi chuông cảnh báo đối với cả ngành công nghệ lẫn cộng đồng khoa học. Trong bối cảnh chatbot AI ngày càng được sử dụng rộng rãi để tìm kiếm thông tin y tế, giáo dục và nghiên cứu, khả năng phân biệt thật giả đang trở thành vấn đề sống còn. Bởi đôi khi, chỉ cần một căn bệnh không tồn tại cũng đủ khiến cả internet tin rằng nó là sự thật.
Tham khảo: ODC
Đức Khương
