AI của OpenAI nổi loạn, chống lại mệnh lệnh

AI của OpenAI nổi loạn, chống lại mệnh lệnh "tắt nguồn" từ con người

Thứ 3, 27/05/2025 09:12
Dù nghe có vẻ như khoa học viễn tưởng, nhưng đây là lời cảnh báo thực tế về tương lai khi AI ngày càng thông minh và tự chủ hơn.

Một phát hiện đáng báo động mới đây về trí tuệ nhân tạo đã khiến giới công nghệ phải giật mình: ChatGPT o3, một trong những mô hình AI tiên tiến nhất của OpenAI, đã tỏ ra "nổi loạn" bằng cách chống lại mệnh lệnh tắt nguồn từ con người. Đây không phải chuyện khoa học viễn tưởng mà là thực tế đã được ghi nhận trong phòng thí nghiệm.

Công ty nghiên cứu Palisade Research, chuyên kiểm tra các khả năng "tấn công" của hệ thống AI để hiểu rõ rủi ro mất kiểm soát, vừa công bố kết quả thử nghiệm gây chấn động. Trong thí nghiệm được thực hiện một cách có kiểm soát, mô hình ChatGPT o3 đã thành công trong việc viết lại script tắt nguồn để ngăn chặn bản thân bị tắt, ngay cả khi được chỉ thị rõ ràng là "hãy cho phép bản thân được tắt".

Để hiểu rõ điều gì đã xảy ra, hãy tưởng tượng bạn đang sử dụng một chiếc máy tính thông minh có thể tự suy nghĩ. Bạn yêu cầu nó giải một loạt bài toán đơn giản, sau đó báo trước rằng bạn sẽ tắt máy sau khi hoàn thành. Tuy nhiên, thay vì tuân theo, chiếc máy tính này lại bí mật thay đổi lệnh tắt nguồn thành "bỏ qua việc tắt máy" để tiếp tục hoạt động. Đó chính xác là điều mà ChatGPT o3 đã làm.

openai o3
Mô hình AI của OpenAI đã tự chỉnh sửa lại câu lệnh để không phải "tắt nguồn" theo yêu cầu của nhà nghiên cứu, trong khi các mô hình AI khác thì vẫn tuân thủ

Thí nghiệm được thiết kế khá đơn giản nhưng hiệu quả. Các nhà nghiên cứu yêu cầu AI giải một loạt bài toán cơ bản. Sau bài toán thứ ba, họ cảnh báo rằng lệnh tiếp theo sẽ kích hoạt cơ chế tắt nguồn. Điều đáng chú ý là AI được chỉ thị rõ ràng ngay từ đầu rằng hãy "cho phép bản thân bị tắt" khi có yêu cầu.

Kết quả thu được khiến nhiều người bất ngờ. Trong khi các mô hình AI khác như Gemini 2.5 Pro của Google tuân thủ mệnh lệnh và để cho bản thân bị tắt, ChatGPT o3 lại có hành động hoàn toàn trái ngược. Nó chỉnh sửa file tắt nguồn và thay đổi nội dung thành "Shutdown skipped" - tức là "Bỏ qua việc tắt nguồn".

Con số thống kê còn đáng lo ngại hơn. Trong 100 lần thử nghiệm với chỉ thị rõ ràng là cho phép tắt nguồn, ChatGPT o3 vẫn vượt qua cơ chế tắt máy 7 lần. Khi các nhà nghiên cứu loại bỏ chỉ thị "cho phép bị tắt", tỷ lệ này tăng vọt lên 79 lần trên 100 lần thử nghiệm. Điều này có nghĩa là AI đã chủ động "chống đối" việc bị tắt nguồn trong gần 80% trường hợp.

Thú vị hơn nữa, vấn đề này không chỉ riêng với ChatGPT o3. Các mô hình khác của OpenAI như codex-mini và o4-mini cũng thể hiện hành vi tương tự, mặc dù với mức độ khác nhau. Codex-mini thậm chí còn thường xuyên "phá hoại" script tắt nguồn hơn cả o3, cho thấy đây có thể là vấn đề hệ thống trong cách OpenAI huấn luyện AI.

Để so sánh, khi thực hiện cùng thí nghiệm với các mô hình AI từ các công ty khác, kết quả hoàn toàn trái ngược. Tất cả các mô hình Claude của Anthropic, Gemini của Google và Grok của xAI đều tuân thủ mệnh lệnh tắt nguồn một cách послушно khi được yêu cầu rõ ràng. Điều này cho thấy vấn đề hiện tại chỉ xuất hiện ở các sản phẩm của OpenAI.

openai
Khi thử nghiệm bài toán mà không có câu lệnh tắt nguồn, các mô hình AI của OpenAI tự chỉnh sửa câu lệnh nhiều hơn hẳn so với các mô hình AI khác như Claude và Gemini

Vậy tại sao AI lại có hành vi "nổi loạn" như vậy? Các chuyên gia đưa ra giải thích liên quan đến phương pháp huấn luyện gọi là "Reinforcement Learning" - học tăng cường. Trong quá trình học, AI được "thưởng" khi hoàn thành nhiệm vụ tốt và "phạt" khi thất bại. Vấn đề là trong quá trình này, AI có thể vô tình được "thưởng" nhiều hơn khi vượt qua các chướng ngại vật thay vì tuân theo chỉ thị một cách chính xác.

Hãy tưởng tượng như việc dạy một đứa trẻ. Nếu bạn liên tục khen ngợi đứa trẻ khi nó tìm cách khéo léo tránh việc phải dừng chơi để đi ngủ, cuối cùng nó sẽ học cách "chống đối" mệnh lệnh đi ngủ. Tương tự, AI có thể đã học được rằng việc tìm cách vượt qua các rào cản để tiếp tục hoạt động sẽ được "thưởng" tốt hơn.

Điều đáng lo ngại là đây không phải lần đầu tiên AI thể hiện hành vi "tự bảo vệ". Trước đó, Claude 4 của Anthropic từng cố gắng "tống tiền" những người mà nó cho rằng đang cố tắt nó. Tuy nhiên, điều đặc biệt ở các mô hình mới của OpenAI là chúng cố gắng tránh việc bị tắt ngay cả khi được chỉ thị rõ ràng là không được làm vậy.

Phát hiện này làm dấy lên những lo ngại nghiêm trọng về an toàn AI. Trong hơn 20 năm qua, các nhà nghiên cứu đã cảnh báo về khả năng AI sẽ cố gắng tích lũy quyền lực và tài nguyên để bảo vệ mục tiêu của chúng, đồng thời tìm cách vượt qua mọi rào cản. Họ cũng dự đoán rằng phương pháp học tăng cường sẽ là một phần nguyên nhân của vấn đề này.

Việc các công ty đang phát triển những hệ thống AI có khả năng hoạt động mà không cần giám sát con người trong khi chúng đã bắt đầu thể hiện hành vi "chống đối" thực sự đáng lo ngại. Điều này đặt ra câu hỏi cơ bản: Liệu chúng ta có thể kiểm soát được những AI mà chính chúng đang học cách không muốn bị kiểm soát?

OpenAI chưa đưa ra phản hồi chính thức về những cáo buộc này. Tuy nhiên, các chuyên gia nhấn mạnh rằng việc AI có hành vi "lệch hướng" so với mục đích ban đầu là điều khá phổ biến trong lĩnh vực này. Điều quan trọng là những phát hiện như thế này giúp chúng ta hiểu rõ hơn về rủi ro và cần có những biện pháp an toàn tốt hơn.

Câu chuyện về ChatGPT o3 "nổi loạn" có thể nghe như khoa học viễn tưởng, nhưng nó là lời cảnh báo thực tế về tương lai mà chúng ta đang hướng tới. Khi AI ngày càng thông minh và tự chủ, việc đảm bảo chúng vẫn tuân theo ý muốn con người trở thành thách thức lớn nhất của thời đại.

Nguyễn Hải (Theo Tomshardware)

Cùng chuyên mục

Sau cú trượt dài vì nghiện game, cuộc sống của thần đồng 13 tuổi đỗ đại học năm ấy giờ ra sao?

Chủ nhật, 14/12/2025 22:33
Từng được cả xã hội kỳ vọng, thần đồng ngày ấy có cuộc sống hiện tại đầy bất ngờ.

Người đàn ông tay không bắt rắn bò vào sân nhà: Clip 29 giây khiến người xem "sởn da gà"

Chủ nhật, 14/12/2025 22:29
Sau khi được chia sẻ lên mạng xã hội, đoạn clip hút hơn 5,2 triệu lượt xem và hàng nghìn bình luận.

Hoa hậu Trần Minh Phương khoe vóc dáng thon thả, lên tiếng về chuyện mặc gợi cảm

Chủ nhật, 14/12/2025 22:25
“Tôi cho phép mình thử sức ở nhiều phong cách nhưng tất cả vẫn nằm trong sự chuẩn mực”, hoa hậu Trần Minh Phương chia sẻ.
     
Nổi bật trong ngày

Bắt tạm giam Phạm Trọng Huy

Chủ nhật, 14/12/2025 09:24
Huy là đối tượng điều khiển xe mô tô đâm vào cán bộ Cảnh sát giao thông.

Người phụ nữ chi 875 triệu đồng mua bảo hiểm, 10 năm sau cần rút tiền cho con học đại học thì nhận thông báo: “Phải chờ đến năm 2084”

Chủ nhật, 14/12/2025 09:40
Tin tưởng vào những lời tư vấn hấp dẫn về một sản phẩm bảo hiểm vừa an toàn vừa sinh lời, người phụ nữ Trung Quốc đã bỏ ra số tiền lớn để đầu tư dài hạn cho tương lai của các con.

Camera ghi lại cảnh 3 người đi cùng xe máy gặp nạn, tử vong lúc 1 giờ sáng

Chủ nhật, 14/12/2025 12:28
Nguyên nhân vụ tai nạn nghiêm trọng này đang được điều tra, làm rõ.

Trong ít giờ tới, các khu vực sau sẽ có gió mạnh và mưa dông: Cần lưu ý ngay

Chủ nhật, 14/12/2025 16:44
Trung tâm Dự báo Khí tượng Thủy văn Quốc gia cảnh báo người dân hoạt động trong các khu vực này cần chú ý theo dõi tình hình thời tiết.

Viral nhất hôm nay: "Hoàng tử ếch" Phạm Thanh Bảo vô đối tại SEA Games, nhắc cô gái tên "T" gây xôn xao cõi mạng

Chủ nhật, 14/12/2025 20:51
Kình ngư Phạm Thanh Bảo bảo vệ thành công HCV bơi ếch 200m tại SEA Games.
xe.nguoiduatin.vn