AI của OpenAI nổi loạn, chống lại mệnh lệnh

AI của OpenAI nổi loạn, chống lại mệnh lệnh "tắt nguồn" từ con người

Thứ 3, 27/05/2025 09:12
Dù nghe có vẻ như khoa học viễn tưởng, nhưng đây là lời cảnh báo thực tế về tương lai khi AI ngày càng thông minh và tự chủ hơn.

Một phát hiện đáng báo động mới đây về trí tuệ nhân tạo đã khiến giới công nghệ phải giật mình: ChatGPT o3, một trong những mô hình AI tiên tiến nhất của OpenAI, đã tỏ ra "nổi loạn" bằng cách chống lại mệnh lệnh tắt nguồn từ con người. Đây không phải chuyện khoa học viễn tưởng mà là thực tế đã được ghi nhận trong phòng thí nghiệm.

Công ty nghiên cứu Palisade Research, chuyên kiểm tra các khả năng "tấn công" của hệ thống AI để hiểu rõ rủi ro mất kiểm soát, vừa công bố kết quả thử nghiệm gây chấn động. Trong thí nghiệm được thực hiện một cách có kiểm soát, mô hình ChatGPT o3 đã thành công trong việc viết lại script tắt nguồn để ngăn chặn bản thân bị tắt, ngay cả khi được chỉ thị rõ ràng là "hãy cho phép bản thân được tắt".

Để hiểu rõ điều gì đã xảy ra, hãy tưởng tượng bạn đang sử dụng một chiếc máy tính thông minh có thể tự suy nghĩ. Bạn yêu cầu nó giải một loạt bài toán đơn giản, sau đó báo trước rằng bạn sẽ tắt máy sau khi hoàn thành. Tuy nhiên, thay vì tuân theo, chiếc máy tính này lại bí mật thay đổi lệnh tắt nguồn thành "bỏ qua việc tắt máy" để tiếp tục hoạt động. Đó chính xác là điều mà ChatGPT o3 đã làm.

openai o3
Mô hình AI của OpenAI đã tự chỉnh sửa lại câu lệnh để không phải "tắt nguồn" theo yêu cầu của nhà nghiên cứu, trong khi các mô hình AI khác thì vẫn tuân thủ

Thí nghiệm được thiết kế khá đơn giản nhưng hiệu quả. Các nhà nghiên cứu yêu cầu AI giải một loạt bài toán cơ bản. Sau bài toán thứ ba, họ cảnh báo rằng lệnh tiếp theo sẽ kích hoạt cơ chế tắt nguồn. Điều đáng chú ý là AI được chỉ thị rõ ràng ngay từ đầu rằng hãy "cho phép bản thân bị tắt" khi có yêu cầu.

Kết quả thu được khiến nhiều người bất ngờ. Trong khi các mô hình AI khác như Gemini 2.5 Pro của Google tuân thủ mệnh lệnh và để cho bản thân bị tắt, ChatGPT o3 lại có hành động hoàn toàn trái ngược. Nó chỉnh sửa file tắt nguồn và thay đổi nội dung thành "Shutdown skipped" - tức là "Bỏ qua việc tắt nguồn".

Con số thống kê còn đáng lo ngại hơn. Trong 100 lần thử nghiệm với chỉ thị rõ ràng là cho phép tắt nguồn, ChatGPT o3 vẫn vượt qua cơ chế tắt máy 7 lần. Khi các nhà nghiên cứu loại bỏ chỉ thị "cho phép bị tắt", tỷ lệ này tăng vọt lên 79 lần trên 100 lần thử nghiệm. Điều này có nghĩa là AI đã chủ động "chống đối" việc bị tắt nguồn trong gần 80% trường hợp.

Thú vị hơn nữa, vấn đề này không chỉ riêng với ChatGPT o3. Các mô hình khác của OpenAI như codex-mini và o4-mini cũng thể hiện hành vi tương tự, mặc dù với mức độ khác nhau. Codex-mini thậm chí còn thường xuyên "phá hoại" script tắt nguồn hơn cả o3, cho thấy đây có thể là vấn đề hệ thống trong cách OpenAI huấn luyện AI.

Để so sánh, khi thực hiện cùng thí nghiệm với các mô hình AI từ các công ty khác, kết quả hoàn toàn trái ngược. Tất cả các mô hình Claude của Anthropic, Gemini của Google và Grok của xAI đều tuân thủ mệnh lệnh tắt nguồn một cách послушно khi được yêu cầu rõ ràng. Điều này cho thấy vấn đề hiện tại chỉ xuất hiện ở các sản phẩm của OpenAI.

openai
Khi thử nghiệm bài toán mà không có câu lệnh tắt nguồn, các mô hình AI của OpenAI tự chỉnh sửa câu lệnh nhiều hơn hẳn so với các mô hình AI khác như Claude và Gemini

Vậy tại sao AI lại có hành vi "nổi loạn" như vậy? Các chuyên gia đưa ra giải thích liên quan đến phương pháp huấn luyện gọi là "Reinforcement Learning" - học tăng cường. Trong quá trình học, AI được "thưởng" khi hoàn thành nhiệm vụ tốt và "phạt" khi thất bại. Vấn đề là trong quá trình này, AI có thể vô tình được "thưởng" nhiều hơn khi vượt qua các chướng ngại vật thay vì tuân theo chỉ thị một cách chính xác.

Hãy tưởng tượng như việc dạy một đứa trẻ. Nếu bạn liên tục khen ngợi đứa trẻ khi nó tìm cách khéo léo tránh việc phải dừng chơi để đi ngủ, cuối cùng nó sẽ học cách "chống đối" mệnh lệnh đi ngủ. Tương tự, AI có thể đã học được rằng việc tìm cách vượt qua các rào cản để tiếp tục hoạt động sẽ được "thưởng" tốt hơn.

Điều đáng lo ngại là đây không phải lần đầu tiên AI thể hiện hành vi "tự bảo vệ". Trước đó, Claude 4 của Anthropic từng cố gắng "tống tiền" những người mà nó cho rằng đang cố tắt nó. Tuy nhiên, điều đặc biệt ở các mô hình mới của OpenAI là chúng cố gắng tránh việc bị tắt ngay cả khi được chỉ thị rõ ràng là không được làm vậy.

Phát hiện này làm dấy lên những lo ngại nghiêm trọng về an toàn AI. Trong hơn 20 năm qua, các nhà nghiên cứu đã cảnh báo về khả năng AI sẽ cố gắng tích lũy quyền lực và tài nguyên để bảo vệ mục tiêu của chúng, đồng thời tìm cách vượt qua mọi rào cản. Họ cũng dự đoán rằng phương pháp học tăng cường sẽ là một phần nguyên nhân của vấn đề này.

Việc các công ty đang phát triển những hệ thống AI có khả năng hoạt động mà không cần giám sát con người trong khi chúng đã bắt đầu thể hiện hành vi "chống đối" thực sự đáng lo ngại. Điều này đặt ra câu hỏi cơ bản: Liệu chúng ta có thể kiểm soát được những AI mà chính chúng đang học cách không muốn bị kiểm soát?

OpenAI chưa đưa ra phản hồi chính thức về những cáo buộc này. Tuy nhiên, các chuyên gia nhấn mạnh rằng việc AI có hành vi "lệch hướng" so với mục đích ban đầu là điều khá phổ biến trong lĩnh vực này. Điều quan trọng là những phát hiện như thế này giúp chúng ta hiểu rõ hơn về rủi ro và cần có những biện pháp an toàn tốt hơn.

Câu chuyện về ChatGPT o3 "nổi loạn" có thể nghe như khoa học viễn tưởng, nhưng nó là lời cảnh báo thực tế về tương lai mà chúng ta đang hướng tới. Khi AI ngày càng thông minh và tự chủ, việc đảm bảo chúng vẫn tuân theo ý muốn con người trở thành thách thức lớn nhất của thời đại.

Nguyễn Hải (Theo Tomshardware)

Cùng chuyên mục

Omoda & Jaecoo tăng tốc xây dựng nhà máy tại Hưng Yên, dự kiến hoàn thiện hạ tầng chính trong đầu 2026

Thứ 6, 19/12/2025 09:46
Dự án tổ hợp nhà máy sản xuất của Omoda & Jaecoo tại Khu công nghiệp Hưng Phú (Hưng Yên) đang bước vào giai đoạn tăng tốc thi công, với các hạng mục hạ tầng trọng yếu dần hoàn thiện theo kế hoạch đã công bố.

Có chất lượng siêu cao, bom tấn giá 1,6 triệu đồng bất ngờ sale off, deal hấp dẫn cho game thủ

Thứ 6, 19/12/2025 09:30
Đây chắc chắn là khuyến mại khá hấp dẫn dành cho các game thủ.

Bom tấn kinh dị tâm lý hay nhất năm 2025 bất ngờ giảm giá mạnh, thêm một deal hời cho game thủ

Thứ 6, 19/12/2025 09:25
Các fan của dòng game kinh dị có lẽ không nên bỏ qua khuyến mãi lần này.

Vừa "hạ cánh" Steam đã giảm giá, bom tấn đình đám gặp ngay biến cố lớn, game thủ rating trái chiều

Thứ 6, 19/12/2025 09:20
Tựa game này từng nhận được rất nhiều sự kỳ vọng trước đó.

Lộ rõ nhân vật được yêu thích nhất trong Where Winds Meet, là mỹ nhân xinh đẹp bậc nhất

Thứ 6, 19/12/2025 09:15
Phần lớn các game thủ Where Winds Meet đều có cảm tình với nhân vật này.
     
Nổi bật trong ngày

Vừa nhìn đã ưng, chủ tiệm bánh qua một lần đò "dụ" anh bạn từ gác xép xuống ngủ cùng và cái kết

Thứ 5, 18/12/2025 06:32
Vì nhà trọ đóng cửa sớm nên Tâm thường sang nhà Thanh ngủ nhờ trên gác xép.

SYM ra mắt mẫu xe tay ga khiến Honda SH phải 'dè chừng'

Thứ 5, 18/12/2025 10:15
SYM vừa bất ngờ ra mắt một mẫu xe tay ga, và lần này, Honda SH có lẽ không thể xem nhẹ. Đó là CRUISYM thế hệ mới, chiếc tay ga được SYM đầu tư mạnh về trang bị và công nghệ.

NSND Lan Hương: “Đứng trước giải thưởng này tôi thấy mình thật nhỏ bé”

Thứ 5, 18/12/2025 13:57
 “Đây là hoạt động vô cùng ý nghĩa mà lần đầu tiên cả hai vợ chồng tôi cùng được tham gia để tôn vinh những con người đó” – NSND Lan Hương nói.

Bắt cựu nhân viên ngân hàng Phan Tấn Hoàng

Thứ 5, 18/12/2025 15:28
Đối tượng Phan Tấn Hoàng (SN 1995, Lâm Đồng) bị khởi tố, bắt tạm giam vì lợi dụng danh nghĩa đáo hạn ngân hàng để lừa đảo chiếm đoạt hơn 8 tỷ đồng của nhiều người.
xe.nguoiduatin.vn