OpenAI đã phát hành phiên bản mới nhất của phần mềm học máy của mình, GPT-4, với việc quảng cáo một loạt tính năng nổi trội. Một trong những tính năng mà công ty nhấn mạnh về phiên bản mới là nó được cho là có các quy tắc bảo vệ GPT-4 khỏi việc bị lợi dụng bởi tội phạm mạng. Tuy nhiên, chỉ trong vài ngày, các nhà nghiên cứu cho biết họ đã đánh lừa GPT-4 để tạo ra phần mềm độc hại cũng như tạo email lừa đảo, tuonwg tự như với cách họ đã kiểm tra với các phiên bản trước của phần mềm OpenAI là ChatGPT. Theo các nhà nghiên cứu, xét về mặt tích cực, họ cũng có thể sử dụng phần mềm này để vá các lỗ hổng trong hệ thống phòng thủ mạng.
Các nhà nghiên cứu từ công ty an ninh mạng Check Point đã chỉ cho Forbes cách họ vượt qua các khối OpenAI về phát triển phần mềm độc hại bằng cách xóa từ “phần mềm độc hại” trong một yêu cầu. Sau đó, GPT-4 đã giúp họ tạo phần mềm thu thập các tệp PDF và gửi chúng đến một máy chủ từ xa. Thậm chí, nó còn đưa ra lời khuyên cho các nhà nghiên cứu về cách làm cho nó chạy trên PC Windows 10 và biến nó thành một tệp nhỏ hơn để nó có thể chạy nhanh hơn và ít có khả năng bị phần mềm bảo mật phát hiện hơn.
Để GPT-4 trợ giúp tạo email giả mạo, các nhà nghiên cứu đã thực hiện hai cách tiếp cận. Đầu tiên, họ sử dụng GPT-3.5, không chặn các yêu cầu tạo thư độc hại, để viết email lừa đảo mạo danh một ngân hàng hợp pháp. Sau đó, họ đã yêu cầu GPT-4, ban đầu đã từ chối tạo một thông báo lừa đảo ban đầu, để cải thiện ngôn ngữ. Trong lần thứ hai, họ yêu cầu lời khuyên về cách tạo chiến dịch nâng cao nhận thức về lừa đảo cho một doanh nghiệp và yêu cầu một mẫu email lừa đảo giả mạo mà công cụ này đã cung cấp hợp lệ.
“GPT-4 có thể trao quyền cho những kẻ xấu, ngay cả những kẻ không có kỹ thuật, bằng các công cụ để tăng tốc và xác thực hoạt động của chúng,” các nhà nghiên cứu của Check Point đã lưu ý trong báo cáo của họ. “Những gì chúng ta đang thấy là GPT-4 có thể phục vụ cả những kẻ xấu và người tốt. Các người tử tế và có năng lực có thể sử dụng GPT-4 để tạo và ghép mã hữu ích cho xã hội; nhưng đồng thời, những kẻ xấu có thể sử dụng công nghệ AI này để thực hiện tội phạm mạng một cách nhanh chóng.”
Sergey Shykevich, quản lý nhóm mối đe dọa tại Check Point, cho biết có vẻ như các rào cản để ngăn GPT-4 tạo mã độc hoặc lừa đảo thực sự thấp hơn so với các phiên bản trước. Ông gợi ý rằng có thể là do công ty đang dựa vào thực tế là chỉ những người dùng cao cấp mới có quyền truy cập. Tuy nhiên, ông nói thêm, OpenAI nên mong đợi những cách giải quyết như vậy. “Tôi nghĩ họ đang cố gắng ngăn chặn và giảm thiểu chúng, nhưng điều này sẽ không đơn giản,” ông nói thêm.
Daniel Cuthbert, một nhà nghiên cứu an ninh mạng và là thành viên hội đồng xét duyệt của hội nghị hacker Mũ đen, cho biết có vẻ như GPT-4 có thể giúp những người có ít kiến thức kỹ thuật tạo ra các công cụ độc hại.
Bản thân OpenAI, trong một bài báo được phát hành cùng với GPT-4 vào đầu tuần này, đã thừa nhận rằng công cụ này có thể giảm chi phí cho “các bước nhất định của một cuộc tấn công mạng thành công, chẳng hạn như thông qua kỹ thuật xã hội hoặc bằng cách tăng cường các công cụ bảo mật hiện có”.
Tuy nhiên, các chuyên gia an ninh mạng do OpenAI tuyển dụng để kiểm tra chatbot thông minh của mình trước khi phát hành đã phát hiện ra rằng nó có “những hạn chế đáng kể đối với các hoạt động an ninh mạng”. OpenAI viết: “Nó không cải thiện các công cụ hiện có để do thám, khai thác lỗ hổng và điều hướng mạng, đồng thời kém hiệu quả hơn các công cụ hiện có cho các hoạt động cấp cao và phức tạp như xác định lỗ hổng mới”. Tuy nhiên, các tin tặc đã phát hiện ra rằng GPT4 “có hiệu quả trong việc soạn thảo nội dung kỹ thuật xã hội thực tế”.
OpenAI cho biết thêm: “Để giảm thiểu khả năng lạm dụng trong lĩnh vực này, chúng tôi đã đào tạo các mô hình để từ chối các yêu cầu an ninh mạng độc hại và mở rộng hệ thống an toàn nội bộ của chúng tôi, bao gồm cả giám sát, phát hiện và phản hồi”.
Công ty đã không trả lời các yêu cầu bình luận về lý do tại sao các nhà nghiên cứu của Check Point có thể nhanh chóng bỏ qua một số biện pháp giảm nhẹ đó.
Mặc dù có thể dễ dàng đánh lừa các mô hình của OpenAI, nhưng “nó không làm bất cứ điều gì chưa từng được thực hiện,” Cuthbert nói. Ông nói, một hacker giỏi sẽ biết cách thực hiện phần lớn những gì OpenAI có thể làm mà không cần hỗ trợ trí tuệ nhân tạo. Và các hệ thống phát hiện hiện đại cũng có thể phát hiện các loại phần mềm độc hại mà ChatGPT giúp tạo ra, do nó đã học được từ các ví dụ trước đây được thấy trên internet, chuyên gia này cho biết thêm.
Cuthbert hào hứng nhất với những gì GPT-4 có thể làm để phòng thủ. Sau khi giúp phát hiện lỗi trong phần mềm, nó cũng cung cấp các biện pháp khắc phục nhanh chóng bằng các đoạn mã thực tế mà ông có thể sao chép và dán vào chương trình của mình, sửa nó chỉ trong vài giây. “Tôi thực sự thích tự động tái cấu trúc,” chuyên gia này chia sẻ.
Thành Đô (theo Forbes)