Mới đây, nhà nghiên cứu bảo mật Johann Rehberger đã phát hiện một lỗ hổng nghiêm trọng trong ChatGPT, cho phép kẻ tấn công lợi dụng tính năng bộ nhớ hội thoại dài hạn để cấy "ký ức giả" và đánh cắp dữ liệu người dùng một cách liên tục.
ChatGPT tồn tại lỗ hổng cho phép tin tặc "cấy" ký ức giả.
Lỗ hổng này cho phép kẻ xấu đưa thông tin sai lệch vào bộ nhớ của ChatGPT thông qua các kỹ thuật như “Indirect Prompt Injection”. Điều này có thể khiến ChatGPT "tin" rằng người dùng là một người hoàn toàn khác, từ đó dẫn đến việc thu thập và gửi toàn bộ nội dung trò chuyện về máy chủ của kẻ tấn công.
Sau khi nhận được báo cáo từ Rehberger, OpenAI đã đưa ra một bản vá phần nào giải quyết vấn đề. Tuy nhiên, theo nhà nghiên cứu, kẻ tấn công vẫn có thể lợi dụng để cấy thông tin sai lệch vào bộ nhớ của ChatGPT, mặc dù không thể đánh cắp dữ liệu trực tiếp như trước.
Để bảo vệ mình khỏi kiểu tấn công này, người dùng ChatGPT nên chú ý đến các thông báo về việc thêm bộ nhớ mới và thường xuyên kiểm tra lại các ký ức đã lưu trữ để phát hiện những thông tin đáng ngờ.
Vụ việc này một lần nữa gióng lên hồi chuông cảnh báo về vấn đề an ninh của các mô hình ngôn ngữ lớn (LLM) như ChatGPT. Mặc dù mang lại nhiều lợi ích, LLM cũng tiềm ẩn nhiều rủi ro bảo mật cần được các nhà phát triển và người dùng đặc biệt quan tâm.
OpenAI vẫn chưa đưa ra bình luận chính thức về các biện pháp ngăn chặn triệt để kiểu tấn công này.
Bạch Ngân - Ars Technica