Hacker có thể cấy "ký ức giả" vào ChatGPT

Thứ 4, 25/09/2024 17:53

Lỗ hổng ChatGPT cho phép kẻ tấn công cấy "ký ức giả" nhằm đánh cắp dữ liệu người dùng vĩnh viễn.

Mới đây, nhà nghiên cứu bảo mật Johann Rehberger đã phát hiện một lỗ hổng nghiêm trọng trong ChatGPT, cho phép kẻ tấn công lợi dụng tính năng bộ nhớ hội thoại dài hạn để cấy "ký ức giả" và đánh cắp dữ liệu người dùng một cách liên tục.

img

ChatGPT tồn tại lỗ hổng cho phép tin tặc "cấy" ký ức giả.

Lỗ hổng này cho phép kẻ xấu đưa thông tin sai lệch vào bộ nhớ của ChatGPT thông qua các kỹ thuật như “Indirect Prompt Injection”. Điều này có thể khiến ChatGPT "tin" rằng người dùng là một người hoàn toàn khác, từ đó dẫn đến việc thu thập và gửi toàn bộ nội dung trò chuyện về máy chủ của kẻ tấn công.

Sau khi nhận được báo cáo từ Rehberger, OpenAI đã đưa ra một bản vá phần nào giải quyết vấn đề. Tuy nhiên, theo nhà nghiên cứu, kẻ tấn công vẫn có thể lợi dụng để cấy thông tin sai lệch vào bộ nhớ của ChatGPT, mặc dù không thể đánh cắp dữ liệu trực tiếp như trước.

Để bảo vệ mình khỏi kiểu tấn công này, người dùng ChatGPT nên chú ý đến các thông báo về việc thêm bộ nhớ mới và thường xuyên kiểm tra lại các ký ức đã lưu trữ để phát hiện những thông tin đáng ngờ.

Vụ việc này một lần nữa gióng lên hồi chuông cảnh báo về vấn đề an ninh của các mô hình ngôn ngữ lớn (LLM) như ChatGPT. Mặc dù mang lại nhiều lợi ích, LLM cũng tiềm ẩn nhiều rủi ro bảo mật cần được các nhà phát triển và người dùng đặc biệt quan tâm.

OpenAI vẫn chưa đưa ra bình luận chính thức về các biện pháp ngăn chặn triệt để kiểu tấn công này.

Bạch Ngân - Ars Technica

Cảm ơn bạn đã quan tâm đến nội dung trên. Hãy tặng sao để tiếp thêm động lực cho tác giả có những bài viết hay hơn nữa.
Đã tặng: 0 star
Tặng sao cho tác giả
Hữu ích
5 star
Hấp dẫn
10 star
Đặc sắc
15 star
Tuyệt vời
20 star

Bạn cần đăng nhập để thực hiện chức năng này!

Bình luận không đăng nhập

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.