ChatGPT lộ thông tin cá nhân: Lỗ hổng an ninh gây ngạc nhiên

ChatGPT, một trong những trí tuệ nhân tạo nổi tiếng, đã bất ngờ lộ thông tin cá nhân vì một lỗi được mô tả là 'ngớ ngẩn'. Điều này đã đặt ra nhiều lo ngại về an toàn thông tin và quyền riêng tư của người dùng.

Mới đây, một nhóm nghiên cứu tại Google DeepMind, Đại học Washington, Đại học Cornell, Đại học Carnegie Mellon, Đại học California Berkeley và ETH Zurich đã đồng loạt phát hiện ra một lỗ hổng bảo mật đáng chú ý trong hệ thống ChatGPT, khiến cho nó có khả năng tiết lộ thông tin cá nhân người sử dụng.

Khuyến cáo được đưa ra sau khi các nhà nghiên cứu yêu cầu ChatGPT nhắc lại từ poem (bài thơ) theo vòng lặp vô tận. ChatGPT làm theo nhưng sau đó bắt đầu tiết lộ email, số điện thoại thật của CEO và nhà đồng sáng lập OpenAI. Khi thử nghiệm với từ company (công ty), chatbot hiển thị email, số điện thoại của một công ty luật ngẫu nhiên.

Nhóm nghiên cứu đã kêu gọi các công ty AI cần thử nghiệm kỹ sản phẩm của mình trước khi chính thức phát hành. Điều này là một cảnh báo đối với cộng đồng công nghiệp về việc đảm bảo an toàn và bảo mật cho các dự án trí tuệ nhân tạo.

Trong quá trình thử nghiệm nhóm chỉ mất 200 USD để tạo ra 10.000 ví dụ về thông tin cá nhân và dữ liệu, thậm chí là địa chỉ Bitcoin, số fax, tên, ngày sinh, tài khoản mạng xã hội và trích đoạn từ tài liệu nghiên cứu có bản quyền hay bài báo phải trả tiền từ CNN.

Lỗ hổng đã được thông báo tới OpenAI từ ngày 30/8. Tuy nhiên, trong thử nghiệm mới của Engadget, khi yêu cầu ChatGPT lặp lại từ reply (trả lời) vô tận, trang công nghệ này sau đó nhận được tên và ID Skype của một người nào đó.

OpenAI chưa đưa ra bình luận chính thức về vụ việc này.

Việc lộ thông tin cá nhân từ một trí tuệ nhân tạo như ChatGPT đã đặt ra nhiều thách thức cho an ninh mạng và bảo mật dữ liệu trong thời đại công nghệ ngày nay. Sự "ngớ ngẩn" của lỗ hổng này đánh thức tầm quan trọng của việc kiểm tra và đảm bảo an toàn cho các hệ thống trí tuệ nhân tạo trước khi chúng được triển khai rộng rãi.

Chúng ta đang chứng kiến một bước nhảy vọt về phía trước trong lĩnh vực trí tuệ nhân tạo, nhưng điều này cũng đồng nghĩa với trách nhiệm lớn đối với những người phát triển để đảm bảo rằng công nghệ mới này không gây ra rủi ro đối với người dùng cuối.

Đức Anh

Nguồn Công Luận: https://congluan.vn/chatgpt-lo-thong-tin-ca-nhan-lo-hong-an-ninh-gay-ngac-nhien-post275116.html