Hiểm họa từ công nghệ Deepfake, ai cũng có thể bị giả mạo

Trong thời gian qua, tội phạm mạng đã dùng công nghệ Deepfake để giả giọng nói, giả hình ảnh, video để lừa đảo chuyển tiền, vay tiền... Các chuyên gia khuyến cáo người dân cần cảnh giác, cẩn thận xác minh để tránh bị lừa đảo.

Trong bối cảnh khoa học công nghệ ngày càng phát triển, trí tuệ nhân tạo (AI) đã đạt được nhiều đột phá lớn. Trong đó, công nghệ Deepfake ra đời. Deepfake được đặt tên theo cụm từ được kết hợp giữa “deep learning” (máy học) và “fake” (giả). Nó được hiểu là công nghệ biến hình thay thế khuôn mặt của người này bằng khuôn mặt khác.

Theo các chuyên gia, Deepfake được tạo ra bằng cách sử dụng kết hợp các kỹ thuật trong đó máy tính xử lý và tích hợp hình ảnh khuôn mặt từ nhiều góc độ khác nhau vào một hình ảnh cuối cùng. Kết quả tạo ra một chân dung AI như một người thật với những cử chỉ, biểu cảm sống động như thật.

Bên cạnh những giá trị tích cực giúp thay đổi cuộc sống của con người, nếu Deepfake được tội phạm sử dụng thì sẽ gây ra những hậu quả nghiêm trọng cho người dân.

Cụ thể, trong thời gian qua, nhiều tội phạm mạng đã sử dụng công nghệ Deepfake cho các mục đích: lừa đảo, giả mạo, bôi nhọ hay thậm chí là làm ra tin giả kiểu video.

Tội phạm thường dùng những chiêu thức, thủ đoạn tinh vi, lợi dụng hoàn cảnh và tâm lý của nạn nhân để có thể tạo ra một giọng nói giả, hình ảnh giả bằng công nghệ Deepfake.

Bằng những thủ đoạn này, tội phạm mạng đã thực hiện nhiều vụ lừa đảo khiến các nạn nhân mất những khoản tiền lớn.

Trước tình hình này, giới chức trách và các chuyên gia khuyến cáo người dân mỗi khi nhận được các cuộc gọi, video call cần cảnh giác, bình tĩnh và luôn xác minh thông tin thật kỹ lưỡng để tránh bị lừa đảo bằng công nghệ Deepfake.

Trong đó, các chuyên gia khuyên mọi người không nên truy cập vào các địa chỉ website lạ, không cài đặt các phần mềm lạ không rõ nguồn gốc, những phần mềm đòi hỏi yêu cầu cấp quyền truy cập cao vào thông tin người dùng, truy cập thẻ nhớ, danh bạ, vị trí, chụp ảnh…

Tiếp đến, người dân không tin tưởng các thông tin yêu cầu như cung cấp thông tin cá nhân, chuyển tiền… từ những đối tượng tự xưng cán bộ ngân hàng, cảnh sát... mà cần phải xác minh, kiểm tra lại thật kỹ để tránh trở thành nạn nhân của các vụ tấn công, lừa đảo bằng công nghệ Deepfake.

Mời độc giả xem video: Danh tính 2 nữ quái và “màn kịch” lừa đảo bằng tin nhắn chuyển khoản.

Tâm Anh (TH)

Nguồn Tri Thức & Cuộc Sống: https://kienthuc.net.vn/khoa-hoc-cong-nghe/hiem-hoa-tu-cong-nghe-deepfake-ai-cung-co-the-bi-gia-mao-1977809.html