Biến tướng lừa đảo qua công nghệ Deepfake: Cách nhận diện và phòng tránh

Thời gian gần đây, một số đối tượng lợi dụng công nghệ Deepfake để thực hiện các cuộc gọi video với hình ảnh, khuôn mặt giả mạo để lừa đảo nạn nhân nhằm thực hiện các hành vi vi phạm pháp luật.

Đối tượng sử dụng công nghệ Deepfake khiến nạn nhân tưởng thật, chuyển tiền rồi chiếm đoạt. Ảnh: CQCA cung cấp

Dùng công nghệ Deepfake lừa đảo người dân

Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC), Bộ Thông tin và Truyền Thông vừa nhận được phản ánh của một chủ DN về việc các đối tượng sử dụng công nghệ Deepfake để cắt ghép, phát tán các hình ảnh nhạy cảm của người này trên mạng xã hội nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân; gây ảnh hưởng lớn đến hoạt động kinh doanh. Phản ánh của chủ DN trên đã được VAFC chuyển tới các cơ quan chức năng xem xét, xử lý theo quy định của pháp luật.

Trước đó, cuối tháng 12/2023, thông tin từ CA quận Hai Bà Trưng, Hà Nội cho biết, các đối tượng lừa đảo sử dụng công nghệ Deepfake để lừa người già. Cụ thể, ngày 14/12, bà L.T.C (SN 1948, ở phường Phạm Đình Hổ, quận Hai Bà Trưng, Hà Nội) đang ở nhà thì nhận được điện thoại của đối tượng tự xưng là nhân viên bưu chính viễn thông, thông báo bà C đang nợ cước điện thoại gần 5 triệu đồng.

Khi bà C nói không nợ tiền cước thì đối tượng nói sẽ chuyển cuộc gọi cho “cơ quan điều tra”. Một lúc sau, bà C lại nhận được điện thoại từ người giới thiệu công tác tại CATP Hà Nội, yêu cầu bà cung cấp tài khoản tiết kiệm và chuyển toàn bộ tiền vào số tài khoản của CQCA để xác minh, nếu không sẽ bị bắt. Do lo lắng, bà C đã chuẩn bị 2 sổ tiết kiệm có khoảng 300 triệu đồng định chuyển cho CA theo như hướng dẫn của nhóm lừa đảo trên.

Qua công tác nắm tình hình địa bàn và nguồn tin của cán bộ cơ sở, Thượng úy Nguyễn Ngọc Khoa, cán bộ cảnh sát khu vực phường Phạm Đình Hổ đã kịp thời có mặt, chứng kiến đối tượng lừa đảo đang nói chuyện qua video với nạn nhân. Hình ảnh cho thấy đối tượng đã sử dụng công nghệ Deepfake, giả danh CA để lừa đảo nên Thượng úy Khoa đã cầm máy điện thoại để nói chuyện. Thấy vậy, đối tượng tắt máy và chặn ngay liên lạc. Thượng úy Nguyễn Ngọc Khoa cho biết, đây không phải lần đầu, Thượng úy này ngăn chặn vụ lừa đảo tinh vi như trên.

Phòng ngừa rủi ro

Ông Vũ Ngọc Sơn, Giám đốc công nghệ, Công ty An ninh mạng NCS cho biết, các chiêu trò, hình thức lừa đảo gần đây đều không mới nhưng các đối tượng lừa đảo đã ứng dụng công nghệ tiên tiến hiện đại; từ đó khả năng thành công của các chiêu lừa đảo sẽ cao hơn và ngày càng khó lường với người dùng Internet. Nếu như trước đây các cuộc gọi giả mạo hình ảnh, âm thanh, clip không sắc nét… có thể do thiết bị đối tượng sử dụng để thực hiện hành vi lừa đảo có cấu hình thấp hoặc thuật toán phần mềm AI, Deepfake chưa cao.

Tuy nhiên, nếu các đối tượng lừa đảo có tổ chức nhận thấy việc lừa đảo thu lợi bất chính lớn, rất có thể các đối tượng này sẽ đầu tư thêm máy móc thiết bị phần cứng, phần mềm chất lượng cao hơn, nâng cao chất lượng hình ảnh đầu ra, tạo video hình ảnh Deepfake giống như thật, khó có thể phát hiện bằng mắt thường.

“Clip Deepfake lừa đảo sẽ gây ra những hệ lụy, bất tiện cho người dùng mỗi khi nhận được các cuộc gọi kiểu như thế này sẽ phải xác minh lại. Tuy nhiên, dần dần trong xã hội, người dùng sẽ hình thành một thứ giống như “vắc-xin”, phòng chống lại các hình thức lừa đảo này, “vắc-xin” thích nghi với xã hội số. Người dùng sẽ ngày càng đề phòng, cảnh giác, cẩn trọng và luôn xác minh khi tiếp cận với tất cả các nội dung thông tin trên không gian số”, ông Sơn cho hay. Nguy hiểm hơn, trước các vụ lừa đảo bằng công nghệ Deepfake, việc người dùng chứng minh với ngân hàng mình bị lừa là rất phức tạp, mất thời gian và phải có sự tham gia của nhiều bên như nhà mạng hoặc CA.

Cùng chung quan điểm, chuyên gia an ninh mạng Ngô Minh Hiếu, Trung tâm Giám sát An toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin, Bộ Thông tin và Truyền thông khuyến cáo, người dùng cần cảnh giác cao độ khi xem một số video hoặc hình ảnh mà nhân vật trong đó có một số dấu hiệu kỳ lạ như: khuôn mặt thiếu tính cảm xúc và khá "trơ" khi nói; tư thế lúng túng; không tự nhiên hay màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí khiến cho video trông "giả tạo" và không tự nhiên; hoặc âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh...

Theo chuyên gia Ngô Minh Hiếu, tất cả các "yếu tố kỳ lạ" như trên là “báo hiệu đỏ” của công nghệ Deepfake. Ông Hiếu cho rằng, người dùng nên tỉnh táo khi có một ai đó trên mạng xã hội trong danh sách bạn bè tự nhiên hỏi mượn tiền hay gửi link lạ thì không nên vội, mà hãy bình tĩnh, kiểm chứng và nên xác thực mọi thứ.

Đồng thời chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc Facetime ít nhất trên 1 phút, sau đó đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết. Vì công nghệ Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao, vì dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này.

Theo ông Vũ Ngọc Sơn, tình trạng lừa đảo trên mạng sẽ ngày càng nhiều và liên tục biến tướng. Các đối tượng xấu sẽ tận dụng những lợi thế của công nghệ mới làm công cụ cho các hành vi tấn công, lừa đảo người dùng.

Do đó, người dùng cần thực hiện những quy tắc: không tin tưởng các thông tin yêu cầu (cài phầm mềm, đăng nhập vào website, cung cấp thông tin, chuyển tiền…) trên mạng mà cần phải xác minh lại. Ngoài ra, không nên truy cập vào các địa chỉ website lạ, không cài đặt các phần mềm lạ không rõ nguồn gốc, những phần mềm đòi hỏi yêu cầu cấp quyền truy cập cao vào thông tin người dùng, truy cập thẻ nhớ, danh bạ, vị trí, chụp ảnh,…

Đồng thời, các cơ quan Nhà nước cần phải tích cực tuyên truyền để người dân nâng cao hiểu biết về các hình thức tấn công, lừa đảo mới. Các nhà mạng, tổ chức cung cấp dịch vụ thường xuyên cập nhật giải pháp công nghệ hiện đại để phát hiện, phòng chống tội phạm mạng hiệu quả hơn, bảo vệ khách hàng tốt hơn.

Một số chuyên gia khuyến cáo, người dùng mạng xã hội nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên không gian mạng; luôn bảo mật tài khoản mạng xã hội, email của mình bằng mật khẩu có độ khó cao, bảo mật 2 bước; nếu bị làm giả, nên thông báo ngay lập tức cho mọi người biết. Và báo lên cơ quan chức năng tại https://canhbao.ncsc.gov.vn hay báo lên dự án Chống lừa đảo tại https://chongluadao.vn; nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại https://dauhieuluadao.com; cẩn thận hơn, nếu chia sẻ video hay clip trên mạng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật của mình.

Thái An

Nguồn PL&XH: https://phapluatxahoi.kinhtedothi.vn/bien-tuong-lua-dao-qua-cong-nghe-deepfake-cach-nhan-dien-va-phong-tranh-366572.html