Thử tưởng tượng nếu bạn nhận được một cuộc gọi cầu cứu từ mẹ bạn vì bà không nhớ mật khẩu ngân hàng. Bạn sẽ làm gì? Chắc chắn, bạn sẽ đọc ngay lập tức mà không có chút nghi ngờ nào chứ? Tuy nhiên, đấy thực chất không phải là mẹ bạn. Giọng ở đầu dây bên kia chỉ là giọng giả mạo. Hay nói chính xác hơn đó chỉ là giọng nói máy tính tổng hợp, một thành tựu của công nghệ trí tuệ nhân tạo, được tạo ra để giả mạo giọng nói của một người nào đó qua điện thoại.

Thử tưởng tượng nếu bạn nhận được một cuộc gọi cầu cứu từ mẹ bạn vì bà không nhớ mật khẩu ngân hàng. Bạn sẽ làm gì? Chắc chắn, bạn sẽ đọc ngay lập tức mà không có chút nghi ngờ nào chứ? Tuy nhiên, đấy thực chất không phải là mẹ bạn. Giọng ở đầu dây bên kia chỉ là giọng giả mạo. Hay nói chính xác hơn đó chỉ là giọng nói máy tính tổng hợp, một thành tựu của công nghệ trí tuệ nhân tạo, được tạo ra để giả mạo giọng nói của một người nào đó qua điện thoại.

Một tình huống tưởng chừng chỉ tồn tại trong các câu chuyện khoa học viễn tưởng thì nay đã có thực ở ngoài đời. Và nó cũng chính là tương lai của tội phạm.

Theo The New York Times, những phần mềm cần thiết nhằm tạo ra công nghệ giả mạo được sử dụng một cách rộng rãi như thế này là một tiến bộ vượt bậc. Gần đây, ví dụ, DeepMind, một công ty con thuộc Alphabet (Google) từng đánh bại nhiều game thủ hàng đầu trong bộ môn cờ vây, đã thông báo rằng họ vừa mới thiết kế một chương trình "bắt chước được tất cả giọng nói của con người với một ngữ điệu tự nhiên hơn rất nhiều so với tính năng Text-to-speech (chuyển văn bản thành giọng nói), thu hẹp khoảng cách so với giọng thực của con người trên 50%".

Trớ trêu thay, năm nay, lại là năm của ngành công nghiệp bảo mật máy tính, với 75 tỷ doanh thu hàng năm, vừa mới thảo luận về việc làm cách nào để máy học và mô hình kỹ thuật nhận dạng có thể cải thiện tình trạng thê lương của bảo mật máy tính như hiện nay.

Nhưng đây cũng là mặt trái của vấn đề.

"Điều mọi người chưa nhận thức được là tội phạm mạng đang được tự động hóa và nó đang nhân lên thành cấp số nhân", Marc Goodman, cố vấn cho cơ quan thực thi pháp luật và tác giả cuốn sách "Tội phạm tương lai", nói.

Khi tri tue nhan tao tro thanh cong cu dac luc cho toi pham - Anh 1

Các báo động về việc sử dụng một cách ác ý công nghệ trí tuệ nhân tạo tân tiến đã được cảnh báo từ hồi đầu năm bởi James R. Clapper, Giám đốc cơ quan Trí tuệ Quốc gia. Trong đánh giá an ninh hàng năm, ông Clapper đã nhấn mạnh luận điểm: khi hệ thống A.I có thể thực hiện một cách dễ dàng hơn, thì cũng là lúc các lỗ hổng trong thế giới online được nới rộng ra.

Sự phát triển ngày càng tinh vi của tội phạm máy tính được minh chứng bằng sự phát triển của nhiều công cụ tấn công như các chương trình độc hại từng được sử dụng rộng rãi có tên gọi Blackshades, theo ông Goodman. Tác giả của chương trình này, một người Thụy Điển, đã bị kết án vào cuối năm ngoái tại Hoa Kỳ.

Hệ thống này được bán rộng rãi trong thế giới máy tính ngầm, hoạt động như "nhượng quyền kinh doanh liên quan đến tội phạm một cách bí mật", ông Goodman nói. Nó cho phép người dùng không cần có kiến thức kỹ thuật mà vẫn lấy được tiền chuộc từ máy tính hay thực hiện các video hoặc audio nghe lén chỉ bằng một cú click chuột.

Các thế hệ tiếp theo còn bổ sung thêm khả năng máy học từng được các nhà nghiên cứu trí tuệ nhân tạo khởi xướng, nhằm cải thiện chất lượng của thị giác máy (Machine Vision), hiểu được lời nói, tổng hợp giọng nói và diễn đạt ngôn ngữ một cách tự nhiên. Một số nhà nghiên cứu bảo mật máy tính tin rằng tội phạm kỹ thuật số đã thử nghiệm công nghệ A.I này trong hơn nửa thập kỷ qua.

Khi tri tue nhan tao tro thanh cong cu dac luc cho toi pham - Anh 2

Điều này được nhìn thấy bằng nỗ lực hủy hoại sự tồn tại của Captcha, một hình thức kiểm tra theo dạng hỏi đáp mà máy tính sử dụng để xác định xem người dùng có phải là con người hay không, được ra mắt vào năm 2003, bởi các nhà nghiên cứu trường Đại học Carnegie Mellon, nhằm ngăn chặn những chương trình ăn cắp tài khoản trực tuyến tự động.

Các nhà nghiên cứu trí tuệ nhân tạo "mũ trắng" và những tên tội phạm "mũ đen" đều tiến hành nhiều ứng dụng thuộc thị giác máy nhằm phá vỡ Captcha trong hơn nửa thập kỷ qua, Stefan Savage, một nhà nghiên cứu máy tính tại Đại học California (Mỹ) cho biết.

"Nếu bạn không thay đổi Captcha của bạn trong vòng hai năm, bạn sẽ làm chủ một vài thuật toán thị giác máy", ông nói.

Đáng ngạc nhiên, điều có khả năng làm chậm sự phát triển của các A.I độc hại thì nay lại dễ dàng mua được với mức giá thấp hoặc từ nguồn lao động tự do. Ví dụ, một số tội phạm mạng đã tạo ra chương trình phá vỡ Captcha ở những xưởng điện tử tồi tàn nơi con người được thuê một cách rẻ mạt để giải mã câu đố.

Thậm chí, bọn tội phạm còn nghĩ ra cách sử dụng những chương trình có nội dung khiêu dâm online như là một phần thưởng, cho những người chịu khó lướt web để phá mã Captcha, ông Goodman giải thích. Phần mềm AI sẽ không thế nào cạnh tranh được với các dạng lao động như thế này trong tương lai gần.

Khi tri tue nhan tao tro thanh cong cu dac luc cho toi pham - Anh 3

Vậy điều gì sẽ xảy ra?

Các loại tội phạm, để bắt đầu, có thể chịu trách nhiệm phát triển các công nghệ mới.

Công nghệ nhận dạng giọng nói như Siri của Apple và Cortana của Microsoft hiện nay được sử dụng rộng rãi để tương tác với máy tính. Hay kiểm soát giọng nói Echo của Amazon, nền tảng chatbot Messenger của Facebook, nhanh chóng trở thành cầu nối thương mại trực tuyến và hỗ trợ khách hàng. Đây cũng giống nhiều trường hợp trước đó, cứ tiến bộ kỹ thuật mới nào như nhận dạng giọng nói chẳng hạn trở thành xu thế, bọn tội phạm sẽ tìm cách lợi dụng tính năng này một cách triệt để.

"Tôi cho rằng các công ty hỗ trợ khách hàng thông qua chatbot đã vô tình tiếp tay cho lừa đảo phi kỹ thuật", Brrian Krebs, một phóng viên điều tra tại Krebsonsecurity.com nói.

Lừa đảo phi kỹ thuật hay social engineering, ám chỉ đến việc thao túng người dùng để dụ họ tiết lộ các thông tin bí mật, được nhiều người xem như là mắt xích yếu nhất trong chuỗi bảo mật máy tính. Tội phạm mạng thường khai thác những phẩm chất tốt nhất từ con người - đó là sự tin tưởng và sẵn sáng giúp đỡ người khác - để ăn cắp và làm gián điệp. Khả năng tạo hình ảnh đại diện cho trí tuệ nhân tạo có thể đánh lừa người dùng online đồng thời làm cho vấn đề trở nên tồi tệ hơn.

Điều này có thể thấy rõ ràng nhất là những nỗ lực của chính quyển tiểu bang và các chiến dịch tranh cử sử dụng công nghệ chatbot một cách rộng rãi để tuyên truyền chính trị.

Khi tri tue nhan tao tro thanh cong cu dac luc cho toi pham - Anh 4

Các nhà nghiên cứu đã đặt ra thuật ngữ "tuyên truyền máy - computational propaganda" để mô tả sự bùng nổ của những chiến dịch truyền thông giả mạo trên các mạng xã hội như Facebook và Twitter.

Trong một bài nghiên cứu gần đây, Philip N. Howard, một nhà xã hội học tại Viện Internet Oxford, và Bence Kollanyi, một nhà nghiên cứu thuộc Đại học Corvinus Budapest, đã mô tả cách thức để những chatbot chính trị đóng vai trò "nhỏ nhưng chiến lược" trong việc định hình các cuộc trò chuyện trực tuyến trong suốt thời gian trưng cầu dân ý của sự kiện Brexit.

Chỉ là vấn đề thời gian trước khi những ứng dụng này được bọn tội phạm sử dụng.

"Có quá nhiều người tài giỏi trong việc thiết kế các cuộc tấn công xã hội số, nhưng như những gì tôi biết, chưa một ai sử dụng máy học để tìm kiếm gốc rễ một cách chất lượng nhất", Mark Seiden, một chuyên gia bảo mật máy tính độc lập cho biết.

Hạnh Nhi