Thời gian gần đây, xuất hiện đối tượng tội phạm công nghệ cao sử dụng Deepfake AI (phần mềm ghép mặt và giọng nói) giống hệt người quen của nạn nhân để thực hiện hành vi lừa đảo. Cách thức này được dùng để lừa những người dùng cảnh giác, họ cẩn thận gọi video qua Facebook, Zalo kiểm chứng và… sập bẫy. Bằng công nghệ “không biên giới”, dự báo đây là chiêu trò “nở rộ” thời gian tới mà người dân cần cảnh giác để tránh mất tiền oan.
Đối tượng liên tục nhắn tin và gọi điện nhờ anh T chuyển khoản
Ngày 4/4, anh N.T, xã Vạn Xuân (Cổ Tiết cũ), huyện Tam Nông nhận được tin nhắn của một người bạn tên P.K.B từ ứng dụng Messenger của Facebook, nhờ chuyển 20 triệu đồng vào tài khoản. Sau một vài tin nhắn qua lại, đối tượng chủ động gọi điện cho anh T qua cùng ứng dụng Facebook để tạo niềm tin. Tuy nhiên, chỉ được vài giây thì đối tượng tắt máy. Sau đó, anh T gọi lại 2 cuộc thì thấy đúng khuôn mặt, đúng giọng nói nhưng đoạn hội thoại của các cuộc gọi là giống nhau, chỉ được vài giây là kết thúc với lý do mạng kém. Khi quan sát kĩ cuộc gọi thứ 2, anh T nhận ra đối tượng đang quay màn hình vào một chiếc điện thoại khác có video của anh B.
Anh T cho biết: “Cuộc gọi chỉ diễn ra được vài giây nhưng đủ để tôi thấy được khuôn mặt và giọng nói của bạn mình nhưng chập chờn. Sau đó, tôi nhận được tin nhắn vì sóng yếu nên không gọi video tiếp được, chuyển sang nhắn tin cho tiện. Tuy nhiên, khi đối tượng nhắn tin nhờ chuyển khoản vào tài khoản lạ, tôi lập tức sinh nghi và kiểm tra lại với người thân của anh B thì biết tại khoản Facebook của B đã bị hack”.
Sau đó, trên tài khoản Facebook của vợ anh B đã phát đi cảnh báo về việc chồng mình bị hack tài khoản Facebook và đối tượng đã gọi, nhắn tin cho rất nhiều người để nhờ chuyển tiền. Rất may, sau những cảnh báo liên tục gần đây về những cuộc gọi “đúng mặt, đúng giọng” nhưng không phải chính chủ, người dùng đã cảnh giác hơn rất nhiều.
Kịch bản lừa đảo diễn ra thông thường như sau: Kẻ lừa đảo tìm cách chiếm đoạt tài khoản Zalo, Facebook của người dùng, tiếp đó thu thập hình ảnh (có thể cả giọng nói của nạn nhân từ các video) và dùng Deepfake tạo ra đoạn video mạo danh. Sau đó kẻ lừa đảo tiến hành nhắn tin mượn tiền những người dùng trong danh sách bạn bè của nạn nhân, đồng thời thực hiện cuộc gọi video mạo danh, phát video giả mạo để tăng độ tin cậy nhằm lừa đảo thành công.
Tại cuộc họp báo thông tin về tình hình, kết quả các mặt công tác quý I/2023 của Bộ Công an tổ chức vào ngày 28/3, ông Triệu Mạnh Tùng, Phó cục trưởng Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao (Bộ Công an) cho biết, hiện các đối tượng đã sử dụng công nghệ Deepfake ứng dụng AI vào các mục đích lừa đảo, chiếm đoạt tài sản. Cụ thể, công nghệ Deepfake được dùng để giả hình ảnh, giọng nói của một người, rồi tương tác với bị hại. Khi chiếm được lòng tin của bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính để lừa đảo, chiếm đoạt.
Theo cơ quan công an, với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp. Để che lấp khuyết điểm này, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét, giống như cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực phủ sóng di động hoặc wifi yếu…
Hiện tại, các mạng xã hội phổ biến toàn cầu như Facebook, Twitter, TikTok đều áp dụng công cụ riêng để phát hiện video Deepfake, đồng thời cấm đăng tải nội dung do công nghệ này tạo ra lên nền tảng của họ. Tuy vậy, việc phát hiện chỉ ở mức tương đối và kẻ gian vẫn không ngừng tìm cách để lách qua bộ lọc của mạng xã hội.
Tài khoản Facebook của vợ anh B (người bị hack nick) cảnh báo bạn bè để tránh bị lừa tiền
Các chuyên gia bảo mật cảnh báo, cách tốt nhất để tránh bị làm giả Deepfake là mọi người nên hạn chế chia sẻ hình ảnh, video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao. Nếu chia sẻ video hay clip trên mạng, nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật.
Cơ quan công an cũng khuyến cáo người dùng cá nhân, các tổ chức, doanh nghiệp cần nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, xác nhận qua video call; nên xác thực lại thông tin bằng cách gọi điện thoại hoặc gặp trực tiếp để trao đổi thông tin chính xác trước khi giao dịch. Bên cạnh đó, người dùng nên cẩn trọng khi chia sẻ các thông tin cá nhân trên mạng xã hội, không nên để lộ quá nhiều thông tin riêng tư như số nhà, số căn cước công dân…
Nếu bị làm giả Deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.
Bên cạnh Deepfake, thì lừa đảo bằng công nghệ giả giọng nói (Voice Deepfake) cũng đã được thực hiện. Năm 2019, một công ty năng lượng tại Mỹ bị lừa 243.000 USD khi tội phạm mô phỏng giọng nói của lãnh đạo công ty, yêu cầu nhân viên chuyển tiền cho một nhà cung cấp. Trong năm 2022, tổng số tiền người dùng bị lừa bằng hình thức lừa đảo mô phỏng giọng nói người thân đã lên tới 11 triệu USD.