Bị vợ gọi về cũng đừng tin, phía bên kia đầu dây có thể chỉ là phần mềm AI lừa đảo

Quản lý của công ty đa quốc gia mới đây đã bị lừa chuyển khoản 243.000 USD khi kẻ lừa đảo giả giọng của CEO để gọi điện yêu cầu.

Rất khó khăn để phân biệt văn bản thật hay giả hay các khuôn mặt trên video là thật hay đến từ ứng dụng deepfake. Và bây giờ, có vẻ như việc sử dụng công nghệ giọng nói giả cũng đã bắt đầu trở nên phổ biến. Theo Tạp chí Phố Wall, mộ trường hợp giả mạo giọng nói nghiêm trọng đã diễn ra gần đây. Cái giá của nó là 243.000 USD.

Cụ thể vào tháng 3 năm nay, bọn tội phạm đã sử dụng phần mềm AI để giả lập lại giọng nói của một công ty đa quốc gia, có trụ sở chính ở Đức. Công ty này sở hữu một công ty năng lượng có trụ sở tại Anh.

Những kẻ lừa đảo đã lừa giám đốc điều hành của công ty ở Anh, khiến ông ta chuyển tiền cho một nhà cung cấp ở Hungary trong một giờ, với lời hứa đảm bảo rằng việc hoàn tiền sẽ được thực hiện ngay lập tức. Giám đốc điều hành công ty này, sau khi nghe giọng nói và ngữ điệu quen thuộc của ông chủ mình, đã không nghi ngờ gì và làm theo chỉ đạo, theo báo cáo.

Nhưng số tiền này không được hoàn trả. Chưa hết, nhóm tội phạm đã tiếp tục đóng giả làm CEO của công ty Đức để yêu cầu thêm những khoản chuyển tiền khẩn cấp khác. Tuy nhiên, lần này, CEO người Anh từ chối thực hiện việc thanh toán.

Hóa ra, số tiền được chuyển sang Hungary sau đó lại được chuyển đến Mexico và nhiều nơi khác để xóa dấu vết. Các nhà chức trách vẫn chưa xác định được thủ phạm đứng đằng sau hoạt động tội phạm này.

Bị vợ gọi về cũng đừng tin, phía bên kia đầu dây có thể chỉ là phần mềm AI lừa đảo - Ảnh 1.

Hãy cần thận, các cuộc điện thoại gọi xin tiền mà bạn sắp nhận có thể không đến từ người thật.

Theo báo cáo, các cuộc tấn công dựa trên AI như thế này, có thể chỉ là khởi đầu của vô số các tình huống có thể khiến các doanh nghiệp và tổ chức đau đầu trong tương lai. Trong trường hợp này, phần mềm giả lập giọng nói đã có thể bắt chước thành công giọng nói của vị CEO ở Đức. Tất nhiên, đây cũng có thể chỉ là một trường hợp cá biệt và khó có thể nhân rộng. Tuy nhiên, không ai dám chắc rằng nếu tăng tần suất sử dụng, các cuộc tấn công kỹ thuật số dạng như thế này sẽ có tỷ lệ thành công bao nhiêu phần trăm.

Theo thời gian, khi các công cụ dùng để bắt chước giọng nói được cải thiện, khả năng các nhóm tội phạm sử dụng chúng để thực hiện hành vi phạm pháp sẽ tăng lên. Bằng cách giả mạo danh tính trên điện thoại, chúng sẽ dễ dàng truy cập vào các thông tin riêng tư và khai thác chúng cho các hành vi tội ác.

Hồi tháng 7, Tổng cục Điện tử Quốc gia Israel đã đưa ra cảnh báo về một loại tấn công mạng mới, sử dụng công nghệ AI để mạo danh các giám đốc điều hành doanh nghiệp cao cấp, bao gồm các hành động như hướng dẫn nhân viên thực hiện các giao dịch như chuyển tiền và hoạt động độc hại khác trên mạng.

Năm ngoái, Pindrop – một công ty an ninh mạng chuyên thiết kế phần mềm chống gian lận – đã báo cáo một bước nhảy vọt lên tới 350% trong vấn đề gian lận giọng nói, từ năm 2013 đến 2017, với 1 trong 638 cuộc gọi được báo cáo là do phần mềm tạo ra.

Để bảo vệ các công ty khỏi sự sụp đổ về kinh tế và uy tín, điều quan trọng hiện nay là các hướng dẫn quan trọng cần được xác minh thông qua email đi kèm sau đó, hoặc các phương tiện thay thế khác chứ không chỉ dựa vào một cuộc điện thoại.

Tham khảo Thenextweb