Một cuộc tấn công Deepfake xảy ra khi kẻ tấn công sử dụng Gen AI để tạo ra bản sao giọng nói hoặc hình ảnh của một người, sau đó tương tác với cá nhân hay tổ chức nhằm lừa đảo. Deepfake là một phương tiện nguy hiểm mà tội phạm mạng có thể sử dụng để phá hoại, gây thiệt hai cho cá nhân cũng như tổ chức.
Tổng quan về Deepfake
Theo Goodfellow và cộng sự (2014), Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI), đặc biệt là các mô hình học sâu (Deep Learning) như mạng đối nghịch tạo sinh (GANs - Generative Adversarial Networks) để tạo ra hoặc thay đổi hình ảnh, âm thanh, video nhằm tái hiện một cách cực kỳ chân thực khuôn mặt, giọng nói, hoặc hành vi của một cá nhân.
Ảnh minh họa (Nguồn: Internet)
Thuật ngữ “Deepfake” là sự kết hợp giữa “Deep Learning” và “Fake” (giả mạo), phản ánh bản chất của công nghệ: Giả mạo một cách tinh vi bằng học sâu. Về kỹ thuật, Deepfake hoạt động bằng cách huấn luyện hai mô hình AI: (i) Mô hình tạo (Generator) cố gắng tạo ra dữ liệu giả (ví dụ, khuôn mặt hoặc giọng nói giả); (ii) Mô hình phân biệt (Discriminator) cố gắng phân biệt giữa dữ liệu thật và giả. Hai mô hình này cạnh tranh liên tục, khiến sản phẩm giả mạo ngày càng trở nên tinh vi và khó phân biệt với thực tế.
Theo Vincent và James (2018), Deepfake có thể được sử dụng theo cả hướng tích cực lẫn tiêu cực. Cụ thể, về mặt tích cực, công nghệ này có thể phục vụ trong lĩnh vực điện ảnh (như tái hiện hình ảnh các diễn viên đã qua đời), giáo dục hoặc nghệ thuật. Ngược lại, nếu bị lạm dụng, Deepfake có thể dẫn đến các hành vi như lừa đảo tài chính, thao túng thông tin chính trị, phát tán tin giả, tống tiền hoặc xâm phạm quyền riêng tư.
Mối đe dọa gia tăng từ tội phạm mạng do AI tạo sinh (Gen AI) tiếp tay
Tội phạm mạng đang gia tăng và ngày càng khai thác Gen AI để thực hiện hành vi phạm tội. Chiêu trò của chúng trở nên tinh vi hơn và dễ tiếp cận với nhiều đối tượng hơn. Nhiều ước tính cho thấy chi phí trực tiếp và gián tiếp của các sự cố mạng chiếm từ 1 đến 10% GDP toàn cầu. Các cuộc tấn công bằng Deepfake đã tăng gấp 20 lần chỉ trong ba năm qua (Michael S. Barr, 2025).
Việc tội phạm mạng sử dụng Deepfake để thực hiện các hành vi lừa đảo ngày càng trở thành một cuộc đối đầu căng thẳng giữa bên tấn công và bên phòng thủ. Tội phạm mạng liên tục nghĩ ra các phương thức tấn công mới, trong khi các tổ chức tài chính buộc phải không ngừng cập nhật và củng cố hệ thống bảo mật. Tuy nhiên, cuộc chiến này diễn ra trong thế bất cân xứng: Kẻ tấn công có thể triển khai nhiều vụ việc với chi phí thấp và chỉ cần một số ít thành công để đạt mục tiêu; ngược lại, các tổ chức phòng thủ phải đầu tư rất lớn vào nguồn lực, công nghệ và nhân lực, nhưng chỉ một sơ suất nhỏ cũng có thể gây ra thiệt hại nghiêm trọng. Trong bối cảnh đó, vấn đề đặt ra là cần có thêm các giải pháp hiệu quả nhằm gia tăng chi phí và rủi ro cho tội phạm mạng, đồng thời giảm bớt gánh nặng chi phí phòng vệ cho các tổ chức tài chính và lực lượng chức năng.
Cách thức hoạt động của Deepfake
Một cuộc tấn công Deepfake xảy ra khi kẻ tấn công sử dụng Gen AI để tạo ra bản sao giọng nói hoặc hình ảnh của một người, sau đó tương tác với cá nhân hay tổ chức nhằm lừa đảo.
Deepfake là một phương tiện cực kỳ nguy hiểm mà tội phạm mạng có thể sử dụng để phá hoại, gây thiệt hai cho cá nhân cũng như tổ chức. Quá trình thường bắt đầu bằng tổng hợp giọng nói, nơi các mô hình Gen AI có thể không chỉ mô phỏng lời nói mà còn bắt chước cách ngắt câu, ngữ điệu và chất giọng của nạn nhân.
Với chỉ một đoạn ghi âm ngắn, tội phạm được Gen AI hỗ trợ có thể giả mạo người thân đang trong tình huống khẩn cấp hoặc một khách hàng VIP của ngân hàng để thực hiện giao dịch.
Bên cạnh khả năng giả giọng nói, Gen AI còn có thể tạo ra các video giả với mức độ chân thực cao. Phần lớn video Deepfake hiện nay được tạo ra bằng GANs để tạo ra hình ảnh và video ngày càng giống thật hơn. Không dừng lại ở đó, Deepfake còn có thể được nâng cấp thông qua việc kết hợp với các công cụ AI khác. Chẳng hạn, AI có thể được dùng để thu thập và tổ chức dữ liệu cá nhân từ nhiều nguồn khác nhau, từ đó giúp vượt qua bước xác thực danh tính một cách dễ dàng. Ngoài ra, tội phạm mạng còn có thể truy cập vào “web đen” để khai thác các phiên bản đã bị bẻ khóa của các mô hình ngôn ngữ lớn, từ đó học hỏi kỹ thuật tạo Deepfake và nâng cao năng lực lừa đảo.
Deepfake trong thực tế
Trong thời gian gần đây, thế giới đã nhiều lần chứng kiến các video Deepfake sử dụng hình ảnh của chính trị gia hay lãnh đạo doanh nghiệp nổi tiếng để đánh lừa công chúng và lan truyền thông tin sai lệch. Không chỉ dừng lại ở việc thao túng nhận thức, Deepfake còn đang bị lợi dụng để thực hiện hành vi gian lận tài chính. Một trong những vụ việc đáng chú ý xảy ra vào năm 2024, khi một đoạn Deepfake tinh vi mô phỏng giám đốc tài chính của công ty Arup (Anh) đã xuất hiện trong cuộc họp video, qua đó thuyết phục một nhân viên tài chính chuyển khoản 25 triệu USD cho tội phạm (Michael S. Barr, 2025).
Theo một khảo sát công bố năm 2024, hơn 10% doanh nghiệp cho biết đã từng là mục tiêu của các cuộc tấn công sử dụng Deepfake, trong khi các biện pháp phòng ngừa hiện vẫn còn khá sơ sài. Kể từ sau đại dịch Covid-19, đời sống cá nhân và công việc ngày càng phụ thuộc vào các nền tảng giao tiếp qua video, tạo điều kiện thuận lợi cho công nghệ giả mạo hình ảnh và giọng nói phát triển. Đồng thời, các hệ thống xác thực bằng giọng nói tại ngân hàng - vốn được xem là tiện lợi - cũng đang trở nên dễ bị tổn thương trước sự phát triển nhanh chóng của Gen AI. Nếu công nghệ này tiếp tục trở nên phổ biến và rẻ hơn trong tay tội phạm, trong khi công nghệ phát hiện gian lận chưa theo kịp, thì bất kỳ ai trong chúng ta cũng có thể trở thành nạn nhân của Deepfake.
Một số khuyến nghị
Để hạn chế những thiệt hại do Deepfake gây ra, chúng ta cần giảm xác suất thành công của các cuộc tấn công và đồng thời làm cho mỗi lần tấn công trở nên tốn kém hơn đối với kẻ gian.
Thứ nhất, giảm khả năng tấn công thành công: (i) Các tổ chức tài chính, đặc biệt là ngân hàng, đóng vai trò tuyến đầu trong việc phòng vệ chống lại Deepfake. Bên cạnh đó, các quy trình xác minh danh tính như xác thực đa yếu tố, giám sát giao dịch cần được tăng cường bằng những công nghệ AI mới như nhận diện khuôn mặt, phân tích giọng nói và sinh trắc học hành vi; (ii) Cần phát triển các kỹ thuật đánh giá khả năng AI đã can thiệp vào video/âm thanh dựa trên siêu dữ liệu, nhằm phát hiện những bất thường mà con người khó nhận ra; (iii) Ngân hàng nên kiểm tra không chỉ danh tính người gửi mà còn xác minh địa chỉ nhận tiền, sử dụng phân tích dữ liệu nâng cao để xác định mẫu hành vi bất thường.
Thứ hai, để hạn chế tối đa những thiệt hại do Deepfake gây ra, người dùng dịch vụ tài chính cần: (i) Kích hoạt xác thực đa yếu tố cho tài khoản; (ii) Xác minh những yêu cầu bất thường thông qua kênh độc lập, ngay cả khi yêu cầu đó trông rất đáng tin; (iii) Đánh giá cao và chấp nhận các biện pháp bảo mật, ngay cả khi chúng gây ra đôi chút chậm trễ trong trải nghiệm người dùng.
Thứ ba, với vai trò định hướng và kiểm soát hệ thống, cơ quan quản lý cần sớm cập nhật các hướng dẫn, quy định nhằm tăng cường an ninh mạng trong ngành ngân hàng. Trong đó, chính sách cần tính đến mức độ rủi ro đặc thù của từng tổ chức, để vừa đảm bảo an toàn hệ thống, vừa tránh gây áp lực quá mức, nhất là với các ngân hàng quy mô nhỏ. Ngoài ra, các cơ quan quản lý cần thúc đẩy hoạt động nghiên cứu và phát triển công nghệ nhằm phòng chống Deepfake và tội phạm sử dụng Gen AI. Bản thân cơ quan quản lý cũng nên ứng dụng trí tuệ nhân tạo để giám sát các giao dịch và hành vi bất thường tại tổ chức tài chính theo thời gian thực, từ đó chủ động phát hiện và xử lý gian lận hiệu quả hơn.
Thứ tư, cần có sự phối hợp chặt chẽ với lực lượng thực thi pháp luật trong và ngoài nước trong việc thực thi luật phòng, chống tội phạm mạng toàn cầu. Bên cạnh đó, cũng cần nâng cao hình phạt đối với việc sử dụng Gen AI để phạm tội, đồng thời, đẩy mạnh các nỗ lực phòng, chống rửa tiền và đóng băng tài sản liên quan đến tội phạm mạng.
Kết luận
Deepfake là một trong những kỹ thuật tấn công mạng mới, nhưng nó đặc biệt đáng lo ngại vì tính cá nhân hóa cao, đồng thời, đang gia tăng nhanh chóng. Do đó, các tổ chức tài chính cần thích nghi, hợp tác và đổi mới không ngừng để đối phó hiệu quả với những mối đe dọa mới này.
Tài liệu tham khảo:
1. Michael S. Barr, “Artificial Intelligence: Hypothetical Scenarios for the Future” (speech at the Council on Foreign Relations, New York, NY, February 18, 2025); Michael S. Barr, “AI, Fintechs, and Banks” (speech at the Federal Reserve Bank of San Francisco, San Francisco, CA, April 4, 2025).
2. International Monetary Fund, Global Financial Stability Report, chapter 3 (October 2024), See also, World Economic Forum, Why We Need Global Rules to Crack Down on Cybercrime (January 2023).
3. Federal Bureau of Investigation, “Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud”, public service announcement, December 3, 2024.
4. Tianxiang Shen, Ruixian Liu, Ju Bai, and Zheng Li, "Deep Fakes" Using Generative Adversarial Networks (GAN) (PDF). McAfee, Beware the Artificial Impostor (May 2023), https://www.mcafee.com/content/dam/consumer/en-us/resources/cybersecurity/artificial-ntelligence/rp-beware-the-artificial-impostor-report.pdf
5. Kathleen Magramo, “British Engineering Giant Arup Revealed as $25 Million Deepfake Scam Victim”, CNN Business, May 17, 2024, https://www.cnn.com/2024/05/16/tech/arup-deepfake-scam-loss-hong-kong-intl-hnk/index.html.
6. Chad Brooks, “1 in 10 Executives Say Their Companies Have Already Faced Deepfake Threats”, business.com, June 28, 2024, https://www.business.com/articles/deepfake-threats-study/
7. “Computer-Security Incident Notification Requirements for Banking Organizations and Their Bank Service Providers”, 86 Fed. Reg. 66,424 (November 23, 2021).
Xuân Mai