Trong 5-10 phút có thể tạo video giả mạo nhờ AI Deepfake
Mới đây Bộ Công an và Cục An toàn thông tin đã cung cấp nhiều thông tin cho biết về thủ đoạn của các đối tượng giả danh cán bộ cơ quan chức năng (cán bộ Công an, cơ quan thuế...) hoặc người thân, quen của nạn nhân (đối tượng sử dụng công nghệ Deepfake để làm giả hình ảnh và giọng nói) thực hiện video call với nạn nhân để tạo sự tin tưởng. Trong lúc video call, bằng nhiều thủ đoạn, đối tượng sẽ yêu cầu nạn nhân thực hiện nhìn thẳng, nghiêng trái, nghiêng phải... rồi ghi lại video và dùng nó nhằm mở tài khoản ngân hàng, ví điện tử đứng tên nạn nhân.
Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ được kết hợp giữa "deep learning" (máy học) và "fake" (giả). Hiện tại công nghệ AI và đặc biệt là Deepfake ngoài được dùng để phục vụ mục đích tốt, nhưng một số thành phần lại sử dụng cho mục đích lừa đảo, giả mạo, bôi nhọ hay thậm chí là làm ra tin giả kiểu video. Cụ thể, các đối tượng gọi video call và hướng dẫn người dùng nhìn thẳng, nghiêng trái, nghiêng phải... để thu thập đầy đủ hình ảnh chân dung người dùng ở các góc cạnh khác nhau, mục tiêu để tái tạo video hình ảnh chất lượng và chính xác hơn, sắc nét hơn thay vì thu thập hình ảnh trên Internet.
Hình ảnh giả mạo ông Nguyễn Duy Hưng - Chủ tịch Công ty CP Chứng khoán SSI
Theo ông Võ Đỗ Thắng, Giám đốc Trung tâm tư vấn và đào tạo an ninh mạng ATHENA, với các phần mềm AI Deepfake như: Swapface, Deepswap, Deepfaceswap.AI, FaceMagic... thì với 5-10 phút có thể tạo ra được một video giả mạo.
Nếu như trước đây các cuộc gọi giả mạo hình ảnh, âm thanh, clip không sắc nét... có thể do thiết bị đối tượng sử dụng để thực hiện hành vi lừa đảo có cấu hình thấp hoặc thuật toán phần mềm AI Deepfake chưa cao. Tuy nhiên, nếu các đối tượng lừa đảo có tổ chức nhận thấy việc lừa đảo thu lợi bất chính lớn, rất có thể các đối tượng này sẽ đầu tư thêm máy móc thiết bị phần cứng, phần mềm chất lượng cao hơn, nâng cao chất lượng hình ảnh đầu ra, tạo video hình ảnh Deepfake giống như thật, khó có thể phát hiện bằng mắt thường.
Clip AI Deepfake lừa đảo sẽ gây ra những hệ lụy, bất tiện cho người dùng. Thật nguy hiểm và bất lợi cho người dùng trước các vụ lừa đảo AI Deepfake. Khi sự cố xảy ra, việc người dùng chứng minh với cơ quan chức năng, với ngân hàng mình bị lừa là vô cùng phức tạp, mất thời gian và phải có sự tham gia của nhiều bên như nhà mạng hoặc Công an. Bọn tội phạm lợi dụng công nghệ AI Deepfake để nhân bản rất nhiều video giả mạo trong thời gian ngắn và "đánh lừa" rất nhiều người dùng. Mỗi người dùng, các đối tượng tội phạm thực hiện lừa đảo với số tiền không quá lớn nhưng chúng thực hiện trên quy mô lớn, ở nhiều địa phương khác nhau nên số tiền thu lợi bất chính cộng lại sẽ rất lớn. Việc mỗi nạn nhân bị lừa đảo với số tiền không lớn và nằm ở nhiều địa phương sẽ gây rất nhiều khó khăn cho các cơ quan bảo vệ pháp luật, cơ quan Công an, cơ quan chống lừa đảo khi huy động các lực lượng vào cuộc xử lý.
Bùng nổ dùng Deepfake ai lừa đảo, kêu gọi đầu tư, "lùa gà"
Mới đây, ông Nguyễn Duy Hưng, Chủ tịch HĐQT Công ty CP Chứng khoán SSI đã bị kẻ gian sử dụng công nghệ Deepfake AI để giả mạo hình ảnh thực hiện các livestream tư vấn trên các hội nhóm Zalo, Tiktok, Telegram về đầu tư chứng khoán để lừa đảo các nhà đầu tư.
Đối tượng còn lập tài khoản có tên Nguyễn Duy Hưng, Chủ tịch HĐQT của Công ty CP Chứng khoán SSI trên nền tảng Zalo để đưa ra các nhận định, tư vấn. Từ nền tảng Zalo, các đối tượng tiếp tục điều hướng vào nhóm kín trên nền tảng Telegram. Tại đây, chúng sử dụng công nghệ AI tạo hình ảnh, video giả mạo Chủ tịch HĐQT SSI Nguyễn Duy Hưng để tiếp tục tư vấn đầu tư chứng khoán và dụ dỗ nhà đầu tư rơi vào cạm bẫy.
Phần mềm AI Deepfake dùng để tạo các video giả mạo
Trao đổi thêm với PV Báo Công an TPHCM, ông Võ Đỗ Thắng nhận định, đối tượng thực hiện hành vi lừa đảo trên không gian mạng hiện không đơn thuần là cá nhân, mà là tổ chức, có sự sắp xếp chuyên nghiệp, phạm vi hoạt động xuyên quốc gia. Các nhóm này có đặc điểm chung là dùng chính những người Việt nổi tiếng, những lãnh đạo, nhà quản lý cấp cao... để làm con mồi lừa người Việt. Đến khi nạn nhân phát hiện thì gần như không thể truy được kẻ lừa đảo.
"Bản thân tôi ngày nào cũng nhận được lời mời kết bạn, lời mời vào các nhóm đầu tư, có ngày tới 10 nhóm, từ vàng tới chứng khoán, bất động sản, đầu tư kiểu mới 4.0... Hầu hết các nhóm này có dấu hiệu lừa đảo", ông Thắng nói.
Chiêu thức liên tục thay đổi, công nghệ cao, AI Deepfake cũng được ứng dụng để tăng niềm tin. Theo các chuyên gia, người dùng có thể căn cứ một số dấu hiệu sau để phát hiện lừa đảo. Trước hết là đối tượng cam kết mức lãi suất cao, những lần đầu trả lãi đúng hạn, sau đó tiếp tục yêu cầu nạn nhân chuyển khoản tăng dần số tiền đầu tư và đến khi số tiền lớn thì biến mất. Đối tượng lừa đảo không để lộ hình ảnh cá nhân, thường xây dựng vỏ bọc, đội nhóm tung hứng, thậm chí chúng chụp hình, ghép hình mạo danh với các lãnh đạo và doanh nhân nổi tiếng để gây dựng niềm tin.
Tỉnh táo khi sử dụng camera trên Smartphone để chống lừa đảo AI Deepfake
Các chuyên gia an ninh mạng khuyến cáo người dùng không nên tin ngay những lời mời gọi vào các nhóm đầu tư, không tin vào các cuộc gọi yêu cầu cung cấp thông tin, số tài khoản, chuyển tiền... qua mạng xã hội.
Công nghệ lừa đảo AI Deepfake được tội phạm quốc tế đã và đang áp dụng từ hai, ba năm qua. Do vậy, khi tội phạm mạng trong nước bắt đầu biết nhiều hơn cách làm, đánh cắp video, hình ảnh rồi cắt ghép, sau đó dùng những công cụ để tạo Deepfake thì lúc đó có thể sẽ tạo ra "một làn sóng lừa đảo" ."Làn sóng lừa đảo" này sẽ khiến nhiều người lâu nay rất cảnh giác, khó bị lừa nhưng giờ cũng có thể sẽ bị các đối tượng lừa đảo. Nạn nhân có thể là những người trung niên trở lên, dễ bị lừa nhất vì họ thiếu kiến thức về an toàn thông tin, về công nghệ và khó nhận biết kiểu lừa đảo này nếu không có sự chia sẻ, hướng dẫn an toàn trên không gian mạng.
AI Deepfake giả mạo tỷ phú Elon Musk để kêu gọi đầu tư, "lùa gà”
Ông Võ Đỗ Thắng - Giám đốc Trung tâm tư vấn và đào tạo an ninh mạng ATHENA, đã chỉ ra một số dấu hiệu về lừa đảo AI Deepfake như: Khi người dùng xem một số video hoặc hình ảnh mà "nhân vật lừa đảo" cung cấp có nhiều dấu hiệu lạ, như khuôn mặt thiếu tính cảm xúc và khá "đơ" khi nói, tư thế lúng túng, không tự nhiên; hay màu da của nhân vật trong video bất thường, ánh sáng lạ và bóng đổ không đúng vị trí khiến cho video trông "giả tạo" và không tự nhiên; hoặc âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh... Các dấu hiệu lạ trên là cảnh báo sản phẩm của AI Deepfake, vì vậy người dùng nên tỉnh táo khi có một ai đó trên mạng xã hội nằm trong danh sách bạn bè tự nhiên nhắn, gọi hỏi mượn tiền hay gửi link lạ thì hãy bình tĩnh kiểm chứng, xác thực mọi thông tin để tránh bị lừa đảo.
Ông Thắng khuyến cáo, người dùng cần cảnh giác với công nghệ Deepfake, kể cả livestream, cuộc gọi có sự xuất hiện của những doanh nhân nổi tiếng. Thay vì tiếp nhận thụ động, người dùng có thể kiểm tra ngược lại bằng cách tắt đi, yêu cầu gọi video call ngược trở lại, yêu cầu hai bên mở camera để thấy khuôn mặt trực tiếp lẫn nhau và hỏi những câu trực tiếp... Những yêu cầu này nằm ngoài kịch bản của đối tượng. Nếu là đối tượng lừa đảo sẽ không dám mở camera để gọi trực tiếp, hoặc nếu AI Deepfake, máy nói thì không thể đáp ứng trơn tru các câu hỏi trực tiếp của người dùng.
Song song đó, người dùng cần thực hiện những quy tắc: không tin tưởng các thông tin yêu cầu (cài phầm mềm, đăng nhập vào website, cung cấp thông tin, chuyển tiền...) trên mạng mà cần phải xác minh lại. Ngoài ra, không nên truy cập vào các địa chỉ website lạ, không cài đặt các phần mềm lạ không rõ nguồn gốc, những phần mềm đòi hỏi yêu cầu cấp quyền truy cập cao vào thông tin người dùng, truy cập thẻ nhớ, danh bạ, vị trí, chụp ảnh... Đồng thời, các cơ quan Nhà nước cần phải tích cực tuyên truyền để người dân nâng cao hiểu biết về các hình thức tấn công, lừa đảo mới. Các nhà mạng cung cấp dịch vụ thường xuyên cập nhật giải pháp công nghệ hiện đại để phát hiện, phòng, chống tội phạm mạng hiệu quả hơn để bảo vệ khách hàng.