Nhiều nạn nhân cầu cứu vì bị ghép hình vào clip nhạy cảm nhằm tống tiền

Thứ Tư, 31/07/2024 18:28

|

(CATP) Ngày 30/7, Công an TPHCM cho biết, vừa liên tục tiếp nhận trình báo của nhiều nạn nhân cầu cứu về việc bị "Deepfake AI" (công nghệ ứng dụng trí tuệ nhân tạo) ghép hình vào clip nhạy cảm, dọa gửi cho người thân quen của nạn nhân trên mạng nhằm mục đích tống tiền.

Bị đối tượng lừa chiếm đoạt dữ liệu hình ảnh

Các nạn nhân trên bị đối tượng lừa đảo ẩn danh trên mạng xã hội theo dõi trong thời gian dài, vờ gửi yêu cầu kết bạn, chia sẻ hoàn cảnh khó khăn, đáng thương của gia đình... Từ đó, các đối tượng đã lừa nạn nhân để lấy nội dung từ các tài khoản Facebook, Zalo... Cụ thể, đối tượng copy hình ảnh cá nhân được chủ tài khoản đăng công khai trên trang của họ, sử dụng Deepfake AI để ghép các hình ảnh đó thành clip hoặc hình ảnh nhạy cảm, gửi cho những người thân quen của nạn nhân nhằm mục đích khủng bố tinh thần, đe dọa, tống tiền qua mạng xã hội.

Trường hợp gần nhất, anh N.H đến cơ quan công an trình báo về việc bị một đối tượng trên mạng xã hội sao chép nhiều hình ảnh cá nhân từ trang Facebook và trang Zalo của mình. Đối tượng sử dụng Deepfake AI để ghép clip hoặc hình ảnh nhạy cảm rồi đe dọa gửi cho bạn bè, người quen của anh H. trên Facebook, Zalo và tống tiền 150 triệu đồng.

Trước đó, anh H. nhận được tin nhắn mời kết bạn từ tài khoản Facebook "Lê T Uyên". Công việc quản lý nhiều nhân viên ở khắp các tỉnh, thành trong cả nước nên anh H. thường xuyên giao tiếp, trao đổi qua Facebook, Viber, Zalo để sâu sát với thực tế, cũng như lắng nghe các khó khăn của nhân viên và có phương án hỗ trợ công việc tốt nhất cho họ. Trong một lần giao tiếp như thường lệ, anh H. kết bạn với tài khoản "Lê T Uyên". Qua cách nói chuyện, Uyên chia sẻ nhiều câu chuyện thương tâm về gia đình, có cha mắc bệnh ung thư nặng giai đoạn cuối, nằm điều trị ở bệnh viện, người mẹ cũng đang bị bệnh ở quê, bản thân Uyên không đủ tiền lo cho cha mổ, không có tiền để cứu cha khỏi "lưỡi hái tử thần". Hoàn cảnh khó khăn của Uyên đã làm anh H. cảm động bởi cách nói chuyện rất chân thành, thiện tâm, hết lòng muốn cứu cha cô thoát chết.

Lực lượng chức năng cảnh báo tình trạng lợi dụng Deepfake AI để đe dọa, tống tiền. Ảnh minh họa

Qua trao đổi, sau khi lấy được lòng tin của anh H., đối phương ngỏ ý xin số tài khoản Viber cá nhân của anh H. Từ đó, đối tượng dùng thủ đoạn kỹ thuật xâm nhập ("hack") vào điện thoại của anh này để chiếm đoạt thêm thông tin khác ngoài số hình ảnh, clip mà anh H. quay với các đối tác, bạn bè đã đăng trên Facebook. Từ trang cá nhân trên Zalo, Facebook, đối tượng lấy được danh sách bạn bè, người quen của anh H. và sử dụng công nghệ Deepfake AI để ghép thành những hình ảnh, clip nhạy cảm. Lúc này, đối tượng đe dọa sẽ gửi các clip, hình ảnh nhạy cảm đến danh sách người quen của anh H., buộc anh này phải chuyển 150 triệu đồng để đổi lấy việc đối tượng không phát các clip, hình ảnh nhạy cảm đó. Do không có tiền để chuyển cho đối tượng, bị làm phiền nhiều lần nên anh H. quyết định trình báo vụ việc đến cơ quan công an.

Ngoài vụ anh H., thời gian qua cơ quan chức năng TPHCM còn tiếp nhận, giải quyết nhiều tin báo tương tự. Đặc điểm chung là các nạn nhân nhận lời kết bạn rồi bị đối tượng trên mạng xã hội ghép vào những clip, hình ảnh nhạy cảm dùng để đe dọa, gây áp lực sẽ gửi cho người quen của nạn nhân và tống tiền họ.

Deepfake AI tạo clip hỗ trợ kẻ lừa đảo

Hiện nay, có rất nhiều công cụ thực hiện công nghệ Deepfake AI với khả năng hoán đổi khuôn mặt có độ chân thực cao, rất khó phát hiện bằng mắt thường. Để tạo lòng tin cho nạn nhân, đối tượng lừa đảo sử dụng những hình ảnh thật, thông tin thật lấy từ các diễn viên, người mẫu chia sẻ trên mạng xã hội, sử dụng công nghệ Deepfake AI để tạo cuộc gọi video theo thời gian thật, tương tác thật với nạn nhân. Khi đã kết bạn, tạo được lòng tin cho nạn nhân, các đối tượng sẽ tìm cách khai thác thông tin đời tư, cá nhân, các mối quan hệ, các tài khoản mạng xã hội liên kết... để tìm cách khống chế sau này.

Nguy hiểm hơn, các đối tượng còn có thể dẫn dụ nạn nhân cài ứng dụng game, giải trí, đầu tư... để qua đó lén chèn cài đặt các mã độc vào máy điện thoại của nạn nhân nhằm khai thác thông tin danh bạ, thư viện hình ảnh, email, tài khoản ngân hàng... Sau đó, các đối tượng lợi dụng thời cơ để dẫn dụ nạn nhân thực hiện cuộc gọi video. Khi gọi video, các đối tượng dùng Deepfake AI để ghép mặt nạn nhân các clip nhạy cảm nhằm làm nạn nhân lầm tưởng hình trong clip là người thật. Cùng lúc, đối tượng dùng các ứng dụng quay màn hình để sử dụng trong việc khống chế nạn nhân.

Để tránh bị kẻ gian sử dụng Deepfake AI rồi gây họa, tống tiền, mọi người không nên chia sẻ hình ảnh cá nhân trên mạng và ứng dụng "chat" quá nhiều. Tuyệt đối không quay hoặc chia sẻ hình ảnh, clip có nội dung nhạy cảm; chú ý khi tham gia kết bạn, làm quen, hẹn hò trên mạng, cần kiểm chứng ngoài thực tế trước khi tin tưởng, giúp đỡ... Nếu rơi vào cảnh bị kẻ gian đe dọa, tống tiền thì tuyệt đối không chuyển tiền và trình báo ngay đến cơ quan công an nơi cư trú để được giúp đỡ.

Cách đây hơn 2 tháng, ông Hồ Huy (Chủ tịch Tập đoàn Mai Linh) đã phản ánh về việc các đối tượng sử dụng công nghệ Deepfake AI để cắt ghép, phát tán hình ảnh nhạy cảm về ông trên mạng xã hội. Mục đích của các đối tượng là nhằm bôi nhọ danh dự, nhân phẩm, uy tín cá nhân của ông Huy, từ đó gây ảnh hưởng lớn đến hoạt động kinh doanh của Tập đoàn Mai Linh.

Deepfake AI là công nghệ cho phép tạo ra các clip, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao. Công nghệ này được phát triển dựa trên trí tuệ nhân tạo (AI), sử dụng các thuật toán học máy để phân tích và tái tạo các đặc điểm của khuôn mặt, giọng nói, cử chỉ của một người. Deepfake AI có thể được sử dụng cho nhiều mục đích khác nhau, bao gồm giải trí, giáo dục, truyền thông. Tuy nhiên, công nghệ này cũng có thể bị lợi dụng cho mục đích xấu, như: lừa đảo, bôi nhọ, phá hoại...

Công nghệ Deepfake AI có thể bị lạm dụng nhằm mục đích lừa đảo tài chính. Cụ thể, các đối tượng sử dụng Deepfake AI để tạo ra clip hoặc cuộc gọi giả mạo người nổi tiếng, chính trị gia hoặc nhân vật có ảnh hưởng và yêu cầu nạn nhân chuyển tiền. Các đối tượng còn sử dụng công nghệ này nhằm mục đích bôi nhọ, xúc phạm danh dự, phá hoại uy tín của cá nhân, tổ chức hay doanh nghiệp, khiến họ bị mất khách hàng hoặc thiệt hại về kinh tế.

Để nhận biết clip, hình ảnh hoặc âm thanh tạo bằng Deepfake AI, người dùng có thể dựa vào một số dấu hiệu như: chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên, các điểm bất thường trong clip, hình ảnh hoặc nội dung clip không phù hợp với thực tế. Tuy nhiên, với sự phát triển của công nghệ hiện nay, hình ảnh do AI tạo ra gần như không có sự khác biệt và rất khó để phân biệt thật - giả nếu không sử dụng các công cụ phân tích.

Để phòng tránh nạn lừa đảo bằng Deepfake AI, các chuyên gia an ninh mạng khuyến cáo người dùng Internet cần cẩn trọng khi chia sẻ thông tin trên mạng xã hội. Không nên tin tưởng ngay vào các thông tin được chia sẻ trên mạng xã hội, đặc biệt là thông tin liên quan đến tài chính, danh dự hoặc uy tín của người khác. Ngoài ra, người dân cũng cần thường xuyên cập nhật kiến thức về công nghệ, đặc biệt là kiến thức về Deepfake AI để có thể nhận biết, phòng tránh các thủ đoạn lừa đảo.

Bình luận (0)

Lên đầu trang