Xuất hiện hình thức lừa đảo mới: Dùng AI đánh cắp thông tin người dùng

Thứ Tư, 30/10/2024 08:22

|

(CATP) Theo ghi nhận của các chuyên gia, nhưng nhiều nhóm tội phạm mạng đã gia tăng việc áp dụng công nghệ AI như DeepFake, DeepVoice... trong các chiến dịch lừa đảo. Mới đây, trung tâm VNCERT/CC cảnh báo về sự xuất hiện trên thế giới của hình thức lừa đảo mới.

Thủ đoạn tinh vi

Theo đó, Trung tâm ứng cứu khẩn cấp không gian mạng Việt Nam - VNCERT/CC, Cục An toàn thông tin (Bộ Thông tin và Truyền thông) vừa phát hiện một chiến dịch lừa đảo tinh vi, lợi dụng trí tuệ nhân tạo - AI và công nghệ mạo danh để đánh cắp thông tin đăng nhập gmail của người dùng. Hình thức lừa đảo mới gồm cả việc giả mạo email và số điện thoại của Google, sử dụng công nghệ trí tuệ nhân tạo để tạo ra các thông điệp và cuộc gọi giống thật nhằm đánh lừa người dùng cung cấp thông tin nhạy cảm.

Kẻ tấn công có thể đánh cắp thông tin đăng nhập gmail của nạn nhân và sử dụng thông tin này để truy cập vào các dữ liệu cá nhân, hoặc thực hiện các cuộc tấn công khác. Điều này gây nguy cơ lớn cho người dùng gmail trên toàn cầu, đặc biệt những người không cảnh giác. Theo phân tích của các chuyên gia, email xác nhận mà kẻ lừa đảo gửi đến nạn nhân rất giống với email thật từ Google.

Cụ thể, đối tượng lừa đảo gửi email giả mạo từ Google, yêu cầu người dùng thực hiện quy trình khôi phục tài khoản. Email chứa đường dẫn đến một website giả có giao diện giống trang đăng nhập gmail, được thiết kế để đánh cắp thông tin đăng nhập. Khoảng 40 phút sau, người dùng tiếp tục nhận được cuộc gọi giả mạo tự nhận nhân viên hỗ trợ Google và thông báo có hoạt động bất thường trong tài khoản gmail của nạn nhân. Kẻ lừa đảo còn dùng giọng nói AI và phần mềm giả mạo số điện thoại để tăng tính thuyết phục.

NCSC nhiều lần lưu ý việc đối tượng dùng công nghệ DeepFake, DeepVoice để lừa đảo

Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam thuộc Cục Phát thanh, truyền hình và thông tin điện tử (Bộ TT&TT) đã phát cảnh báo về thủ đoạn sử dụng công nghệ DeepFake để cắt ghép, tạo video hay hình ảnh nhạy cảm giả mạo với mục đích lừa đảo, tống tiền người dùng. Thực tế đã có những người dùng mạng xã hội tại Việt Nam bị kẻ xấu tống tiền bằng các hình ảnh, video được tạo từ DeepFake - công nghệ ứng dụng AI để tạo hình ảnh, video giả mạo rất giống thật khiến người dùng khó phân biệt.

Chia sẻ tại sự kiện Vietnam Security Summit 2024 chủ đề "An toàn trong thời kỳ bùng nổ của trí tuệ nhân tạo" diễn ra cuối tháng 5/2024, đại diện Cục An toàn thông tin nêu rõ quan điểm: AI là công nghệ lưỡng dụng, được sử dụng cho cả mục đích tấn công và phòng thủ. Một trong những mối đe dọa lớn là tin tặc sử dụng AI để phát động các cuộc tấn công lừa đảo có mục tiêu. Tại Việt Nam, mặc dù các cơ quan, tổ chức đã triển khai nhiều giải pháp, nhưng việc ứng dụng AI để tạo ra các kịch bản và tổ chức thực hiện lừa đảo trên mạng xã hội hiện khá phổ biến và nhiều người dân đã bị lừa.

"Khả năng nhận diện và phòng tránh các hình thức lừa đảo trực tuyến ngày càng khó khăn, khi các đối tượng ứng dụng AI để tạo ra kịch bản, bằng chứng, minh chứng để lừa người dùng. Những kỹ thuật tấn công lừa đảo cũng ngày càng phát triển, từ việc đơn giản là lừa đảo, lấy cắp mật khẩu qua email cho đến việc kết hợp công nghệ AI để tạo ra những âm thanh, hình ảnh, video giả mạo mà mắt thường của con người không thể phát hiện, đó là DeepVoice, DeepFake...", đại diện Cục An toàn thông tin phân tích.

Đánh giá về nguy cơ mất an toàn thông tin tại Việt Nam nửa đầu năm 2024, các chuyên gia Viettel Cyber Security cho biết, về hình thức, Viettel Threat Intelligence - Hệ thống giám sát và phân tích nguy cơ an ninh mạng của đơn vị không ghi nhận các hình thức lừa đảo mới xuất hiện. Thay vào đó, nhiều nhóm tội phạm gia tăng áp dụng công nghệ AI, như sử dụng AI tạo kịch bản lừa đảo hay dùng các công nghệ DeepFake, DeepVoice... trong các chiến dịch lừa đảo.

Đồng quan điểm, chuyên gia VSEC cho rằng, sự tiến bộ chưa từng có của AI trong 2 năm qua đang tiếp tục gây bối rối cho nhiều đơn vị, tổ chức trong việc bảo đảm an toàn thông tin. Việc sử dụng rộng rãi công nghệ AI khiến nguy cơ rò rỉ dữ liệu nhạy cảm tăng lên đáng kể.

Người dân nên hạn chế chia sẻ thông tin cá nhân, hình ảnh, video cá nhân lên mạng xã hội

Nâng cao cảnh giác

Chia sẻ quan điểm về tình trạng tội phạm lừa đảo sử dụng AI để tạo những kịch bản lừa đảo được cá biệt hóa cho từng nhóm đối tượng, ông Nguyễn Văn Thứ - Tổng Giám đốc An ninh mạng của Bkav - cho rằng: "Việc toàn bộ thông tin cá nhân được đưa lên môi trường số thông qua mạng xã hội, các cơ sở y tế, giáo dục... rất khó tránh khỏi việc bị lộ lọt đang là yếu tố giúp cho AI hoặc các công nghệ tiên tiến khác được khai thác tốt, giúp ích rất nhiều cho những kẻ lừa đảo".

Để có một kịch bản lừa đảo hoàn hảo nhắm vào một đối tượng cá biệt, kẻ xấu thường phải thu thập hoặc tìm kiếm được những thông tin của đối tượng đó trên không gian mạng. Ví dụ như một buổi livestream bán hàng hoặc trên trang thông tin không bảo đảm an toàn, dẫn đến thông tin của người dùng bị lộ lọt. Từ đó, tội phạm mạng có thể khai thác, nắm được điểm yếu và tạo một kịch bản tiếp cận dễ dàng nhất với đối tượng bị nhắm đến tấn công.

Từ những phân tích trên, các chuyên gia khuyến nghị người dùng cẩn trọng khi chia sẻ thông tin cá nhân, hình ảnh, video riêng tư trên các nền tảng mạng xã hội. Đồng thời, khi nhận được những cuộc gọi lạ tự xưng từ những tổ chức hoặc cơ quan chức năng, người dùng nên xác thực toàn bộ thông tin từ người gọi và đến trực tiếp nơi cơ quan liên quan để giải quyết các vấn đề gặp phải, tránh tình huống bị kẻ xấu lợi dụng để lừa đảo.

Trong cuộc chiến chống lừa đảo trực tuyến nói chung và các hình thức lừa đảo được đối tượng sử dụng công nghệ AI nói riêng, các chuyên gia nhấn mạnh, người dùng cần giữ tâm thế luôn chủ động tự nâng cao nhận thức, kiến thức về các mối hiểm họa trên không gian mạng; trang bị các công nghệ và kỹ năng bảo đảm an toàn thông tin. Đồng thời, cập nhật thường xuyên các phương thức, thủ đoạn lừa đảo biến tướng mới để luôn phản ứng tốt trong các tình huống.

Bình luận (0)

Lên đầu trang