Từ vụ Deepfake AI giả giọng Bí thư Thành ủy TPHCM để lừa đảo:

Cảnh báo tội phạm lừa đảo qua công nghệ giả giọng nói "như thật"

Thứ Hai, 05/08/2024 14:11

|

(CATP) Mới đây, phát biểu trong Hội nghị sơ kết công tác cải cách tư pháp sáng 01/8, Bí thư Thành ủy TPHCM Nguyễn Văn Nên nhận định, tình hình tội phạm sử dụng công nghệ cao để lừa đảo, chiếm đoạt tài sản ngày càng phức tạp. Bí thư Thành ủy TPHCM Nguyễn Văn Nên yêu cầu các lực lượng, đặc biệt là lực lượng Công an, tập trung vào việc phòng ngừa, ngăn chặn và triệt phá loại tội phạm này.

Tại hội nghị, người đứng đầu Đảng bộ thành phố đề cập tới thực trạng của tội phạm lừa đảo qua mạng, sử dụng công nghệ cao. Vấn nạn này ngày càng phức tạp và ảnh hưởng lớn đến đời sống người dân.

Bí thư thành ủy TPHCM Nguyễn Văn Nên chia sẻ, vừa rồi khi ra TP.Hà Nội công tác, có một cán bộ nói đã nhận cuộc gọi từ một người xưng danh Bí thư Thành ủy TPHCM để mượn tiền. "Giọng nói trong cuộc gọi rất giống đồng chí Nguyễn Văn Nên, nhưng khi tôi kiểm tra số tài khoản thì tên lại không phải", đồng chí Nguyễn Văn Nên chia sẻ lại câu chuyện.

Bí thư Thành ủy TPHCM chia sẻ thêm, bản thân mình và những người xung quanh hàng ngày đều nhận được thông tin về những vụ việc tương tự, kể cả lãnh đạo TPHCM và cán bộ Thành ủy TPHCM liên tục bị các đối tượng lợi dụng hình ảnh, dựng lên những câu chuyện để lừa đảo. "Loại tội phạm này đang gây hoang mang cho không ít người dân. Nhiều người đã gọi điện hỏi tôi làm gì mà mượn tiền và huy động vốn. Tôi phải giải thích rõ ràng để mọi người hiểu và cảnh giác".

Bí thư Nguyễn Văn Nên cảnh báo, hiện nay, tội phạm trên không gian mạng và tội phạm sử dụng công nghệ cao đang lợi dụng hình ảnh cán bộ cao cấp, lãnh đạo các cấp, cán bộ Tòa án, Viện kiểm sát và Công an để thực hiện các hành vi lừa đảo. Các đối tượng này sử dụng kỹ thuật cắt ghép hình ảnh, giả mạo giọng nói để thực hiện hành vi phi pháp. Tình trạng này ngày càng trở nên phổ biến và phức tạp.

Open AI đã đưa ra công nghệ sản xuất giọng nói "như thật"

Từ đó, Bí thư Nguyễn Văn Nên yêu cầu các lực lượng, đặc biệt là lực lượng Công an, tập trung vào việc phòng ngừa, ngăn chặn và triệt phá loại tội phạm này. Đồng chí cũng kêu gọi người dân nâng cao cảnh giác để tránh bị sập bẫy; tích cực hợp tác và phối hợp cùng cơ quan chức năng để phòng ngừa và ngăn chặn tội phạm hiệu quả.

Theo ông Võ Đỗ Thắng, Giám đốc Trung tâm Tư vấn và Đào tạo an ninh mạng ATHENA, hiện nay với công nghệ trí tuệ nhân tạo AI, bọn tội phạm mạng có thể sử dụng AI deepfake, chỉ cần 15 giây ghi âm giọng nói của một cá nhân, thì bọn tội phạm mạng có thể "sản xuất" ra thành một đoạn nói chuyện, đoạn chỉ đạo của cá nhân đó có giọng nói giống như thật. Việc này thật là nguy hiểm, có thể gây ra nhiều hiểm họa cho cộng đồng. Nếu cá nhân đó là những lãnh đạo, người có ảnh hưởng thì từ những sản phẩm giọng nói "như thật" này sẽ dễ dẫn đến các chỉ đạo sai, gây nhiều bất ổn xã hội.

Để minh họa cho việc này, ông Thắng đã dẫn chứng hãng công nghệ OpenAI đã đưa ra công nghệ tái hiện giọng nói của bất cứ ai chỉ với đoạn ghi âm 15 giây với phần mềm Voice Engine sử dụng AI tạo ra giọng nói dựa trên bản ghi âm ngắn và có thể đọc văn bản. Trong đó, phần mềm Voice Engine thể hiện khả năng hỗ trợ đọc, dịch nội dung giữa các ngôn ngữ khác nhau và tạo tiếng nói cho những người mất khả năng nói chuyện.

Tuy nhiên, OpenAI cũng cho biết, hiểm họa tiềm tàng của công nghệ bắt chước giọng nói, đặc biệt trong năm Mỹ tổ chức bầu cử tổng thống. Công nghệ giả giọng bằng AI gây chú ý sau khi một bản ghi âm bắt chước giọng Tổng thống Mỹ Joe Biden kêu gọi người dân "không tham gia bầu cử sơ bộ của đảng Dân chủ ở New Hampshire", được phát tán trên mạng xã hội. Deepfake giọng ông Biden khiến nhiều chuyên gia và quan chức phụ trách bầu cử Mỹ lo ngại, gọi đây là "nỗ lực can thiệp bầu cử được hỗ trợ bởi AI". Một số đánh giá, nó không chỉ cho thấy việc phát tán Deepfake âm thanh rất dễ dàng, mà còn thể hiện nguy cơ kẻ xấu dùng công nghệ này để ngăn cử tri đi bỏ phiếu và tác động đến kết quả bầu cử.

Cũng theo ông Võ Đỗ Thắng, tội phạm Công nghệ Deepfake AI giả mạo hình ảnh, giọng nói giống "như thật" nhắm vào các nhà lãnh đạo, các nhà quản lý là một dạng tội phạm mới. Do đó, để bảo vệ người dân, tránh bị sập bẫy thì cơ quan quản lý Nhà nước và các cơ quan liên quan cần phải có những cảnh báo thường xuyên đến người dân, từ đây người dân mới có "vắc-xin" để kháng lại những Deepfake AI giả mạo này. Ông Thắng chia sẽ thêm.

Bình luận (0)

Lên đầu trang