Gần đây, thủ đoạn cắt ghép hình ảnh vào
các clip nhạy cảm để tống tiền đang gia tăng, khiến nhiều người rơi vào khủng
hoảng tâm lý và thiệt hại tài chính. Những kẻ lừa đảo thu thập hình ảnh cá nhân
của nạn nhân từ mạng xã hội, sau đó sử dụng công nghệ deepfake để ghép khuôn mặt
vào video nhạy cảm. Tiếp theo, chúng gửi video giả mạo này kèm lời đe dọa sẽ
phát tán nếu nạn nhân không trả tiền. Một số vụ việc tại TP.HCM và Bình Thuận
cho thấy mức độ tinh vi của thủ đoạn này, khi các đối tượng lừa đảo nhắm tới cả
những người bình thường và yêu cầu số tiền lên tới hàng trăm triệu đồng để giữ
bí mật.
Thời gian qua, công an tại nhiều tỉnh
thành như Hà Nam, Bắc Giang và Lâm Đồng cũng ghi nhận nhiều trường hợp tương tự.
Các đối tượng thường nhắm đến những người có vị trí xã hội hoặc điều kiện kinh
tế tốt. Chúng thu thập thông tin cá nhân, hình ảnh từ mạng xã hội, sau đó sử dụng
công nghệ AI và Deepfake để tạo video giả mạo với mức độ chân thực cao. Những nội
dung này thường được dùng để đe dọa, ép buộc nạn nhân chuyển tiền nếu không muốn
bị phát tán.
Đây là một hình thức tống tiền nguy hiểm,
không chỉ gây thiệt hại tài chính mà còn làm tổn hại nghiêm trọng đến danh dự
và tâm lý nạn nhân. Vì vậy, người dân cần cẩn trọng, không ấn vào các liên kết
lạ hoặc tải tệp tin không rõ nguồn gốc từ các ứng dụng nhắn tin, email. Đồng thời,
nên bảo mật thông tin cá nhân, thường xuyên thay đổi mật khẩu tài khoản mạng xã
hội và email để tránh bị kẻ xấu lợi dụng.
Khi gặp trường hợp tương tự, người dân
cần giữ bình tĩnh, không thực hiện yêu cầu của kẻ xấu và ngay lập tức báo cáo
cơ quan công an để được hỗ trợ. Đồng thời, cần nâng cao nhận thức để bảo vệ bản
thân trước những chiêu trò ngày càng tinh vi của tội phạm công nghệ.
Nhận xét
Đăng nhận xét