Đăng trả lời 1 bài viết Bạn đang xem trang 1 / 1 trang
Tống tiền thất bại, hacker ghép nạn nhân vào video khiêu dâm
  • Hình đại diện của thành viên
    VietNews
    Bài viết: 27896
    Ngày tham gia: Chủ nhật Tháng 10 11, 2020 9:36 pm

    Tống tiền thất bại, hacker ghép nạn nhân vào video khiêu dâm

    by VietNews » Thứ 7 Tháng 4 30, 2022 10:50 am






    Một ngày tháng 4, Owen, 20 tuổi, thấy khuôn mặt mình xuất hiện trong một phim khiêu dâm deepfake sau khi anh từ chối trả tiền cho hacker.

    Theo Yahoo News, ngày 21/4, Owen, sống tại Singapore, bị đánh thức bởi một cuộc điện thoại lạ với đầu số nước ngoài. Anh bắt máy vì nghĩ đó là người quản lý của mình. Tuy nhiên, đầu dây bên kia không lên tiếng.

    Sau khi cúp máy, anh nhận được tin nhắn trên ứng dụng Line từ một người tên Lori, trong đó có ảnh chụp màn hình danh sách liên lạc của anh. Người này cho biết đã hack được vào danh bạ và dọa gửi video khiêu dâm của anh đến bạn bè nếu không chuyển cho hắn 8.000 SGD (132 triệu đồng).

    Kẻ tống tiền cũng khuyên Owen không nên báo cảnh sát vì "hành động đó chỉ khiến chúng tôi tức giận hơn và danh tiếng của cậu sẽ bị tổn hại nhiều hơn".

    "Chỉ cần trả một khoản phí nhỏ, chúng tôi sẽ xóa đoạn phim và không làm phiền thêm", hacker nhắn. Owen bỏ ngoài tai lời đe dọa, cho rằng đó là trò lừa đảo.

    Hình ảnh

    Vài giờ sau, tin tặc gửi một đoạn phim khiêu dâm, trong đó khuôn mặt anh bị ghép vào nhân vật chính, tới bạn bè của Owen. "Họ hỏi tôi có nhận ra người trong video không. Tôi đã phải đi rửa mặt cho tỉnh táo. Họ nói Owen đang tham gia một dịch vụ mua bán tình dục nhưng lại không trả tiền", bạn của anh kể. Nhiều bạn bè và cả đồng nghiệp cũ của Owen cho biết họ cũng nhận được video tương tự.

    Owen lập tức báo cảnh sát. Hôm sau, một số người khác cũng gặp chiêu thức tống tiền tương tự. Các chuyên gia cho rằng video hacker dùng để tống tiền nạn nhân là một dạng deepfake.

    Với sự tiến bộ của AI, kẻ xấu có thể ghép mặt bất kỳ ai vào một video mà người thường khó có thể phân biệt được đâu là thật, đâu là giả. Deepfake là từ kết hợp của "deep learning" (học sâu) và "fake" (giả mạo). Các video deepfake đầu tiên được tung lên Reddit năm 2017, có nội dung là người nổi tiếng hoán đổi khuôn mặt vào các ngôi sao phim cấp ba.

    Theo thống kê của Sensity, trong hơn 14.000 video deepfake được đăng tải, có đến 96% là video khiêu dâm. CNN dẫn lời Giorgio Patrini, CEO kiêm trưởng nhóm khoa học của Deeptrace, rằng các video có nội dung sai lệch lại thường được phát tán rất nhanh. "Ngay cả khi nhiều đoạn deepfake trông không giống thực, người xem vẫn bị ảnh hưởng về nhận thức. Đây là mối đe dọa đáng ngại cho mạng xã hội", Patrini nói.

    Phần lớn nội dung deepfake mà Deeptrace tìm được đều từ website khiêu dâm, trong đó có riêng một trang cung cấp cho người dùng các loại phim deepfake với diễn viên nữ có khuôn mặt được thay bằng hình ảnh người nổi tiếng nào đó. Tất cả được gắn quảng cáo.

    Các nền tảng trực tuyến như Facebook hay Google nhiều lần cảnh báo nguy cơ deepfake bị phát tán rộng rãi trên mạng xã hội. Vì vậy, họ đã tạo ra các kho dữ liệu deepfake với hy vọng hỗ trợ các nhà nghiên cứu tìm cách chống lại loại nội dung giả mạo.

    Khương Nha (theo Yahoo News)
    Hình ảnh
Đăng trả lời 1 bài viết Bạn đang xem trang 1 / 1 trang

Ai đang trực tuyến?

Người dùng duyệt diễn đàn này: Google [Bot] và 32 khách