Deepfake đang ngày càng nguy hiểm hơn.
Một nhóm lừa đảo dùng công nghệ "deep voice" để giả mạo giám đốc một công ty rồi gọi điện cho một quản lý ngân hàng ở Các tiểu vương quốc Arab Thống nhất (UAE). 2 người đồng thời gọi điện trò
chuy???n nên quản lý ngân hàng ngân nhận ra người quen.
Kẻ giả mạo giám đốc cho biết công ty họ chuẩn bị mua lại một doanh nghiệp nên cần ngân hàng duyệt
chuy???n khoản 35 triệu USD. Họ đã thuê một luật sư có tên Martin Zelner để điều phối quy trình trên. Một email xác nhận địa chỉ nhận tiền sẽ được gửi cho quản lý ngân hàng.
Người quản lý đã tin và khởi đầu quy trình
chuy???n khoản mà không hề biết rằng mình đã trở thành nạn nhân của một âm mưu lừa đảo công phu.
Vụ lừa đảo này diễn ra vào năm 2020. UAE cho rằng nhóm lừa đảo có ít nhất 17 thành viên. Sau khi đ?
?nh c???p 35 triệu USD, nhóm này đã
chuy???n tiền tới nhiều tài khoản ngân hàng trên khắp thế giới. Giới chức UAE đang đề nghị các nhà điều tra Mỹ truy v
ết 400.000 USD bị đ?
?nh c???p đã được nhóm lừa đảo
chuy???n tới các tài khoản nằm tạ
i ngân hàng Centennial ở nước này.
Đây là vụ lừa đảo bằng deepfake giả giọn
g nói thứ hai được công khai. Trước đó vào năm 2019, một nhóm tội phạm cũng giả giọng CEO một công ty năng lượng ở Anh để đ?
?nh c???p 243.000 USD.
Hiện nay, làm việc từ xa đã trở thành xu hướng do ảnh hưởng của đại dịch. Điều này làm tăng nguy cơ các vụ lừa đảo công nghệ cao, đặc biệt là khi AI ngày càng phát triển và được sử dụng nhiều để tạo ra hình ảnh và giọn
g nói giả mạo.
(Theo Trí Thức Trẻ)
AI đã "deepfake" được giọn
g nói giống người thật hơn bao giờ hết, và chúng đang chiếm mất việc làm của diễn viên lồng tiếng
Chào mừng bạn đến với kỷ nguyên của những thực tại nhân tạo.
Nguồn bài viết : Đá gà tre Thomo mới nhất