Cách phòng chống Deep Fake trước nguy cơ lừa đảo qua mạng

VNZ-NEWS
Vn-Z.vn Ngày 10 tháng 08 năm 2022, trước sự phát triển của công nghệ AI, đã có các tình huống giả mạo người quen, người nổi tiếng để thực hiện các cuộc gọi video áp dụng công nghệ Deep Fake để lừa đảo. Công nghệ giả mạo AI này dễ dàng đánh lừa người khác ngay cả với người am hiểu về công nghệ.
Kẻ xấu có thể tiến hành ghép hình ảnh khuôn mặt vào video dựa trên AI bằng DeepFake thật đến mức người ta khó có thể phân biệt bằng mắt thường. Chúng có thể tiến hành các cuộc gọi video để lừa đảo, gian lận ... nếu người dùng không cảnh giác sẽ rất dễ bị lừa.

Hôm nay Vn-Z team sẽ hướng đẫn bạn đọc cách phòng chống Deep Fake trước nguy cơ lừa đảo qua mạng ngày càng tinh vi.

Một trong những biện pháp đơn giản nhất là yêu cầu người gọi video quay sang trái góc 90 độ. Hiện tại công nghệ DeepFake sẽ khó tái tạo khuôn mặt giả khi chủ thể hoàn toàn nghiêng sang một bên (quay 90 °), lúc này độ chân thực sẽ giảm mạnh.


Deppfake-tut.gif


Tại sao khi khuôn mặt quay sang một góc 90 độ sẽ giúp chúng ta phân biệt được khuôn mặt giả bằng DeepFake . Điều này là do hầu hết các thuật toán căn chỉnh khuôn mặt dựa trên 2D chỉ nắm bắt được 50% -60% các điểm đặc trưng ở chế độ xem phụ so với chế độ xem chính.

Bằng cách phân tích thuật toán căn chỉnh khuôn mặt ở mô hình Joint Multi-view Face Alignment in the Wild và Multi-view Hourglass làm ví dụ ta sẽ thấy sự khác biệt.

Hai mô hình trên AI được đào tạo bằng cách xác định các điểm đặc trưng từ các khuôn mặt dưới dạng dữ liệu học. Qua hình ảnh dưới đây, 68 điểm đặc trưng được xác định khi căn chỉnh phía trước được thực hiện, trong khi chỉ có 39 điểm đặc trưng được xác định khi căn chỉnh quay sang bên được thực hiện.

Multi-view-Hourglass-Model.jpg


Chế độ xem khuôn mặt góc 90 độ ẩn 50% điểm đặc trưng, điều này không chỉ cản trở việc nhận dạng mà còn ảnh hưởng đến độ chính xác của quá trình đào tạo và tổng hợp khuôn mặt sau đó.

cruise-80-and-90-degrees.jpg

Theo một số chuyên gia tìm hiểu về DeepFake cho biết . Thuật toán AI xử lý khuôn mặt ở góc 90 độ ( mặt bên) quả thực là một vấn đề lớn. Mạng lưới căn chỉnh trên khuôn mặt hoạt động rất tốt cho mặt trước, nhưng không tốt cho hai bên. Các thuật toán này có những hạn chế cơ bản . Thuật toán tái tạo khá tốt khuôn mặt nếu bạn chỉ che một phần khuôn mặt của mình, cơ chế căn chỉnh hoạt động tốt và rất mạnh trong trường hợp này, nhưng khi bạn quay sang phải hoặc sang trái , hơn một nửa số điểm đặc trưng bị mất.

Tuy nhiên Deepfake cũng có những bước tiến trong việc huấn luyện AI. Để đạt được hiệu ứng thực tế hơn, Deepfake AI cần phải có một lượng lớn dữ liệu và cần được đào tạo khi chủ thể thay đổi diện mạo.

Arquette-and-seinfeld-pulp-fiction-deepfake.jpg

Người ta đã huấn luyện AI thay thế khuôn mặt của Jerry Seinfeld vào một cảnh trong bộ phim Pulp Fiction (1994) bằng cách đào tạo AI bằng một lượng lớn dữ liệu. Lúc này chúng ta khó có thể nhìn thấy những sai sót trong ảnh hồ sơ thu được bằng mắt thường. "Seinfeld" deepfake có tới 66 giờ cảnh quay có thể sử dụng cho khóa đào tạo này.

Như vậy ngoại trừ diễn viên điện ảnh hoặc những người nổi tiếng vì có quá nhiều thông tin dữ liệu cho AI khai thác, những người bình thường chúng ta có rất ít dữ liệu hình ảnh, khi chụp ảnh và quay phim ít người ghi lại được những bức ảnh lộ hoàn toàn 90 °. Do đó, khuôn mặt được giả mạo bởi DeepFake rất dễ lộ khuyết điểm nếu quay các góc 90độ.

Khuôn mặt giả cũng có thể được nhận dạng bằng cách đưa tay trước mặt

Để có thể kiểm tra phía bên kia có sử dụng DeepFake để giả mạo trong những cuộc gọi video hay không, ngoài việc kiểm tra bằng cách yêu cầu họ quay mặt sang bên các góc 90 độ, thì còn có một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt.


druzil-tech-and-games.jpg

YouTuber Druuzil Tech and Games gián đoạn kỹ thuật số khi mạo danh Scarlett Johansson và Patrick Stewart. Nguồn:


Khi đưa tay lên khuôn mặt , Youtuber Sister Widow và Giáo sư X, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn. Thuận toán DeepFakes trong thời gian thực tất cả đều phải đối mặt với vấn đề chồng chất các vết tắc thật lên hình ảnh khuôn mặt không thật, thao tác này thường được gọi là "tạo mặt nạ" hoặc "xóa nền". Tuy nhiên, thường có nhiều tác động gây nhầm lẫn ảnh hưởng đến quá trình “ánh xạ”, ví dụ như tác động của bàn tay với các đặc điểm trên khuôn mặt sẽ gây “rắc rối” cho khuôn mẫu từ đó AI khó thực hiện quá trình “lập bản đồ”.

Nếu bạn yêu cầu đối phương Lắc tay trước mặt, sự chuyển động nhanh của bàn tay sẽ gây khó khăn rất lớn trong việc bắt khuôn mặt, gây ra nhiều độ trễ và ảnh hưởng đến chất lượng của lớp phủ mặt nạ.

Các phương pháp lừa đảo bằng việc hoán đổi khuôn mặt không còn xa lạ . Trên mạng đã có những tình huống kẻ tình nghi sử dụng công nghệ hoán đổi khuôn mặt DeepFake thực hiện các cuộc phỏng vấn từ xa vào các vị trí IT , kẻ tình nghi đang cố gắng xâm nhập vào các công ty để truy cập vào hệ thống dữ liệu tài chính hoặc khách hàng của họ, cũng như dữ liệu CNTT của các công ty mục tiêu.

FBI đã gửi cảnh báo đến Trung tâm Khiếu nại Tội phạm Internet, cho biết họ đã nhận được rất nhiều lời phàn nàn của những kẻ tình nghi dụng thông tin bị đánh cắp ,các video , giọng nói để tiến hành giả mạo cho các mục đích xin việc từ xa, lừa đảo.v.v.v... một số nghi phạm dùng Deepfake hoạt động thông qua nhiều lớp vỏ bọc với nhiều công ty khiến việc xác định chúng trở nên khó khăn hơn.

Hiện tại trên các diễn đàn hacker , tình trạng mua bán dữ liệu người dùng đang diễn ra rất phức tạp. Các dữ liệu nhạy cảm như KYC (Know Your Customer),eKYC - dữ liệu để xác minh thông tin người dùng bao gồm cả video khuôn mặt, ghi âm giọng nói,.v.v.v là nguồn dữ liệu phong phú để Deepfake có thể khai tác trong việc huấn luyện AI phục vụ cho các mục đích xấu của hacker.



Trong bài viết này team Vn-Z từng đề cập những mặt trái trong công nghệ AI của Deepfake, Deepnude. Những video khiêu dâm chiếm 96% tổng số video do Deepfake tạo ra. Với sự nâng cấp liên tục của công nghệ, độ trung thực của Deepfake đã đạt đến mức không thể phân biệt bằng mắt thường, và nó cũng bắt đầu được ứng dụng vào nhiều mục tiêu lừa đảo nguy hiểm hơn .


Như vậy có thể thấy các hình thức tấn công, lừa đảo trên không gian mạng rất phức tạp và tinh vi . Người dùng cần hết sức cảnh giác và phải trang bị cho mình nhiều kiến thức tự bảo vệ mình trước thời đại phát trển của công nghệ như ngày nay.


Vn-Z.vn team tổng hợp tham khảo nguồn 1 , 2
 
Trả lời

tvthoi1984

Rìu Vàng Đôi
Quay về thời nguyên thủy, cứ tiền mặt mới giảm nguy cơ bị lừa(trừ vụ mặt nạ 3d)