Adobe thực tế đến nay không thể phân biệt được giữa hình ảnh thực và hình ảnh Deepfake.

pepePE


Có lẽ bạn còn nhớ trường hợp này. Chỉ chưa đầy một năm trước, vào tháng 5 năm 2021, Jonas Bendiksen, một phóng viên ảnh người Na Uy, đã xuất bản một cuốn sách có tựa đề 'The Book of Veles'. Rõ ràng đó là một danh mục các hình ảnh được chụp tại thành phố Veles, Bắc Macedonia. Tò mò và rất gợi, vâng; nhưng ít khác. Đó rõ ràng là tất nhiên. Trên thực tế, Bendiksen đã làm giả các bức ảnh bằng phần mềm, thậm chí bao gồm cả các nhân vật được tạo bằng mô hình 3D tương tự như mô hình được sử dụng trong trò chơi điện tử, nhằm mở ra một cuộc tranh luận về thao tác.

Tuy nhiên, trước sự ngạc nhiên của Bendiksen, cuốn sách được phát tán như một tác phẩm báo ảnh điển hình, một loạt các hình ảnh hoàn toàn chân thực cho thấy thực tế của vệ tinh Liên Xô cũ. Nó thậm chí đã vượt qua các bộ lọc của lễ hội quốc tế Visa Pour L'Image danh giá, ở Pháp, mà không ai nhận ra sự lừa dối nhỏ nhất. Chỉ khi kết thúc mọi chuyện, anh ấy mới phát hiện ra bản thân mình.

Điều mà ông muốn chứng minh, ông sẽ giải thích sau, là điều mà các phương tiện truyền thông, tầng lớp chính trị và ngày càng là chính xã hội đã thâm nhập vào nội bộ: thao túng hình ảnh và video là rất dễ dàng. Và tiền mặt. Nhiều đến mức nó đang trở thành một vấn đề phổ biến đáng lo ngại.

Năm ngoái, một nghiên cứu về Mật độ đã kết luận rằng trong vòng sáu tháng, số lượng deepfakes được lưu hành đã tăng gấp đôi. Điều nghiêm trọng nhất là chỉ có 7% được làm để "giải trí". Chính Obama hoặc Trump đã từng là nhân vật chính của một kiểu thao túng thường được sử dụng cho các mục đích đáng nghi vấn và bất hợp pháp như tạo ra nội dung khiêu dâm bằng cách dán lên khuôn mặt của các nạn nhân vô tình hoặc thực hiện các trò gian lận.


Trong một nỗ lực để giải quyết vấn đề hoặc ít nhất là tạo ra các công cụ cho phép giới truyền thông và các cá nhân phát hiện ra các thao túng, một thời gian trước đây, một số công ty lớn trong lĩnh vực công nghệ —Adobe, Arm, BBC, Intel, Microsoft và Truepic — đã ra mắt Liên minh cho Chứng minh và xác thực nội dung (C2PA). Phong trào này tập hợp các công việc của Sáng kiến Xác thực Nội dung (CAI), do Adobe vô địch; và Project Origin, lần lượt được Microsoft và BBC quảng bá, và vừa mới ra đời những thành quả đầu tiên: phiên bản ban đầu của một tiêu chuẩn, một loại "con dấu bảo đảm" xác nhận tài liệu thật và theo cách này, giúp săn sâu .

Ý tưởng là cho phép một tiêu chuẩn mở có thể được tích hợp vào bất kỳ phần mềm, thiết bị hoặc nền tảng trực tuyến nào và giúp chứng minh nguồn gốc và cấu trúc của tài liệu, xác định thông tin liên quan đến từng hình ảnh, video hoặc âm thanh, chẳng hạn như cách được lưu trữ.

Văn bản được dịch bằng Google Dịch.
Tôi cảm thấy sự bất tiện của những từ bị dịch sai
Nguồn
 
Trả lời

trungnghiatn

Búa Gỗ
Đến ạ ông dịch bài T.T
Ngay đến tiêu đề đọc vào đã thấy không phù hợp với bài viết. Nếu thêm vào dấu ":" thì đã rõ ràng rồi: "Adobe: Thực tế đến nay không thể phân biệt được giữa hình ảnh thực và hình ảnh Deepfake"
 

chipsteps

Rìu Vàng
bạn này người Tây Ban Nha không biết tiếng Việt, nên các bài viết đều phải dùng Google dịch! bác nên thông cảm!
 

realspamer9x

Búa Gỗ
công nghệ này thật đáng sợ! trong tương lai gần! các nữ minh tinh dễ xuất hiện trong nhiều phim xXx lắm!
Đã xuất hiện rất nhiều rồi chứ ko cần chờ tương lai. Địch Lệ Nhiệt Ba, Lưu Diệc Phi cho đến một loạt các sao hàn đều có rồi.