Các nhà nghiên cứu đang chuẩn bị cho làn sóng tuyên truyền Deepfake sắp tới | I-Max

Các nhà nghiên cứu đang chuẩn bị cho làn sóng tuyên truyền Deepfake sắp tới
| I-max.Vn

Bài viết này được tái bản ở đây với sự cho phép của Cuộc trò chuyện. Nội dung này được chia sẻ ở đây vì chủ đề có thể quan tâm đến độc giả của Snopes; Tuy nhiên, nó không đại diện cho công việc của những người kiểm tra thực tế hoặc biên tập viên của Snopes.


Một nhà báo điều tra nhận được một đoạn video từ một người tố giác ẩn danh. Nó cho thấy một ứng cử viên cho tổng thống thừa nhận hoạt động bất hợp pháp. Nhưng video này có thật không? Nếu vậy, đó sẽ là một tin rất lớn – tin sốt dẻo của cả đời người – và có thể xoay chuyển hoàn toàn các cuộc bầu cử sắp tới. Nhưng nhà báo chạy video thông qua một công cụ chuyên dụng, điều này cho cô ấy biết rằng video không giống như nó. Trên thực tế, đó là một “deepfake“, Một video được thực hiện bằng trí tuệ nhân tạo với học kĩ càng.

Các nhà báo trên toàn thế giới có thể sớm sử dụng một công cụ như thế này. Trong một vài năm nữa, một công cụ như thế này thậm chí có thể được mọi người sử dụng để loại bỏ nội dung giả mạo trong nguồn cấp dữ liệu mạng xã hội của họ.

Như Các nhà nghiên cứu những người đã nghiên cứu phát hiện deepfake và phát triển một công cụ cho các nhà báo, chúng tôi nhìn thấy một tương lai cho những công cụ này. Tuy nhiên, chúng sẽ không giải quyết được tất cả các vấn đề của chúng ta, và chúng sẽ chỉ là một phần của kho vũ khí trong cuộc chiến chống lại thông tin sai lệch.

Vấn đề với deepfakes

Hầu hết mọi người đều biết rằng bạn không thể tin vào tất cả những gì bạn thấy. Trong vài thập kỷ qua, những người tiêu dùng hiểu biết về tin tức đã quen với việc nhìn thấy hình ảnh được thao tác bằng phần mềm chỉnh sửa ảnh. Video, tuy nhiên, là một câu chuyện khác. Các đạo diễn Hollywood có thể chi hàng triệu đô la cho các hiệu ứng đặc biệt để tạo nên một cảnh chân thực. Nhưng bằng cách sử dụng deepfakes, những người nghiệp dư với một vài nghìn đô la thiết bị máy tính và một vài tuần để chi tiêu có thể biến một điều gì đó gần như thật với cuộc sống.

Deepfakes giúp đưa mọi người vào những cảnh phim mà họ chưa từng tham gia – nghĩ rằng Tom Cruise đóng vai Iron Man – tạo ra các video giải trí. Thật không may, nó cũng giúp bạn có thể tạo nội dung khiêu dâm mà không có sự đồng ý của những người được mô tả. Cho đến nay, những người đó, gần như tất cả phụ nữ, là nạn nhân lớn nhất khi công nghệ deepfake bị lạm dụng.

Deepfakes cũng có thể được sử dụng để tạo video về các nhà lãnh đạo chính trị nói những điều họ chưa bao giờ nói. Đảng Xã hội Bỉ đã phát hành một video nondeepfake chất lượng thấp nhưng vẫn giả mạo về Tổng thống Trump xúc phạm Bỉ, có đủ phản ứng để cho thấy những rủi ro tiềm ẩn của các món ăn sâu chất lượng cao hơn.

Có lẽ đáng sợ nhất, chúng có thể được sử dụng để tạo nghi ngờ về nội dung của video thực, bằng cách gợi ý rằng chúng có thể là deepfakes.

Với những rủi ro này, sẽ là vô cùng quý giá nếu có thể phát hiện ra các lỗi sâu và dán nhãn chúng một cách rõ ràng. Điều này sẽ đảm bảo rằng các video giả mạo không đánh lừa công chúng và các video thật có thể được nhận là xác thực.

Hàng giả đốm

Phát hiện Deepfake như một lĩnh vực nghiên cứu đã bắt đầu kết thúc một chút ba năm trước. Công việc ban đầu tập trung vào việc phát hiện các vấn đề có thể nhìn thấy trong video, chẳng hạn như deepfakes không chớp mắt. Tuy nhiên, với thời gian, đồ giả đã trở nên tốt hơn bắt chước video thực và khó bị phát hiện hơn đối với cả người và công cụ phát hiện.

Có hai loại nghiên cứu phát hiện deepfake chính. Đầu tiên liên quan đến nhìn vào hành vi của mọi người trong các video. Giả sử bạn có rất nhiều video về một người nổi tiếng, chẳng hạn như Tổng thống Obama. Trí tuệ nhân tạo có thể sử dụng video này để tìm hiểu các mẫu của anh ấy, từ cử chỉ tay cho đến những khoảng dừng trong giọng nói của anh ấy. Sau đó nó có thể xem sâu anh ấy và để ý xem nó không khớp với những mẫu đó ở đâu. Cách tiếp cận này có lợi thế là có thể hoạt động ngay cả khi chất lượng video về cơ bản là hoàn hảo.

Các nhà nghiên cứu khác, bao gồm cả đội của chúng tôi, đã được tập trung vào sự khác biệt cái đó tất cả các deepfakes có so với video thực. Video Deepfake thường được tạo bằng cách hợp nhất các khung được tạo riêng để tạo thành video. Có tính đến điều đó, các phương pháp của nhóm chúng tôi trích xuất dữ liệu cần thiết từ các khuôn mặt trong các khung hình riêng lẻ của video và sau đó theo dõi chúng qua các tập hợp các khung hình đồng thời. Điều này cho phép chúng tôi phát hiện sự mâu thuẫn trong luồng thông tin từ khung này sang khung khác. Chúng tôi cũng sử dụng cách tiếp cận tương tự cho hệ thống phát hiện âm thanh giả của mình.

Mọi người khó có thể nhìn thấy những chi tiết tinh tế này, nhưng cho thấy độ sâu không hoàn toàn hoàn hảo chưa. Những thiết bị dò tìm như thế này có thể làm việc cho bất kỳ người nào, không chỉ một số nhà lãnh đạo thế giới. Cuối cùng, có thể cần cả hai loại máy dò sâu.

Các hệ thống phát hiện gần đây hoạt động rất tốt trên các video được thu thập cụ thể để đánh giá các công cụ. Thật không may, ngay cả những mô hình tốt nhất cũng làm kém trên các video tìm thấy trực tuyến. Cải thiện các công cụ này để mạnh mẽ và hữu ích hơn là bước quan trọng tiếp theo.

Ai nên sử dụng máy dò sâu?

Tốt nhất, một công cụ xác minh deepfake nên có sẵn cho mọi người. Tuy nhiên, công nghệ này đang trong giai đoạn phát triển ban đầu. Các nhà nghiên cứu cần cải thiện các công cụ và bảo vệ chúng khỏi tin tặc trước khi phát hành rộng rãi.

Tuy nhiên, đồng thời, các công cụ để tạo ra các trò chơi sâu có sẵn cho bất kỳ ai muốn đánh lừa công chúng. Ngồi bên lề không phải là một lựa chọn. Đối với nhóm của chúng tôi, sự cân bằng phù hợp là làm việc với các nhà báo, bởi vì họ là tuyến phòng thủ đầu tiên chống lại sự lan truyền của thông tin sai lệch.

Trước khi đăng tin, nhà báo cần xác minh thông tin. Họ đã có các phương pháp thử và đúng, như kiểm tra với các nguồn và nhờ nhiều người xác minh các sự kiện chính. Vì vậy, bằng cách đưa công cụ vào tay họ, chúng tôi cung cấp cho họ nhiều thông tin hơn và chúng tôi biết rằng họ sẽ không chỉ dựa vào công nghệ vì nó có thể mắc sai lầm.

Các máy dò có thể chiến thắng trong cuộc chạy đua vũ trang?

Thật khuyến khích khi thấy các đội từ FacebookMicrosoft đầu tư vào công nghệ để hiểu và phát hiện các lỗi sâu. Lĩnh vực này cần được nghiên cứu thêm để bắt kịp với tốc độ tiến bộ của công nghệ deepfake.

Các nhà báo và các nền tảng truyền thông xã hội cũng cần tìm ra cách tốt nhất để cảnh báo mọi người về những trò lừa đảo sâu khi chúng bị phát hiện. Nghiên cứu đã chỉ ra rằng mọi người nhớ lời nói dối, nhưng thực tế không phải là một lời nói dối. Điều này có đúng với các video giả mạo không? Chỉ cần đặt “Deepfake” trong tiêu đề có thể không đủ để chống lại một số loại thông tin sai lệch.

Deepfakes ở đây để ở lại. Quản lý thông tin sai lệch và bảo vệ công chúng sẽ trở nên khó khăn hơn bao giờ hết khi trí tuệ nhân tạo ngày càng trở nên mạnh mẽ hơn. Chúng tôi là một phần của cộng đồng nghiên cứu đang phát triển đang đối mặt với mối đe dọa này, trong đó việc phát hiện chỉ là bước đầu tiên.Cuộc trò chuyện


John Sohrawardi, Nghiên cứu sinh Tiến sĩ Khoa học Máy tính và Thông tin, Viện Công nghệ RochesterMatthew Wright, Giáo sư về Bảo mật Máy tính, Viện Công nghệ Rochester

Bài viết này được xuất bản lại từ Cuộc trò chuyện theo giấy phép Creative Commons. Đọc bài báo gốc.

Keyword : Các nhà nghiên cứu đang chuẩn bị cho làn sóng tuyên truyền Deepfake sắp tới
| I-Max.Vn

[wps_note size=”14″ background=”#a1daf4″ color=”#000000″ radius=”0″]Tham Gia Cộng Đồng I-Max.VN
💝 Source: https://i-max.vn/

💝 Tin Nóng Trong Ngày Tại : https://www.facebook.com/groups/tinnongonline24h/

💝 Xem Tin Thế Giới 24h Tại : https://i-max.vn/the-gioi-24h/

💝 Tổng Hợp Mã Giảm Giá Tại : https://www.facebook.com/groups/sanmagiamgiavn/[/wps_note]

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *