Ngày 12 tháng 2 năm 2025
Hầu hết người tiêu dùng không thể phân biệt được hàng giả do AI tạo ra ;
Thực hiện bài kiểm tra phát hiện Deepfake
Nghiên cứu mới từ iProov , nhà cung cấp hàng đầu thế giới về các giải pháp dựa trên khoa học để xác minh danh tính sinh trắc học , cho thấy hầu hết mọi người không thể nhận dạng deepfake – những video và hình ảnh cực kỳ chân thực do AI tạo ra thường được thiết kế để mạo danh con người. Nghiên cứu đã thử nghiệm 2.000 người tiêu dùng ở Anh và Hoa Kỳ, cho họ tiếp xúc với một loạt nội dung thực và deepfake. Kết quả thật đáng báo động: chỉ có 0,1% người tham gia có thể phân biệt chính xác nội dung thật và giả trên tất cả các kích thích bao gồm hình ảnh và video.
Những phát hiện chính:
- Phát hiện deepfake không thành công: Chỉ 0,1% số người được hỏi xác định đúng tất cả các kích thích deepfake và thực (ví dụ: hình ảnh và video) trong một nghiên cứu mà người tham gia được chuẩn bị để tìm kiếm deepfake. Trong các tình huống thực tế, khi mọi người ít nhận thức hơn, khả năng bị deepfake tấn công thậm chí còn cao hơn.
- Những thế hệ lớn tuổi dễ bị ảnh hưởng bởi deepfake hơn: Nghiên cứu phát hiện ra rằng 30% người từ 55-64 tuổi và 39% người từ 65 tuổi trở lên thậm chí chưa từng nghe đến deepfake, cho thấy khoảng cách kiến thức đáng kể và nguy cơ dễ bị tổn thương trước mối đe dọa mới nổi này ở nhóm tuổi này.
- Thử thách video: Video Deepfake tỏ ra khó nhận dạng hơn hình ảnh deepfake, với khả năng người tham gia nhận dạng đúng video tổng hợp thấp hơn 36% so với hình ảnh tổng hợp. Lỗ hổng này làm dấy lên mối lo ngại nghiêm trọng về khả năng gian lận dựa trên video, chẳng hạn như mạo danh trong các cuộc gọi video hoặc trong các tình huống sử dụng xác minh video để xác minh danh tính.
- Deepfake ở khắp mọi nơi nhưng lại bị hiểu lầm: Trong khi mối lo ngại về deepfake đang gia tăng, nhiều người vẫn chưa biết đến công nghệ này. Một trong năm người tiêu dùng (22%) thậm chí chưa từng nghe đến deepfake trước khi nghiên cứu này được thực hiện.
- Sự tự tin thái quá đang lan tràn: Mặc dù hiệu suất kém, mọi người vẫn quá tự tin vào khả năng phát hiện deepfake của mình ở mức hơn 60%, bất kể câu trả lời của họ có đúng hay không. Điều này đặc biệt đúng ở những người trẻ tuổi (18-34). Cảm giác an toàn sai lầm này là một mối quan ngại đáng kể.
- Niềm tin bị ảnh hưởng: Các nền tảng truyền thông xã hội được coi là nơi sản sinh ra deepfake với Meta (49%) và TikTok (47%) được coi là những nơi phổ biến nhất để tìm thấy deepfake trực tuyến. Điều này, đến lượt nó, đã dẫn đến việc giảm lòng tin vào thông tin và phương tiện truyền thông trực tuyến—49% ít tin tưởng vào phương tiện truyền thông xã hội hơn sau khi biết về deepfake. Chỉ một trong năm người sẽ báo cáo một deepfake bị nghi ngờ lên các nền tảng truyền thông xã hội.
- Deepfake đang gây ra mối lo ngại và sự ngờ vực rộng rãi, đặc biệt là ở những người lớn tuổi: Ba trong bốn người (74%) lo lắng về tác động xã hội của deepfake, trong đó "tin giả" và thông tin sai lệch là mối quan tâm hàng đầu (68%). Nỗi sợ hãi này đặc biệt rõ rệt ở những thế hệ lớn tuổi, với 82% những người từ 55 tuổi trở lên bày tỏ sự lo lắng về việc lan truyền thông tin sai lệch.
- Cần có cơ chế nâng cao nhận thức và báo cáo tốt hơn: Ít hơn một phần ba số người (29%) không có hành động nào khi gặp phải tình trạng nghi ngờ deepfake, nguyên nhân có thể là do 48% cho biết họ không biết cách báo cáo deepfake, trong khi một phần tư không quan tâm nếu họ thấy tình trạng nghi ngờ deepfake.
- Hầu hết người tiêu dùng không chủ động xác minh tính xác thực của thông tin trực tuyến, làm tăng nguy cơ bị deepfake: Mặc dù mối đe dọa về thông tin sai lệch ngày càng tăng, chỉ một trong bốn người tìm kiếm các nguồn thông tin thay thế nếu họ nghi ngờ có deepfake. Chỉ có 11% số người phân tích nghiêm túc nguồn và bối cảnh của thông tin để xác định xem đó có phải là deepfake hay không, nghĩa là phần lớn rất dễ bị lừa dối và lan truyền các câu chuyện sai sự thật.
Giáo sư Edgar Whitley, chuyên gia về danh tính kỹ thuật số tại Trường Kinh tế và Khoa học Chính trị London, cho biết thêm: “Các chuyên gia bảo mật đã cảnh báo về mối đe dọa do deepfake gây ra cho cả cá nhân và tổ chức trong một thời gian. Nghiên cứu này cho thấy các tổ chức không còn có thể dựa vào phán đoán của con người để phát hiện deepfake và phải tìm đến các phương tiện thay thế để xác thực người dùng hệ thống và dịch vụ của họ”.
“Chỉ 0,1% số người có thể nhận dạng chính xác deepfake, nhấn mạnh mức độ dễ bị tổn thương của cả tổ chức và người tiêu dùng trước mối đe dọa gian lận danh tính trong thời đại deepfake”, Andrew Bud, nhà sáng lập kiêm giám đốc điều hành của iProov cho biết. “Và ngay cả khi mọi người nghi ngờ một deepfake, nghiên cứu của chúng tôi cho thấy rằng phần lớn mọi người không có hành động nào cả. Tội phạm đang lợi dụng sự bất lực của người tiêu dùng trong việc phân biệt hình ảnh thật và giả, khiến thông tin cá nhân và an ninh tài chính của chúng ta gặp rủi ro. Các công ty công nghệ phải bảo vệ khách hàng của mình bằng cách triển khai các biện pháp bảo mật mạnh mẽ. Sử dụng sinh trắc học khuôn mặt với sự sống động cung cấp một yếu tố xác thực đáng tin cậy và ưu tiên cả bảo mật và kiểm soát cá nhân, đảm bảo rằng các tổ chức và người dùng có thể theo kịp và được bảo vệ khỏi các mối đe dọa đang phát triển này”.
Mối đe dọa ngày càng tăng của Deepfake
Deepfake gây ra mối đe dọa to lớn trong bối cảnh kỹ thuật số ngày nay và đã phát triển với tốc độ đáng báo động trong 12 tháng qua. Báo cáo tình báo về mối đe dọa năm 2024 của iProov đã nêu bật mức tăng 704% chỉ riêng trong các vụ hoán đổi khuôn mặt (một loại deepfake). Khả năng mạo danh cá nhân một cách thuyết phục của chúng khiến chúng trở thành công cụ mạnh mẽ để tội phạm mạng truy cập trái phép vào các tài khoản và dữ liệu nhạy cảm. Deepfake cũng có thể được sử dụng để tạo danh tính tổng hợp cho mục đích gian lận, chẳng hạn như mở tài khoản giả hoặc đăng ký vay. Điều này đặt ra thách thức đáng kể đối với khả năng phân biệt sự thật với sự dối trá của con người và có những tác động sâu rộng đến bảo mật, lòng tin và sự lan truyền thông tin sai lệch.
Có thể làm gì?
Với việc deepfake ngày càng tinh vi, con người không còn có thể phân biệt được thật giả một cách đáng tin cậy nữa mà thay vào đó cần phải dựa vào công nghệ để phát hiện chúng. Để chống lại mối đe dọa ngày càng tăng của deepfake, các tổ chức nên tìm cách áp dụng các giải pháp sử dụng công nghệ sinh trắc học tiên tiến với tính năng phát hiện sự sống, xác minh rằng một cá nhân là đúng người, là người thật và đang xác thực ngay lúc này . Các giải pháp này nên bao gồm phát hiện mối đe dọa liên tục và cải thiện liên tục các biện pháp bảo mật để đi trước các kỹ thuật deepfake đang phát triển. Cũng cần phải có sự hợp tác chặt chẽ hơn giữa các nhà cung cấp công nghệ, nền tảng và nhà hoạch định chính sách để phát triển các giải pháp giảm thiểu rủi ro do deepfake gây ra.
Thực hiện bài kiểm tra phát hiện Deepfake
Bạn nghĩ mình miễn nhiễm với trò lừa đảo deepfake? Hãy thử thách kỹ năng của bạn! iProov đã tạo ra một bài kiểm tra trực tuyến thử thách bạn phân biệt thật và giả. Hãy làm bài kiểm tra và xem bạn đạt bao nhiêu điểm.