Xác minh danh tính từ xa là một trong những thách thức cấp bách nhất của kỷ nguyên kỹ thuật số ngày càng tăng của chúng ta. Xác nhận danh tính của một người mà không nhìn thấy họ về mặt thể chất, trực tiếp, là một nhu cầu tiếp tục phát triển cả về tầm quan trọng khó khăn.

Trong số các mối đe dọa xảo quyệt nhất đối với việc xác minh danh tính từ xa là việc sử dụng Generative AI tạo ra deepfake. Deepfake về bản chất không gây hại nhưng có thể gây ra các mối đe dọa bảo mật đáng kể. Vì bây giờ không thể phân biệt một cách đáng tin cậy giữa hình ảnh tổng hợp và hình ảnh thực bằng mắt người, sinh trắc học được hỗ trợ bởi AI đã nổi lên như một biện pháp bảo vệ mạnh mẽ nhất chống lại deepfake - và do đó, là phương pháp xác minh danh tính từ xa đáng tin cậy duy nhất. Trên thực tế, việc chống lại chúng đòi hỏi phải nghiên cứu liên tục và các giải pháp quan trọng với bảo mật đang phát triển. Mọi người cũng đánh giá cao sự tiện lợi của xác minh sinh trắc học khuôn mặt - 72% người tiêu dùng trên toàn thế giới thích xác minh khuôn mặt để bảo mật trực tuyến.

Tuy nhiên, khi công nghệ sinh trắc học tiến bộ, các tác nhân độc hại tìm kiếm các phương pháp mới và tinh vi hơn để xâm phạm các hệ thống này. Tuy nhiên, điều quan trọng cần nhớ là deepfake không phải là mối đe dọa đối với bảo mật sinh trắc học - chúng là mối đe dọa đối với bất kỳ phương pháp xác minh danh tính con người nào từ xa.

Mối đe dọa Deepfake: Cái nhìn bên trong sự trỗi dậy của công nghệ Deepfake

Ban đầu, deepfake chỉ là niềm vui vô hại, với việc mọi người tạo video và hình ảnh cho mục đích giải trí. Tuy nhiên, khi kết hợp với mục đích xấu và các công cụ tấn công mạng, chúng nhanh chóng biến thành những mối đe dọa nham hiểm. Deepfake đã nhanh chóng trở thành một cách rất mạnh mẽ để khởi động các cuộc tấn công an ninh mạng, lan truyền tin tức giả mạo và gây ảnh hưởng đến dư luận. Bạn có thể đã bắt gặp một deepfake mà không hề nhận ra.

Công nghệ deepfake liên quan đến việc sử dụng các công cụ như hình ảnh do máy tính tạo ra (CGI) và trí tuệ nhân tạo để thay đổi ngoại hình và hành vi của ai đó. Các thuật toán học máy hoạt động để tạo ra nội dung tổng hợp có độ thực tế cao để bắt chước hành vi của con người, bao gồm cả nét mặt và lời nói. Khi được sử dụng độc hại, công nghệ này có thể được sử dụng để tạo danh tính giả, bắt chước mọi người và truy cập vào các vị trí an toàn, ví dụ.

Do sự tinh vi của công nghệ, nội dung deepfake thường xuất hiện rất thực tế đối với con người được đào tạo và thậm chí một số giải pháp xác minh danh tính - gây khó khăn cho việc phân biệt giữa chính hãng và tổng hợp. Tốc độ phát triển nhanh chóng của AI có nghĩa là deepfake cũng liên tục phát triển - chúng không phải là mối đe dọa tĩnh.

Phát hiện deepfake: Bằng chứng cho thấy con người không thể phát hiện deepfake một cách đáng tin cậy

Chúng tôi đã biên soạn một danh sách các nghiên cứu nhấn mạnh cách con người đơn giản không phải là một chỉ số đáng tin cậy để phát hiện deepfake:

  • Một nghiên cứu năm 2021 có tiêu đề "Phát hiện deepfake bởi đám đông con người, máy móc và đám đông được thông báo bằng máy" cho thấy chỉ riêng con người còn tồi tệ hơn nhiều so với các thuật toán phát hiện. Các thuật toán phát hiện thậm chí còn vượt trội hơn các giám định viên pháp y, những người có kỹ năng cao hơn nhiều trong nhiệm vụ so với người bình thường. Nghiên cứu cũng không tìm thấy bằng chứng nào cho thấy giáo dục / đào tạo cải thiện hiệu suất.
  • Một nghiên cứu khác năm 2021 có tên "Bị lừa hai lần: Mọi người không thể phát hiện deepfake nhưng nghĩ rằng họ có thể" cho thấy mọi người ít có khả năng xác định deepfake hơn họ nghĩ; rằng mọi người không đáng tin cậy trong việc phát hiện nội dung video bị thao túng; rằng đào tạo và khuyến khích không làm tăng khả năng; rằng mọi người có xu hướng đối với Tỷ lệ từ chối sai; Và cuối cùng là mọi người đặc biệt dễ bị ảnh hưởng bởi nội dung deepfake.
  • Vào năm 2022, một nhóm các nhà nghiên cứu bảo mật đã phát hiện ra rằng việc xác minh cuộc gọi video giữa người với người có thể dễ dàng vượt qua bằng phần mềm hệ điều hành và màu nước (tức là thao tác nghệ thuật kỹ thuật số). Điều này cho thấy các hệ thống nhận dạng video của người vận hành dễ dàng vượt qua với các phương pháp tiếp cận cơ bản hàng ngày và rất ít kỹ năng - đôi khi thậm chí không cần deepfake để đánh lừa con người.

Xem liệu bạn có thể phát hiện ra deepfake trong bài kiểm tra tương tác của chúng tôi không!

Làm thế nào Deepfake đe dọa tất cả các xác minh danh tính trực tuyến

Để xác minh danh tính từ xa một cách đáng tin cậy, bạn sẽ phải xem người đó và tài liệu nhận dạng của họ. Xác minh cuộc gọi video - đôi khi được gọi là nhận dạng video - đề cập đến quá trình nói chuyện với một người trực tiếp qua phần mềm gọi điện video để chứng minh bạn là ai. Nhưng đó là một lựa chọn không mong muốn - không chỉ vì nó bất tiện, tốn nhiều công sức và chi phí, và không thể tự động hóa (vì vậy khó mở rộng quy mô hơn).

Deepfake có thể được tiêm vào luồng video trực tiếp, vì vậy chúng thậm chí còn là mối đe dọa nghiêm trọng hơn đối với việc xác minh video. Như chúng tôi đã thiết lập, con người kém tin cậy hơn trong việc phát hiện deepfake so với sinh trắc học. Đây là lý do tại sao chúng tôi cảnh báo các tổ chức nên nhớ rằng deepfake và các dạng khác của Generative AI không phải là "vấn đề sinh trắc học"; chúng là một vấn đề xác minh danh tính từ xa.

Xác minh danh tính từ xa là rất quan trọng đối với phần lớn các tổ chức tiến hành kinh doanh trực tuyến. Nó không thể thương lượng trong nhiều trường hợp. Chống lại mối đe dọa của deepfake, các tổ chức phải sử dụng AI vì lợi ích an ninh mạng (tức là sinh trắc học được hỗ trợ bởi AI).

Tôi không thể xác minh người dùng bằng một phương pháp sinh trắc học khác, để tránh deepfake hoàn toàn?

Tiếp theo bạn có thể tự hỏi: "Tại sao các phương pháp sinh trắc học khác không phải là một giải pháp thay thế phù hợp để xác minh danh tính? Bạn không thể chỉ sử dụng mống mắt hoặc xác thực giọng nói, vì vậy bạn không cần phải đối phó với deepfake chút nào?"

Xác minh khuôn mặt sinh trắc học đặc biệt đã nổi lên như là phương pháp xác minh danh tính từ xa đáng tin cậy duy nhất vì:

  • Các phương pháp sinh trắc học khác không thể xác minh danh tính. Họ chỉ có thể xác thực nó. Điều này là do giọng nói, mống mắt, v.v. của bạn thường không có trên bất kỳ tài liệu nhận dạng nào của bạn (không giống như khuôn mặt của bạn). Vì vậy, bạn không có gì đáng tin cậy để xác minh dữ liệu sinh trắc học chống lại - không có nguồn sự thật. Điều đó có thể xảy ra trong những trường hợp hiếm hoi - ví dụ như có thể một tổ chức có quyền truy cập vào dữ liệu vân tay chính thức. Nhưng nó không thể mở rộng như xác minh khuôn mặt. Điều tương tự cũng xảy ra với các phương pháp truyền thống, chẳng hạn như mật khẩu và OTP, hoàn toàn thất bại trong việc giữ an toàn cho người dùng trực tuyến. Bạn không thể chắc chắn 100% về danh tính của ai đó chỉ vì họ biết điều gì đó (mật khẩu) hoặc sở hữu thứ gì đó (điện thoại có bật mã).
  • Nhân bản do AI điều khiển là mối đe dọa đối với tất cả các phương pháp sinh trắc học. Ví dụ, một giọng nói được coi là sinh trắc học dễ nhân bản nhất. Bạn có thể đọc thêm về mối đe dọa của nhân bản giọng nói trong bài viết này và những nhược điểm của sinh trắc học giọng nói tại đây.

Bảo vệ chống lại các cuộc tấn công deepfake

Khi chúng ta nói về mối đe dọa của deepfake, đó là để nhấn mạnh tầm quan trọng của một giải pháp xác minh khuôn mặt mạnh mẽ để bảo vệ chống lại chúng và giáo dục các tổ chức về sự khác biệt hậu quả giữa các giải pháp có sẵn.

Như Hướng dẫn thị trường năm 2023 của Gartner lập luận, "Các nhà lãnh đạo quản lý rủi ro và bảo mật phải coi việc phát hiện deepfake là yêu cầu chính và nên nghi ngờ bất kỳ nhà cung cấp nào không chủ động thảo luận về khả năng của mình".

Để giảm thiểu rủi ro liên quan đến các cuộc tấn công deepfake vào các hệ thống sinh trắc học, một số biện pháp có thể được thực hiện:

  • Sinh trắc học đa phương thức: Kết hợp nhiều phương pháp sinh trắc học, chẳng hạn như xác minh khuôn mặt và quét dấu vân tay, có thể tăng cường bảo mật bằng cách khiến kẻ tấn công khó giả mạo nhiều phương thức cùng một lúc.
  • Phát hiện sự sống: Thực hiện kiểm tra phát hiện sự sống dựa trên khoa học có thể giúp phân biệt giữa dữ liệu sinh trắc học thực và các biểu diễn tổng hợp, chẳng hạn như deepfake thiếu các dấu hiệu quan trọng của sự sống. Tìm hiểu thêm về công nghệ liveness tại đây.
  • Giám sát liên tục: Các hệ thống sinh trắc học nên kết hợp giám sát liên tục và phát hiện bất thường để xác định các mẫu hoặc hành vi bất thường có thể chỉ ra một cuộc tấn công deepfake. Các tổ chức phải nắm bắt các kỹ thuật tiên tiến có thể thích ứng với bối cảnh tăng tốc nhanh chóng của các mối đe dọa mạng (không phải là những mối đe dọa dựa vào phòng thủ tĩnh - giải pháp là một dịch vụ đang phát triển chứ không phải phần mềm).

Các giải pháp sinh trắc học kỹ thuật như phát hiện sự sống dựa trên khoa học và thông tin về mối đe dọa chủ động sẽ chiếm vị trí trung tâm trong việc xác định phương tiện tổng hợp. Tuy nhiên, nghiên cứu của con người và kỹ năng tư duy phê phán vẫn rất cần thiết khi xác định các mối đe dọa tiềm ẩn. Giải pháp cuối cùng nằm ở việc kết hợp thế mạnh của cả con người và tự động hóa để tạo ra một giải pháp hoàn hảo - như iProov đã làm, sử dụng xác minh sinh trắc học quan trọng với khả năng iSOC của chúng tôi.

Câu hỏi "làm thế nào chúng ta có thể chắc chắn về danh tính của ai đó trực tuyến?" là một chủ đề cực kỳ quan trọng và nghiêm túc, và nó sẽ không biến mất.

Tìm hiểu thêm về cách iProov đặc biệt bảo vệ chống lại deepfake trong bài đăng trên blog này và đọc báo cáo của chúng tôi, Deepfakes: Biên giới mới của tội phạm trực tuyến.

Deepfake đe dọa hệ thống xác minh danh tính từ xa như thế nào