BBC gần đây đã báo cáo về một công nghệ mới đang làm sống lại người chết.

OK, có lẽ không phải theo nghĩa đen. Tuy nhiên, bằng cách sử dụng công nghệ deepfake, một công ty có tên MyHeritage cho phép khách truy cập tải lên một bức ảnh của các thành viên gia đình đã qua đời, sau đó có thể được hoạt hình thành video.

Công ty nói rằng nó được thiết kế "để sử dụng hoài cổ... để đưa tổ tiên yêu quý sống lại". Nhưng một lần nữa, nó nhắc nhở chúng ta rằng deepfake có thể gây ra mối đe dọa cho xã hội, chính phủ và doanh nghiệp.

Làm thế nào deepfake của người chết có thể được sử dụng để gian lận trong các dịch vụ tài chính?

Deepfake là video hoặc hình ảnh được tạo bằng phần mềm hỗ trợ AI để hiển thị mọi người nói và làm những điều họ không nói hoặc làm. Chúng đã được sử dụng cho những trò đùa và giải trí, nhưng cũng cho các mục đích độc hại hơn. Số lượng video deepfake được đăng tải trực tuyến tăng hơn gấp đôi so với cùng kỳ năm ngoái.

Đây là lý do tại sao Đảm bảo sự hiện diện chính hãng của iProov rất quan trọng. iProov xác minh rằng người dùng là đúng người, đúng người thật và họ đang xác thực ngay bây giờ. Khả năng độc đáo này cho phép các tổ chức xác thực khách hàng bằng cách sử dụng xác minh khuôn mặt trong khi bảo vệ chống lại việc sử dụng deepfake và các phương tiện tổng hợp khác.

Chúng ta hãy xem nhanh những cách mà công nghệ deepfake có thể được sử dụng bởi những kẻ lừa đảo để phạm tội tài chính: 

Lừa đảo ma

Lừa đảo ma đề cập đến quá trình sử dụng dữ liệu của một người đã chết để mạo danh họ vì lợi ích tài chính. Những kẻ lừa đảo ma có thể sử dụng danh tính bị đánh cắp của một cá nhân để truy cập các dịch vụ trực tuyến, tiết kiệm và điểm tín dụng, cùng với việc đăng ký thẻ, khoản vay hoặc lợi ích. Sử dụng deepfake của người chết, bọn tội phạm có thể làm cho gian lận ma thuyết phục hơn nhiều.

Gian lận tài khoản mới

Gian lận tài khoản mới, còn được gọi là gian lận ứng dụng, là khi những kẻ lừa đảo sử dụng danh tính giả hoặc bị đánh cắp đặc biệt để mở tài khoản ngân hàng. Những kẻ lừa đảo có thể tối đa hóa hạn mức tín dụng dưới tên tài khoản hoặc vay các khoản vay không bao giờ được trả lại. Gian lận tài khoản mới đang gia tăng, gây thiệt hại 3,4 tỷ đô la và deepfake của người chết có thể được sử dụng bởi những kẻ lừa đảo trong tội ác của họ.

Gian lận danh tính tổng hợp

Gian lận danh tính tổng hợp là một hình thức gian lận trực tuyến tinh vi và khó phát hiện. Những kẻ lừa đảo tạo danh tính bằng cách sử dụng thông tin từ nhiều người. Thay vì đánh cắp một danh tính — chẳng hạn như tên, địa chỉ và số an sinh xã hội của một người vừa qua đời — những kẻ lừa đảo tổng hợp sử dụng hỗn hợp thông tin giả mạo, thật và bị đánh cắp để tạo ra một "người" không tồn tại.

Những kẻ lừa đảo sử dụng danh tính tổng hợp để đăng ký thẻ tín dụng / thẻ ghi nợ hoặc hoàn thành các giao dịch khác giúp xây dựng điểm tín dụng cho khách hàng không tồn tại. Một deepfake của một người đã chết có thể được sử dụng để củng cố danh tính tổng hợp.

Niên kim / Lương hưu / Bảo hiểm nhân thọ / Gian lận lợi ích

Một cách sử dụng tiềm năng khác của deepfake của người chết là trong niên kim / lương hưu, bảo hiểm hoặc gian lận lợi ích. Một người đã chết có thể tiếp tục yêu cầu lương hưu trong nhiều năm, cho dù bởi một kẻ lừa đảo chuyên nghiệp hay một thành viên gia đình. Đảm bảo sự hiện diện chính hãng từ iProov có thể cung cấp cho các công ty bảo hiểm và chính phủ sự đảm bảo bằng chứng cuộc sống cần thiết để tránh gian lận như vậy. 

Tội phạm tài chính ước tính tiêu tốn khoảng 1,4 đến 3,5 nghìn tỷ đô la ở Mỹ hàng năm. Điều quan trọng, Mckinsey phát hiện ra rằng các hình thức gian lận danh tính tổng hợp là loại tội phạm tài chính phát triển nhanh nhất. Và đây là trước Covid-19, khi việc sử dụng các kênh kỹ thuật số để hoàn thành các công việc hàng ngày tăng lên. 

Công nghệ deepfake là gì? Chính xác thì nó hoạt động như thế nào?

Công nghệ deepfake cuối cùng là một dạng phương tiện tổng hợp. Nó được hỗ trợ bởi trí tuệ nhân tạo và học sâu. Mạng lưới thần kinh AI được đào tạo trên một bộ dữ liệu hình ảnh và video, học cách tạo ra chân dung của một người lên người khác. Càng có nhiều dữ liệu, nó càng có thể tạo ra sự giống nhau, phù hợp với phong cách và biểu cảm, và các video giả mạo càng thực tế.

Deepfake đã thu hút sự chú ý ngày càng tăng trong mắt công chúng. Bạn có thể đã thấy các video giả mạo của những người nổi tiếng lan truyền trên mạng xã hội mà không hề nhận ra. Quay trở lại video của Zuckerberg năm 2019, được theo sát bởi lệnh cấm video tổng hợp trên toàn trang web của Facebook vào tháng 1 năm 2020. Gần đây, một video do máy tính tạo ra của Tom Cruise trên TikTok đã lan truyền trên mạng. Ngoài ra còn có deepfake khét tiếng của Channel 4 về Nữ hoàng, người đã đưa ra một thông điệp Giáng sinh thay thế ở Anh.

Quy định deepfake

Nhưng còn quy định và pháp luật thì sao? Phải có một số hạn chế, phải không?

Vâng, không hoàn toàn. Các quy định đang đến. Chính phủ Mỹ đã thông qua một dự luật vào tháng 11 năm ngoái, yêu cầu nghiên cứu thêm về deepfake. Chính phủ Anh hiện đang đánh giá luật cấm các video deepfake không có sự đồng thuận.

Tại sao bạn nên lo lắng về gian lận deepfake và deepfake?

Các doanh nghiệp và chính phủ cần bảo vệ công dân và khách hàng của họ. Người tiêu dùng đã lo ngại về deepfake. Chúng tôi đã tìm thấy trong báo cáo của mình, Mối đe dọa của Deepfakes, rằng:

  • 75% người tiêu dùng có nhiều khả năng sử dụng các dịch vụ trực tuyến bảo vệ họ khỏi deepfake 
  • 85% tin rằng deepfake sẽ khiến việc tin tưởng vào các dịch vụ trực tuyến trở nên khó khăn hơn 

Việc sử dụng deepfake đang phát triển, cũng như gian lận danh tính tổng hợp. Các nhà cung cấp dịch vụ ngân hàng bán lẻ, bảo hiểm được quản lý và cổng thanh toán là những mục tiêu chính của tội phạm deepfake.

Cách phát hiện deepfake

Nhiều video deepfake có chất lượng thấp. Đồng thời, có nhiều cách để phát hiện xem video có khả năng là deepfake hay không — thay đổi màu mắt, sự không nhất quán xung quanh chân tóc và sự kỳ lạ thị giác khác. Tuy nhiên, đừng nhầm lẫn: công nghệ deepfake ngày càng trở nên tinh vi. Deepfake không thể phát hiện bằng mắt người đã có sẵn. 

Vậy, câu trả lời là gì? Sinh trắc học đi vào đâu?

Công nghệ Đảm bảo sự hiện diện chính hãng của iProov bảo vệ các tổ chức và người dùng trước mối đe dọa gian lận deepfake. Giải pháp được cấp bằng sáng chế của chúng tôi sử dụng một loạt các màu sắc trong ánh sáng để xác minh rằng một người là đúng người, một người thực, xác thực ngay bây giờ. Điều này có nghĩa là các ngân hàng, chính phủ và các tổ chức khác có thể sử dụng xác thực sinh trắc học khuôn mặt để xác minh danh tính của người dùng một cách an toàn.

Tìm hiểu thêm: Mối đe dọa Deepfake

Đặt bản demo iProov của bạn hoặc liên hệ với chúng tôi.

Gian lận deepfake và deepfake của người chết: hình ảnh đại diện cho nỗ lực gian lận bảo mật của phụ nữ do AI tạo ra, đang được quét, công nghệ deepfake