Trên toàn cầu, các chính phủ, nhà hoạch định chính sách và cơ quan quản lý đang chuyển sự chú ý của họ sang chủ đề trí tuệ nhân tạo (AI). Công nghệ này làm giảm đáng kể rào cản công nghệ để tạo ra hình ảnh, video và âm thanh giả mạo có độ thật cao.

Khi AI phát triển, nó sẽ khiến việc phân biệt giữa nội dung thực và nội dung bị thao túng ngày càng khó khăn - dẫn đến thông tin sai lệch, tuyên truyền và lừa dối trên quy mô lớn. Điều này đe dọa làm xói mòn niềm tin và làm mờ ranh giới giữa thực tế và hư cấu, cuối cùng thách thức chức năng của một xã hội dân sự hiệu quả.

Trong bài viết này, chúng tôi thảo luận về chủ đề AI tạo ra, cùng với các công cụ, phương pháp và công nghệ có sẵn để chống lại mối đe dọa ngày càng tăng.

Tại sao AI tạo ra mối đe dọa ngày càng tăng?

AI về bản chất không gây hại - có rất nhiều ứng dụng có lợi và tích cực. Tuy nhiên, một số yếu tố đang dẫn đến mối quan tâm ngày càng tăng về khả năng rộng lớn của nó cho các mục đích bất chính:

  • Khối lượng các cuộc tấn công an ninh mạng dựa trên công nghệ AI đang gia tăng với tốc độ đáng báo động: Ví dụ, iProov tiết lộ rằng các cuộc tấn công hoán đổi khuôn mặt đang gia tăng tần suất: báo cáo Tình báo Mối đe dọa Sinh trắc học của chúng tôi nhấn mạnh hoán đổi khuôn mặt đã tăng 295% từ H1 lên H2 vào năm 2022.
  • Tội phạm mạng do AI điều khiển đã trở nên dễ tiếp cận và có khả năng mở rộng hơn nhiều: Tội phạm có tay nghề thấp đang có quyền truy cập vào các tài nguyên cần thiết để khởi động các cuộc tấn công tinh vi với chi phí thấp, hoặc thậm chí miễn phí, trực tuyến. Điều này giúp các tác nhân xấu dễ dàng giành được chỗ đứng trong hệ thống thông tin và an ninh mạng của các tổ chức. Tương tự, khả năng tiếp cận của công nghệ này có thể giúp những kẻ lừa đảo dễ dàng thuyết phục các cá nhân rằng họ đang tương tác với một người xác thực, tiếp tục tạo điều kiện cho tội phạm mạng và gian lận.
  • Sự tinh vi của AI thế hệ đang phát triển nhanh chóng và mọi người không còn có thể phát hiện ra deepfake nữa: Phương tiện tổng hợp đã đạt đến giai đoạn cóthể phân biệt giữa những gì giả và những gì thật bằng mắt người - vì vậy kiểm tra thủ công không phải là một giải pháp khả thi. Tương tự, các phương pháp tiếp cận đặt gánh nặng trách nhiệm lên mọi người để phát hiện phương tiện tổng hợp sẽ chỉ có tác động hạn chế.
  • Sự phát triển của tội phạm như một dịch vụ: AI tạo ra đang trao quyền cho các tác nhân xấu và sự sẵn có của các công cụ trực tuyến đang đẩy nhanh sự phát triển của bối cảnh mối đe dọa. Điều này cho phép bọn tội phạm khởi động các cuộc tấn công nâng cao nhanh hơn và ở quy mô lớn hơn. Nếu các cuộc tấn công thành công, chúng sẽ nhanh chóng leo thang về khối lượng và tần suất khi chúng được chia sẻ giữa các mạng lưới tội phạm như một dịch vụ đã được thiết lập hoặc trên darkweb, khuếch đại nguy cơ thiệt hại nghiêm trọng.
  • Nhận thức và thông tin sai lệch của công chúng: AI tạo ra không chỉ đe dọa các tổ chức cá nhân hoặc chính phủ, mà còn cả hệ sinh thái thông tin và chính nền kinh tế. Điều này đã có tác động trong thế giới thực: ví dụ, gần đây một hình ảnh do AI tạo ra về một vụ nổ tại Lầu Năm Góc đã gây ra sự sụt giảm ngắn trên thị trường chứng khoán.

Tác động của AI tạo ra đối với xã hội là vô tận: gian lận lợi ích khu vực công, gian lận tài khoản mới, nhận dạng tổng hợp, gian lận, gian lận bỏ phiếu, thông tin sai lệch, bot truyền thông xã hội lừa đảo, cuộc gọi tự động, v.v.

Sự nguy hiểm của việc kết hợp các loại AI khác nhau - chẳng hạn như hình ảnh, giọng nói và văn bản - đặt ra mối đe dọa hiệp đồng của các công nghệ phát triển nhanh chóng có thể được sử dụng kết hợp để có tác động lớn. Bạn có thể tìm hiểu về những rủi ro nghiêm trọng và khẩn cấp của giả mạo giọng nói nói nói nói nhấn vào đây.

Xu hướng đáng lo ngại của Generative AI đã thu hút sự chú ý của các chính phủ và các nhà hoạch định chính sách trên toàn thế giới

Hãy xem xét một vài ví dụ:

Cuối cùng, hiện đang có một cuộc chạy đua vũ trang giữa việc sử dụng AI hủy diệt và các công cụ mà chúng ta phải bảo vệ chống lại chúng. Kết quả tiềm năng là một cuộc khủng hoảng danh tính trong thời đại kỹ thuật số, nơi công chúng không thể tin tưởng vào các phương tiện truyền thông hoặc các quan chức nhà nước.

Phản ứng của iProov để bảo vệ chống lại các mối đe dọa AI phát sinh

Nó sẽ ngày càng trở nên khó khăn hơn đối với các chính phủ, doanh nghiệp, nhà báo và công chúng nói chung để chống lại hoặc phát hiện gian lận, thông tin sai lệch và tội phạm mạng. Điều này đặc biệt thích hợp khi chúng ta tiếp cận nhiều cuộc bầu cử chính trị lớn trên toàn cầu.

Vì vậy, những gì chính phủ và các nhà hoạch định chính sách thực sự có thể làm? Những quy định và công nghệ nào có sẵn? Tóm lại:

  • Xác minh danh tính sinh trắc học khuôn mặt, với tính sống động và giám sát mối đe dọa tích cực, là rất quan trọng: Trong thời đại mà các công nghệ truyền thống và mắt người không còn có thể xác minh tính xác thực của một người từ xa, xác minh danh tính sinh trắc học là cần thiết để đảm bảo rằng một người là chủ sở hữu thực sự của danh tính, nội dung và vị trí của họ. Các giải pháp hiệu quả nhất kết hợp công nghệ sống động quan trọng với quản lý mối đe dọa sinh trắc học và chủ động một lần, có thể xác định xem hình ảnh được trình bày có phải là người thật hay không và người đó có thực sự có mặt tại thời điểm thông tin được chụp hay không.
  • Việc giới thiệu và xác thực từ xa cần được bảo mật hơn nữa: Xác minh khuôn mặt sinh trắc học đã nổi lên như một cách an toàn và thuận tiện nhất để xác minh danh tính trực tuyến, vì các phương pháp truyền thống như mật khẩumã một lần đã thất bại. Tuy nhiên, khi đối mặt với AI tạo ra, điều quan trọng là khả năng sống phải được đánh giá kỹ lưỡng. Tốt là không đủ tốt; Bảo mật phải là điều tối quan trọng đối với các tổ chức.
  • Quy định phải đặt lan can cho đa số đạo đức: Điều quan trọng là phải thiết lập các khung pháp lý để giải quyết các tác động đạo đức và xã hội của AI và phương tiện truyền thông tổng hợp. Điều này cho phép cơ quan thực thi pháp luật nhắm mục tiêu vào kẻ xấu bằng các chỉ thị rõ ràng, đồng thời cung cấp các trình điều khiển thương mại để giải quyết các ưu đãi nền tảng. iProov đã gửi phản hồi PCAST về chủ đề này cho các chính phủ và nhà hoạch định chính sách khác nhau trên toàn cầu.

Phương pháp tiếp cận của chính phủ và nhà hoạch định chính sách đối với AI: Tóm tắt

Cuối cùng, AI tạo ra rủi ro đáng kể cho xã hội. Chính sách và quy định rõ ràng là cần thiết khẩn cấp để thiết lập lan can, sắp xếp đa số đạo đức và hướng dẫn phản ứng của các tổ chức.

Công nghệ xác minh sinh trắc học và danh tính cung cấp một cứu cánh quan trọng cho các chính phủ và các tổ chức khác cần đảm bảo với mọi người rằng họ đang ở trong thời đại của hình ảnh và thông tin tổng hợp và giả mạo.

Nhưng không phải bất kỳ công nghệ xác minh nào cũng sẽ làm được. Khi AI phát sinh tiến bộ, phòng thủ sẽ cần phải theo kịp: các giải pháp quan trọng liên tục phát triển là điều cần thiết.

iProov đã phát hành báo cáo "Khủng hoảng danh tính trong thời đại kỹ thuật số: Sử dụng sinh trắc học dựa trên khoa học để chống lại AI tạo ra". Bên trong, chúng tôi xem xét khía cạnh tội phạm của AI tạo ra, thảo luận về "thâm hụt niềm tin" đe dọa làm suy yếu khả năng của các quốc gia để đạt được các mục tiêu phát triển bền vững và tư vấn về công nghệ và quy trình cần thiết để chống lại mối đe dọa này.

Ngoài ra, hãy đặt một bản demo giải pháp của iProov tại đây ngay hôm nay.

AI tạo ra trong khu vực công - và vai trò của sinh trắc học khuôn mặt