Lindungi Bisnis Anda dari Deepfakes dengan Deteksi Keaktifan Dinamis
Munculnya AI generatif telah membuat pembuatan media sintetis yang realistis menjadi sangat mudah bagi para pelaku kejahatan, yang menimbulkan ancaman signifikan terhadap proses verifikasi identitas jarak jauh. Seperti yang diilustrasikan oleh klip pertukaran wajah singkat yang dibuat oleh Tim Sains iProov dalam waktu kurang dari 30 menit ini, aksesibilitas alat AI generatif yang semakin meningkat memungkinkan pelaku kejahatan untuk dengan mudah membuat pemalsuan realistis yang dapat mem-bypass Solusi pendeteksian kehidupan dasar.
Tonton contoh ini untuk segera memahami bahaya yang ditimbulkan oleh media sintetis dan kebutuhan penting akan langkah-langkah keamanan yang lebih kuat untuk memerangi serangan canggih ini:
Apa yang dimaksud dengan Penukaran Wajah?
A pertukaran wajah adalah bentuk yang sangat berbahaya dan canggih bentuk pemalsuan mendalam yang canggih, di mana isyarat dari video sumber (di bawah kendali pelaku ancaman) dan wajah yang ditargetkan dicangkokkan secara realistis ke wajah yang lain dengan menggunakan teknologi AI. Pertukaran wajah menggabungkan gambar dan video yang ada untuk menumpangkan identitas lain di atas umpan asli secara real time.
Seperti yang ditunjukkan oleh contoh ini, alat berbahaya sekarang tersedia yang membuat pembuatan pertukaran wajah yang sangat realistis menjadi sangat mudah. Meskipun teknologi di balik alat-alat ini canggih, mereka sering kali mudah digunakan dengan pendekatan "plug-and-play" - yang berarti penyerang yang tidak mengerti teknologi pun dapat membuat pertukaran wajah dan jenis media sintetis lainnya dengan keterampilan pengkodean minimal yang diperlukan, meningkatkan aksesibilitas dan frekuensi serangan.
iProov telah membagikan data dalam produksi yang berharga untuk membuktikan hal ini. Kami menemukan peningkatan 704% yang mengejutkan dalam serangan pertukaran wajah sepanjang tahun 2023 dalam laporan intelijen ancaman terbaru kami.
Analis kami terus melacak lebih dari 110 alat dan repositori face swap yang berbeda, seperti SwapFace, DeepFaceLive, dan Swapstream yang berkembang dengan cepat.
Pada akhirnya, para pelaku kejahatan kini dapat membuat deepfakes yang semakin realistis dalam waktu yang lebih singkat daripada sebelumnya. Risiko yang ditimbulkan oleh deepfakes cukup besar, karena dapat merusak kepercayaan terhadap media digital dan memfasilitasi pencurian identitas serta kejahatan siber lainnya.
Mengapa Munculnya AI Generatif, Media Sintetis, dan Pertukaran Wajah Menjadi Masalah?
Deepfakes dan media sintetis lainnya merupakan ancaman yang signifikan bagi semua metode verifikasi jarak jauhtermasuk produk konferensi video. Aktor jahat berpotensi melakukannya:
- Menyajikan deepfake secara fisik pada perangkat digital untuk memintas pemeriksaan kehidupan dasar.
- Menyuntikkan video atau gambar deepfake secara digital atau gambar ke dalam proses onboarding/otentikasi jarak jauh.
- Menggunakan media sintetis bersama dengan dokumen identitas palsu untuk menyamar sebagai individu yang sah - atau membuat identitas baru yang fiktif dari informasi asli dan palsu dengan dokumentasi yang tampaknya sah.
Hal ini dapat memungkinkan pelaku kejahatan untuk menerobos langkah-langkah keamanan orientasi dan autentikasi Anda dan mendapatkan akses tidak sah ke sistem atau akun yang sensitif. Hal ini dapat menyebabkan pencurian identitas, penipuan keuangan, kompromi sistem, dan kerugian yang melumpuhkan bagi organisasi yang terkena dampak.
Deepfakes menjadi sangat berbahaya ketika digunakan dalam serangan yang disuntikkan secara digital, karena dapat ditingkatkan dengan sangat cepat untuk menyebabkan kerusakan yang signifikan. Serangan injeksi digital adalah serangan siber yang canggih, sangat terukur, dan dapat ditiru yang disuntikkan ke dalam aliran data atau melewati kamera perangkat sepenuhnya. Pada akhirnya, serangan-serangan ini dan penggunaan deepfake meroket:
- iProov menyaksikan peningkatan 255% dalam serangan injeksi digital terhadap platform web seluler dari H1 hingga H2 2023.
- iProov mencatat peningkatan 353% dalam pelaku ancaman yang menggunakan emulator, suatu bentuk serangan injeksi video, dari H1 ke H2 2023.
Penipuan deepfake menjadi semakin canggih dan berakibat fatal, sebagaimana dibuktikan oleh insiden baru-baru ini di mana seorang profesional keuangan di Hong Kong tertipu oleh panggilan video deepfake palsu untuk mentransfer uang sebesar $25 juta..
Organisasi dari semua ukuran harus segera menerapkan langkah-langkah otentikasi identitas yang kuat - bahaya keuangan terlalu nyata:
- Organisasi menghabiskan antara $5 juta dan $25 juta dalam biaya operasional untuk menyelidiki, memerangi, atau memperbaiki kejahatan keuangan pada tahun 2023 - dan banyak yang memperkirakan angka ini akan terus meningkat.
- Statistik terbaru mengungkapkan bahwa 26% organisasi kecil dan 38% organisasi besar mengalami penipuan deepfake pada tahun lalu, dengan kerugian mencapai $480.000.
- Sepertiga bisnis melaporkan adanya serangan video dan audio serangan deepfake per April 2023
Bagaimana iProov Bertahan dari Ancaman Ini
Pertahanan berlapis iProov secara efektif membedakan pengguna langsung dari video deepfake selama proses onboarding dan otentikasi. Mekanisme respons-tantangan pasif kami yang unik memanfaatkan teknologi flashmark yang dipatenkan untuk menerangi wajah pengguna dengan urutan warna acak, menganalisis pantulan cahaya untuk mengonfirmasi keaktifan dan menggagalkan serangan injeksi digital dan deepfake yang canggih.
Adopsi kriminal emulator, kamera virtual, dan teknik metadata spoofing berarti organisasi tidak dapat lagi mengandalkan data perangkat, memperluas permukaan serangan bagi pelaku ancaman. iProov juga menggunakan kemampuan deteksi injeksi yang canggih untuk memerangi hal ini dengan kemampuan deteksi injeksi dan metadata yang kuat; metode pengiriman berbasis cloud kami yang dikombinasikan dengan pemantauan ancaman terus menerus berarti pembaruan keamanan dapat diterapkan dengan cepat (berlawanan dengan Solusi berbasis lokasi atau perangkat, yang sebagian besar bersifat statis karena menjadi usang saat pelaku ancaman berhasil).
Keaktifan multi-frame dengan penerapan cloud dan Pusat Operasi Keamanan (SOC) sangat penting untuk mendeteksi dan mencegah ancaman AI generatif seperti deepfakes secara berkelanjutan. Inilah spesialisasi iProov: memberikan jaminan identitas yang paling kuat di industri ini untuk melindungi dari ancaman media sintetis yang baru dan terus berkembang yang menargetkan proses identitas.
Dalam menghadapi ancaman deepfake yang berkembang pesat, iProov menyediakan Solusi jaminan identitas yang paling kuat di industri ini untuk melindungi bisnis Anda. Teknologi kami yang telah dipatenkan, seperti Flashmark™memastikan hanya pengguna yang sah yang dapat mengakses sistem Anda sambil memberikan pengalaman yang mulus. Itulah mengapa kami menjadi mitra pilihan untuk verifikasi identitas jarak jauh yang aman di antara para pemimpin global seperti Departemen Keamanan Dalam Negeri AS, ING, Kantor Dalam Negeri Inggris, dan banyak lagi.
iProov juga baru-baru ini menjadi vendor biometrik pertama yang mendapatkan sertifikasi FIDO Alliance untuk Verifikasi Identitas Biometrik Wajah dalam proses yang ketat yang dilakukan oleh Ingenium Biometrics. Sertifikasi ini mengikuti tidak kurang dari 10.000 pengujian, dan Dynamic Liveness iProov mencapai catatan keberhasilan yang sempurna tanpa ada serangan yang melewati sistem. Hasil ini menetapkan tolok ukur baru untuk akurasi dan keandalan, mencapai Tingkat Penerimaan Presentasi Serangan Penipu (IAPAR) 0%, dan Tingkat Penolakan Palsu (FRR) 0,14%.
Jangan biarkan organisasi Anda rentan terhadap kerugian finansial yang melumpuhkan dan kerusakan reputasi akibat penipuan deepfake. Lindungi proses identitas Anda dengan pertahanan media sintetis mutakhir iProov yang dipercaya oleh para pemimpin global di seluruh dunia. Pesan demo Anda hari ini dan pelajari bagaimana iProov dapat mengamankan bisnis Anda dari ancaman-ancaman ini.