11 Januari 2024
Verifikasi identitas jarak jauh adalah salah satu tantangan yang paling mendesak di era yang semakin digital ini. Mengonfirmasi identitas seseorang tanpa melihat mereka secara fisik, secara langsung, adalah kebutuhan yang terus berkembang dalam hal kepentingan dan kesulitannya.
Di antara ancaman yang paling berbahaya terhadap verifikasi identitas jarak jauh adalah penggunaan deepfake yang dibuat oleh AI Generatif. Deepfakes tidak berbahaya secara intrinsik, tetapi dapat menimbulkan ancaman keamanan yang signifikan. Karena sekarang tidak mungkin untuk membedakan antara citra sintetis dan citra asli dengan mata manusia, biometrik bertenaga AI telah muncul sebagai pertahanan yang paling kuat terhadap deepfakes - dan, oleh karena itu, satu-satunya metode yang dapat diandalkan untuk verifikasi identitas jarak jauh. Faktanya, untuk melawannya diperlukan penelitian berkelanjutan dan Solusi yang sangat penting dengan keamanan yang terus berkembang. Orang-orang juga menghargai kenyamanan verifikasi biometrik wajah - 72% konsumen di seluruh dunia lebih memilih verifikasi wajah untuk keamanan online.
Namun, seiring dengan kemajuan teknologi biometrik, para pelaku kejahatan mencari metode baru yang lebih canggih untuk membobol sistem ini. Namun, penting untuk diingat bahwa deepfake bukanlah ancaman bagi keamanan biometrik - ini merupakan ancaman bagi metode apa pun untuk memverifikasi identitas manusia dari jarak jauh.
Ancaman Deepfake: Melihat Lebih Dalam Kebangkitan Teknologi Deepfake
Pada awalnya, deepfakes hanyalah kesenangan yang tidak berbahaya, dengan orang-orang membuat video dan gambar untuk tujuan hiburan. Namun, ketika dikombinasikan dengan niat jahat dan alat serangan siber, mereka dengan cepat berubah menjadi ancaman jahat. Deepfakes dengan cepat menjadi cara yang sangat ampuh untuk melancarkan serangan keamanan siber, menyebarkan berita palsu, dan mempengaruhi opini publik. Anda mungkin pernah menemukan deepfake tanpa menyadarinya.
Teknologi deepfake melibatkan penggunaan alat seperti Computer-generated imagery (CGI) dan kecerdasan buatan untuk mengubah penampilan dan perilaku seseorang. Algoritme pembelajaran mesin bekerja untuk menghasilkan konten sintetis yang sangat realistis untuk meniru perilaku manusia, termasuk ekspresi wajah dan ucapan. Jika digunakan untuk tujuan jahat, teknologi ini dapat digunakan untuk membuat identitas palsu, meniru orang, dan mendapatkan akses ke lokasi yang aman, misalnya.
Karena kecanggihan teknologinya, konten deepfake sering kali terlihat sangat realistis bagi manusia yang terlatih dan bahkan beberapa Solusi verifikasi identitas - sehingga sulit untuk membedakan mana yang asli dan mana yang palsu. Laju AI yang berkembang pesat berarti deepfake juga terus berkembang - ini bukanlah ancaman yang statis.
Deteksi Deepfake: Bukti Membuktikan bahwa Manusia Tidak Dapat Mendeteksi Deepfake dengan Andal
Kami telah mengumpulkan daftar penelitian yang menyoroti bagaimana manusia bukanlah indikator yang dapat diandalkan untuk menemukan deepfakes:
- Sebuah studi tahun 2021 berjudul "Deteksi deepfake oleh kerumunan manusia, mesin, dan kerumunan yang diinformasikan oleh mesin" menemukan bahwa orang saja jauh lebih buruk daripada algoritme pendeteksian. Algoritme pendeteksian bahkan mengungguli pemeriksa forensik, yang jauh lebih terampil dalam tugas tersebut daripada orang kebanyakan. Studi ini juga tidak menemukan bukti bahwa pendidikan/pelatihan dapat meningkatkan kinerja.
- Studi lain pada tahun 2021 yang berjudul "Tertipu dua kali: Orang tidak dapat mendeteksi deepfake tetapi mengira mereka bisa" menemukan bahwa orang kurang mampu mengidentifikasi deepfake daripada yang mereka pikirkan; bahwa orang tidak dapat diandalkan dalam mendeteksi konten video yang dimanipulasi; bahwa pelatihan dan insentif tidak meningkatkan kemampuan; bahwa orang memiliki bias terhadap Tingkat Penolakan Palsu; dan akhirnya bahwa orang sangat rentan untuk dipengaruhi oleh konten deepfake.
- Pada tahun 2022, sekelompok peneliti keamanan menemukan bahwa verifikasi panggilan video antar orang dapat dengan mudah diatasi dengan perangkat lunak OS dan cat air (yaitu manipulasi seni digital). Hal ini menunjukkan bahwa sistem identifikasi video operator manusia dapat dengan mudah diatasi dengan pendekatan dasar sehari-hari dan sedikit keahlian - terkadang bahkan tidak diperlukan pemalsuan untuk menipu manusia.
Lihat apakah Anda dapat menemukan deepfake dalam kuis interaktif kami!
Bagaimana Deepfakes Mengancam Semua Verifikasi Identitas Online
Untuk memverifikasi identitas dari jarak jauh secara andal, Anda harus melihat orang tersebut dan dokumen identitasnya. Verifikasi panggilan video - kadang-kadang dikenal sebagai identifikasi video - mengacu pada proses berbicara dengan orang secara langsung melalui perangkat lunak panggilan video untuk membuktikan siapa Anda. Tetapi ini adalah pilihan yang tidak diinginkan - paling tidak karena tidak nyaman, memakan banyak tenaga dan biaya, dan tidak dapat diotomatisasi (jadi lebih sulit untuk diukur).
Deepfakes dapat disuntikkan ke dalam streaming video langsung, jadi mereka adalah ancaman yang lebih penting untuk verifikasi video. Seperti yang telah kita ketahui, manusia kurang dapat diandalkan dalam mendeteksi deepfakes dibandingkan dengan biometrik. Inilah mengapa kami memperingatkan organisasi untuk mengingat bahwa deepfakes dan bentuk lain dari AI Generatif bukanlah "masalah biometrik"; mereka adalah masalah verifikasi identitas jarak jauh.
Verifikasi identitas jarak jauh sangat penting bagi sebagian besar organisasi yang menjalankan bisnis online. Hal ini tidak bisa ditawar dalam banyak kasus. Untuk menghadapi ancaman deepfake, organisasi harus memanfaatkan AI demi keamanan siber (misalnya biometrik bertenaga AI).
Tidak bisakah saya memverifikasi pengguna dengan metode biometrik lain, untuk menghindari deepfake sama sekali?
Anda mungkin bertanya-tanya: "mengapa metode biometrik lainnya tidak menjadi alternatif yang cocok untuk verifikasi identitas? Tidak bisakah Anda menggunakan iris mata atau autentikasi suara, sehingga Anda tidak perlu berurusan dengan pemalsuan sama sekali?"
Verifikasi wajah biometrik secara khusus telah muncul sebagai satu-satunya metode yang dapat diandalkan untuk verifikasi identitas jarak jauh karena:
- Metode biometrik lainnya tidak dapat memverifikasi identitas. Mereka hanya dapat mengautentikasi saja. Ini karena suara, iris mata, dan sebagainya umumnya tidak ada pada dokumen identitas Anda (tidak seperti wajah Anda). Jadi, Anda tidak memiliki apa pun yang dapat dipercaya untuk memverifikasi data biometrik - tidak ada sumber kebenaran. Mungkin saja dalam kasus yang jarang terjadi - mungkin sebuah organisasi memiliki akses ke data sidik jari resmi, misalnya. Tetapi itu tidak dapat diukur seperti verifikasi wajah. Hal yang sama berlaku untuk metode tradisional, seperti kata sandi dan OTP, yang sepenuhnya gagal untuk menjaga keamanan pengguna saat online. Anda tidak bisa 100% yakin dengan identitas seseorang hanya karena mereka mengetahui sesuatu (kata sandi) atau memiliki sesuatu (ponsel dengan kode).
- Kloning yang digerakkan oleh AI adalah ancaman bagi semua metode biometrik. Suara, misalnya, dianggap sebagai biometrik yang paling mudah dikloning. Anda dapat membaca lebih lanjut Tentang iProov ancaman kloning suara dalam artikel ini dan kelemahan biometrik suara di sini.
Melindungi dari Serangan Deepfake
Ketika kita berbicara Tentang iProov ancaman deepfakes, ini untuk menekankan betapa pentingnya Solusi verifikasi wajah yang kuat untuk mempertahankan diri dari ancaman tersebut, dan untuk mengedukasi organisasi Tentang iProov perbedaan konsekuensi antara Solusi yang tersedia.
Seperti yang diartikulasikan oleh Panduan Pasar Gartner 2023, "Pemimpin keamanan dan manajemen risiko harus menjadikan deteksi deepfake sebagai persyaratan utama, dan harus mencurigai vendor mana pun yang tidak secara proaktif mendiskusikan kapabilitasnya".
Untuk mengurangi risiko yang terkait dengan serangan deepfake pada sistem biometrik, beberapa langkah dapat diterapkan:
- Biometrik Multi-Modal: Menggabungkan beberapa metode biometrik, seperti verifikasi wajah dan pemindaian sidik jari, dapat meningkatkan keamanan dengan mempersulit penyerang untuk memalsukan beberapa modalitas secara bersamaan.
- Liveness Detection: Menerapkan pemeriksaan Liveness Detection berbasis sains dapat membantu membedakan antara data biometrik asli dan representasi sintetis, seperti deepfake yang tidak memiliki tanda-tanda vital kehidupan. Pelajari lebih lanjut Tentang iProov teknologi liveness di sini.
- Pemantauan Berkelanjutan: Sistem biometrik harus menggabungkan pemantauan berkelanjutan dan deteksi anomali untuk mengidentifikasi pola atau perilaku yang tidak biasa yang mungkin mengindikasikan serangan deepfake. Organisasi harus menggunakan teknik canggih yang dapat beradaptasi dengan lanskap ancaman dunia maya yang semakin cepat (bukan yang mengandalkan pertahanan statis - Solusinya adalah layanan yang terus berkembang, bukan perangkat lunak).
Solusi biometrik teknis seperti Liveness Detection berbasis sains dan intelijen ancaman aktif akan menjadi pusat perhatian dalam mengidentifikasi media sintetis. Namun, penelitian manusia dan kemampuan berpikir kritis masih sangat penting dalam mengidentifikasi potensi ancaman. Solusi terbaik terletak pada penggabungan kekuatan manusia dan otomatisasi untuk menciptakan Solusi yang sangat mudah - seperti yang dilakukan iProov, memanfaatkan verifikasi biometrik misi kritis kami dengan kemampuan iSOC kami.
Pertanyaan Tentang iProov "bagaimana kita bisa memastikan identitas seseorang secara online?" adalah topik yang sangat penting dan serius, dan tidak akan hilang.
Pelajari lebih lanjut Tentang iProov bagaimana iProov secara khusus melindungi dari deepfakes dalam posting blog ini dan baca laporan kami, Deepfakes: Batas Baru Kejahatan Online.