22 September 2023
Di seluruh dunia, Lembaga Pemerintahan, pembuat kebijakan, dan regulator mengalihkan perhatian mereka ke subjek kecerdasan buatan (AI) generatif. Teknologi ini sangat mengurangi hambatan teknologi untuk menciptakan gambar, video, dan audio palsu yang sangat realistis.
Seiring berkembangnya AI generatif, hal ini akan membuat semakin sulit untuk membedakan antara konten yang nyata dan yang dimanipulasi - yang mengarah pada informasi yang salah, propaganda, dan penipuan dalam skala besar. Hal ini mengancam untuk mengikis kepercayaan dan mengaburkan batas antara realitas dan fiksi, yang pada akhirnya menantang fungsi masyarakat sipil yang efektif.
Dalam artikel ini, kami membahas topik AI generatif, di samping alat, metode, dan teknologi yang tersedia untuk memerangi ancaman yang terus berkembang.
Mengapa AI Generatif Menimbulkan Ancaman yang Semakin Besar?
AI pada dasarnya tidak berbahaya - ada banyak aplikasi yang bermanfaat dan positif. Namun demikian, sejumlah faktor menyebabkan meningkatnya kekhawatiran atas kemampuannya yang luas untuk tujuan jahat:
- Volume serangan keamanan siber yang digerakkan oleh teknologi AI meningkat pada tingkat yang mengkhawatirkan: Sebagai contoh, iProov mengungkapkan bahwa serangan pertukaran wajah meningkat frekuensinya: Laporan Intelijen Ancaman Biometrik kami menyoroti pertukaran wajah yang meningkat 295% dari H1 ke H2 pada tahun 2022.
- Kejahatan dunia maya yang digerakkan oleh AI menjadi jauh lebih mudah diakses dan terukur: Penjahat berketerampilan rendah mendapatkan akses ke sumber daya yang diperlukan untuk melancarkan serangan canggih dengan biaya rendah, atau bahkan gratis, secara online. Hal ini memudahkan pelaku kejahatan untuk mendapatkan pijakan dalam sistem informasi dan keamanan siber organisasi. Demikian pula, aksesibilitas teknologi ini dapat memudahkan penipu untuk meyakinkan individu bahwa mereka berinteraksi dengan orang yang asli, yang selanjutnya memungkinkan terjadinya kejahatan siber dan penipuan.
- Kecanggihan AI generatif berkembang dengan cepat, dan orang tidak bisa lagi mengenali pemalsuan: Media sintetis telah mencapai tahap di manamustahil untuk membedakan mana yang palsu dan mana yang asli dengan mata manusia - jadi pemeriksaan manual bukanlah Solusi yang tepat. Demikian pula, pendekatan yang menempatkan beban tanggung jawab pada orang-orang untuk mengenali media sintetis hanya akan memiliki dampak yang terbatas.
- Pertumbuhan Kejahatan sebagai Layanan: AI generatif memberdayakan para pelaku kejahatan, dan ketersediaan alat bantu online mempercepat evolusi lanskap ancaman. Hal ini memungkinkan para penjahat untuk meluncurkan serangan canggih dengan lebih cepat dan dalam skala yang lebih besar. Jika serangan berhasil, mereka dengan cepat meningkat dalam volume dan frekuensi saat mereka dibagikan di antara jaringan kejahatan sebagai layanan yang sudah mapan atau di darkweb, sehingga memperbesar risiko kerusakan serius.
- Persepsi publik dan disinformasi: AI generatif tidak hanya mengancam organisasi atau Lembaga Pemerintahan secara individu, tetapi juga ekosistem informasi dan ekonomi itu sendiri. Hal ini sudah berdampak pada dunia nyata: misalnya, baru-baru ini sebuah gambar yang dihasilkan oleh AI Tentang iProov ledakan di Pentagon menyebabkan penurunan singkat di pasar saham.
Dampak AI generatif pada masyarakat tidak terbatas: penipuan tunjangan sektor publik, penipuan akun baru, identitas sintetis, penipuan, penipuan pemungutan suara, disinformasi, bot media sosial yang menipu, robocall, dan banyak lagi.
Bahaya menggabungkan berbagai jenis AI - seperti citra, suara, dan teks - menimbulkan ancaman sinergis dari teknologi yang berkembang pesat yang dapat digunakan bersama untuk menghasilkan dampak yang besar. Anda dapat mempelajari Tentang iProov risiko penting dan mendesak dari pemalsuan suara secara khusus di sini.
Tren Mengkhawatirkan dari AI Generatif Telah Menarik Perhatian Lembaga Pemerintahan dan Pembuat Kebijakan di Seluruh Dunia
Mari kita pertimbangkan beberapa contoh:
- Pernyataan Dewan Perdagangan dan Teknologi Bersama AS-Uni Eropa pada Mei 2023 sangat berfokus pada dampak AI, mengutip "laju perkembangan teknologi yang cepat" dan komitmen bersama untuk memperdalam kerja sama dalam masalah kecerdasan buatan, berjanji untuk membatasi "tantangan yang mereka timbulkan terhadap hak asasi manusia universal dan nilai-nilai demokrasi bersama."
- Peraturan Undang-Undang AI berbasis risiko Uni Eropa mengklasifikasikan sistem AI berdasarkan tingkat risikonya, yang pada akhirnya melarang sistem berisiko tinggi, memberlakukan peraturan pada yang lain, dan mewajibkan transparansi untuk sistem yang berisiko lebih rendah.
- Kelompok Kerja PCAST Tentang iProov AI Generatif: Dewan Penasihat Presiden AS untuk Sains dan Teknologi (PCAST) telah membentuk sebuah kelompok kerja, yang berfokus untuk memastikan bahwa teknologi AI dikembangkan dan digunakan dengan cara yang bermanfaat bagi masyarakat secara keseluruhan.
- Lembaga Pemerintahan Australia telah memulai perdebatan dengan makalah diskusi yang mendukung AI yang bertanggung jawab .
- Negara-negara di Asia Pasifik mendorong untuk mengatur penggunaan AI yang kontroversial.
- Inggris telah merilis Buku Putih AI Inggris Tentang iProov Pendekatan Pro-Inovasi terhadap Regulasi AI.
- Brasil telah menerbitkan draf RUU AI dan Peru telah menerbitkan UU AI.
Pada akhirnya, saat ini terdapat perlombaan senjata antara penggunaan AI generatif yang merusak dan alat yang harus kita pertahankan untuk melawannya. Hasil yang mungkin terjadi adalah krisis identitas di era digital, di mana publik tidak dapat mempercayai media atau pejabat publik.
Tanggapan iProov untuk Melindungi dari Ancaman AI Generatif
Akan semakin sulit bagi Lembaga Pemerintahan, bisnis, jurnalis, dan masyarakat umum untuk memerangi atau menemukan penipuan, disinformasi, dan kejahatan dunia maya. Hal ini sangat relevan saat kita mendekati banyak pemilihan umum politik besar di seluruh dunia.
Jadi, apa yang sebenarnya dapat dilakukan oleh Lembaga Pemerintahan dan pembuat kebijakan? Peraturan dan teknologi apa saja yang tersedia? Singkatnya:
- Verifikasi identitas biometrik wajah, dengan pemantauan keaktifan dan ancaman aktif, sangat penting: Di zaman di mana teknologi tradisional dan mata manusia tidak lagi dapat memverifikasi keaslian seseorang dari jarak jauh, verifikasi identitas biometrik diperlukan untuk memastikan bahwa seseorang adalah pemilik sebenarnya dari identitas, konten, dan posisinya. Solusi yang paling efektif menggabungkan teknologi mission-critical liveness dengan biometrik sekali pakai dan manajemen ancaman aktif, yang dapat menentukan apakah gambar yang ditampilkan adalah orang yang sebenarnya dan bahwa orang tersebut benar-benar hadir pada saat informasi diambil.
- Proses penerimaan dan autentikasi jarak jauh harus lebih diamankan lagi: Verifikasi wajah biometrik telah muncul sebagai cara yang paling aman dan nyaman untuk memverifikasi identitas secara online, karena metode tradisional seperti kata sandi dan kode sekali pakai telah gagal. Namun, ketika berhadapan dengan AI generatif, sangat penting untuk mengevaluasi kemampuan hidup secara menyeluruh. Baik saja tidak cukup baik; keamanan harus menjadi yang terpenting bagi organisasi.
- Regulasi harus menetapkan pagar pembatas bagi mayoritas moral: Sangat penting untuk menetapkan kerangka hukum untuk mengatasi implikasi etis dan sosial dari AI generatif dan media sintetis. Hal ini memungkinkan penegak hukum untuk menargetkan orang-orang jahat dengan arahan yang jelas, sambil memberikan pendorong komersial untuk mengatasi insentif platform. iProov telah mengirimkan tanggapan PCAST Tentang iProov topik ini ke berbagai Lembaga Pemerintahan dan pembuat kebijakan di seluruh dunia.
Pendekatan Lembaga Pemerintahan dan Pembuat Kebijakan terhadap AI: Ringkasan
Pada akhirnya, AI generatif menimbulkan risiko yang signifikan bagi masyarakat. Kebijakan dan regulasi yang jelas sangat dibutuhkan untuk menetapkan pagar pembatas, menyelaraskan mayoritas moral, dan memandu respons organisasi.
Teknologi verifikasi biometrik dan identitas menawarkan jalur penyelamat bagi Lembaga Pemerintahan dan organisasi lain yang perlu meyakinkan orang-orang Tentang iProov siapa diri mereka di era citra dan informasi sintetis dan palsu.
Tetapi tidak sembarang teknologi verifikasi yang bisa digunakan. Seiring dengan kemajuan AI generatif, pertahanan perlu mengimbangi: Solusi penting yang terus berkembang sangat penting.
iProov telah merilis laporan "Krisis Identitas di Era Digital: Menggunakan Biometrik Berbasis Sains untuk Memerangi AI Generatif". Di dalamnya, kami memeriksa sisi kriminal dari AI generatif, mendiskusikan "defisit kepercayaan" yang mengancam kemampuan negara untuk mencapai tujuan pembangunan berkelanjutan, dan memberikan saran Tentang iProov teknologi dan proses yang diperlukan untuk memerangi ancaman ini.