ปกป้องธุรกิจของคุณจาก Deepfakes ด้วย Dynamic การตรวจจับความมีชีวิตชีวา
การเพิ่มขึ้นของ Generative AI ทําให้การสร้างสื่อสังเคราะห์ที่เหมือนจริงเป็นเรื่องง่ายอย่างน่าตกใจสําหรับผู้ประสงค์ร้าย ซึ่งเป็นภัยคุกคามที่สําคัญต่อกระบวนการยืนยันตัวตนระยะไกล เนื่องจากคลิปสลับใบหน้าสั้น ๆ ที่สร้างขึ้นโดยทีมวิทยาศาสตร์ของ iProov ภายในเวลาไม่ถึง 30 นาทีแสดงให้เห็นการเข้าถึงที่เพิ่มขึ้นของเครื่องมือ AI เชิงกําเนิดช่วยให้ผู้ประสงค์ร้ายสามารถสร้าง Deepfake ที่เหมือนจริงได้อย่างง่ายดายซึ่งสามารถข้ามโซลูชันการตรวจจับความมีชีวิตชีวาขั้นพื้นฐานได้
ดูตัวอย่างนี้เพื่อทําความเข้าใจอันตรายที่เกิดจากสื่อสังเคราะห์ในทันที และความต้องการที่สําคัญสําหรับมาตรการรักษาความปลอดภัยที่แข็งแกร่งยิ่งขึ้นเพื่อต่อสู้กับการโจมตีขั้นสูงเหล่านี้:
Face Swap คืออะไร?
การสลับใบหน้าเป็นรูปแบบที่เป็นอันตรายและซับซ้อนเป็นพิเศษของตัวชี้นํา Deepfake จากวิดีโอต้นฉบับ (ภายใต้การควบคุมของผู้คุกคาม) และใบหน้าที่เป็นเป้าหมายจะถูกต่อกิ่งไปยังอีกใบหน้าหนึ่งอย่างสมจริงโดยใช้เทคโนโลยี AI การสลับใบหน้าจะรวมรูปภาพและวิดีโอที่มีอยู่เพื่อซ้อนทับข้อมูลประจําตัวอื่นบนฟีดต้นฉบับแบบเรียลไทม์
จากตัวอย่างนี้แสดงให้เห็นว่าขณะนี้มีเครื่องมืออันตรายที่ทําให้การสลับใบหน้าที่สมจริงเกินจริงเป็นเรื่องง่ายอย่างน่าประหลาดใจ แม้ว่าเทคโนโลยีที่อยู่เบื้องหลังเครื่องมือเหล่านี้จะล้ําหน้า แต่ก็มักจะใช้งานง่ายด้วยวิธีการ "พลักแอนด์เพลย์" ซึ่งหมายความว่าแม้แต่ผู้โจมตีที่ไม่เข้าใจเทคโนโลยีก็สามารถสร้างการสลับใบหน้าและสื่อสังเคราะห์ประเภทอื่นๆ ได้โดยใช้ทักษะการเขียนโค้ดเพียงเล็กน้อย ซึ่งเพิ่มการเข้าถึงการโจมตีและความถี่
iProov ได้แบ่งปันข้อมูลอันมีค่าในการผลิตเพื่อพิสูจน์สิ่งนี้ เราค้นพบการโจมตีแบบสลับใบหน้าที่เพิ่มขึ้นถึง 704% ในปี 2023 ในรายงานข่าวกรองภัยคุกคามล่าสุดของเรา
นักวิเคราะห์ของเรายังคงติดตามเครื่องมือและที่เก็บการสลับใบหน้าที่แตกต่างกันกว่า 110 รายการ เช่น SwapFace, DeepFaceLive และ Swapstream ในขณะที่มีการพัฒนาอย่างรวดเร็ว
ในที่สุดผู้ไม่หวังดีสามารถสร้าง Deepfake ที่สมจริงมากขึ้นในเวลาน้อยกว่าที่เคยเป็นมา ความเสี่ยงที่เกิดจาก Deepfake มีความสําคัญ เนื่องจากสามารถบ่อนทําลายความไว้วางใจในสื่อดิจิทัลและอํานวยความสะดวกในการขโมยข้อมูลประจําตัวและอาชญากรรมทางไซเบอร์อื่นๆ
เหตุใดการเพิ่มขึ้นของ Generative AI, สื่อสังเคราะห์ และการแลกเปลี่ยนใบหน้าจึงเป็นปัญหา
Deepfakes และสื่อสังเคราะห์อื่นๆ เป็นภัยคุกคามที่สําคัญต่อวิธีการตรวจสอบระยะไกลทั้งหมด รวมถึงผลิตภัณฑ์การประชุมทางวิดีโอ ผู้ไม่หวังดีอาจ:
- นําเสนอวิดีโอ Deepfake บนอุปกรณ์ดิจิทัลเพื่อหลีกเลี่ยงการตรวจสอบความมีชีวิตชีวาขั้นพื้นฐาน
- ฉีดวิดีโอหรือรูปภาพ Deepfake แบบดิจิทัล ลงในกระบวนการออนบอร์ด/การรับรองความถูกต้องจากระยะไกล
- ใช้สื่อสังเคราะห์ ร่วมกับเอกสารระบุตัวตนปลอมเพื่อแอบอ้างเป็นบุคคลที่ถูกต้องตามกฎหมาย หรือสร้างตัวตนใหม่ที่สมมติขึ้นจากข้อมูลจริงและปลอมด้วยเอกสารที่ดูเหมือนถูกต้องตามกฎหมาย
สิ่งนี้สามารถอนุญาตให้ผู้ไม่หวังดีข้ามมาตรการรักษาความปลอดภัยการเริ่มต้นใช้งานและการตรวจสอบสิทธิ์ของคุณ และเข้าถึงระบบหรือบัญชีที่ละเอียดอ่อนโดยไม่ได้รับอนุญาต สิ่งนี้สามารถนําไปสู่การโจรกรรมข้อมูลประจําตัวการฉ้อโกงทางการเงินการบุกรุกระบบและความสูญเสียที่ทําให้หมดอํานาจสําหรับองค์กรที่ได้รับผลกระทบ
Deepfakes กลายเป็นอันตรายอย่างยิ่งเมื่อนําไปใช้ในการโจมตีแบบฉีดแบบดิจิทัล เนื่องจากสามารถปรับขนาดได้อย่างรวดเร็วเพื่อสร้างความเสียหายอย่างมาก การโจมตีแบบฉีดดิจิทัลเป็นการโจมตีทางไซเบอร์ที่ซับซ้อนปรับขนาดได้สูงและทําซ้ําได้ซึ่งถูกฉีดเข้าไปในสตรีมข้อมูลหรือข้ามกล้องของอุปกรณ์ทั้งหมด ในที่สุดการโจมตีเหล่านี้และการใช้ Deepfakes กําลังพุ่งสูงขึ้น:
- iProov ได้เห็นการโจมตีแบบฉีดดิจิทัลเพิ่มขึ้น 255% ต่อแพลตฟอร์มเว็บบนมือถือตั้งแต่ครึ่งปีแรกถึงครึ่งหลังของปี 2023
- iProov บันทึกผู้คุกคามเพิ่มขึ้น 353% โดยใช้อีมูเลเตอร์ ซึ่งเป็นรูปแบบหนึ่งของการโจมตีแบบฉีดวิดีโอ ตั้งแต่ครึ่งปีแรกถึงครึ่งหลังของปี 2023
การหลอกลวง Deepfake มีความซับซ้อนและผลที่ตามมามากขึ้นเรื่อยๆ ดังที่เห็นได้จากเหตุการณ์ล่าสุดที่ผู้เชี่ยวชาญด้านการเงินใน ฮ่องกงถูกหลอกโดยแฮงเอาท์วิดีโอ Deepfake ที่หลอกลวงให้โอนเงินจํานวน 25 ล้านดอลลาร์
องค์กรทุกขนาดต้องใช้มาตรการยืนยันตัวตนที่แข็งแกร่งอย่างเร่งด่วน – อันตรายทางการเงินนั้นมีอยู่จริงเกินไป:
- องค์กร ต่างๆ ใช้ค่าใช้จ่ายในการดําเนินงานระหว่าง 5 ล้านดอลลาร์ถึง 25 ล้านดอลลาร์ ในการสืบสวน ต่อสู้ หรือแก้ไขอาชญากรรมทางการเงินในปี 2023 และหลายคนคาดว่าสิ่งนี้จะเพิ่มขึ้นอีก
- สถิติล่าสุดเปิดเผยว่า 26% ขององค์กรขนาดเล็กและ 38% ขององค์กรขนาดใหญ่ประสบกับการฉ้อโกง Deepfake ในปีที่ผ่านมา โดยมีมูลค่าความเสียหายสูงถึง 480,000 ดอลลาร์
- หนึ่งในสามของธุรกิจรายงาน การโจมตี Deepfake แบบวิดีโอและเสียง ณ เดือนเมษายน 2023
iProov ป้องกันภัยคุกคามเหล่านี้อย่างไร
การป้องกันหลายชั้นของ iProov ทําให้ผู้ใช้สดแตกต่างจากวิดีโอ Deepfake ได้อย่างมีประสิทธิภาพในระหว่างการเริ่มต้นใช้งานและการตรวจสอบสิทธิ์ กลไกการตอบสนองต่อความท้าทายแบบพาสซีฟที่เป็นเอกลักษณ์ของเราใช้ประโยชน์จากเทคโนโลยีเครื่องหมายแฟลชที่ได้รับการจดสิทธิบัตรเพื่อให้ใบหน้าของผู้ใช้สว่างขึ้นด้วยลําดับสีแบบสุ่มวิเคราะห์การสะท้อนแสงเพื่อยืนยันความมีชีวิตชีวาและขัดขวางการฉีดดิจิทัลที่ซับซ้อนและการโจมตีแบบ Deepfake
การนําอีมูเลเตอร์กล้องเสมือนและเทคนิคข้อมูลเมตาปลอมแปลงมาใช้ทางอาญาหมายความว่าองค์กรไม่สามารถพึ่งพาข้อมูลอุปกรณ์ได้อีกต่อไปทําให้พื้นที่การโจมตีกว้างขึ้นสําหรับผู้คุกคาม iProov ยังใช้ความสามารถในการตรวจจับการฉีดที่ล้ําสมัยเพื่อต่อสู้กับสิ่งนี้ด้วยความสามารถในการฉีดและการตรวจจับข้อมูลเมตาที่แข็งแกร่ง วิธีการจัดส่งบนคลาวด์ของเรารวมกับการตรวจสอบภัยคุกคามอย่างต่อเนื่องหมายความว่าการอัปเดตความปลอดภัยสามารถใช้งานได้อย่างรวดเร็ว (ตรงข้ามกับโซลูชันในองค์กรหรืออุปกรณ์ ซึ่งส่วนใหญ่เป็นแบบคงที่เนื่องจากล้าสมัยทันทีที่ผู้คุกคามประสบความสําเร็จ)
ความมีชีวิตชีวาแบบหลายเฟรมด้วยการปรับใช้ระบบคลาวด์และศูนย์ปฏิบัติการความปลอดภัย (SOC) โดยเฉพาะมีความสําคัญต่อการตรวจจับและป้องกันภัยคุกคาม AI เชิงกําเนิด เช่น Deepfake อย่างต่อเนื่อง นี่คือความเชี่ยวชาญพิเศษของ iProov: ให้การรับรองข้อมูลประจําตัวที่แข็งแกร่งที่สุดในอุตสาหกรรมเพื่อป้องกันภัยคุกคามสื่อสังเคราะห์ที่แปลกใหม่และมีการพัฒนาซึ่งกําหนดเป้าหมายไปที่กระบวนการระบุตัวตน
เมื่อเผชิญกับภัยคุกคาม Deepfake ที่พัฒนาอย่างรวดเร็ว iProov มอบโซลูชันการประกันข้อมูลประจําตัวที่แข็งแกร่งที่สุดในอุตสาหกรรมเพื่อปกป้องธุรกิจของคุณ เทคโนโลยีที่จดสิทธิบัตรของเรา เช่น Flashmark™ ช่วยให้มั่นใจได้ว่าเฉพาะผู้ใช้ที่ถูกต้องตามกฎหมายเท่านั้นที่สามารถเข้าถึงระบบของคุณในขณะที่มอบประสบการณ์ที่ราบรื่น นั่นเป็นเหตุผลที่เราเป็นพันธมิตรทางเลือกสําหรับการยืนยันตัวตนจากระยะไกลที่ปลอดภัยในหมู่ผู้นําระดับโลก เช่น กระทรวงความมั่นคงแห่งมาตุภูมิของสหรัฐอเมริกา, ING,
เมื่อเร็ว ๆ นี้ iProov ได้กลายเป็น ผู้จําหน่ายไบโอเมตริกซ์รายแรกที่ได้รับการรับรองจาก FIDO Alliance สําหรับการยืนยันตัวตนด้วยใบหน้าไบโอเมตริก ซ์ในกระบวนการที่เข้มงวดซึ่งดําเนินการโดย Ingenium Biometrics การรับรองดังกล่าวเป็นไปตามการทดสอบไม่น้อยกว่า 10,000 ครั้ง และ Dynamic Liveness ของ iProov บรรลุสถิติความสําเร็จที่ไร้ที่ติโดยไม่มีการโจมตีผ่านระบบ ผลลัพธ์เหล่านี้กําหนดเกณฑ์มาตรฐานใหม่สําหรับความแม่นยําและความน่าเชื่อถือ โดยบรรลุอัตราการยอมรับการนําเสนอการโจมตีของผู้แอบอ้าง 0% (IAPAR) และอัตราการปฏิเสธเท็จ (FRR) 0.14%
อย่าปล่อยให้องค์กรของคุณเสี่ยงต่อการสูญเสียทางการเงินที่ทําให้หมดอํานาจและความเสียหายต่อชื่อเสียงจากการฉ้อโกง Deepfake ปกป้องกระบวนการระบุตัวตนของคุณด้วยการป้องกันสื่อสังเคราะห์ที่ทันสมัยของ iProov ซึ่งได้รับความไว้วางใจจากผู้นําระดับโลกทั่วโลก จองการสาธิตของคุณ วันนี้และเรียนรู้ว่า iProov สามารถปกป้องธุรกิจของคุณจากภัยคุกคามเหล่านี้ได้อย่างไร