กิจกรรม, เหตุการณ์
การรักษาความปลอดภัยของบุคลากรในทุกขั้นตอน ตั้งแต่การเริ่มต้นใช้งาน การเข้าถึง และการกู้คืนข้อมูล
ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) ทำให้การปลอมแปลงตัวตนเป็นไปได้ในวงกว้าง น่าเชื่อถือ และมีประสิทธิภาพอย่างอันตราย ซึ่งเผยให้เห็นข้อบกพร่องที่สำคัญ: การตรวจสอบข้อมูลประจำตัวไม่ได้หมายความว่าเป็นการตรวจสอบโดยมนุษย์อีกต่อไป ตั้งแต่การสนทนาทางวิดีโอปลอม (deepfake) ไปจนถึงกระบวนการกู้คืนข้อมูลที่ถูกใช้ประโยชน์ ผู้โจมตีสามารถหลีกเลี่ยงการป้องกันแบบดั้งเดิมได้ ทำให้องค์กรต่างๆ ต้องคิดใหม่เกี่ยวกับการยืนยันตัวตนโดยยึดมนุษย์เป็นศูนย์กลาง
เพื่อรับมือกับการเปลี่ยนแปลงนี้ องค์กรต่างๆ ต้องก้าวข้ามการควบคุมตัวตนแบบดั้งเดิม เช่น MFA และกรอบการทำงาน Zero Trust โดยการบูรณาการการรับรองตัวตนที่เน้นมนุษย์เป็นศูนย์กลาง การใช้การตรวจสอบด้วยไบโอเมตริก และการรักษาความปลอดภัยเวิร์กโฟลว์ที่มีความเสี่ยงสูง เช่น การลงทะเบียนผู้ใช้ใหม่และการกู้คืนบัญชี องค์กรต่างๆ จะสามารถตรวจจับการปลอมแปลงตัวตนที่ขับเคลื่อนด้วย AI ได้ดียิ่งขึ้น และเสริมสร้างความไว้วางใจในการปฏิสัมพันธ์ทางดิจิทัล
- มาดูกันว่าเหตุใดการปลอมแปลงตัวตนด้วย AI จึงกำลังทำลายเครื่องมือยืนยันตัวตนที่คุณไว้วางใจ
- ดูว่าเทคโนโลยี deepfake ในปัจจุบันใช้ประโยชน์จากทุกขั้นตอนของการเข้าถึงบุคลากรได้อย่างไร
- รับคำแนะนำจากผู้เชี่ยวชาญด้าน IAM และระบบรักษาความปลอดภัยไบโอเมตริกชั้นนำ
- เรียนรู้วิธีพิสูจน์ว่าบุคคลนั้นเป็นมนุษย์จริงได้ทันที แม้กระทั่งเมื่อเทียบกับตัวปลอมที่เนียนสนิท
- เรียนรู้ขั้นตอนที่ชัดเจนในการรักษาความปลอดภัยเวิร์กโฟลว์ด้านการระบุตัวตนที่มีความเสี่ยงสูงที่สุดของคุณ
30 เมษายน 2569
16:00 น. CEST, 10:00 น. EDT, 7:00 น. PDT
ลงทะเบียนวันนี้โดยคลิก ที่นี่
