วันที่ 12 กุมภาพันธ์ 2568
ผู้บริโภคส่วนใหญ่ไม่สามารถระบุของปลอมที่สร้างโดย AI ได้
ทำการทดสอบการตรวจจับ Deepfake
งานวิจัยใหม่จาก iProov ผู้ให้บริการโซลูชันด้านการยืนยันตัวตนด้วยข้อมูลชีวภาพชั้นนำของโลก เปิดเผยว่าคนส่วนใหญ่ไม่สามารถระบุตัวตนของ Deepfake ได้ ซึ่งเป็นวิดีโอและรูปภาพที่สร้างโดย AI ที่ดูเหมือนจริงอย่างเหลือเชื่อ โดยมักออกแบบมาเพื่อปลอมตัวเป็นบุคคล การศึกษาดังกล่าวได้ทดสอบผู้บริโภคในสหราชอาณาจักรและสหรัฐอเมริกาจำนวน 2,000 คน โดยให้พวกเขาเห็นเนื้อหาจริงและ Deepfake ผลการศึกษานี้น่าตกใจมาก เนื่องจากผู้เข้าร่วมเพียง 0.1% เท่านั้นที่สามารถแยกแยะเนื้อหาจริงจากเนื้อหาปลอมได้อย่างแม่นยำจากสิ่งเร้าทั้งหมด ซึ่งรวมถึงรูปภาพและวิดีโอ
การค้นพบที่สําคัญ:
- การตรวจจับ Deepfake ล้มเหลว: มีเพียง 0.1% ของผู้ตอบแบบสอบถามเท่านั้นที่ระบุ Deepfake และสิ่งเร้าจริงได้อย่างถูกต้องทั้งหมด (เช่น รูปภาพและวิดีโอ) ในการศึกษาที่ผู้เข้าร่วมถูกเตรียมให้มองหา Deepfake ในสถานการณ์จริงที่ผู้คนไม่ค่อยตระหนักรู้ ความเสี่ยงต่อ Deepfake อาจสูงกว่านี้ด้วยซ้ำ
- คนรุ่นเก่ามีความเสี่ยงต่อการถูกหลอกลวงผ่าน Deepfakes มากกว่า: การศึกษาวิจัยพบว่าคนวัย 55-64 ปีร้อยละ 30 และคนวัย 65 ปีขึ้นไปร้อยละ 39 ไม่เคยได้ยินเรื่อง Deepfakes เลย ซึ่งแสดงให้เห็นถึงช่องว่างความรู้ที่สำคัญ และกลุ่มอายุนี้มีแนวโน้มเสี่ยงต่อการถูกหลอกลวงผ่าน Deepfakes มากขึ้น
- ความท้าทายด้านวิดีโอ: วิดีโอ Deepfake พิสูจน์แล้วว่าระบุได้ยากกว่าภาพ Deepfake โดยผู้เข้าร่วมมีโอกาสระบุวิดีโอสังเคราะห์ได้ถูกต้องน้อยกว่าภาพสังเคราะห์ถึง 36% ช่องโหว่นี้ทำให้เกิดข้อกังวลอย่างจริงจังเกี่ยวกับศักยภาพในการฉ้อโกงที่ใช้วิดีโอ เช่น การแอบอ้างตัวในการโทรวิดีโอหรือในสถานการณ์ที่ใช้การยืนยันด้วยวิดีโอเพื่อยืนยันตัวตน
- Deepfakes มีอยู่ทุกที่แต่ไม่มีใครเข้าใจ: ในขณะที่ความกังวลเกี่ยวกับ Deepfakes กำลังเพิ่มขึ้น หลายคนยังคงไม่ทราบเกี่ยวกับเทคโนโลยีนี้ ผู้บริโภค 1 ใน 5 คน (22%) ไม่เคยได้ยินเกี่ยวกับ Deepfakes มาก่อนการศึกษา
- ความมั่นใจเกินเหตุแพร่หลาย: แม้ว่าพวกเขาจะทำผลงานได้ไม่ดี แต่ผู้คนยังคงมีความมั่นใจเกินเหตุในทักษะการตรวจจับดีพเฟกของตนเองที่มากกว่า 60% โดยไม่คำนึงว่าคำตอบของพวกเขาถูกต้องหรือไม่ โดยเฉพาะอย่างยิ่งในกลุ่มผู้ใหญ่ตอนต้น (อายุ 18-34 ปี) ความรู้สึกปลอดภัยที่เป็นเท็จนี้ถือเป็นปัญหาสำคัญ
- ความไว้วางใจได้รับผลกระทบ: แพลตฟอร์มโซเชียลมีเดียถูกมองว่าเป็นแหล่งเพาะพันธุ์ของดีปเฟก โดย Meta (49%) และ TikTok (47%) ถือเป็นแหล่งที่พบดีปเฟกมากที่สุดบนอินเทอร์เน็ต ส่งผลให้ความไว้วางใจในข้อมูลและสื่อออนไลน์ลดลง โดย 49% เชื่อถือโซเชียลมีเดียน้อยลงหลังจากทราบเรื่องดีปเฟก มีเพียง 1 ใน 5 เท่านั้นที่รายงานเรื่องดีปเฟกที่สงสัยว่าเป็นต่อแพลตฟอร์มโซเชียลมีเดีย
- Deepfakes ก่อให้เกิดความกังวลและความไม่ไว้วางใจอย่างกว้างขวาง โดยเฉพาะในกลุ่มผู้สูงอายุ โดย ผู้คนสามในสี่คน (74%) กังวลเกี่ยวกับผลกระทบต่อสังคมจาก Deepfakes โดย “ข่าวปลอม” และข้อมูลที่ผิดพลาดเป็นความกังวลสูงสุด (68%) ความกลัวนี้เด่นชัดเป็นพิเศษในกลุ่มผู้สูงอายุ โดยผู้ที่มีอายุ 55 ปีขึ้นไปถึง 82% แสดงความวิตกกังวลเกี่ยวกับการแพร่กระจายข้อมูลเท็จ
- จำเป็นต้องมีกลไกการรับรู้และการรายงานที่ดีขึ้น: ผู้คนไม่ถึงหนึ่งในสาม (29%) ไม่ดำเนินการใดๆ เมื่อพบกับสิ่งที่ต้องสงสัยว่าเป็น Deepfake ซึ่งส่วนใหญ่มาจากผู้ตอบแบบสอบถาม 48% ที่บอกว่าไม่ทราบวิธีรายงาน Deepfake ในขณะที่ผู้ตอบแบบสอบถามหนึ่งในสี่ไม่สนใจว่าตนเห็นสิ่งที่ต้องสงสัยว่าเป็น Deepfake หรือไม่
- ผู้บริโภคส่วนใหญ่ไม่ตรวจสอบความถูกต้องของข้อมูลออนไลน์อย่างจริงจัง ส่งผลให้มีความเสี่ยงต่อการถูกหลอกลวงมากขึ้น: แม้ว่าภัยคุกคามจากข้อมูลเท็จจะเพิ่มมากขึ้น แต่มีเพียง 1 ใน 4 เท่านั้นที่ค้นหาแหล่งข้อมูลทางเลือกหากสงสัยว่าเป็นข้อมูลปลอม มีเพียง 11% ของผู้คนเท่านั้นที่วิเคราะห์แหล่งที่มาและบริบทของข้อมูลอย่างมีวิจารณญาณเพื่อระบุว่าเป็นข้อมูลปลอมหรือไม่ ซึ่งหมายความว่าคนส่วนใหญ่มีความเสี่ยงสูงต่อการหลอกลวงและการแพร่กระจายของเรื่องราวเท็จ
ศาสตราจารย์เอ็ดการ์ วิทลีย์ ผู้เชี่ยวชาญด้านการระบุตัวตนทางดิจิทัลจาก London School of Economics and Political Science กล่าวเสริมว่า “ผู้เชี่ยวชาญด้านความปลอดภัยได้เตือนเกี่ยวกับภัยคุกคามที่เกิดจาก Deepfake ต่อบุคคลและองค์กรมาเป็นเวลานานแล้ว การศึกษาครั้งนี้แสดงให้เห็นว่าองค์กรต่างๆ ไม่สามารถพึ่งพาการตัดสินใจของมนุษย์ในการตรวจจับ Deepfake ได้อีกต่อไป และจะต้องหาวิธีอื่นในการยืนยันตัวตนของผู้ใช้ระบบและบริการของตน”
Andrew Bud ผู้ก่อตั้งและ CEO ของ iProov กล่าวว่า "มีเพียง 0.1% ของผู้คนเท่านั้นที่สามารถระบุตัวตนของ Deepfake ได้อย่างถูกต้อง ซึ่งแสดงให้เห็นว่าทั้งองค์กรและผู้บริโภคมีความเสี่ยงเพียงใดต่อภัยคุกคามของการฉ้อโกงข้อมูลประจำตัวในยุคของ Deepfake และแม้ว่าผู้คนจะสงสัยว่าเป็น Deepfake แต่ผลการวิจัยของเราก็บอกเราว่าคนส่วนใหญ่ไม่ได้ดำเนินการใดๆ เลย อาชญากรใช้ประโยชน์จากความไม่สามารถแยกแยะภาพของจริงจากของปลอมของผู้บริโภค ทำให้ข้อมูลส่วนบุคคลและความปลอดภัยทางการเงินของเราตกอยู่ในความเสี่ยง บริษัทเทคโนโลยีจึงต้องปกป้องลูกค้าของตนด้วยการใช้มาตรการรักษาความปลอดภัยที่เข้มงวด การใช้ข้อมูลชีวภาพบนใบหน้าร่วมกับการมีอยู่จริงช่วยให้สามารถยืนยันตัวตนได้อย่างน่าเชื่อถือ และให้ความสำคัญกับทั้งความปลอดภัยและการควบคุมของแต่ละบุคคล ทำให้มั่นใจได้ว่าองค์กรและผู้ใช้สามารถก้าวทันและได้รับการปกป้องจากภัยคุกคามที่เปลี่ยนแปลงไปเหล่านี้"
ภัยคุกคามที่เพิ่มขึ้นจาก Deepfakes
Deepfakes เป็นภัยคุกคามที่ร้ายแรงในภูมิทัศน์ดิจิทัลในปัจจุบันและได้พัฒนาไปอย่างน่าตกใจในช่วง 12 เดือนที่ผ่านมา รายงาน Threat Intelligence ประจำปี 2024 ของ iProov เน้นย้ำถึงการเพิ่มขึ้นของการสลับใบหน้า (ประเภทหนึ่งของ Deepfake) ถึง 704% ความสามารถในการปลอมตัวเป็นบุคคลอื่นได้อย่างแนบเนียนทำให้ Deepfakes เป็นเครื่องมือที่มีประสิทธิภาพสำหรับอาชญากรทางไซเบอร์ในการเข้าถึงบัญชีและข้อมูลที่ละเอียดอ่อนโดยไม่ได้รับอนุญาต นอกจากนี้ Deepfakes ยังใช้สร้างตัวตนปลอมเพื่อวัตถุประสงค์ในการฉ้อโกง เช่น การเปิดบัญชีปลอมหรือสมัครสินเชื่อ ซึ่งถือเป็นความท้าทายอย่างมากต่อความสามารถของมนุษย์ในการแยกแยะความจริงจากความเท็จ และส่งผลในวงกว้างต่อความปลอดภัย ความน่าเชื่อถือ และการแพร่กระจายของข้อมูลที่ผิดพลาด
สามารถทำอะไรได้บ้าง?
เมื่อ Deepfake มีความซับซ้อนมากขึ้นเรื่อยๆ มนุษย์เพียงลำพังไม่สามารถแยกแยะระหว่างของจริงกับของปลอมได้อย่างน่าเชื่อถืออีกต่อไป และต้องพึ่งพาเทคโนโลยีในการตรวจจับแทน เพื่อต่อสู้กับภัยคุกคามจาก Deepfake ที่เพิ่มมากขึ้น องค์กรต่างๆ ควรพิจารณาใช้โซลูชันที่ใช้เทคโนโลยีไบโอเมตริกขั้นสูงพร้อมการตรวจจับความมีชีวิต ซึ่งจะช่วยยืนยันว่า บุคคลนั้นเป็นบุคคลที่ถูกต้อง เป็นบุคคลจริง และกำลังตรวจสอบความถูกต้องอยู่ในขณะนี้ โซลูชันเหล่านี้ควรประกอบด้วยการตรวจจับภัยคุกคามอย่างต่อเนื่องและการปรับปรุงมาตรการรักษาความปลอดภัยอย่างต่อเนื่องเพื่อให้ก้าวล้ำหน้าเทคนิค Deepfake ที่พัฒนาขึ้น นอกจากนี้ ยังต้องมีความร่วมมือที่มากขึ้นระหว่างผู้ให้บริการเทคโนโลยี แพลตฟอร์ม และผู้กำหนดนโยบาย เพื่อพัฒนาโซลูชันที่ช่วยลดความเสี่ยงที่เกิดจาก Deepfake
ทำการทดสอบการตรวจจับ Deepfake
คุณคิดว่าคุณจะไม่ถูกหลอกลวงด้วย Deepfake ใช่ไหม? ทดสอบทักษะของคุณดูสิ! iProov ได้สร้างแบบทดสอบออนไลน์ที่ท้าให้คุณแยกแยะระหว่างของจริงและของปลอม ทำแบบทดสอบ แล้วดูว่าคุณจะได้คะแนนเท่าไหร่