22 กันยายน 2023
รัฐบาล ผู้กําหนดนโยบาย และหน่วยงานกํากับดูแลทั่วโลกกําลังหันมาสนใจเรื่องของปัญญาประดิษฐ์เชิงกําเนิด (AI) เทคโนโลยีนี้ช่วยลดอุปสรรคทางเทคโนโลยีในการสร้างรูปภาพ วิดีโอ และเสียงปลอมที่สมจริงอย่างมาก
เมื่อ Generative AI พัฒนาขึ้น จะทําให้การแยกแยะระหว่างเนื้อหาจริงและเนื้อหาที่มีการจัดการมีความท้าทายมากขึ้นเรื่อยๆ ซึ่งนําไปสู่ข้อมูลที่ผิด โฆษณาชวนเชื่อ และการหลอกลวงในวงกว้าง สิ่งนี้คุกคามที่จะกัดกร่อนความไว้วางใจและเบลอเส้นแบ่งระหว่างความเป็นจริงและนิยายในที่สุดก็ท้าทายการทํางานของภาคประชาสังคมที่มีประสิทธิภาพ
ในบทความนี้ เราจะพูดถึงหัวข้อของ Generative AI ควบคู่ไปกับเครื่องมือ วิธีการ และเทคโนโลยีที่มีให้เพื่อต่อสู้กับภัยคุกคามที่เพิ่มขึ้น
เหตุใด Generative AI จึงเป็นภัยคุกคามที่เพิ่มขึ้น
AI ไม่เป็นอันตรายภายใน – มีแอปพลิเคชันที่เป็นประโยชน์และเป็นบวกมากมาย อย่างไรก็ตาม มีหลายปัจจัยที่นําไปสู่ความกังวลที่เพิ่มขึ้นเกี่ยวกับความสามารถมากมายเพื่อจุดประสงค์ที่ชั่วร้าย:
- ปริมาณการโจมตีความปลอดภัยทางไซเบอร์ที่ขับเคลื่อนด้วยเทคโนโลยี AI เพิ่มขึ้นในอัตราที่น่าตกใจ: ตัวอย่างเช่น iProov เปิดเผยว่า การโจมตีด้วยการแลกเปลี่ยนใบหน้า มีความถี่เพิ่มขึ้น: รายงาน ข่าวกรองภัยคุกคามไบโอเมตริกซ์ ของเราเน้นย้ําว่าการแลกเปลี่ยนใบหน้าเพิ่มขึ้น 295% จากครึ่งปีแรกเป็นครึ่งหลังของปี 2022
- อาชญากรรมไซเบอร์ที่ขับเคลื่อนด้วย AI สามารถเข้าถึงได้และปรับขนาดได้มากขึ้น: อาชญากรที่มีทักษะต่ํากําลังเข้าถึงทรัพยากรที่จําเป็นในการเปิดการโจมตีที่ซับซ้อนด้วยต้นทุนที่ต่ําหรือแม้แต่ฟรีทางออนไลน์ สิ่งนี้ทําให้ผู้ไม่หวังดีสามารถตั้งหลักในระบบข้อมูลและความปลอดภัยทางไซเบอร์ขององค์กรได้ง่ายขึ้น ในทํานองเดียวกันการเข้าถึงเทคโนโลยีนี้สามารถทําให้ผู้ฉ้อโกงโน้มน้าวบุคคลที่พวกเขากําลังโต้ตอบกับบุคคลที่แท้จริงได้ง่ายขึ้นทําให้เกิดอาชญากรรมทางไซเบอร์และการฉ้อโกง
- ความซับซ้อนของ Generative AI กําลังพัฒนาอย่างรวดเร็ว และ ผู้คนไม่สามารถสังเกตเห็น Deepfake ได้อีกต่อไป: สื่อสังเคราะห์มาถึงขั้นตอนที่ฉันสามารถแยกแยะระหว่างสิ่งที่ปลอมและสิ่งจริงด้วยตามนุษย์ – ดังนั้นการตรวจสอบด้วยตนเองจึงไม่ใช่วิธีแก้ปัญหาที่ได้ผล ในทํานองเดียวกันแนวทางที่วางภาระความรับผิดชอบให้กับผู้คนในการระบุสื่อสังเคราะห์จะมีผลกระทบในวงจํากัดเท่านั้น
- การเติบโตของ Crime-as-a-Service: Generative AI กําลังเพิ่มขีดความสามารถให้กับผู้ไม่หวังดี และความพร้อมใช้งานของเครื่องมือออนไลน์กําลังเร่งวิวัฒนาการของภูมิทัศน์ภัยคุกคาม สิ่งนี้ทําให้อาชญากรสามารถเปิดการโจมตีขั้นสูงได้เร็วขึ้นและในระดับที่ใหญ่ขึ้น หากการโจมตีประสบความสําเร็จ การโจมตีจะเพิ่มปริมาณและความถี่อย่างรวดเร็วเนื่องจากมีการแบ่งปันระหว่าง เครือข่ายอาชญากรรมในฐานะบริการ ที่จัดตั้งขึ้นหรือบนเว็บมืด ซึ่งจะเพิ่มความเสี่ยงต่อความเสียหายร้ายแรง
- การรับรู้และการบิดเบือนข้อมูลของสาธารณชน: Generative AI ไม่เพียงแต่คุกคามแต่ละองค์กรหรือรัฐบาล แต่ยังรวมถึงระบบนิเวศข้อมูลและเศรษฐกิจด้วย สิ่งนี้มีผลกระทบในโลกแห่งความเป็นจริงอยู่แล้ว เช่น เมื่อเร็ว ๆ นี้ ภาพการระเบิดที่ เพนตากอนที่สร้างโดย AI ทําให้ตลาดหุ้นตกต่ําลงชั่วครู่
ผลกระทบของ Generative AI ต่อสังคมนั้นไม่มีที่สิ้นสุด: การฉ้อโกงผลประโยชน์ของภาครัฐ, การฉ้อโกงบัญชีใหม่, ข้อมูลประจําตัวสังเคราะห์, การฉ้อโกง, การฉ้อโกงการลงคะแนนเสียง, การบิดเบือนข้อมูล, บอทโซเชียลมีเดียที่หลอกลวง, robocalls และอื่นๆ
อันตรายจากการรวม AI ประเภทต่างๆ เข้าด้วยกัน เช่น ภาพ เสียง และข้อความ ก่อให้เกิดภัยคุกคามที่เสริมฤทธิ์กันของเทคโนโลยีที่พัฒนาอย่างรวดเร็วซึ่งสามารถใช้ร่วมกับผลกระทบมหาศาลได้ คุณสามารถเรียนรู้เกี่ยวกับความเสี่ยงที่สําคัญและ เร่งด่วนของการปลอมแปลงเสียงโดยเฉพาะได้ที่นี่
แนวโน้มที่น่าเป็นห่วงของ Generative AI ได้รับความสนใจจากรัฐบาลและผู้กําหนดนโยบายทั่วโลก
ลองพิจารณาตัวอย่างบางส่วน:
- แถลงการณ์ของสภาการค้าและเทคโนโลยีร่วมระหว่างสหรัฐฯ และสหภาพยุโรปในเดือนพฤษภาคม พ.ศ. 2023 เน้นหนักไปที่ผลกระทบของ AI โดยอ้างถึง "การพัฒนาทางเทคโนโลยีอย่างรวดเร็ว" และความมุ่งมั่นร่วมกันในการกระชับความร่วมมือในประเด็นปัญญาประดิษฐ์ให้ลึกซึ้งยิ่งขึ้น โดยสัญญาว่าจะจํากัด "ความท้าทายที่พวกเขาก่อให้เกิดสิทธิมนุษยชนสากลและค่านิยมประชาธิปไตยร่วมกัน"
- กฎระเบียบ AI ตามความเสี่ยงของสหภาพยุโรปจําแนกระบบ AI ตามระดับความเสี่ยง ในที่สุดก็ห้ามระบบที่มีความเสี่ยงสูง
- คณะทํางาน PCAST เกี่ยวกับ Generative AI: สภาที่ปรึกษาด้านวิทยาศาสตร์และเทคโนโลยีของประธานาธิบดีสหรัฐฯ (PCAST) ได้จัดตั้งคณะทํางาน โดยมุ่งเน้นที่การสร้างความมั่นใจว่าเทคโนโลยี AI ได้รับการพัฒนาและใช้งานในลักษณะที่เป็นประโยชน์ต่อสังคมโดยรวม
- รัฐบาลออสเตรเลียได้เริ่มการอภิปรายด้วย เอกสารอภิปรายที่สนับสนุน AI ที่มีความรับผิดชอบ
- ประเทศในเอเชียแปซิฟิกกําลังผลักดันให้ควบคุมการใช้ AI ที่เป็นที่ถกเถียงกัน
- สหราชอาณาจักรได้เผยแพร่เอกสารไวท์เปเปอร์ AI ของสหราชอาณาจักรเกี่ยวกับแนวทาง Pro-Innovation สําหรับกฎระเบียบ AI
- บราซิลได้เผยแพร่ร่างกฎหมาย AI และเปรูได้เผยแพร่กฎหมาย AI
ในที่สุดตอนนี้มีการแข่งขันทางอาวุธระหว่างการใช้ AI กําเนิดที่ทําลายล้างและเครื่องมือที่เราต้องป้องกันพวกเขา ผลลัพธ์ที่อาจเกิดขึ้นคือวิกฤตอัตลักษณ์ในยุคดิจิทัลที่ประชาชนไม่สามารถไว้วางใจสื่อหรือเจ้าหน้าที่ของรัฐได้
การตอบสนองของ iProov ต่อการป้องกันภัยคุกคาม AI กําเนิด
มันจะกลายเป็นเรื่องยากขึ้นเรื่อย ๆ สําหรับรัฐบาลธุรกิจนักข่าวและประชาชนทั่วไปในการต่อสู้กับหรือตรวจจับการฉ้อโกงการบิดเบือนข้อมูลและอาชญากรรมไซเบอร์ สิ่งนี้มีความเกี่ยวข้องอย่างยิ่งเมื่อเราเข้าใกล้การเลือกตั้งทางการเมืองที่สําคัญหลายแห่งทั่วโลก
ดังนั้นรัฐบาลและผู้กําหนดนโยบายสามารถทําอะไรได้บ้าง? มีกฎระเบียบและเทคโนโลยีอะไรบ้าง? โดยสรุป:
- การยืนยันตัวตนด้วยไบโอเมตริกซ์ด้วยใบหน้าพร้อมความมีชีวิตชีวาและการตรวจสอบภัยคุกคามที่ใช้งานอยู่เป็นสิ่งสําคัญ: ในยุคที่เทคโนโลยีดั้งเดิมและสายตามนุษย์ไม่สามารถตรวจสอบความถูกต้องของบุคคลจากระยะไกลได้อีกต่อไปจําเป็นต้องมีการยืนยันตัวตนด้วยไบโอเมตริกซ์เพื่อให้มั่นใจว่าบุคคลนั้นเป็นเจ้าของตัวตนเนื้อหาและตําแหน่งที่แท้จริง โซลูชันที่มีประสิทธิภาพสูงสุดรวมเอาเทคโนโลยีความมีชีวิตชีวาที่สําคัญต่อภารกิจเข้ากับ การจัดการภัยคุกคามแบบไบโอเมตริกซ์และแอคทีฟเพียงครั้งเดียว ซึ่งสามารถระบุได้ว่าภาพที่นําเสนอเป็นบุคคลจริงหรือไม่ และบุคคลนั้นมีอยู่จริงในขณะที่กําลังบันทึกข้อมูล
- การเริ่มต้นใช้งานระยะไกลและการรับรองความถูกต้องควรได้รับการรักษาความปลอดภัยเพิ่มเติม: การตรวจสอบใบหน้าด้วยไบโอเมตริกซ์ได้กลายเป็นวิธีที่ปลอดภัยและสะดวกที่สุดในการยืนยันตัวตนทางออนไลน์ เนื่องจาก วิธีการแบบเดิม เช่น รหัสผ่าน และ รหัสแบบใช้ครั้งเดียว ล้มเหลว อย่างไรก็ตาม เมื่อเผชิญหน้ากับ Generative AI สิ่งสําคัญคือต้องมีการประเมินความสามารถในการมีชีวิตชีวาอย่างละเอียดถี่ถ้วน ความดีไม่ดีพอ ความปลอดภัยต้องเป็นสิ่งสําคัญยิ่งสําหรับองค์กร
- กฎระเบียบต้องกําหนดรั้วสําหรับคนส่วนใหญ่ทางศีลธรรม: สิ่งสําคัญคือต้องกําหนดกรอบกฎหมายเพื่อจัดการกับผลกระทบทางจริยธรรมและสังคมของ AI กําเนิดและสื่อสังเคราะห์ สิ่งนี้ช่วยให้หน่วยงานบังคับใช้กฎหมายสามารถกําหนดเป้าหมายผู้ไม่หวังดีด้วยคําสั่งที่ชัดเจนในขณะที่ให้ผู้ขับขี่เชิงพาณิชย์เพื่อจัดการกับสิ่งจูงใจของแพลตฟอร์ม iProov ได้ส่งคําตอบ PCAST ในหัวข้อนี้ไปยังรัฐบาลและผู้กําหนดนโยบายต่างๆ ทั่วโลก
แนวทางของรัฐบาลและผู้กําหนดนโยบายต่อ AI: บทสรุป
ท้ายที่สุดแล้ว Generative AI ก่อให้เกิดความเสี่ยงอย่างมากต่อสังคม จําเป็นต้องมีนโยบายและกฎระเบียบที่ชัดเจนอย่างเร่งด่วนเพื่อกําหนดแนวป้องกัน สอดคล้องกับคนส่วนใหญ่ทางศีลธรรม และเป็นแนวทางในการตอบสนองขององค์กร
เทคโนโลยีไบโอเมตริกซ์และการยืนยันตัวตนเป็นเส้นชีวิตที่สําคัญสําหรับรัฐบาลและองค์กรอื่นๆ ที่ต้องการสร้างความมั่นใจให้กับผู้คนว่าพวกเขาเป็นใครในยุคของภาพและข้อมูลสังเคราะห์และปลอมแปลง
แต่ไม่ใช่แค่เทคโนโลยีการตรวจสอบใด ๆ ที่จะทํา เมื่อ Generative AI ก้าวหน้า การป้องกันจะต้องก้าวให้ทัน: โซลูชันที่สําคัญต่อภารกิจที่มีการพัฒนาอย่างต่อเนื่องเป็นสิ่งจําเป็น
iProov ได้เปิดตัว รายงาน "วิกฤตข้อมูลประจําตัวในยุคดิจิทัล: การใช้ไบโอเมตริกซ์ตามหลักวิทยาศาสตร์เพื่อต่อสู้กับ AI กําเนิด" ภายในเราตรวจสอบด้านอาชญากรรมของ Generative AI หารือเกี่ยวกับ "การขาดดุลความไว้วางใจ" ที่คุกคามที่จะบ่อนทําลายความสามารถของประเทศในการบรรลุเป้าหมายการพัฒนาที่ยั่งยืนและให้คําแนะนําเกี่ยวกับเทคโนโลยีและกระบวนการที่จําเป็นในการต่อสู้กับภัยคุกคามนี้