21 มีนาคม 2569

ตัวแทน AI อัตโนมัติจะกำหนดแนวทางการดำเนินการของตนเองก่อนที่จะเริ่มกระบวนการทำงาน ซึ่งเป็นการเปลี่ยนแปลงวิธีการดำเนินงานขององค์กรและปลดล็อกประสิทธิภาพและความสามารถที่ไม่เคยมีมาก่อน อย่างไรก็ตาม การบรรลุศักยภาพนี้ก็มีความเสี่ยงเช่นกันที่การกระทำอัตโนมัติอาจนำไปสู่ผลกระทบทางกฎหมาย การค้า หรือจริยธรรมโดยที่ไม่มีมนุษย์คนใดต้องรับผิดชอบ เพื่อให้เห็นคุณค่าอย่างเต็มที่ของ AI ตัวแทน เราต้องมั่นใจว่ามนุษย์ที่ได้รับการตรวจสอบแล้วซึ่งมอบอำนาจให้ตัวแทนยังคงมีความเชื่อมโยงอย่างมีความหมายกับการกระทำที่ดำเนินการในนามของตัวแทนเหล่านั้น

ทุกองค์กรที่ใช้งาน AI แบบตัวแทนในปัจจุบัน ไม่ว่าจะรู้ตัวหรือไม่ก็ตาม กำลังสร้างสุญญากาศด้านความรับผิดชอบ พื้นที่ที่การตัดสินใจ การผูกมัด และภาระผูกพันเกิดขึ้นโดยปราศจากการอนุมัติจากมนุษย์โดยเฉพาะ นี่ไม่ใช่ความเสี่ยงเชิงสมมติฐาน แต่เป็นความเสี่ยงทางสถาปัตยกรรม ซึ่งได้รับการเสริมด้วยข้อมูลประจำตัวอัตโนมัติและการมอบหมายที่ระบบระบุตัวตนไม่เคยได้รับการออกแบบมาให้ตรวจสอบ ทำให้คำถามเชิงปรัชญาที่ว่า จุดจบจะ justifies means (เป้าหมายสำคัญกว่าวิธีการ) กลายเป็นความจริงในการปฏิบัติงาน

ปัจจุบัน ระบบ AI อัตโนมัติกำลังดำเนินการเจรจาต่อรองกับซัพพลายเออร์ อนุมัติใบแจ้งหนี้ แก้ไขเงื่อนไขการชำระเงิน และเริ่มต้นเวิร์กโฟลว์ต่างๆ ในระบบขององค์กร โดยใช้ข้อมูลประจำตัวที่ถูกต้องผ่าน API ที่ถูกต้องตามกฎหมาย และปฏิบัติตามโปรโตคอลที่ออกแบบโดยมีข้อสมมติฐานหลักข้อหนึ่งคือ บุคคลที่อยู่ปลายอีกด้านของการทำธุรกรรมนั้นเป็นมนุษย์ 

ความเร่งด่วนนี้ไม่ได้จำกัดอยู่เฉพาะภาคเอกชนเท่านั้น ยุทธศาสตร์ไซเบอร์แห่งชาติของสหรัฐฯ ฉบับล่าสุด ได้ให้คำมั่นอย่างชัดเจนที่จะนำปัญญาประดิษฐ์แบบเอเจนต์มาใช้เพื่อขยายขีดความสามารถในการป้องกันเครือข่ายและปรับปรุงระบบที่สำคัญให้ทันสมัย ​​เมื่อรัฐบาลเร่งการใช้งานปัญญาประดิษฐ์แบบเอเจนต์ในระดับประเทศ โครงสร้างพื้นฐานด้านการกำกับดูแลที่จำเป็นต่อการดำเนินการอย่างปลอดภัยจึงไม่ควรถูกมองข้าม

โครงสร้างพื้นฐานด้านการยืนยันตัวตนแบบดั้งเดิมของเรานั้นตั้งอยู่บนสมมติฐานว่าผู้กระทำการคือมนุษย์ FIDO2 ซึ่งได้รับการยอมรับอย่างถูกต้องในอุตสาหกรรมว่าเป็นมาตรฐานการตรวจสอบสิทธิ์ที่แข็งแกร่งที่สุดที่มีอยู่ ถูกออกแบบมาโดยยึดตามแบบจำลองที่มนุษย์เป็นผู้เริ่มต้น อนุมัติ และดำเนินการขั้นตอนการตรวจสอบสิทธิ์ให้เสร็จสมบูรณ์ ห่วงโซ่ความไว้วางใจทั้งหมดเริ่มต้นและสิ้นสุดด้วยบุคคลจริง รหัสผ่านแบบใช้ครั้งเดียว (OTP) ตั้งอยู่บนสมมติฐานว่าบุคคลกำลังอ่านข้อความ SMS การแจ้งเตือนแบบพุชตั้งอยู่บนสมมติฐานว่าบุคคลกำลังแตะหน้าจอ สิ่งเหล่านี้ไม่ใช่ข้อบกพร่อง แต่เป็นคุณสมบัติที่สร้างขึ้นสำหรับโลกที่เครื่องจักรดำเนินการตามกระบวนการที่กำหนดไว้ล่วงหน้าซึ่งเริ่มต้นโดยมนุษย์ พวกมันตรวจสอบตัวตนและสิทธิ์อนุญาต สิ่งที่พวกมันไม่สามารถตรวจสอบได้คือเจตนา: ว่ามนุษย์ที่มีอำนาจในการตัดสินใจเฉพาะเรื่องนี้ได้เลือกที่จะทำเช่นนั้นจริงหรือไม่

อุตสาหกรรมนี้เผชิญกับความท้าทายเรื่องการระบุตัวตนที่ไม่ใช่มนุษย์มานานหลายปีแล้ว บัญชีบริการและระบบอัตโนมัติทำงานโดยใช้ข้อมูลประจำตัวมานานแล้ว โดยไม่มีการสัมผัสจากมนุษย์ในแบบเรียลไทม์ แต่เอเจนต์ AI นั้นแตกต่างออกไปในเชิงคุณภาพ

กระบวนการอัตโนมัติแบบดั้งเดิมจะดำเนินการตามสคริปต์ที่กำหนดไว้ พฤติกรรมของมันเป็นไปตามที่คาดการณ์ได้และมีขอบเขตจำกัด ในขณะที่เอเจนต์ AI จะมุ่งไปสู่เป้าหมาย มันจะเลือกจากวิธีการที่เป็นไปได้และดำเนินการในสิ่งที่มนุษย์ผู้ใช้งานอาจไม่เคยคาดการณ์ไว้อย่างชัดเจนมาก่อน นี่เป็นการยกระดับความสัมพันธ์ในการมอบหมายงานขึ้นไปอีกขั้น เราไม่ได้มอบหมายงานให้เครื่องจักรอีกต่อไปแล้ว แต่เรากำลังมอบหมายการตัดสินใจ และการมอบหมายการตัดสินใจโดยปราศจากกลไกในการตรวจสอบว่ามนุษย์ที่มีอำนาจที่เหมาะสมได้อนุมัติการใช้ดุลยพินิจนั้นแล้ว ไม่ใช่การปกครอง แต่มันคือการพนัน

ในการทำธุรกรรมแบบดั้งเดิม หากลายเซ็นของ CEO ปรากฏอยู่ในสัญญา องค์กรนั้นจะต้องรับภาระในการพิสูจน์ว่าลายเซ็นนั้นถูกปลอมแปลง แต่การทำธุรกรรมผ่านตัวแทนจะกลับกัน เมื่อตัวแทนกระทำการโดยอาศัยคุณสมบัติที่ถูกต้อง แต่ปราศจากหลักฐานแสดงเจตนาของมนุษย์ องค์กรที่มอบหมายอำนาจสามารถอ้างได้อย่างน่าเชื่อถือว่าตัวแทนได้ปฏิบัติตามภารกิจที่ได้รับมอบหมายแล้ว ผู้มอบหมายอำนาจต้องการความมั่นใจว่าตัวแทนจะไม่ทำให้ตนเองต้องรับผิด และคู่สัญญาต้องการความมั่นใจว่าข้อผูกพันที่ได้รับนั้นไม่สามารถปฏิเสธได้

กฎหมาย AI ของสหภาพยุโรปและแนวทางปฏิบัติทางกฎหมายที่กำลังเกิดขึ้นใหม่กำลังมุ่งไปสู่หลักการร่วมกันประการหนึ่ง นั่นคือ การกำกับดูแลโดยมนุษย์ต่อการกระทำที่มีผลกระทบสำคัญจาก AI ต้องมีความหมาย ไม่ใช่เป็นเพียงพิธีการ เอกสาร แนวคิดของ NIST ในเดือนกุมภาพันธ์ 2026 เกี่ยวกับเอกลักษณ์ของเอเจนต์ได้ระบุประเด็นสำคัญ 6 ด้าน ได้แก่ การระบุตัวตน การตรวจสอบสิทธิ์ การมอบอำนาจการเข้าถึง การอนุญาต การบันทึก และการผูกมัดโดยมีมนุษย์เข้ามาเกี่ยวข้อง เราเชื่อว่าควรให้ความสำคัญกับประเด็นสุดท้าย การมีมนุษย์เข้ามาเกี่ยวข้องหมายความว่ามนุษย์ไม่เพียงแต่กำหนดเป้าหมายเท่านั้น แต่ยังต้องอนุมัติวิธีการใดๆ ที่มีความเสี่ยงหรือคาดไม่ถึงเพื่อให้บรรลุเป้าหมายเหล่านั้นด้วย

การอนุมัติการกระทำของตัวแทนโดยมนุษย์อย่างมีประสิทธิภาพนั้นต้องอาศัยสามสิ่งที่ไม่ค่อยมีให้พร้อมกันในระบบองค์กรปัจจุบัน ได้แก่ บุคคลที่เหมาะสม ซึ่งบทบาทในองค์กรทำให้พวกเขามีอำนาจในการตัดสินใจประเภทนี้ ข้อมูลที่ครบถ้วนและบริบทที่เพียงพอต่อการตัดสินใจอย่างแท้จริง ไม่ใช่การอนุมัติด้วยการคลิกเพียงครั้งเดียวซึ่งเป็นเพียงภาพลวงตาของการกำกับดูแล และบันทึกที่สามารถระบุแหล่งที่มาได้ มีการประทับเวลา และเชื่อมโยงกับตัวตนของบุคคลที่ได้รับการยืนยันแล้ว ข้อกำหนดเหล่านี้เป็นองค์ประกอบพื้นฐานของวิธีการตัดสินใจที่มีผลกระทบในองค์กรที่มีการกำกับดูแลที่ดีมาโดยตลอด

นี่คือความสมดุลระหว่างความท้าทายสองประการที่ขัดแย้งกัน ในด้านหนึ่ง เราจำเป็นต้องลดช่องว่างระหว่างเจตนาและการตัดสินใจที่นำไปปฏิบัติเพื่อให้เจตนานั้นเป็นจริง ในอีกด้านหนึ่ง เราต้องหลีกเลี่ยงความเหนื่อยล้าจากการขออนุมัติ และสร้างพื้นที่ให้การตัดสินใจนี้เป็นไปอย่างรอบคอบ ใส่ใจ และมีความรับผิดชอบ ซึ่งมีเพียงมนุษย์เท่านั้นที่สามารถทำได้

องค์กรที่จะได้รับประโยชน์สูงสุดจาก AI ที่ทำงานเสมือนเป็นเอเจนต์นั้น ไม่ใช่องค์กรที่มีเอเจนต์ที่มีความสามารถมากที่สุด แต่เป็นองค์กรที่สร้างโครงสร้างพื้นฐานด้านการกำกับดูแลเพื่อใช้งานเอเจนต์ในวงกว้าง โดยรู้ว่าใครอนุมัติอะไร เมื่อไหร่ และเพราะเหตุใด 

โดยสัญชาตญาณแล้ว องค์กรหลายแห่งมักจะแก้ปัญหาความท้าทายด้านการกำกับดูแลโดยการใส่หลักจริยธรรมเข้าไปในกรอบงาน AI ที่ทำหน้าที่เสมือนตัวแทน แต่จริยธรรมที่ใส่ไว้ในแบบจำลองนั้นเป็นเพียงนโยบาย จริยธรรมที่แสดงออกโดยบุคคลคือความรับผิดชอบ คุณธรรมของมนุษย์ควรได้รับการตัดสินจากพฤติกรรมที่แท้จริงภายใต้สภาพแวดล้อมจริง ไม่ใช่จากการปฏิบัติตามระบบที่ใครบางคนกำหนดค่าไว้ก่อนแล้ว เป้าหมายของการกำกับดูแลไม่ใช่การกำจัดดุลพินิจของมนุษย์ แต่เป็นการทำให้แน่ใจว่ามีมนุษย์คนหนึ่งได้ตัดสินใจไปแล้ว เรารู้ว่าใครเป็นคนตัดสินใจ และพวกเขาสามารถรับผิดชอบต่อการตัดสินใจนั้นได้

 ในงานประชุม RSA ที่ซานฟรานซิสโกสัปดาห์หน้า (วันอังคารที่ 24 มีนาคม 2026) โยฮัน เซลล์สตรอม เพื่อนร่วมงานของผมจาก iProov จะสาธิตวิธีการบรรลุเป้าหมายเหล่านี้ การสาธิตและการนำเสนอของเขาจะเน้นถึงงานนวัตกรรมบางส่วนที่ทีมได้ดำเนินการเพื่อเชื่อมโยงการกระทำของเอเจนต์ AI เข้ากับอำนาจของมนุษย์  

นอกจากนี้ เราเพิ่งเผยแพร่ผลสำรวจวิจัยผู้บริโภคเรื่อง “วิกฤตความเชื่อมั่นครั้งใหญ่ ที่เกิดจากเทคโนโลยี Deepfake” หากเราไม่ดำเนินการในเรื่องนี้ ผมคาดการณ์ว่า ในฝั่งองค์กร จะเกิด “วิกฤตความเชื่อมั่นครั้งใหญ่ ที่เกิดจาก AI ของเราเอง”

แอนดรูว์ บัด, CBE FREng FIET, เป็นผู้ก่อตั้งและซีอีโอของ iProov เขาใช้เวลาสามทศวรรษในการทำงานที่จุดตัดระหว่างการระบุตัวตน ความปลอดภัย และเทคโนโลยีเกิดใหม่