สั่งยกฟ้อง จับพิรุธ Deepfake ใช้ AI สร้างหลักฐานปลอม

[Deepfake ทั้งชุด] นับเป็นโจทย์ใหญ่ของผู้พิพากษาทั่วโลก ที่หลังจากนี้ต้องเช็คให้ดีว่าชุดพยาน ชุดเอกสาร และหลักฐานต่าง ๆ นั้นเป็นของปลอมที่สร้างจาก AI หรือไม่ แม้จะมีความน่าเชื่อถือแค่ไหนก็ตาม อย่างกรณีล่าสุดที่ศาลสหรัฐฯ ได้สั่งยกฟ้องคดีหนึ่ง หลังพบคำให้การเป็น ‘Deepfake’ ที่มาในรูปแบบวิดีโอพร้อมเสียงเลย

รายงานจาก NBC News เผย Victoria Kolakowski ผู้พิพากษาในรัฐแคลิฟอร์เนีย พบคำให้การของพยานที่น่าสงสัย ซึ่งแสดงความผิดปกติหลาย ๆ อย่าง เช่น น้ำเสียงการพูดที่ฟังดูราบเรียบไร้อารมณ์ กับใบหน้าที่ดูเบลอเกินไป และการแสดงสีหน้าท่าทางที่ซ้ำไปซ้ำมา สุดท้ายก็ตระหนักได้ว่า “คลิปนี้มีลักษณะเฉพาะของ Generative AI”

สำหรับคดีดังกล่าวคือ Mendones v. Cushman & Wakefield, Inc. กลายเป็นหนึ่งในคดีแรก ๆ ที่พบการยื่นหลักฐานต้องสงสัยว่าเป็น Deepfake และถูกศาลตรวจพบในที่สุด จนในเดือนกันยายนที่ผ่านมาทางผู้พิพากษา Kolakowski ก็ได้สั่งยกฟ้องคดีนี้ในที่สุด และปฏิเสธคำขอยื่นพิจารณาใหม่ในช่วงต้นเดือนพฤศจิกายนที่ผ่านมาด้วย

ทางด้านผู้เชี่ยวชาญกฎหมายก็เตือนเลยว่า “เหตุการณ์นี้เน้นย้ำถึงภัยคุกคามในวงกว้าง เมื่อหลักฐานที่สร้างโดย AI กำลังทะลักเข้าสู่ห้องพิจารณาคดีและทำลายความน่าเชื่อถือของระบบตุลาการในรูปแบบที่ไม่เคยเกิดขึ้นมาก่อน”

ทางผู้พิพากษาอีกรายอย่าง Scott Schlegel จากรัฐลุยเซียนา ซึ่งแม้จะเป็นผู้สนับสนุนการนำ AI มาใช้ในศาล ก็ยังเตือนด้วยว่า โจทก์อาจใช้เสียงที่โคลนด้วย AI เพื่อสร้างบันทึกเสียงข่มขู่ ซึ่งอาจส่งผลกระทบต่อการตัดสินคดีได้

ในทำนองเดียวกัน ผู้พิพากษา Erica Yew ก็ชี้เลยว่า เอกสารปลอมสามารถเข้าสู่บันทึกของทางการได้อย่างง่ายดาย ซึ่งท้าทายความไว้วางใจที่มีต่อระบบการยื่นเอกสารสาธารณะแบบดั้งเดิม และแม้จะมีความกังวลที่เพิ่มทวีคูณ แต่ระบบกฎหมายกลับไม่ได้สร้างระบบศูนย์กลางเพื่อติดตามเหตุการณ์เหล่านี้เลย

สำหรับคดีดังกล่าวก็ไม่ใช่ครั้งแรกที่มีการใช้ AI สร้างพยานเท็จ ย้อนกลับไปเดือนกุมภาพันธ์ก็เคยมีข่าวผู้พิพากษาศาลแขวงสหรัฐฯ ประจำเขตทางใต้ของรัฐอินเดียนา ได้สั่งปรับทนายรายหนึ่งถึง 15,000 ดอลลาร์ฯ ฐานยื่นเอกสารประกอบคดีที่สร้างด้วย AI

กรณีการใช้ AI ในทางที่ผิด จะยังคงสะสมเพิ่มขึ้นเรื่อย ๆ ตราบใดที่บริษัทต่าง ๆ รวมถึงสำนักงานกฎหมาย บูรณาการมันเข้ากับการทำงานโดยไม่มีการตรวจสอบที่เหมาะสม

“ความจริงที่เจ็บปวดคือ AI ยุคถัดไป สามารถทำให้หลักฐานปลอมเหล่านี้ดูสมจริงอย่างเหลือเชื่อมากขึ้น จนแม้มีเครื่องมือตรวจสอบเฉพาะก็ยังตามไม่ทัน นั่นหมายความว่าสำนักงานกฎหมายต้องการกระบวนการใหม่โดยด่วน ต้องตรวจสอบเสียงและวิดีโอผ่านช่องทางที่สองเสมอ พร้อมขอไฟล์ต้นฉบับ และมีการยืนยันกับตัวบุคคลจริง ๆ ทุกครั้งที่เป็นไปได้ ยิ่งคุณจับผิดการสวมรอยได้เร็วเท่าไหร่ ลูกความของคุณก็จะปลอดภัยขึ้นเท่านั้น”

Brian Long ซีอีโอของ Adaptive Security กล่าว

ที่มา : Techspot