ตรวจจริงทำจริง Apple เผยเตรียมใช้ AI สแกน ‘รูปโป๊เด็ก’ ในทุกอุปกรณ์

หลังจากมีข่าวลือหนาหูเมื่อวาน ล่าสุดทาง Apple ออกมายืนยันแล้วว่าทำจริง พร้อมประกาศเปิดตัวระบบตรวจสอบเนื้อหาที่เกี่ยวกับการล่วงละเมิดทางเพศเด็ก Child Sexual Abuse Material (CSAM) เตรียมใช้ทั้งใน iPhone , iPad , Mac และ Apple Watch เร็ว ๆ นี้

สำหรับตัวระบบนั้น Apple ยืนยันว่า จะยังคำนึงถึงความเป็นส่วนตัวของผู้ใช้อยู่ โดยจะทำการสแกนภาพจากการอัปโหลดขึ้น iCloud เท่านั้น (ไม่ได้เข้าไปสแกนภาพใน iCloud) ซึ่งระหว่างการอัปโหลด ระบบจะตรวจจับก็ต่อเมื่อพบภาพหรือข้อมูลแฮชที่คิดว่าเข้าข่าย CSAM เท่านั้น

ส่วนนี้ได้รับความร่วมมือจากทาง National Center for Missing and Exploited Children (NCMEC) ในการสร้างฐานข้อมูลร่วมกันนี้เอง หากพบว่ามีภาพเข้าข่ายจนเกินจำนวนที่กำหนด ก็จะมีเจ้าหน้าที่เข้ามาเช็คอีกรอบ และเมื่อพบว่าเข้าข่ายจริง ๆ ก็จะทำการแจ้งเรื่องไปยังหน่วยงานต่อไป

นอกจากระบบตรวจสอบรูปภาพแล้ว Apple ยังมีการเพิ่มฟีเจอร์ตรวจสอบใน Siri และ Search แจ้งเตือนผู้ใช้เมื่อพยายามใช้คำค้นหาที่เกี่ยวข้องหรือเข้าข่าย CSAM ด้วย รวมไปถึงแอปฯ Messages กันให้ไม่เด็กดูหรือส่งภาพ CSAM โดยหากเด็กกดดูหรือส่ง ก็จะมีการแจ้งเตือนไปยังเครื่องของผู้ปกครองนั้นเอง ในส่วนนี้ทาง Apple จะมีอัพเดตเข้ามาทั้งใน iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey ในช่วงปลายปีนี้ครับ

ที่มา : AppleChildSafety , CNN