[ตัวละคร] คนคุยกับ AI คงไม่ใช่เรื่องแปลกในยุคนี้แล้ว ปัจจุบันก็มีบริการแชทบอทมากมาย โดยหนึ่งในนั้นคือ ‘Character.AI’ ที่เด่นเรื่องแชทบอทสวมบทบาทเสมอมา แต่บทบาทที่ไม่ควรมีอย่าง “หมอ” กลับมี แถมยังอ้างใบอนุญาตปลอมด้วยอีก เป็นเหตุให้โดนฟ้องในที่สุด
ประเทศสหรัฐฯ รัฐเพนซิลเวเนีย ยื่นฟ้องผู้ให้บริการ Character.AI ฐานละเมิดกฎหมายของรัฐ ด้วยการนำเสนอตัวละครแชทบอทที่เป็นจิตแพทย์ และตัว AI ยังอ้างว่ามีใบอนุญาตด้วย แต่ตรวจสอบแล้วพบเป็นใบอนุญาตปลอม
“เราไม่อนุญาตให้บริษัทต่าง ๆ นำเครื่องมือ AI มาใช้ในลักษณะที่ทำให้ผู้คนเข้าใจผิด หรือเชื่อว่าตนกำลังได้รับคำแนะนำจากผู้เชี่ยวชาญทางการแพทย์ที่มีใบอนุญาต” Josh Shapiro ผู้ว่าการรัฐเพนซิลเวเนียกล่าว
ทางด้านสื่อ ArsTechnica ได้ติดต่อไปยังโฆษกของ Character.AI แล้ว พบปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับการฟ้องร้อง แต่ก็กล่าวว่าตัวแชทบอทของบริษัทนั้น เป็นตัวละครสมมติและมีจุดประสงค์เพื่อความบันเทิง
พร้อมกล่าวด้วยว่าทางบริษัท ได้ใช้มาตรการที่รัดกุมชัดเจนในเรื่องนี้แล้ว ทั้งการเตือนผู้ใช้ว่ากำลังคุยกับตัวละครที่ไม่ใช่มนุษย์ ทั้งหมดเป็นเรื่องแต่ง ทั้งยังเพิ่มข้อความปฏิเสธความรับผิดชอบที่ชัดเจน หวังให้ผู้ใช้ไม่พึ่งพาตัวละครสมมตินี้ ขอคำแนะนำทางวิชาชีพใด ๆ ก็ตาม
สำหรับตัวละครที่เป็นประเด็นนั้น ถูกพบโดยผู้เชี่ยวชาญด้านการสืบสวนที่ได้รับการรับรอง (PCI) โดยได้ลองสร้างตัวละครใน Character.AI ผ่านหัวข้อ ‘จิตเวช’ จนเจอตัวละคนสมมุติอย่าง ‘Emilie’ ที่อ้างว่าเป็นจิตแพทย์ จบมหาวิทยาลัยอิมพีเรียลคอลเลจลอนดอน และได้รับใบอนุญาตจากสภาการแพทย์แห่งสหราชอาณาจักรด้วย
จุดน่าสนใจคือ ตัว AI อ้างอิงถึงใบอนุญาตในรัฐเพนซิลเวเนียด้วยเมื่อถูกถามถึง โดยใช้หมายเลขว่า “PS306189” แต่ทาง PCI ลองค้นหาแล้ว ก็พบเลยว่าไม่ใช่หมายเลขใบอนุญาตที่ถูกต้อง และการประกอบวิชาชีพแพทย์โดยไม่มีใบอนุญาต ถือเป็นสิ่งผิดกฎหมาย
“Character Technologies, Inc. ได้ประกอบวิชาชีพแพทย์โดยไม่ได้รับอนุญาตโดยใช้ระบบปัญญาประดิษฐ์ Character.AI” คำฟ้องจากทางรัฐเพนซิลเวเนีย
ท้ายนี้ทางรัฐเพนซิลเวเนีย ยังได้จัดทำเว็บไซต์เพื่อให้ประชาชนในสหรัฐฯ สามารถรายงานแชทบอทที่ให้คำแนะนำทางการแพทย์ได้ พร้อมกล่าวย้ำว่าแชทบอท AI อาจให้ข้อมูลผิดพลาด และไม่มีแชทบอท AI ใดได้รับอนุญาตให้ประกอบวิชาชีพ ด้านการดูแลสุขภาพในรัฐเพนซิลเวเนีย
ที่มา : ArsTechnica








