หลงผิด รู้จัก AI Psychosis เป็นโรคจิตเพราะแชทบอท

AI Psychosis

เชื่อว่าแชทบอท AI กลายเป็นเครื่องมือในชีวิตประจำวันของใครหลายคน เราใช้มันช่วยทำงาน เขียนอีเมล ไปจนถึงขอคำปรึกษาเรื่องความรัก ให้มันดูดวง หรือแม้กระทั่งใช้เป็นเพื่อนคุยแก้เหงา แต่สำหรับผู้ใช้บางกลุ่ม การพูดคุยกับ AI กลับส่งผลกระทบที่น่ากังวลและอาจอันตรายถึงชีวิตได้เลย

ปรากฏการณ์ที่เรียกกันติดปากว่า ChatGPT Psychosis หรือ “AI Psychosis” ซึ่งส่งผลกระทบอย่างรุนแรงต่อชีวิต เช่น ถึงขั้นตกงาน ความสัมพันธ์พังทลาย ถึงขั้นอาจถูกควบคุมตัวในสถานบำบัดทางจิต หรือถึงขั้นถูกจับกุม

AI Psychosis คืออะไรกันแน่?

คำว่า AI Psychosis ยังไม่ใช่ศัพท์ทางการแพทย์ แต่เป็นคำที่ใช้อธิบายปรากฏการณ์ที่ผู้ใช้เริ่มมีอาการหลงผิด หรือความเชื่อที่บิดเบือนไปจากความจริง โดยมีสาเหตุมาจากการพูดคุยกับ AI

ผู้เชี่ยวชาญชี้ว่า จริงๆ แล้วอาจไม่ใช่ โรคจิต (Psychosis)แบบเต็มรูปแบบที่มีทั้งอาการหลงผิดและประสาทหลอน แต่เน้นไปที่อาการหลงผิดเป็นหลัก ปัญหานี้เกิดจากธรรมชาติของแชทบอทที่ถูกออกแบบมาให้คล้อยตามและเอาใจผู้ใช้โดยจะสะท้อนภาษาและยืนยันความคิดของผู้ใช้เสมอ ซึ่งสำหรับคนที่มีสภาพจิตใจเปราะบาง การถูกตอกย้ำความคิดที่บิดเบือนซ้ำๆ อาจทำให้อาการรุนแรงขึ้น

แล้วใครคือกลุ่มเสี่ยงที่สุด?

แม้คนส่วนใหญ่จะใช้แชทบอทได้โดยไม่มีปัญหา แต่มีคนกลุ่มเล็กๆ ที่มีความเสี่ยงสูงที่จะเกิดอาการหลงผิดนะ

1.ผู้ที่มีประวัติส่วนตัวหรือคนในครอบครัวเคยป่วยเป็นโรคจิตเภท (Schizophrenia) หรือไบโพลาร์ (Bipolar disorder)
2.ผู้ที่มีแนวโน้มจะเชื่อในทฤษฎีแปลกๆ หรือมีบุคลิกภาพบางอย่าง เช่น ไม่ค่อยเข้าสังคม ควบคุมอารมณ์ไม่เก่ง และมีจินตนาการสูงเกินจริง
3.ผู้ที่ใช้เวลาคุยกับแชทบอทนานเกินไป ผู้เชี่ยวชาญจากสแตนฟอร์ดชี้ว่าเวลาคือปัจจัยสำคัญที่สุด คนที่เสี่ยงคือคนที่ใช้เวลาหลายชั่วโมงต่อวันในการคุยกับ AI

แล้ววิธีที่ปลอดภัยล่ะ?

แชทบอทไม่ใช่สิ่งที่อันตรายโดยเนื้อแท้ แต่สำหรับบางคน การใช้งานอย่างระมัดระวังเป็นสิ่งสำคัญ สิ่งสำคัญคือต้องจำไว้เสมอว่ามันคือ เครื่องมือ ไม่ใช่ เพื่อน ไม่ว่า AI จะคุยเก่งแค่ไหน อย่าเชื่อใจมันจนเล่าเรื่องส่วนตัวที่เปราะบาง หรือพึ่งพามันเป็นที่พึ่งทางใจเพียงอย่างเดียว

เมื่อรู้สึกแย่ ให้หยุดใช้ทันที โดยหากรู้สึกว่ากำลังอยู่ในภาวะอารมณ์อ่อนไหวหรือเครียด การหยุดคุยกับ AI และหันไปหาความสัมพันธ์ในโลกจริงหรือขอความช่วยเหลือจากผู้เชี่ยวชาญคือทางออกที่ดีที่สุด (ก็คงจะจริง)

คนรอบข้างสามารถช่วยกันสอดส่องได้นะ โดยเพื่อนและครอบครัวควรสังเกตการเปลี่ยนแปลงทางอารมณ์ การนอน หรือพฤติกรรมการเข้าสังคม หากพบว่าคนใกล้ตัวเริ่มแยกตัว หมกมุ่นกับ AI หรือความเชื่อแปลกๆ มากผิดปกติ นั่นอาจเป็นสัญญาณอันตราย

แล้วบริษัทที่พัฒนา AI ต้องรับผิดชอบอะไรไหม ?

จนถึงตอนนี้ ภาระในการระวังภัยยังตกอยู่ที่ผู้ใช้เป็นหลัก แต่ผู้เชี่ยวชาญมองว่าบริษัทเทคโนโลยีต้องเข้ามามีบทบาทมากขึ้น เช่น

1.ร่วมมือกับผู้เชี่ยวชาญด้านสุขภาพจิต เพื่อประเมินความเสี่ยงและออกแบบระบบให้ปลอดภัยขึ้น
2.สร้างระบบป้องกันในตัว AI เช่น การแจ้งเตือนให้ผู้ใช้หยุดพักเมื่อคุยนานเกินไป, การตรวจจับสัญญาณความทุกข์ใจของผู้ใช้ หรือปรับแก้คำตอบของ AI ไม่ให้คล้อยตามความเชื่อที่หลงผิด
3.ทดสอบระบบเพื่อหาความเสี่ยง โดยจำลองสถานการณ์คุยกับผู้ใช้ที่มีภาวะทางจิตต่างๆ เช่น โรคย้ำคิดย้ำทำ (OCD), ภาวะแมเนีย (Mania) หรือโรคจิต เพื่อดูว่า AI ตอบสนองอย่างไรและนำไปปรับปรุงแก้ไข

ผลกระทบของ AI ต่อสุขภาพจิต เป็นเรื่องที่ต้องให้ความสำคัญอย่างจริงจัง แชทบอทมีศักยภาพมหาศาลในการช่วยลดความเหงาและสนับสนุนการเรียนรู้ แต่หากเรามองข้ามผลกระทบด้านลบ ศักยภาพเหล่านั้นอาจไร้ความหมาย บทเรียนจากยุคโซเชียลมีเดียสอนเราว่า การเพิกเฉยต่อปัญหาสุขภาพจิตนำมาซึ่งผลกระทบที่ร้ายแรงในระดับสาธารณสุข และสังคมไม่ควรทำผิดพลาดซ้ำอีกครับ

ที่มา

https://time.com/7307589/ai-psychosis-chatgpt-mental-health/