[ใครก็ได้] เมื่อไม่นานมานี้ Elon Musk ได้เปิดตัวฟีเจอร์ใหม่บน X อย่าง Edit Image ที่สามารถใช้ AI หรือ Grok จาก xAI มาแก้ไขภาพบนแพลตฟอร์มได้ทันที…แบบไม่ต้องขออนุญาตเจ้าของภาพต้นฉบับเลย หลังจากนั้นก็เหล่าผู้ใช้ X ก็มาแก้ไขภาพไปทางอนาจาร ทั้งคนดัง ผู้หญิง ไม่เว้นแม้แต่เด็ก โดยไม่ได้รับความยินยอมใด ๆ
มีรายงานว่า Grok AI ของ Elon Musk กำลังสร้างเทรนด์ “ลบเสื้อผ้า” ของผู้ใช้ X รายอื่น ๆ โดยเฉพาะผู้หญิง ซึ่งถูกแก้ไขภาพของตัวเอง (ในทวีต) ตามใจชอบ ให้ปรากฏตัวในสภาพตั้งครรภ์ ไม่สวมกระโปรง สวมชุดบิกินี่ หรืออยู่ในสถานการณ์ทางเพศอื่น ๆ มากมาย
และที่น่าเศร้าใจคือ มีรูปเด็กและผู้เยาว์หลายคน ถูกฟีเจอร์ Edit Image แก้ไขภาพไปทางอนาจารด้วยเช่นกัน
มีผู้ใช้ X บางราย ได้ออกมาเรียกร้องให้แพลตฟอร์มหรือ Elon Musk เร่งแก้ไขปัญหานี้และแถลงขอโทษโดยด่วน โดยอาจละเมิดนโยบายของแพลตฟอร์ม (ซะเอง) และกฎหมายสหรัฐฯ ด้วย ทว่าก็ได้รับการตอบกลับโดย Grok AI แทน (ประมาณว่าทางแพลตฟอร์มรับรู้แล้ว แต่จะแก้ตอนไหนนััน…) ส่วนฟีเจอร์ Edit Image ก็ถูกใช้อย่างไร้การควบคุมต่อไป
ปัจจุบันเริ่มมีผู้ใช้ X นำภาพบุคคลสำคัญอย่าง คิม จ็อง-อึน (Kim Jong Un) , ประธานาธิบดีโดนัลด์ ทรัมป์ (Donald Trump) และรวมถึงนักแสดงชื่อดังหลายราย มาแปลงด้วย Grok ให้ใส่ชุดบิกินี่กันทั่วหน้า แม้กระทั่งทาง Elon Musk เอง ก็ยังเล่นกับกระแสนี้ด้วยอีก จนทำให้เกิดกระแสวิจารณ์อย่างหนัก
“Grok สามารถใส่บิกินีให้กับทุกอย่างได้” Elon Musk กล่าวพร้อมแชร์โพสต์ทวีตภาพเครื่องปิ้งขนมปังในชุดบิกินีของผู้ใช้ X รายหนึ่ง
ย้อนกลับมาดูที่ Veo บริการสร้างคลิป AI จาก Google และ Sora ของ OpenAI มีกลไกควบคุมการสร้างเนื้อหาที่ไม่เหมาะสมแล้ว ส่วน Grok และ X รวมถึงตัว Elon Musk อาจโดนคดีฟ้องร้องแบบกลุ่มในวันหนึ่ง….ถ้าโดนนะ
ที่มา : TheVergers








