เนียนจนน่าขนลุก จาก Photoshop สู่ AI วิวัฒนาการสร้าง ข่าวปลอม

ข่าวปลอม

ในอดีต ถ้าใครสักคนอยากจะทำภาพตัดต่อเพื่อใส่ร้ายใคร หรือสร้างข่าวปลอมสักชิ้น เขาอาจต้องเก่ง Photoshop ระดับเทพ ต้องใช้เวลาเป็นวันๆ เพื่อจัดแสงเงาให้เนียนตา แต่ตัดภาพมาที่ปี 2024-2025 ในยุคที่ Generative AI ครองเมือง… แค่คุณพิมพ์คำสั่งลงไปไม่กี่ประโยค หรือใช้แอปพลิเคชันในมือถือเพียงไม่กี่วินาที คุณก็สามารถสร้างคลิปวิดีโอที่คนดังกำลังพูดในสิ่งที่ไม่เคยพูด หรือสร้างภาพเหตุการณ์จลาจลที่ไม่เคยเกิดขึ้นจริงได้แล้ว

ในปี 2026 นี้ ผมยินดีต้อนรับทุกคนเข้าสู่ยุค Information Apocalypse หรือวันสิ้นโลกของข้อมูลข่าวสาร ยุคที่คำว่าสิบปากว่าไม่เท่าตาเห็น อาจใช้ไม่ได้ผลอีกต่อไป เพราะสิ่งที่ตาเห็น อาจเป็นสิ่งที่ AI สร้างขึ้นมาหลอกเราได้ง่าย

ความร้ายแรงของ Fake News มันจะรุนแรงขึ้นมาก ในยุคที่ AI เร็ว เนียน และตรวจสอบยาก

เมื่อก่อน ข่าวปลอมมักมาในรูปแบบข้อความลูกโซ่ใน LINE หรือลิงก์ Clickbait แปลกๆ ที่ดูปุ๊บก็รู้ปั๊บว่าปลอม แต่ความน่ากลัวของยุคนี้คือความสมจริง และปริมาณที่มันถูกผลิตขึ้นซ้ำ ๆ จนคนเชื่อว่ามันคือข่าวจริง

AI อย่าง Midjourney, Flux หรือ Sora สามารถสร้างภาพและวิดีโอที่เก็บรายละเอียดได้ระดับรูขุมขน หรือ AI Voice Cloning ที่สามารถโคลนเสียงใครก็ได้จากการฟังตัวอย่างเสียงเพียง 3 วินาที เทคโนโลยีเหล่านี้ทำให้กำแพงกั้นระหว่าง เรื่องจริงกับเรื่องแต่ง กำลังพังทลายลง

ความร้ายแรงที่สุดไม่ใช่แค่การหลอกให้เชื่อ แต่มันคือการกัดกร่อนความไว้วางใจในสังคม เมื่อเราแยกไม่ออกว่าอะไรจริงอะไรเท็จ เราจะเริ่มระแวงไปหมด หรือแย่กว่านั้นคือ เราจะเลือกเชื่อเฉพาะสิ่งที่ตรงกับจริตของเรา โดยไม่สนหลักฐาน ซึ่งนี่คือจุดอ่อนที่ผู้ไม่หวังดีใช้โจมตี

สมรภูมิที่ 1 การเมืองและการเลือกตั้ง

ในช่วงเวลาที่เปราะบางที่สุดอย่างการเลือกตั้ง ข่าวปลอมคืออาวุธนิวเคลียร์ทางการเมือง ยิ่งใกล้เลือกตั้ง เราจะเห็นการใช้ AI ในรูปแบบ Disinformation หรือการตั้งใจปล่อยข้อมูลเท็จเพื่อหวังผลต่าง ๆ

กรณีตัวอย่าง ที่อาจเกิดขึ้นได้ในประเทศไทย และเกิดขึ้นจริงแล้วในต่างประเทศ

ซึ่งอาจมีการทำลายชื่อเสียง โดยการสร้างคลิป Deepfake ของผู้สมัคร ส.ส. หรือผู้นำพรรค ที่กำลังพูดดูถูกประชาชน หรือมีพฤติกรรมไม่เหมาะสม ทั้งที่เจ้าตัวไม่ได้ทำ ซึ่งคลิปเหล่านี้ อาจถูกปล่อยไวรัลใน TikTok หรือ X (Twitter) เพื่อบ่อนทำลายชื่อเสียงไปเรื่อย หรือปล่อยก่อนการเลือกตั้งไม่กี่ชั่วโมง เพื่อให้แก้ข่าวไม่ทัน

กรณีที่เคยเกิดขึ้นจริงใน Chicago, ผู้สมัครถูกใส่ร้ายว่าสนับสนุนให้ตำรวจฆ่าคน

เหตุการณ์คือ การเลือกตั้งนายกเทศมนตรีเมืองชิคาโกในกุมภาพันธ์ 2023) สิ่งที่เกิดขึ้นก่อนวันเลือกตั้งไม่นาน มีคลิปวิดีโอของ Paul Vallas ผู้สมัครตัวเต็ง ถูกโพสต์ลงใน Twitter (X) ในคลิปเสียงเขาพูดทำนองว่า “ในสมัยผม ถ้าตำรวจฆ่าคนสัก 17-18 คน ก็คงไม่มีใครสนใจหรอก” ซึ่งเป็นการพูดสนับสนุนความรุนแรงของตำรวจ แต่ความจริง เป็นคลิปที่ถูกสร้างโดย Generative AI เพื่อโจมตี Vallas โดยเฉพาะ

ทำไมถึงรุนแรง ? ประเด็นเรื่องความรุนแรงของตำรวจเป็นเรื่องอ่อนไหวมากในชิคาโก ผลกระทบคือ ทีมงานต้องรีบออกมาแถลงข่าววุ่นวายเพื่อปฏิเสธ แต่มันสร้างความสับสนให้ผู้มีสิทธิเลือกตั้งไปแล้ว สุดท้าย Paul Vallas แพ้การเลือกตั้ง และแม้จะไม่ใช่สาเหตุเดียว แต่คลิปนี้ถูกมองว่าเป็นหนึ่งในปัจจัยที่ทำลายภาพลักษณ์

นอกจากนี้ ยังมีคลิปเสียง นายกฯ อังกฤษกับคลิปเสียงด่าลูกน้อง คลิปนี้มียอดวิวใน X (Twitter) หลักล้านวิวก่อนที่จะถูกจับได้ แม้เสียงจะดูไม่เนียน 100% แต่คนที่เกลียดเขาอยู่แล้ว พร้อมที่จะเชื่อและแชร์ทันทีโดยไม่ตรวจสอบ

การเลือกตั้งที่ผ่านมาของไทย แม้เราจะยังไม่เห็น Deepfake ที่ใช้วีดีโอโจมตี แต่สิ่งที่เราต้องยอมรับคือ เราเริ่มเห็นการใช้ IO หรือ Information Operation ปฏิบัติการ ข้อมูลข่าวสาร เพื่อโจมตีฝ่ายตรงข้าม และมีการนำภาพผู้สมัครจากหลาย ๆ พรรค ไปตัดต่อใส่ข้อความบิดเบือน เพื่อบ่อนทำลาย ในสเกลที่ใหญ่และเร็วกว่าเดิม

สมรภูมิที่ 2 โลกแห่งการหลอกลวง

ที่ซึ่งไม่ใช่แค่เรื่องระดับชาติ แต่ภัยนี้มาถึงหน้าประตูบ้านและหน้าจอโทรศัพท์ของทุกคน แก๊งคอลเซ็นเตอร์ได้อัปเกรดตัวเองจากคนโทรมาหลอก เป็นการใช้ AI หลอกแบบครบวงจร ไม่ว่าจะเป็น

– AI Face Swapping มิจฉาชีพวิดีโอคอลมาหาเรา โดยใช้ใบหน้าของตำรวจ เพื่อนสนิท หรือญาติของเรา ขยับปากพูดคุยได้แบบเรียลไทม์ เพื่อหลอกให้โอนเงิน
– Voice Cloning: โทรมาด้วยเสียงลูกหลาน ที่ร้องไห้บอกว่าถูกจับเรียกค่าไถ่ เสียงเหมือนเป๊ะจนพ่อแม่ตกใจรีบโอนเงินทันทีโดยไม่ทันตรวจสอบ

แต่ช่วงนี้ พี่ไทยเราก็เพิ่งบึ้มรังสแกมเมอร์ไป คิดว่าทุกคนที่ตามข่าวน่าจะพอทราบดี คิดว่าน่าจะไม่ได้โทรมาหลอกเราสักพักแหละนะ

นอกจากนี้ Fake News ยังถูกใช้โจมตีเพื่อหวังทางด้านเศรษฐกิจ โดยหากย้อนกลับไปในช่วงกลางปี 2023 มีภาพปลอมที่เป็นไวรัลใน Twitter ที่สามารถเขย่าตลาดหุ้นได้เลย เป็นภาพควันดำขนาดใหญ่พวยพุ่งออกมาจากอาคารเพนตากอน สหรัฐฯ ภาพดูสมจริงมากจนสำนักข่าวหลายแห่งหลงเชื่อและรีทวีต ผลคือตลาดหุ้นสหรัฐฯ ดิ่งลงทันทีชั่วขณะ สร้างความเสียหายมูลค่ามหาศาล ก่อนที่จะมีการตรวจสอบพบว่าภาพนั้นสร้างโดย AI ซึ่งนี่คือตัวอย่างที่ชัดเจนว่า AI ภาพเดียว สามารถโจมตีความมั่นคงทางเศรษฐกิจได้

ทางรอด Techhub Guide วิธีจับผิด Fake News ฉบับ AI
ในเมื่อเราห้าม AI ไม่ให้เก่งขึ้นไม่ได้ เราในฐานะผู้เสพสื่อต้องอัปเกรดเกราะป้องกันของตัวเองครับ

หากเป็นวีดีโอ ให้สังเกตความผิดปกติทางกายภาพ

-สังเกตมือและนิ้ว เพราะ AI ยังคงมีปัญหากับการวาดนิ้วมือ สังเกตดูว่านิ้วเกิน นิ้วเบี้ยว หรือมือดูเละๆ หรือไม่
– ผิวหนังและแววตา ผิวหน้าที่ถูกสร้างโดย AI มักจะเนียนเกินจริงเหมือนพลาสติก และแววตามักจะดูไร้ชีวิตชีวา หรือแสงสะท้อนในตาสองข้างไม่เหมือนกัน
– ตั้งสติ ตรวจสอบแหล่งที่มาที่ชัดเจนก่อนแชร์ว่า มาจากสื่อที่เชื่อถือได้ขนาดไหน
– อย่าเชื่อคลิปที่ส่งต่อกันมาใน LINE โดยไม่มีที่มา
– หากเป็นภาพ ใช้เครื่องมือ Reverse Image Search ของ Google นำภาพนั้นไปค้นหาว่ามีที่มาจากไหน หรือเป็นภาพเก่าเล่าใหม่หรือไม่ ถูกแต่งแต้มใส่ข้อความ หรือวันที่บิดเบือนหรือไม่

วิธีใช้งาน Reverse Image Search สำหรับบนคอมพิวเตอร์

– เข้าไปที่เว็บไซต์ images.google.com
– คลิกที่ไอคอน กล้องถ่ายรูป (Google Lens) ในช่องค้นหา
– เลือกวิธีอัปโหลด โดยสามามรถวางลิงก์ของรูปภาพ ถ้ารูปมาจากเว็บไซต์อื่น หรือ อัปโหลดไฟล์ เลือกรูปจากเครื่องคอมพิวเตอร์ของคุณ
– กดค้นหา Google จะแสดงผลลัพธ์ที่เป็นภาพเดียวกันหรือภาพที่คล้ายคลึงกัน

แต่ถ้าใน Smartphone ให้ไปที่แอป Google แล้วใช้งานผ่าน Google lens ได้เลย

เครื่องมือนี้ไม่ได้บอกตรงๆ ว่าภาพนี้ปลอมนะ แต่จะให้ หลักฐาน เพื่อให้เราตัดสินใจได้ครับ โดยช่วยตรวจสอบในประเด็นต่าง ๆ คือ

– ตรวจสอบเวลา โดยหากเป็นกรณีบิดเบือน เราก็จะเห็นภาพชัดเจนครับ เพราะบ่อยครั้งที่มีคนนำภาพน้ำท่วม หรือเหตุการณ์รุนแรงจาก 10 ปีที่แล้ว มาโพสต์แล้วบอกว่าเป็นเหตุการณ์ เมื่อวาน สิ่งที่ Google บอกเราคือ เมื่อค้นหา เราอาจจะเห็นว่าภาพนี้ เคยถูกเผยแพร่ครั้งแรกเมื่อปี 2013 ทำให้รู้ทันทีว่าไม่ใช่เหตุการณ์ปัจจุบัน

– ตรวจสอบ สถานที่และบริบท กรณีบิดเบือน ที่เป็นภาพความเสียหายในต่างประเทศ ถูกนำมาอ้างว่าเป็นเหตุการณ์ในประเทศไทย สิ่งที่ Google บอกคือ ผลการค้นหาจะพาเราไปเจอข่าวต้นฉบับ ซึ่งอาจระบุชัดเจนว่าภาพนี้ถ่ายที่ญี่ปุ่นหรืออเมริกา ไม่ใช่ไทย เช่น ภาพที่เขมรชอบอ้างว่า มันยิงเครื่องบิน F-16 เราตก แต่จริง ๆ คือภาพที่ในต่างประเทศเมื่อหลายปีที่แล้ว

แต่สำหรับการโจมตีทางการเมือง ที่เรามักเห็นการหยิบภาพของนักการเมืองต่าง ๆ ใส่ Quote โจมตี อันนี้อาจจะใช้วิจารณญานของแต่ละคนแหละนะ แต่สามารถค้นหาเฉพาะข้อความได้ หากคนๆ นั้น พูดประโยคนั้นจริง ต้องมีร่องรอยในข่าวและในสื่อใหญ่ ถ้า เงียบกริบ ไม่เจอข่าวจากสื่อหลักเลย เจอแต่ในโซเชียลของใครก็ไม่รู้ เจอใน เว็บ Clickbait หรือเพจที่ชื่อแปลกๆ นั้น มีโอกาสปลอมสูงมาก

หลักการสำคัญคือ Zero Trust ไม่เชื่อ ไม่รีบ อ่านอย่างมีสติ หากเป็นเรื่องที่กระตุ้นอารมณ์รุนแรง (โกรธมาก, กลัวมาก, ดีใจมาก) ให้หยุดคิดก่อน 10 วินาที เพราะข่าวปลอมมักเล่นกับอารมณ์เพื่อให้เราขาดสติ

บทสรุป

สงครามข่าวปลอมในยุค AI ไม่ใช่เรื่องของเทคโนโลยีเพียงอย่างเดียว แต่เป็นเรื่องของวิจารณญาณของมนุษย์ เครื่องมืออย่าง Deepfake และ AI เป็นเหมือนกระจกสะท้อนด้านมืดที่น่ากลัว แต่ถ้าเรารู้เท่าทัน มันก็ทำอะไรเราไม่ได้

สำหรับชาว Techhub และคนไทยทุกคน การรู้ทันเทคโนโลยี มีความจำเป็นอย่างมากในการเอาตัวรอดในยุคที่ความจริงมีราคาแพง การแชร์ข้อมูลโดยไม่ตรวจสอบในยุคนี้ อาจหมายถึงการส่งต่ออาวุธโดยไม่รู้ตัวครับ และนั่นอาจตามมาด้วยการโดนฟ้อง และมีคดีติดตัว ฉะนั้น จะแชร์อะไร ต้องมีสติให้มากครับ

หยุด… คิด… เช็ก… ก่อนแชร์ นะครับทุกคน

Source :

Source :