โลกธุรกิจกำลังหมดยุคโมเดลยักษ์ และหันมาหา AI ที่ตัวเล็กแต่รู้จริง
ในช่วง 2-3 ปีที่ผ่านมา หากเราเปรียบวงการ AI เป็นงานปาร์ตี้ เราคงกำลังอยู่ในช่วงที่เพลงดังที่สุด แสงสีจัดจ้านที่สุด และทุกคนกำลังเต้นกันอย่างบ้าคลั่งไปกับคำว่า Generative AI และ LLM
ทุกบริษัทต่างพยายามแข่งกันสร้างโมเดลที่ใหญ่กว่า พารามิเตอร์เยอะกว่า และลงทุนสูงกว่า ราวกับว่าขนาดคือคำตอบของทุกสิ่ง
แต่เมื่อแสงไฟเริ่มหรี่ลงและบิลค่าใช้จ่ายเริ่มถูกส่งมาที่โต๊ะผู้บริหาร ค่า Cloud ที่พุ่งสูงเสียดฟ้า, ราคา GPU ที่แพงหูฉี่ และการใช้พลังงานไฟฟ้าที่มหาศาล เราจึงเริ่มได้สติและตั้งคำถามสำคัญที่อาจเปลี่ยนทิศทางของเทคโนโลยีนี้ไปตลอดกาลคือ
“เราจำเป็นต้องจ้าง AI ระดับ Einstein มานั่งตอบคำถามพนักงานแค่ว่า “เครื่องพริ้นเตอร์กระดาษติดต้องทำยังไง?’ จริงๆ หรือเปล่า?”
Techhub ขอต้อนรับทุกคนเข้าสู่ยุคใหม่ของ AI… ยุคที่เราจะเลิก บ้าพลังแล้วหันมาโฟกัสที่ความฉลาด อย่างแท้จริง นี่คือยุคของ SLM (Small Language Models) และบริบท (Context) ที่จะมาพลิกโฉมการลงทุนเทคโนโลยีของทุกธุรกิจ
กับดักของคำว่า “ใหญ่ที่สุด”
ลองจินตนาการว่า หากคุณเป็นเจ้าของบริษัท คุณมีปัญหาเรื่องระบบไอทีพื้นฐาน เช่น การรีเซ็ตพาสเวิร์ด หรือการตรวจสอบสถานะการแจ้งซ่อม งานเหล่านี้ต้องการความรวดเร็วและความแม่นยำเฉพาะจุด แต่สิ่งที่เรากำลังทำอยู่กับ GenAI ในปัจจุบัน คือการนำโมเดลขนาดมหึมา ที่มีพารามิเตอร์ระดับแสนล้าน หรือล้านล้านตัว มาทำงานง่ายๆ เหล่านี้
เปรียบเสมือนคุณจ้างศาสตราจารย์ฟิสิกส์ระดับรางวัลโนเบล มายืนเฝ้าหน้าประตูบริษัทเพื่อคอยบอกทางไปห้องน้ำ แน่นอนว่าเขาทำได้ และอาจจะอธิบายโครงสร้างโมเลกุลของกระเบื้องห้องน้ำให้คุณฟังได้ด้วย (ฮ่าๆ ขำๆนะครับ) แต่คำถามคือมันคุ้มค่าจ้างไหม? และมันจำเป็นหรือเปล่า?
ในมุมมองของ ManageEngine และ Zoho ผู้คร่ำหวอดในวงการ Enterprise IT มากว่าทศวรรษ คำตอบคือ ไม่
โลกธุรกิจกำลังตระหนักถึงคอนเซปต์ Right-sizing หรือการเลือกขนาดโมเดลให้เหมาะกับงาน การใช้โมเดลขนาดเล็ก หรือ Small Language Models – SLM ที่ได้รับการปรับแต่งมาโดยเฉพาะ นอกจากจะช่วยประหยัดค่า GPU และพลังงานได้อย่างมหาศาลแล้ว มันยังทำงานได้เร็วกว่า และคล่องตัวกว่ามาก
แนวทางของ Tech Vendor ยุคใหม่จึงเปลี่ยนไปสู่การใช้ SLM (Small Language Models) โมเดลขนาดเล็กที่ถูกเทรนมาเฉพาะทาง เช่น เทรนด้วยข้อมูลด้าน IT Management ล้วนๆ ข้อดีคือ
- ประหยัดต้นทุน ลดภาระค่า GPU และพลังงานไฟฟ้าได้อย่างมหาศาล
- รวดเร็ว ตอบสนองได้เร็วกว่าโมเดลยักษ์ เหมาะกับงานที่ต้องแข่งกับเวลาอย่าง Cybersecurity
- แม่นยำในบริบท ตัดความรู้ที่ไม่จำเป็นออก (เช่น วิธีทำอาหาร หรือแต่งนิยาย) เหลือไว้แต่สิ่งที่ธุรกิจต้องใช้
ในยุคแรกของการทำ Private AI หลายบริษัทเลือกวิธีดึงโมเดล Open Source (อย่าง Llama ,Gemini หรือ Mistral) มาติดตั้งเอง แล้วเชื่อมต่อกับคลังเอกสารบริษัท โดยใช้เทคนิค RAG (Retrieval-Augmented Generation) คือเทคนิคที่ทำให้ AI ฉลาดขึ้น แม่นยำขึ้น และรู้ข้อมูลเฉพาะทางมากขึ้น โดยไม่ต้องเสียเวลาเทรนโมเดลใหม่ เพื่อความปลอดภัยของข้อมูล
ทฤษฎีนั้นดูดี แต่ในทางปฏิบัติเรามักพบปัญหาคลาสสิกคือ AI ตอบได้ตามตำรา แต่ทำงานจริงไม่เป็น ลองเปรียบเทียบให้เห็นภาพคือ
- Generic Private AI ที่เราสร้างเอง เปรียบเสมือนการจ้างบรรณารักษ์เกียรตินิยม มานั่งเฝ้าห้อง Server เขาอ่านคู่มือทุกเล่มจบแล้ว ตอบทฤษฎีได้แม่นเป๊ะ แต่ถ้าถามว่าเครื่องไหนกำลังร้อน?” หรือช่วยแก้เคสนี้ให้เหมือนที่พี่สมชายเคยทำ…บรรณารักษ์จะไปไม่เป็น เพราะข้อมูลพวกนี้ไม่อยู่ในไฟล์ PDF แต่อยู่ในสถานะของระบบ (System State) ณ เวลานั้น
- Vertical / App-Native AI หรือ AI ยุคใหม่ที่เชี่ยวชาญเฉพาะเรื่อง เปรียบเสมือนช่างซ่อมบำรุงที่อยู่มา 10 ปี AI ประเภทนี้จะถูกฝังมาในซอฟต์แวร์ตั้งแต่ต้น มันจึงเข้าถึง Database และ Log การทำงานได้โดยตรง มันรู้บริบทว่า User คนนี้ชอบแจ้งซ่อมเรื่องอะไร หรือ Error Code นี้เพิ่งเกิดขึ้นเมื่อกี้
ความแตกต่างนี้เองที่ทำให้ผู้ให้บริการซอฟต์แวร์ Enterprise หลายราย รวมถึง ManageEngine และ Zoho ที่ผลักดันเรื่องนี้อย่างหนัก หันมาพัฒนาโมเดลขนาดเล็กที่เจาะจงเฉพาะด้าน แทนการแข่งกันสร้างโมเดลครอบจักรวาล
โจทย์หินที่ AI สร้างเองมักตกม้าตายนั่นคือ Permission & Transparency
อีกหนึ่งประเด็นที่ทำให้การสร้าง Private AI ใช้เองเป็นเรื่องปวดหัว คือการจัดการสิทธิ์
สมมติเราทำระบบ Search ให้พนักงานถามข้อมูลได้ โจทย์คือ ทำอย่างไรให้ นาย ก. ถามเงินเดือนตัวเองได้ แต่ห้ามรู้เงินเดือนเพื่อน?” การเขียน Logic นี้ในระบบ RAG ที่สร้างเองนั้นซับซ้อนและเสี่ยงหลุดมาก
แต่สำหรับ AI ที่ฝังมากับระบบที่ ManageEngine พัฒนาขึ้น มันจะสืบทอดสิทธิ์ มาจากตัวแอปพลิเคชันโดยตรง ถ้า User ไม่มีสิทธิ์ดูหน้านั้น AI ก็จะไม่ตอบ ถือเป็น Privacy by Design ที่ช่วยลดความเสี่ยงข้อมูลรั่วไหลภายใน
นอกจากนี้ ในโลกธุรกิจเราต้องการ Explainable AI (XAI) ถ้า AI บอกว่าระบบกำลังจะล่ม มันต้องอธิบายได้ว่า เช่น “เพราะ Disk I/O สูงผิดปกติ 30%” ไม่ใช่แค่โยนผลลัพธ์มาแบบกล่องดำ มาโดยไม่มีรายละเอียด เพราะความโปร่งใสตรงนี้คือสิ่งที่ทำให้ฝ่ายบริหารกล้าตัดสินใจเชื่อ AI
เบื้องหลังความลับของ Full-Stack และความยั่งยืน
ทำไมต้อง In-house?
ปรัชญาของ Zoho คือ Full-Stack In-house สร้างเองตั้งแต่ Data Center และลงทุนและออกแบบสถาปัตยกรรมฮาร์ดแวร์ในระดับที่ลึกกว่าบริษัท Software ทั่วไปมาก ข้อดีคือการควบคุมต้นทุนได้เบ็ดเสร็จ ทำให้สามารถเปิดฟีเจอร์ AI ให้ลูกค้า Enterprise ใช้ได้โดยไม่คิดเงินเพิ่ม ตัดปัญหาเรื่องงบประมาณบานปลายที่มักเกิดกับการสร้าง AI เอง
ที่สำคัญคือเรื่อง ความยั่งยืนสมองมนุษย์ใช้พลังงานแค่ 20 วัตต์ แต่ GPU ฟาร์มหนึ่งใช้พลังงานเท่าโรงงานอุตสาหกรรม การใช้โมเดล SLM ที่พอดีตัว จึงเป็นทางออกที่ยั่งยืนกว่า เป็นมิตรต่อโลกมากกว่าการรันโมเดลยักษ์พร่ำเพรื่อ
บทสรุป อนาคตไม่ใช่เรื่องของ Hype แต่คือ Tribal Knowledge
บทเรียนสำคัญสำหรับองค์กรในวันนี้ คือการมองข้ามกระแส Hype เรื่องโมเดลที่ใหญ่ที่สุด แล้วหันมามองความจริงที่ว่าข้อมูลคือหัวใจ
อุปสรรคที่แท้จริงของการนำ AI มาใช้ ไม่ใช่เรื่องเทคโนโลยี แต่คือ Tribal Knowledge หรือความรู้ที่ฝังอยู่ในหัวคนทำงานแต่ไม่อยู่ในระบบ ตราบใดที่เรายังไม่สามารถดึงความรู้เหล่านี้ออกมาเป็น Digital Data ได้ ไม่ว่าจะใช้โมเดลระดับเทพแค่ไหน ก็ไม่อาจทำงานแทนคนได้สมบูรณ์
เทรนด์ในอนาคตจึงไม่ใช่การแข่งกันสร้าง AI ให้เหมือนมนุษย์ที่สุด แต่เป็นการเลือกใช้ AI ที่เข้าใจบริบทของงานและคุ้มค่าการลงทุน ที่สุด… เพราะในโลกธุรกิจ ผลกำไรไม่ได้มาจากความตื่นเต้น แต่มาจากประสิทธิภาพที่จับต้องได้จริง
ที่มา
งานแถลงข่าว Manage Engine








