ประเด็นความเข้าใจใน Hidden Markov Models

Hidden Markov Models หรือ HMMs เป็นส่วนขยายของ Markov Models ดังนั้น เราจึงต้องศึกษา Markov Models ก่อน ทีนี้พอเราศึกษาเสร็จแล้ว เราก็จะต้องเตรียมพื้นฐานอย่างหนึ่งก่อนศึกษา Hidden Markov Models นั่นก็คือ เราต้องไปศึกษา การอนุมานแบบเบย์ หรือ Bayesian inference ซะก่อน เพราะสมการหลาย ๆ อย่างที่ใช้ใน Hidden Markov Models มันประยุกต์มาจาก Bayesian inference

สิ่งที่เป็นประเด็นอย่างหนึ่งในการทำความเข้าใจกับ Hidden Markov Models ก็คือ จริตของผู้เผยแพร่ความรู้ ผู้เผยแพร่ความรู้บางคนใช้สมการทางคณิตศาสตร์เพื่ออธิบายความเข้าใจ บางคนใช้รูปภาพเพื่ออธิบายความเข้าใจ และบางคนใช้เมตริกซ์เพื่ออธิบายความเข้าใจ

สำหรับผู้เผยแพร่ที่ใช้รูปภาพเพื่ออธิบายความเข้าใจใน Hidden Markov Models ก็มีหลายสำนัก บางสำนักก็ใช้รูปภาพเต็มรูปแบบพร้อมพารามิเตอร์ประกอบ บางสำนักก็ใช้รูปภาพแบบง่ายสุดเพื่ออธิบาย

อีกประเด็นหนึ่งก็คือ การอธิบาย Hidden Markov Models จำเป็นจะต้องอธิบายในทุก ๆ ขั้นตอนอย่างละเอียด แต่ผู้เผยแพร่มักละเลยข้ามจุดเล็ก ๆ น้อย ๆ ซึ่งสำคัญ โดยคิดว่าผู้ศึกษาคงเข้าใจเองได้ว่าจุดเล็ก ๆ ที่ขาดหายไปนั้น ควรจะเอาอะไรมาเติมเต็มให้สมบูรณ์ ยกตัวอย่างเช่น มีการอธิบายว่า Hidden Markov Models ก็คล้าย ๆ กับ Dynamic Bayesian inference และได้ข้ามการพิสูจน์สูตร โดยไม่ได้บอกว่าต้องใช้สูตรของ Bayesian inference เข้ามาช่วยคำนวณด้วย เป็นต้น

นอกจากนี้ ยังมีประเด็นเรื่องของทฤษฎีความน่าจะเป็น ซึ่งเป็นแกนหลักของ Hidden Markov Models ซึ่งอย่างที่เรารู้ ๆ กันว่า ทฤษฎีความน่าจะเป็น คือทฤษฎีที่เราจะคำนวณเพื่อให้ได้ผลลัพท์จากอัตราส่วนของ จำนวนเหตุการณ์ที่เป็นไปได้ หารด้วย จำนวนเหตุการณ์ทั้งหมด โดยบางสำนักที่เผยแพร่ Hidden Markov Models ก็จะเน้นอธิบายถึงแต่วิธีการหา จำนวนเหตุการณ์ที่เป็นไปได้ ในขณะที่บางสำนักก็จะอธิบายถึงแต่ จำนวนเหตุการณ์ทั้งหมด เป็นต้น

สำหรับประเด็นถัดไปก็เป็นเรื่องของการทำให้สมบูรณ์ โดยตัวของ Hidden Markov Models เองนั้น ไม่สามารถนำไปใช้อะไรเป็นเรื่องเป็นราวได้ จำเป็นที่จะต้องถูกนำไปใส่รายละเอียด โดยการคัดเลือกโมเดลและพารามิเตอร์ รวมทั้งใช้อัลกอริทึมต่าง ๆ เพื่อเข้ามาช่วย ดังนั้น เราจึงจำเป็นต้องศึกษาเพิ่มเติมในอัลกอริทึมต่าง ๆ ที่มีคนคิดขึ้นมาแล้ว ไม่ว่าจะเป็น Baum–Welch algorithm, Viterbi algorithm และ Forward–backward algorithm

ถ้าเราเปรียบเทียบว่า Hidden Markov Models เป็นระบบปฏิบัติการ บรรดาอัลกอริทึมต่าง ๆ อย่าง Baum–Welch algorithm, Viterbi algorithm และ Forward–backward algorithm ก็เปรียบได้กับ Device Driver ที่สร้างมาเพื่อใช้กับระบบปฏิบัติการ

ซึ่งถ้าบอกแบบนี้ก็หมายความว่า ยังมีโอกาสอีกมากมายในอนาคต ที่จะมีผู้คิดค้นวิจัยพบอัลกอริทึมใหม่ ๆ เพื่อมาใช้กับ Hidden Markov Models เหมือนกับที่มีการสร้าง Device Driver ใหม่ ๆ เพื่อมาใช้กับระบบปฏิบัติการยังไงอย่างงั้น

ส่วนประเด็นสุดท้ายเป็นเรื่องของการประยุกต์ใช้งาน Hidden Markov Models ไปยังสาขาต่าง ๆ ซึ่งปัจจุบันผู้เผยแพร่ที่ถนัดเฉพาะด้านก็จะเน้นแต่งตำราเพื่อใช้ Hidden Markov Models กับสาขาของตัวเอง โดยหนังสือที่ผมเห็นส่วนใหญ่จะเป็นการประยุกต์ทางด้าน Speech Recognition, การเงิน และ Bioinformatics

โดยสรุปแล้ว การจะทำความเข้าใจกับ Hidden Markov Models ได้ มันจึงเป็นเรื่องลำบากนิดนึง เพราะเราต้องทำความเข้าใจ 4 ลำดับอันได้แก่

  1. ทำความเข้าใจกับทฤษฎีพื้นฐานก่อนจะมาเป็น Hidden Markov Models และทฤษฎีที่เกี่ยวข้องกับมัน
  2. ทำความเข้าใจกับทฤษฎีของตัว Hidden Markov Models เอง
  3. ทำความเข้าใจกับอัลกอริทึมต่าง ๆ ที่สร้างขึ้นมาเพื่อ Hidden Markov Models ซึ่งเปรียบได้กับการทำความเข้าใจ Device Drivers ที่สร้างขึ้นมาเพื่อระบบปฏิบัติการ
  4. ทำความเข้าใจกับวิธีการในการประยุกต์ Hidden Markov Models เพื่อใช้แก้ปัญหาในเรื่องที่เราสนใจ

มันก็เลยเป็นเรื่องที่ไม่ง่าย และจึงเป็นสาเหตุว่าทำไมจึงมีงานวิจัยและวิทยานิพนธ์ในไทย ที่เกี่ยวกับ Hidden Markov Models ตีพิมพ์อยู่ไม่ถึง 50 เรื่องเท่านั้น

Related Posts

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *