<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Markov Models &#8211; PARINYA.NET</title>
	<atom:link href="https://www.parinya.net/node/tag/markov-models/feed" rel="self" type="application/rss+xml" />
	<link>https://www.parinya.net</link>
	<description>ทฤษฎีการคำนวณสำหรับคอมพิวเตอร์และทฤษฎีการประมวลผลสารสนเทศ</description>
	<lastBuildDate>Tue, 26 Jun 2012 04:49:23 +0000</lastBuildDate>
	<language>th</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.2</generator>
	<item>
		<title>ประเด็นความเข้าใจใน Hidden Markov Models</title>
		<link>https://www.parinya.net/node/1701</link>
					<comments>https://www.parinya.net/node/1701#respond</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Tue, 26 Jun 2012 04:49:23 +0000</pubDate>
				<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[hidden markov model]]></category>
		<category><![CDATA[Hidden Markov Models]]></category>
		<category><![CDATA[HMM]]></category>
		<category><![CDATA[HMMs]]></category>
		<category><![CDATA[Markov Model]]></category>
		<category><![CDATA[Markov Models]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=1701</guid>

					<description><![CDATA[Hidden Markov Models หรือ]]></description>
										<content:encoded><![CDATA[<p>Hidden Markov Models หรือ HMMs เป็นส่วนขยายของ Markov Models ดังนั้น เราจึงต้องศึกษา Markov Models ก่อน ทีนี้พอเราศึกษาเสร็จแล้ว เราก็จะต้องเตรียมพื้นฐานอย่างหนึ่งก่อนศึกษา Hidden Markov Models นั่นก็คือ เราต้องไปศึกษา การอนุมานแบบเบย์ หรือ Bayesian inference ซะก่อน เพราะสมการหลาย ๆ อย่างที่ใช้ใน Hidden Markov Models มันประยุกต์มาจาก Bayesian inference</p>
<p>สิ่งที่เป็นประเด็นอย่างหนึ่งในการทำความเข้าใจกับ Hidden Markov Models ก็คือ จริตของผู้เผยแพร่ความรู้ ผู้เผยแพร่ความรู้บางคนใช้สมการทางคณิตศาสตร์เพื่ออธิบายความเข้าใจ บางคนใช้รูปภาพเพื่ออธิบายความเข้าใจ และบางคนใช้เมตริกซ์เพื่ออธิบายความเข้าใจ</p>
<p>สำหรับผู้เผยแพร่ที่ใช้รูปภาพเพื่ออธิบายความเข้าใจใน Hidden Markov Models ก็มีหลายสำนัก บางสำนักก็ใช้รูปภาพเต็มรูปแบบพร้อมพารามิเตอร์ประกอบ บางสำนักก็ใช้รูปภาพแบบง่ายสุดเพื่ออธิบาย</p>
<p>อีกประเด็นหนึ่งก็คือ การอธิบาย Hidden Markov Models จำเป็นจะต้องอธิบายในทุก ๆ ขั้นตอนอย่างละเอียด แต่ผู้เผยแพร่มักละเลยข้ามจุดเล็ก ๆ น้อย ๆ ซึ่งสำคัญ โดยคิดว่าผู้ศึกษาคงเข้าใจเองได้ว่าจุดเล็ก ๆ ที่ขาดหายไปนั้น ควรจะเอาอะไรมาเติมเต็มให้สมบูรณ์ ยกตัวอย่างเช่น มีการอธิบายว่า Hidden Markov Models ก็คล้าย ๆ กับ Dynamic Bayesian inference และได้ข้ามการพิสูจน์สูตร โดยไม่ได้บอกว่าต้องใช้สูตรของ Bayesian inference เข้ามาช่วยคำนวณด้วย เป็นต้น</p>
<p>นอกจากนี้ ยังมีประเด็นเรื่องของทฤษฎีความน่าจะเป็น ซึ่งเป็นแกนหลักของ Hidden Markov Models ซึ่งอย่างที่เรารู้ ๆ กันว่า ทฤษฎีความน่าจะเป็น คือทฤษฎีที่เราจะคำนวณเพื่อให้ได้ผลลัพท์จากอัตราส่วนของ จำนวนเหตุการณ์ที่เป็นไปได้ หารด้วย จำนวนเหตุการณ์ทั้งหมด โดยบางสำนักที่เผยแพร่ Hidden Markov Models ก็จะเน้นอธิบายถึงแต่วิธีการหา จำนวนเหตุการณ์ที่เป็นไปได้ ในขณะที่บางสำนักก็จะอธิบายถึงแต่ จำนวนเหตุการณ์ทั้งหมด เป็นต้น</p>
<p>สำหรับประเด็นถัดไปก็เป็นเรื่องของการทำให้สมบูรณ์ โดยตัวของ Hidden Markov Models เองนั้น ไม่สามารถนำไปใช้อะไรเป็นเรื่องเป็นราวได้ จำเป็นที่จะต้องถูกนำไปใส่รายละเอียด โดยการคัดเลือกโมเดลและพารามิเตอร์ รวมทั้งใช้อัลกอริทึมต่าง ๆ เพื่อเข้ามาช่วย ดังนั้น เราจึงจำเป็นต้องศึกษาเพิ่มเติมในอัลกอริทึมต่าง ๆ ที่มีคนคิดขึ้นมาแล้ว ไม่ว่าจะเป็น Baum–Welch algorithm, Viterbi algorithm และ Forward–backward algorithm</p>
<p>ถ้าเราเปรียบเทียบว่า Hidden Markov Models เป็นระบบปฏิบัติการ บรรดาอัลกอริทึมต่าง ๆ อย่าง Baum–Welch algorithm, Viterbi algorithm และ Forward–backward algorithm ก็เปรียบได้กับ Device Driver ที่สร้างมาเพื่อใช้กับระบบปฏิบัติการ </p>
<p>ซึ่งถ้าบอกแบบนี้ก็หมายความว่า ยังมีโอกาสอีกมากมายในอนาคต ที่จะมีผู้คิดค้นวิจัยพบอัลกอริทึมใหม่ ๆ เพื่อมาใช้กับ Hidden Markov Models เหมือนกับที่มีการสร้าง Device Driver ใหม่ ๆ เพื่อมาใช้กับระบบปฏิบัติการยังไงอย่างงั้น</p>
<p>ส่วนประเด็นสุดท้ายเป็นเรื่องของการประยุกต์ใช้งาน Hidden Markov Models ไปยังสาขาต่าง ๆ ซึ่งปัจจุบันผู้เผยแพร่ที่ถนัดเฉพาะด้านก็จะเน้นแต่งตำราเพื่อใช้ Hidden Markov Models กับสาขาของตัวเอง โดยหนังสือที่ผมเห็นส่วนใหญ่จะเป็นการประยุกต์ทางด้าน Speech Recognition, การเงิน และ Bioinformatics</p>
<p>โดยสรุปแล้ว การจะทำความเข้าใจกับ Hidden Markov Models ได้ มันจึงเป็นเรื่องลำบากนิดนึง เพราะเราต้องทำความเข้าใจ 4 ลำดับอันได้แก่ </p>
<ol>
<li>ทำความเข้าใจกับทฤษฎีพื้นฐานก่อนจะมาเป็น Hidden Markov Models และทฤษฎีที่เกี่ยวข้องกับมัน</li>
<li>ทำความเข้าใจกับทฤษฎีของตัว Hidden Markov Models เอง</li>
<li>ทำความเข้าใจกับอัลกอริทึมต่าง ๆ ที่สร้างขึ้นมาเพื่อ Hidden Markov Models ซึ่งเปรียบได้กับการทำความเข้าใจ Device Drivers ที่สร้างขึ้นมาเพื่อระบบปฏิบัติการ</li>
<li>ทำความเข้าใจกับวิธีการในการประยุกต์ Hidden Markov Models เพื่อใช้แก้ปัญหาในเรื่องที่เราสนใจ</li>
</ol>
<p>มันก็เลยเป็นเรื่องที่ไม่ง่าย และจึงเป็นสาเหตุว่าทำไมจึงมีงานวิจัยและวิทยานิพนธ์ในไทย ที่เกี่ยวกับ Hidden Markov Models ตีพิมพ์อยู่ไม่ถึง 50 เรื่องเท่านั้น</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/1701/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
