<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>ทฤษฎีบทของเบย์ &#8211; PARINYA.NET</title>
	<atom:link href="https://www.parinya.net/node/tag/%e0%b8%97%e0%b8%a4%e0%b8%a9%e0%b8%8e%e0%b8%b5%e0%b8%9a%e0%b8%97%e0%b8%82%e0%b8%ad%e0%b8%87%e0%b9%80%e0%b8%9a%e0%b8%a2%e0%b9%8c/feed" rel="self" type="application/rss+xml" />
	<link>https://www.parinya.net</link>
	<description>ทฤษฎีการคำนวณสำหรับคอมพิวเตอร์และทฤษฎีการประมวลผลสารสนเทศ</description>
	<lastBuildDate>Sun, 01 Oct 2017 16:09:36 +0000</lastBuildDate>
	<language>th</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.2</generator>
	<item>
		<title>ยกตัวอย่าง ทฤษฎีบทของเบย์</title>
		<link>https://www.parinya.net/node/2295</link>
					<comments>https://www.parinya.net/node/2295#comments</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Wed, 10 Feb 2016 17:02:29 +0000</pubDate>
				<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Data Mining]]></category>
		<category><![CDATA[Feature]]></category>
		<category><![CDATA[Inspiration]]></category>
		<category><![CDATA[Quantum Computer]]></category>
		<category><![CDATA[ทฤษฎีบทของเบย์]]></category>
		<category><![CDATA[บทความพิเศษ]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=2295</guid>

					<description><![CDATA[ทฤษฎีบทของเบย์เป็นทฤษฎีคว]]></description>
										<content:encoded><![CDATA[<p>ทฤษฎีบทของเบย์เป็นทฤษฎีความน่าจะเป็นเชิงอนุมานที่ถูกใช้กันอย่างกว้างขวางในงานคอมพิวเตอร์ชั้นสูงครับ ไม่ว่าจะเป็นการรู้จำแบบมีผู้สอนเชิงเส้นด้วย Naive Bayes หรือ การรู้จำเสียงพูดด้วย Hidden Markov Model หรือ การคำนวณสภาวะ Superposition ของคิวบิตในควอนตัมคอมพิวเตอร์ ก็ล้วนตั้งอยู่บนหลักการของทฤษฎีบทของเบย์ทั้งนั้น</p>
<p>โดยหน้าตาของสมการตามทฤษฎีบทของเบย์ก็เป็นแบบข้างล่างนี้</p>
<figure id="attachment_2296" aria-describedby="caption-attachment-2296" style="width: 369px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem.png" rel="attachment wp-att-2296"><img decoding="async" class="size-full wp-image-2296" src="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem.png" alt="ทฤษฎีบทของเบย์" width="369" height="129" srcset="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem.png 369w, https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem-300x105.png 300w" sizes="(max-width: 369px) 100vw, 369px" /></a><figcaption id="caption-attachment-2296" class="wp-caption-text">ทฤษฎีบทของเบย์</figcaption></figure>
<p>จริง ๆ แล้วทฤษฎีบทของเบย์ก็สืบต่อมาจากทฤษฎีความน่าจะเป็นแบบมีเงื่อนไขอีกทีนึงน่ะครับ เป็นโมเดลที่อธิบายว่าความน่าจะเป็นในลำดับถัดไปจะขึ้นกับความน่าจะเป็นของลำดับก่อนหน้า อะไรประมาณนั้น</p>
<p>ซึ่งถ้าจะคำนวณความน่าจะเป็นของลำดับถัดไปโดยขึ้นกับความน่าจะเป็นของลำดับก่อนหน้า ก็สามารถทำได้ง่าย ๆ ตามสมการข้างล่างนี้ครับ</p>
<figure id="attachment_2297" aria-describedby="caption-attachment-2297" style="width: 304px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary.png" rel="attachment wp-att-2297"><img decoding="async" class="size-full wp-image-2297" src="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary.png" alt="การคำนวณความน่าจะเป็นแบบมีเงื่อนไข" width="304" height="131" srcset="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary.png 304w, https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary-300x129.png 300w" sizes="(max-width: 304px) 100vw, 304px" /></a><figcaption id="caption-attachment-2297" class="wp-caption-text">การคำนวณความน่าจะเป็นแบบมีเงื่อนไข</figcaption></figure>
<p>แล้วในเมื่อมันมีสมการง่าย ๆ อยู่ก่อนแล้ว ทำไมเรายังต้องคำนวณโดยใช้ทฤษฎีบทของเบย์อีก???</p>
<p>คำตอบคือ บางครั้งการคำนวณความน่าจะเป็นของลำดับถัดไป โดยขึ้นกับความน่าจะเป็นของลำดับก่อนหน้า มันทำแบบตรงไปตรงมาไม่ได้ครับ มันต้องทำแบบอ้อม ๆ ดังนั้น ทฤษฎีบทของเบย์เลยเป็นสิ่งที่แก้ปัญหาในเรื่องนี้ไปโดยปริยาย</p>
<p>ก่อนอื่น ยกตัวอย่างข้อมูลให้ดูแล้วกันครับ ตามตารางด้านล่างนี้ เป็นข้อมูลคุณสมบัติของบุคคลที่มีเพียง 5 คนเท่านั้น โดยคุณสมบัติของคนเหล่านั้นก็คือ หน้าตา รูปร่าง เส้นเสียง การแสดง และ อาชีพ ครับ</p>
<figure id="attachment_2298" aria-describedby="caption-attachment-2298" style="width: 664px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ex.png" rel="attachment wp-att-2298"><img fetchpriority="high" decoding="async" class="size-full wp-image-2298" src="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ex.png" alt="ตัวอย่างข้อมูลเพื่อคำนวณตามทฤษฎีบทของเบย์" width="664" height="318" srcset="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ex.png 664w, https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ex-300x144.png 300w" sizes="(max-width: 664px) 100vw, 664px" /></a><figcaption id="caption-attachment-2298" class="wp-caption-text">ตัวอย่างข้อมูลเพื่อคำนวณตามทฤษฎีบทของเบย์</figcaption></figure>
<p>ทีนี้จะตั้งโจทย์ครับ โจทย์คือให้หาว่าความน่าจะเป็นที่บุคคลในข้อมูลตัวอย่างจะเป็นนักแสดงและเป็นคนรูปร่างผอม ซึ่งถ้าหาโดยใช้สมการตามความน่าจะเป็นแบบมีเงื่อนไข ก็จะได้ตามสมการด้านล่างนี้</p>
<figure id="attachment_2299" aria-describedby="caption-attachment-2299" style="width: 536px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary_ex.png" rel="attachment wp-att-2299"><img loading="lazy" decoding="async" class="size-full wp-image-2299" src="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary_ex.png" alt="ตัวอย่างสมการแบบความน่าจะเป็นแบบมีเงื่อนไข" width="536" height="506" srcset="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary_ex.png 536w, https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_ordinary_ex-300x283.png 300w" sizes="auto, (max-width: 536px) 100vw, 536px" /></a><figcaption id="caption-attachment-2299" class="wp-caption-text">ตัวอย่างสมการแบบความน่าจะเป็นแบบมีเงื่อนไข</figcaption></figure>
<p>คำตอบคือ 1 ส่วน 2 ซึ่งแบบข้างบนนี้ตรงไปตรงมา แต่ถ้าหาโดยใช้ทฤษฎีบทของเบย์บ้างล่ะจะเป็นยังไง? ซึ่งก็เป็นไปตามด้านล่างนี้</p>
<figure id="attachment_2300" aria-describedby="caption-attachment-2300" style="width: 775px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_full_ex.png" rel="attachment wp-att-2300"><img loading="lazy" decoding="async" class="size-full wp-image-2300" src="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_full_ex.png" alt="ตัวอย่างสมการตามทฤษฎีบทของเบย์" width="775" height="739" srcset="https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_full_ex.png 775w, https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_full_ex-300x286.png 300w, https://www.parinya.net/wp-content/uploads/2016/02/bayes_theorem_full_ex-768x732.png 768w" sizes="auto, (max-width: 775px) 100vw, 775px" /></a><figcaption id="caption-attachment-2300" class="wp-caption-text">ตัวอย่างสมการตามทฤษฎีบทของเบย์</figcaption></figure>
<p>จะเห็นว่าคำตอบที่คำนวณได้ตามทฤษฎีบทของเบย์ มันก็เหมือน ๆ กับคำตอบที่คำนวณได้ตามทฤษฎีความน่าจะเป็นแบบมีเงื่อนไขนั่นแหล่ะครับ แล้วในเมื่อคำตอบมันเหมือนกัน แล้วเราจะไปใช้ทฤษฎีบทของเบย์ทำไมอีก???</p>
<p>คำตอบก็เพราะว่า ในสถานการณ์จริง เราอาจไม่สามารถหาความน่าจะเป็นแบบมีเงื่อนไขอย่างตรงไปตรงมาได้ครับ บางครั้งมันยอกย้อน มันต้องอ้างอิงกลับไปกลับมาถึงจะหาคำตอบได้ ดังนั้น ด้วยคุณสมบัติของทฤษฎีบทของเบย์ ก็เลยทำให้มันกลายเป็นเครื่องมือที่นิยม สำหรับงาน Machine Learning, Data Mining หรือ Quantum Computing ไปโดยปริยายนั่นเอง</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/2295/feed</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
	</channel>
</rss>
