<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Literature Review &#8211; PARINYA.NET</title>
	<atom:link href="https://www.parinya.net/node/category/literature_review/feed" rel="self" type="application/rss+xml" />
	<link>https://www.parinya.net</link>
	<description>ทฤษฎีการคำนวณสำหรับคอมพิวเตอร์และทฤษฎีการประมวลผลสารสนเทศ</description>
	<lastBuildDate>Fri, 30 Aug 2019 05:41:39 +0000</lastBuildDate>
	<language>th</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.2</generator>
	<item>
		<title>สปอยล์เปเปอร์ Speech synthesis from neural decoding of spoken sentences แบบไม่วิชาการ</title>
		<link>https://www.parinya.net/node/2803</link>
					<comments>https://www.parinya.net/node/2803#respond</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Fri, 03 May 2019 16:29:54 +0000</pubDate>
				<category><![CDATA[Literature Review]]></category>
		<category><![CDATA[neural decoding]]></category>
		<category><![CDATA[speech synthesis]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=2803</guid>

					<description><![CDATA[เพิ่งอ่านเปเปอร์นี้จบ บัน]]></description>
										<content:encoded><![CDATA[
<p>เพิ่งอ่านเปเปอร์นี้จบ บันเทิงมาก ความรู้สึกเหมือนดูมาสเตอร์เชฟทำอาหาร</p>



<figure class="wp-block-image"><img fetchpriority="high" decoding="async" width="1024" height="373" src="https://www.parinya.net/wp-content/uploads/2019/05/58917004_10158422516592586_6823786109365911552_o-e1556900740327-1024x373.jpg" alt="SPEECH SYNTHESIS FROM NEURAL DECODING OF SPOKEN SENTENCES" class="wp-image-2804" srcset="https://www.parinya.net/wp-content/uploads/2019/05/58917004_10158422516592586_6823786109365911552_o-e1556900740327-1024x373.jpg 1024w, https://www.parinya.net/wp-content/uploads/2019/05/58917004_10158422516592586_6823786109365911552_o-e1556900740327-300x109.jpg 300w, https://www.parinya.net/wp-content/uploads/2019/05/58917004_10158422516592586_6823786109365911552_o-e1556900740327-768x280.jpg 768w, https://www.parinya.net/wp-content/uploads/2019/05/58917004_10158422516592586_6823786109365911552_o-e1556900740327.jpg 1512w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>SPEECH SYNTHESIS FROM NEURAL DECODING OF SPOKEN SENTENCES</figcaption></figure>



<p>เปเปอร์นี้ตีพิมพ์ในวารสารเนเจอร์ เมื่อวันที่ 25 เมษายน 2562 ที่ผ่านมา เป็นงานวิจัยเพื่อสังเคราะห์เสียงพูดจากสมองออกมาเป็นไฟล์เสียงโดยตรง โดยไม่ผ่านการออกเสียงจากปาก</p>



<p>อ่านเนื้อหาแล้ว นึกว่าเป็นงานวิจัยที่ตีพิมพ์ใน SIG ACM หรือ IEEE Transaction มีแต่ศัพท์ EE กับ CS เต็มไปหมด</p>



<p>งานวิจัยที่น่าสนใจมาก เพราะเปเปอร์นี้จริง ๆ แล้ว สามารถแยกตีพิมพ์เจาะลึกเนื้อหาได้เป็น 3 เปเปอร์</p>



<figure class="wp-block-image"><img decoding="async" width="1024" height="920" src="https://www.parinya.net/wp-content/uploads/2019/05/58543694_10158422516622586_6121776822980968448_o-1024x920.jpg" alt="ขั้นตอนในเปเปอร์ SPEECH SYNTHESIS FROM NEURAL DECODING OF SPOKEN SENTENCES" class="wp-image-2805" srcset="https://www.parinya.net/wp-content/uploads/2019/05/58543694_10158422516622586_6121776822980968448_o-1024x920.jpg 1024w, https://www.parinya.net/wp-content/uploads/2019/05/58543694_10158422516622586_6121776822980968448_o-300x270.jpg 300w, https://www.parinya.net/wp-content/uploads/2019/05/58543694_10158422516622586_6121776822980968448_o-768x690.jpg 768w, https://www.parinya.net/wp-content/uploads/2019/05/58543694_10158422516622586_6121776822980968448_o.jpg 1533w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>ขั้นตอนในเปเปอร์ SPEECH SYNTHESIS FROM NEURAL DECODING OF SPOKEN SENTENCES</figcaption></figure>



<p>ถ้าแยกเป็น 3 เปเปอร์ จะได้เนื้อหาดังนี้</p>



<ul class="wp-block-list"><li>เปเปอร์แรก เป็นงานสอนเครื่องให้รู้ว่า สัญญาณจากสมอง ตรงกับการขยับลิ้น กราม และริมฝีปากยังไง ประโยชน์ของงานวิจัย ตัวอย่างเช่น ต่อไปเราสามารถใช้สมองสั่งหุ่นยนต์ให้ขยับปากตามความคิดที่จะพูดของเราได้</li></ul>



<ul class="wp-block-list"><li>เปเปอร์สอง เป็นงานสอนให้เครื่องรู้ว่า การขยับลิ้น กราม และริมฝีปาก ตรงกับการออกเสียงคำหรือประโยคอะไร ประโยชน์ของงานวิจัย ตัวอย่างเช่น เอาไว้อ่านปาก เพื่อรู้ว่าพูดอะไร</li></ul>



<ul class="wp-block-list"><li>เปเปอร์สาม เป็นงานสอนให้เครื่องรู้ว่า เสียงพูดที่ไม่ปะติดปะต่อ แหบพร่า ฟังไม่ค่อยรู้เรื่อง ตรงกับประโยคเสียงพูดที่สมบูรณ์ใด</li></ul>



<p>ว่าตามจริง แยกวิจัยก็คือยากแล้ว แต่นี่เอามารวมกัน มันเลยอลังการมาก</p>



<p>ทีนี้มาคุยกันเกี่ยวกับจุดที่น่าสนใจในงานวิจัยนี้ในมุมมองส่วนตัว</p>



<p>จุดแรก วิธีการได้มาซึ่งข้อมูลในการสอนเครื่อง ซึ่งผู้วิจัยใช้วิธีผ่าตัดกระโหลกของผู้ทดสอบ เพื่อแปะเซ็นเซอร์ไว้บนพื้นผิวของเปลือกสมอง</p>



<p>ครับ เซ็นเซอร์วางแปะอยู่ตรงนั้นบนเปลือกสมอง และนี่คือสาเหตุว่าทำไมชื่อแรกของเปเปอร์จึงเป็นคุณหมอผ่าตัด และเปเปอร์นี้ถึงต้องตีพิมพ์ในวารสารเนเจอร์!!!</p>



<p>ปรกติเคยเจอแต่แปะเซ็นเซอร์บนกระโหลก หรือใช้วิธี fMRI แต่นี่ไปไกลล่ะ เล่นปลูกถ่ายเซ็นเซอร์กันเลยทีเดียว</p>



<p>และนอกจากนี้ เพราะสัญญาณที่ได้จากสมองมันยังไม่ชัวร์ เลยทำให้ผู้วิจัยต้องติดเซ็นเซอร์เอาไว้ที่ลิ้น กราม และริมฝีปากของผู้ทดสอบ เพื่อเก็บข้อมูลด้วย</p>



<p>สิ่งที่น่าสนใจในจุดที่สองก็คือ การส่งต่อเหตุและผล ในงานวิจัยทาง Machine Learning ส่วนใหญ่ เรามักสนใจเหตุและผลจังหวะเดียว เช่น เหตุเพราะผลไม้เป็นสีแดง เปลือกมันวาว เนื้อแข็ง ผลก็ควรแปลว่ามันเป็นแอปเปิ้ล จังหวะเดียวจบ</p>



<p>แต่งานวิจัยนี้มีการส่งต่อเหตุและผลถึงสามจังหวะ</p>



<p>จังหวะแรก เหตุเพราะสมองคิดแบบนี้ ผลจึงทำให้ลิ้น กราม ริมฝีปากขยับแบบนี้</p>



<p>จังหวะสอง เหตุเพราะลิ้น กราม ริมฝีปากขยับแบบนี้ จึงทำให้ออกเสียงพร่า ฟังไม่ค่อยชัดแบบนี้</p>



<p>และจังหวะสาม เหตุเพราะเสียงพร่า ฟังไม่ค่อยชัดแบบนี้ จึงทำให้ตีความได้ว่าพูดประโยคอะไรออกมา</p>



<p>ประมาณนี้</p>



<p>เนื่องจากในเปเปอร์นี้มีการอ้างอิงทฤษฎีทางการแพทย์ (เล็กน้อย) และทฤษฎีการคำนวณสำหรับคอมพิวเตอร์ (เยอะ ๆ) ไว้หลายตัวมาก ขอไม่ลงรายละเอียดแล้วกันครับ</p>



<figure class="wp-block-image"><img decoding="async" width="1024" height="793" src="https://www.parinya.net/wp-content/uploads/2019/05/58691869_10158422537212586_5641871020005523456_o-1024x793.jpg" alt="รายงานสรุปของวารสารเนเจอร์ ที่เกี่ยวกับ SPEECH SYNTHESIS FROM NEURAL DECODING OF SPOKEN SENTENCES" class="wp-image-2806" srcset="https://www.parinya.net/wp-content/uploads/2019/05/58691869_10158422537212586_5641871020005523456_o-1024x793.jpg 1024w, https://www.parinya.net/wp-content/uploads/2019/05/58691869_10158422537212586_5641871020005523456_o-300x232.jpg 300w, https://www.parinya.net/wp-content/uploads/2019/05/58691869_10158422537212586_5641871020005523456_o-768x595.jpg 768w, https://www.parinya.net/wp-content/uploads/2019/05/58691869_10158422537212586_5641871020005523456_o.jpg 1509w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>รายงานสรุปของวารสารเนเจอร์ ที่เกี่ยวกับ SPEECH SYNTHESIS FROM NEURAL DECODING OF SPOKEN SENTENCES</figcaption></figure>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/2803/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>การรวมปัญญาประดิษฐ์และความมั่นคงของคอมพิวเตอร์เข้าไว้ด้วยกัน</title>
		<link>https://www.parinya.net/node/1948</link>
					<comments>https://www.parinya.net/node/1948#comments</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Sun, 19 Oct 2014 11:39:08 +0000</pubDate>
				<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Assignment]]></category>
		<category><![CDATA[Feature]]></category>
		<category><![CDATA[Literature Review]]></category>
		<category><![CDATA[Security]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Computer Security]]></category>
		<category><![CDATA[ConxSense]]></category>
		<category><![CDATA[Framework]]></category>
		<category><![CDATA[Mobile Application]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=1948</guid>

					<description><![CDATA[ผมได้รับการบ้านมาครับ คือ]]></description>
										<content:encoded><![CDATA[<p>ผมได้รับการบ้านมาครับ คือต้องนำงานวิจัยในหัวข้อเกี่ยวกับความมั่นคงของคอมพิวเตอร์มาสรุปความ ผมเลยเลือกทำอันนี้ครับ มันคือโครงร่างซอฟต์แวร์ ConXsense ซึ่งมันเป็นงานวิจัยที่ได้รางวัลชนะเลิศในงานประชุมวิชาการ ASIACCS&#8217;14 จัดขึ้นที่ญี่ปุ่นเมื่อช่วงเดือนมิถุนายน 2557 ที่ผ่านมา ลองอ่านดูแล้วกันครับว่างานวิจัยนี้เขาทำอะไร &#8230;</p>
<p>&#8212;</p>
<p><strong>ConXsense – Automated Context Classification for Context-Aware Access Control</strong></p>
<p>ปัจจุบัน โทรศัพท์มือถือได้กลายเป็นส่วนหนึ่งในชีวิตประจำวันของประชาชน และถูกพัฒนาให้ทันสมัยโดยผู้ผลิตชั้นนำอยู่อย่างต่อเนื่อง โทรศัพท์มือถือที่ทันสมัยจะมีคุณสมบัติเอนกประสงค์หลายประการนอกเหนือจากการใช้เป็นอุปกรณ์ติดต่อสื่อสารพูดคุย ซึ่งความทันสมัยเพิ่มเติมมีอยู่ทั้งในด้านฮาร์ดแวร์และซอฟต์แวร์ โดยในด้านฮาร์ดแวร์ โทรศัพท์มือถือสามารถรับข้อมูลได้หลายช่องทาง เช่น รับคลื่นแม่เหล็กโลกได้ รับรู้ทิศทางได้ สามารถแลกเปลี่ยนข้อมูลโดยใช้สัญญาณเครือข่ายไร้สาย สัญญาณอินเทอร์เน็ต หรือ สัญญาณบลูทูธ สามารถถ่ายรูปหรือถ่ายคลิปวีดีโอได้ ส่วนในด้านซอฟต์แวร์ โทรศัพท์มือถือมีระบบปฏิบัติการที่ใช้ควบคุมการทำงานของเครื่อง ทำหน้าที่ประสานระหว่างฮาร์ดแวร์กับโปรแกรมเข้าไว้ด้วยกัน มีพื้นที่ความจุสูงซึ่งสามารถจัดเก็บข้อมูลขนาดใหญ่ ทั้งภาพ เสียง และคลิปวีดีโอ และมีโปรแกรมต่าง ๆ ที่ช่วยสนับสนุนการออนไลน์เข้าสู่โลกอินเทอร์เน็ตและเครือข่ายสังคม</p>
<p><span id="more-1948"></span></p>
<p>การที่โทรศัพท์มือถือมีคุณสมบัติในการออนไลน์เข้าสู่โลกอินเทอร์เน็ตได้ อีกทั้งยังมีช่องทางรับข้อมูลหลายช่องทาง นอกจากจะมีประโยชน์ในด้านการสื่อสารตอบโต้ที่หลากหลายมิติแล้ว ยังนำมาซึ่ง<strong>ปัญหาในด้านความปลอดภัย</strong>ของข้อมูลและความเป็นส่วนตัวด้วย เนื่องจากโปรแกรมต่าง ๆ ที่ถูกติดตั้งอยู่ในโทรศัพท์มือถือ อาจจะเป็นโปรแกรมที่ประสงค์ร้าย มีจุดประสงค์ขโมยข้อมูลภายในโทรศัพท์มือถือ หรือตรวจจับสภาพแวดล้อมผ่านช่องทางรับข้อมูลต่าง ๆ ของโทรศัพท์มือถือ และอาศัยคุณสมบัติในการออนไลน์ออกสู่โลกอินเทอร์เน็ตของโทรศัพท์มือถือ ในการส่งข้อมูลไปยังผู้ประสงค์ร้าย หรือในบางครั้ง โปรแกรมสำหรับใช้งานเครือข่ายสังคม อาจทำเกินหน้าที่ นำข้อมูลที่มีความลับภายในโทรศัพท์มือถือเปิดเผยออกสู่เครือข่ายสังคม ทำให้เจ้าของโทรศัพท์มือถือเกิดความเสียหาย เสียชื่อเสียง และ เสียความเป็นส่วนตัวได้</p>
<p>การสร้างระบบกำหนดสิทธิ์โดยผู้ผลิตระบบปฏิบัติการและผู้ผลิตโปรแกรม ถือเป็นวิธีการแก้ปัญหาที่มีประสิทธิภาพในการรักษาความปลอดภัยและความเป็นส่วนตัว เนื่องจากเป็นการเปิดโอกาสให้ผู้ใช้งานโทรศัพท์มือถือ ได้กำหนดสิทธิ์การเข้าใช้งานข้อมูลและสิทธิ์การเข้าถึงอุปกรณ์นำเข้าข้อมูลให้กับโปรแกรมต่าง ๆ ได้ด้วยตัวเอง แต่เนื่องจากการกำหนดสิทธิ์โดยผู้ใช้งานได้สร้างปัญหาใหม่ นั่นคือ<strong>ปัญหาภาระ</strong>ของผู้ใช้งาน เนื่องจากความหลากหลายของโปรแกรม ความหลากหลายของอุปกรณ์นำเข้าข้อมูล และ ระดับความสำคัญของข้อมูลในแต่ล่ะเวลาและสถานที่ ซึ่งมีความละเอียดซับซ้อน ทำให้ผู้ใช้งานต้องกำหนดสิทธิ์ในทุกรายละเอียด เพื่อให้มั่นใจได้ว่าจะได้รับความปลอดภัยและมีความเป็นส่วนตัวอย่างสมบูรณ์ ซึ่งด้วยภาระเช่นนี้ จึงทำให้ผู้ใช้งานละเลยการกำหนดสิทธิ์ และทำให้ไม่สามารถแก้ปัญหาในด้านความปลอดภัยของข้อมูลและความเป็นส่วนตัวอย่างเบ็ดเสร็จได้</p>
<p>ดังนั้น จึงมีงานวิจัย [1] ที่นำเสนอวิธีการแก้ปัญหาภาระของผู้ใช้งาน โดยการผนวกรวมเอาวิธีในด้านความปลอดภัยเข้ากับวิธีทางด้านปัญญาประดิษฐ์ นำมาสร้างเป็นโครงร่างซอฟต์แวร์พื้นฐานเพื่อการพัฒนาต่อยอด ในชื่อเรียกว่า ConXsense โดยมีจุดประสงค์เพื่อทดแทนภาระงานในการกำหนดสิทธิ์ของผู้ใช้งาน ด้วยการให้ ConXsense เป็นตัวกำหนดสิทธิ์แทน โดยใช้วิธีการเรียนรู้พฤติกรรมของผู้ใช้งานโทรศัพท์มือถือในสภาพแวดล้อมต่าง ๆ แบบอัตโนมัติ แล้วนำผลการวิเคราะห์ที่ได้มาปรับปรุงสิทธิ์การเข้าใช้งานให้กับโปรแกรมในโทรศัพท์มือถือ ให้มีความเหมาะสมตามเวลาและสถานที่ต่อไป</p>
<p>โครงร่างซอฟต์แวร์ ConXsense ถูกสร้างขึ้นโดยผนวกรวมเข้ากับ FlaskDroid [2] ซึ่งเป็นสถาปัตยกรรมความปลอดภัยที่ถูกคิดค้นขึ้นเพื่อระบบปฏิบัติการ Android โดยโครงร่างซอฟต์แวร์ ConXsense เน้นแก้ปัญหาที่มีความสำคัญ 2 ประการ คือ หนึ่ง<strong>ปัญหาการใช้งานโทรศัพท์มือถือในทางที่ผิด</strong> และ สอง<strong>ปัญหาความลับและความเป็นส่วนตัว</strong></p>
<p>ในงานวิจัยได้อธิบายถึงปัญหาการใช้งานโทรศัพท์มือถือในทางที่ผิดไว้ว่า สามารถเกิดได้จากการที่เจ้าของโทรศัพท์มือถือวางโทรศัพท์มือถือไว้ห่างตัว จนทำให้ถูกผู้อื่นหยิบฉวยไปใช้งานในทางที่ผิดได้ ซึ่งผู้อื่นที่กล่าวถึงแบ่งได้เป็น 3 ประเภท ได้แก่ โจร คนใกล้ชิดที่ซื่อสัตย์แต่อยากรู้อยากเห็น หรือ เด็กเล็ก โดยวิธีแก้ปัญหาที่ถูกนำเสนอในงานวิจัยคือการให้ ConXsense ตรวจสอบสภาพแวดล้อมผ่านช่องนำเข้าข้อมูลของโทรศัพท์มือถือ จากนั้นก็ให้ ConXsense วิเคราะห์บริบทเพื่อตัดสินใจ<strong>ปิดล็อก</strong>หน้าจอโทรศัพท์มือถือไม่ให้ผู้อื่นใช้งานโทรศัพท์มือถือในทางที่ผิดได้</p>
<p>สำหรับปัญหาความลับและความเป็นส่วนตัว ในงานวิจัยได้อธิบายถึงสาเหตุของปัญหาซึ่งเกิดจากโปรแกรมประสงค์ร้ายที่<strong>ถูกติดตั้งโดยผู้ใช้งาน</strong>เอง โดยโปรแกรมเหล่านั้นมีคุณสมบัติแอบแฝง ที่สามารถตรวจจับและเก็บเกี่ยวข้อมูลจากช่องทางนำเข้าข้อมูลต่าง ๆ ของโทรศัพท์มือถือ ไม่ว่าจะเป็น การดักจับภาพผ่านกล้อง การดักจับเสียงผ่านไมโครโฟน การดักจับตำแหน่งผ่าน GPS การดักจับความเคลื่อนไหวผ่าน Accelerometer และ การดักจับทิศทางผ่านตัววัดแม่เหล็กโลกแล้วนำข้อมูลเหล่านั้นส่งผ่านเครือข่ายอินเทอร์เน็ตไปยังผู้ประสงค์ร้าย เพื่อให้ผู้ประสงค์ร้ายนำไปใช้ประโยชน์ต่อไปได้โดยวิธีแก้ปัญหาที่ถูกนำเสนอในงานวิจัยคือการให้ ConXsense ตรวจสอบสภาพแวดล้อมผ่านช่องนำเข้าข้อมูลของโทรศัพท์มือถือ จากนั้นก็ให้ ConXsense วิเคราะห์บริบทเพื่อตัดสินใจ<strong>ปิดกั้น</strong>การส่งข้อมูลที่โทรศัพท์มือถือได้รับผ่านตัว Sensor ไม่ให้ออกไปสู่ภายนอก โดยในขั้นตอนการปิดกั้นจะต้องกระทำผ่าน FrankDroid [2] อีกต่อหนึ่ง</p>
<p>ในงานวิจัย [1] ได้แบ่งบริบทซึ่งมีความเสี่ยงต่อความมั่นคงของข้อมูลออกเป็น 3 บริบทได้แก่ บ้าน ที่ทำงาน และที่สาธารณะ และออกแบบให้ ConXsense มีสถาปัตยกรรมดังภาพที่ 1 โดยขั้นตอนการทำงานสามารถสรุปย่อได้ว่ากลไกการตัดสินใจจะเกิดจากการเก็บสะสมความรู้ที่ได้จากสภาพแวดล้อมรอบ ๆ โทรศัพท์มือถือ (ซึ่งก็คือ Context Feature) ผนวกกับการแสดงแบบสอบถามที่หน้าจอโทรศัพท์มือถือเป็นระยะ เพื่อให้เจ้าของโทรศัพท์มือถือตอบแบบสอบถามตามระดับความเสี่ยงในบริบทนั้น ๆ (ซึ่งก็คือ Label) จากนั้นนำข้อมูลที่ได้ไปทำการ Classifier เพื่อเป็นเกณฑ์ในการตัดสินใจปิดล็อกหน้าจอหรือปิดกั้นการส่งข้อมูลต่อไป</p>
<p>โดยความรู้ที่ได้จากสภาพแวดล้อมรอบ ๆ โทรศัพท์มือถือ ก็คือ Context Feature ที่เก็บได้จาก 3 แหล่งได้แก่ตำแหน่งที่ตั้งผ่านแหล่งกำเนิดสัญญาณ WiFi ตำแหน่งที่ตั้งผ่าน GPS และ ตำแหน่งอุปกรณ์ปล่อยสัญญาณ Bluetooth ของคนที่รู้จักกันซึ่งอยู่รอบตัว โดย ContextFeature ประกอบด้วย เวลานานที่สุดที่อยู่ในตำแหน่ง WiFi/GPS  ความถี่ในการเข้าไปในบริเวณตำแหน่ง WiFi/GPS เมื่อใช้เวลานานที่สุดที่อยู่ในตำแหน่ง WiFi/GPS และ เวลากับจำนวนครั้งเฉลี่ยเมื่อตรวจพบสัญญาณ Bluetooth ของอุปกรณ์ของคนรู้จัก</p>
<p><figure id="attachment_1949" aria-describedby="caption-attachment-1949" style="width: 650px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/10/fig1.png"><img loading="lazy" decoding="async" class="size-full wp-image-1949" src="https://www.parinya.net/wp-content/uploads/2014/10/fig1.png" alt="ภาพที่ 1 แสดงสถาปัตยกรรมของ ConXsense" width="650" height="496" srcset="https://www.parinya.net/wp-content/uploads/2014/10/fig1.png 650w, https://www.parinya.net/wp-content/uploads/2014/10/fig1-300x228.png 300w" sizes="auto, (max-width: 650px) 100vw, 650px" /></a><figcaption id="caption-attachment-1949" class="wp-caption-text">ภาพที่ 1 แสดงสถาปัตยกรรมของ ConXsense</figcaption></figure></p>
<p>สำหรับแบบสอบถามจะเป็นดังภาพที่ 2 โดยให้ผู้ทดสอบตอบตามความเป็นจริงในบริบท โดยมีคำตอบ 2 หมวดหมู่ให้ผู้ทดสอบเลือก ได้แก่ หมวดหมู่แรก คือ บ้าน ที่ทำงาน และ ที่สาธารณะ จัดหมู่กับหมวดหมู่ที่สอง คือ ปลอดภัย และ ไม่ปลอดภัย</p>
<p><figure id="attachment_1950" aria-describedby="caption-attachment-1950" style="width: 650px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/10/fig2.png"><img loading="lazy" decoding="async" class="size-full wp-image-1950" src="https://www.parinya.net/wp-content/uploads/2014/10/fig2.png" alt="ภาพที่ 2 แสดง GUI ของแบบสอบถาม" width="650" height="537" srcset="https://www.parinya.net/wp-content/uploads/2014/10/fig2.png 650w, https://www.parinya.net/wp-content/uploads/2014/10/fig2-300x247.png 300w" sizes="auto, (max-width: 650px) 100vw, 650px" /></a><figcaption id="caption-attachment-1950" class="wp-caption-text">ภาพที่ 2 แสดง GUI ของแบบสอบถาม</figcaption></figure></p>
<p>สำหรับการ Classifier ในงานวิจัย [1] ได้เลือกใช้ 3 วิธี ได้แก่ k-NN Random Forest และ Naïve Bayes เพื่อสร้างเป็นผลลัพธ์สำหรับเก็บลงใน Enforcement Model เพื่อไปต่อเชื่อมสั่งการผ่าน System API อีกทอดหนึ่ง</p>
<p>ผู้วิจัยได้ทดลองการทำงานของ ConXsense โดยติดตั้งลงในโทรศัพท์มือถือรุ่น Samsung Galaxy Nexus และ Samsun Galaxy Nexus S แล้วคัดเลือกผู้ทดสอบจำนวน 15 คน แบ่งผู้ทดสอบเป็นสองกลุ่ม คือ กลุ่มที่มีความรู้ทางเทคนิค และ กลุ่มที่ไม่มีความรู้ทางเทคนิค ให้กลุ่มที่มีความรู้ทางเทคนิคพกโทรศัพท์มือถือเป็นเวลา 68 วัน และให้กลุ่มที่ไม่มีความรู้ทางเทคนิคพกโทรศัพท์มือถือเป็นเวลา 56 วัน ซึ่งผู้ทดสอบจะต้องรายงานสภาพแวดล้อมอย่างสม่ำเสมอเป็นระยะตามความเป็นจริง ด้วยการเปิดหน้าจอแบบสอบถามในภาพที่ 2 เพื่อตอบคำถาม หรือถ้าผู้ทดสอบลืม ทุก ๆ 2 ชั่วโมงก็จะมีการแจ้งเตือนให้ผู้ใช้งานเปิดหน้าจอแบบสอบถาม โดยการเตือนจะมีทั้งการเปิดเสียงเรียก การสั่น และการแสดงแสงวาบที่หน้าจอ ในขณะเดียวกัน โปรแกรมฝังตัวซึ่งทำหน้าที่เก็บ Context Feature ในโทรศัพท์มือถือของผู้ทดสอบ ก็จะทำงานอัตโนมัติทุก ๆ 60 วินาทีเพื่อเก็บข้อมูล และเนื่องจากการประเมินผลการ Classifier แบบออนไลน์บนโทรศัพท์มือถือเป็นเรื่องไม่สะดวกนัก เพราะผู้วิจัยต้องการประเมินด้วย Classifier หลายแบบ ดังนั้น ผู้วิจัยจึงจำเป็นต้องนำ Context Feature และ Label ที่ได้ออกมาประเมินแบบออฟไลน์ในโปรแกรม Weka ส่วนการทดสอบการปิดหน้าจอและการปิดกั้น Sensor ยังคงทดสอบแบบออนไลน์บนโทรศัพท์มือถือโดยตรงเหมือนเดิม</p>
<p>ผู้วิจัยได้ทำการประเมินผลการปิดล็อกหน้าจอ โดยเลือกเอาเฉพาะสภาพแวดล้อมที่มีความเสี่ยงต่ำมาเป็นเกณฑ์ตรวจสอบ ซึ่งได้ผลตามภาพที่ 3 โดยเทียบจาก Naïve Bayes พบว่าระบบมี True Positive Rate ประมาณ 70% และมี False Positive Rate ประมาณ 10% ซึ่งสรุปได้ว่าระบบทายถูก 70% ว่าสภาพแวดล้อมมีความเสี่ยงต่ำ จึงไม่ได้สั่งปิดหน้าจออัตโนมัติ ซึ่งช่วยลดภาระให้กับผู้ใช้งาน 70% ไม่ต้องมาเสียเวลาปิดหน้าจอเอง และในขณะเดียวกันหากอยู่ในสภาพแวดล้อมที่มีความเสี่ยงสูง ก็จะมีโอกาสเพียงไม่เกิน 10% ที่โจรหรือผู้ไม่มีสิทธิ์ จะนำโทรศัพท์มือถือของผู้ทดสอบซึ่งไม่ได้ถูกปิดหน้าจอไปใช้ในทางที่ผิด</p>
<p><figure id="attachment_1951" aria-describedby="caption-attachment-1951" style="width: 650px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/10/fig3.png"><img loading="lazy" decoding="async" class="size-full wp-image-1951" src="https://www.parinya.net/wp-content/uploads/2014/10/fig3.png" alt="รูปที่ 3 ROC Curves สำหรับสภาพแวดล้อมความเสี่ยงต่ำ ในการใช้โทรศัพท์มือถือในทางที่ผิด" width="650" height="414" srcset="https://www.parinya.net/wp-content/uploads/2014/10/fig3.png 650w, https://www.parinya.net/wp-content/uploads/2014/10/fig3-300x191.png 300w" sizes="auto, (max-width: 650px) 100vw, 650px" /></a><figcaption id="caption-attachment-1951" class="wp-caption-text">รูปที่ 3 ROC Curves สำหรับสภาพแวดล้อมความเสี่ยงต่ำ ในการใช้โทรศัพท์มือถือในทางที่ผิด</figcaption></figure></p>
<p>สำหรับการประเมินผลการปิดกั้นข้อมูล Sensor ผู้วิจัยได้เลือกเอาเฉพาะสภาพแวดล้อมที่มีความเสี่ยงต่ำมาเป็นเกณฑ์ตรวจสอบ ซึ่งได้ผลตามภาพที่ 4 พบว่าในกรณีนี้ตัว Classifier คือ kNN และ Random Forest ให้ผลดีทัดเทียมกัน คือ True Positive Rate 70% และ False Positive Rate 2-3.5% ซึ่งสรุปได้ว่าระบบทายถูก 70% ว่าสภาพแวดล้อมมีความเสี่ยงต่ำ จึงไม่ได้สั่งปิดกั้นตัว Sensor ซึ่งช่วยลดภาระให้กับผู้ใช้งาน 70% ไม่ต้องมาเสียเวลา Configure การปิด Sensor เอง (ส่วนอีก 30% ผู้ใช้งานยังต้องไป Configure เองอยู่) และในขณะเดียวกันหากอยู่ในสภาพแวดล้อมที่มีความเสี่ยงสูง ก็จะมีโอกาสเพียงไม่เกิน 3.5% ที่โปรแกรมประสงค์ร้ายจะเข้าถึงตัว Sensor แล้วนำข้อมูลส่งออกไปยังเครือข่ายอินเทอร์เน็ตภายนอก</p>
<p><figure id="attachment_1952" aria-describedby="caption-attachment-1952" style="width: 650px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/10/fig4.png"><img loading="lazy" decoding="async" class="size-full wp-image-1952" src="https://www.parinya.net/wp-content/uploads/2014/10/fig4.png" alt="รูปที่ 4 ROC Curves สำหรับสภาพแวดล้อมความเสี่ยงต่ำ ในการถูกละเมิดข้อมูลซึ่งตรวจจับโดยตัว Sensor" width="650" height="398" srcset="https://www.parinya.net/wp-content/uploads/2014/10/fig4.png 650w, https://www.parinya.net/wp-content/uploads/2014/10/fig4-300x183.png 300w" sizes="auto, (max-width: 650px) 100vw, 650px" /></a><figcaption id="caption-attachment-1952" class="wp-caption-text">รูปที่ 4 ROC Curves สำหรับสภาพแวดล้อมความเสี่ยงต่ำ ในการถูกละเมิดข้อมูลซึ่งตรวจจับโดยตัว Sensor</figcaption></figure></p>
<p><strong>เอกสารอ้างอิง</strong></p>
<ol>
<li>M. Miettinen et al. “ConXsense &#8211; Automated Context Classification for Context-Aware Access Control.” Proceeding ASIA CCS &#8217;14. (June 2014) : 293-304.</li>
<li>S. Bugiel, S. Heuser, and A.-R Sadeghi. “Flexible and fine-grained mandatory access control on Android for diverse security and privacy policies.” USENIX Security’13.</li>
</ol>
<p>&#8212;</p>
<p>สรุปก็ประมาณนี้อ่ะครับ สำหรับใครที่อ่าน ROC Curve ไม่เป็นก็ไม่เป็นไรนะครับ ก็อ่านเอาจากที่บรรยายแล้วกัน ผลมันก็มีอธิบายไว้ในนั้นแล้วครับ</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/1948/feed</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
		<item>
		<title>การปรับปรุงประสิทธิภาพของ Hidden Markov Models</title>
		<link>https://www.parinya.net/node/1873</link>
					<comments>https://www.parinya.net/node/1873#comments</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Thu, 30 Jan 2014 07:04:00 +0000</pubDate>
				<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Assignment]]></category>
		<category><![CDATA[Computation]]></category>
		<category><![CDATA[Literature Review]]></category>
		<category><![CDATA[Pattern Recognition]]></category>
		<category><![CDATA[สถิติ]]></category>
		<category><![CDATA[แบบจำลอง]]></category>
		<category><![CDATA[Hidden Markov Models]]></category>
		<category><![CDATA[HMM]]></category>
		<category><![CDATA[HMMs]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=1873</guid>

					<description><![CDATA[ผมใกล้ต้องส่งการบ้านอีกแล]]></description>
										<content:encoded><![CDATA[<p>ผมใกล้ต้องส่งการบ้านอีกแล้วและคราวนี้เป็นการทบทวนวรรณกรรมครับ คือแบบว่า การจะทำวิจัยต้องมีการทบทวนวรรณกรรมก่อนครับ เพื่อตรวจสอบว่ามีนักวิจัยท่านอื่นได้วิจัยในหัวข้อที่เราสนใจไปบ้างหรือเปล่า และการวิจัยเหล่านั้นได้ก้าวหน้าไปถึงไหนแล้ว เพื่อให้เราได้วิจัยส่วนที่เป็นช่องโหว่ให้ครบถ้วนสมบูรณ์ต่อไป</p>
<p>ส่วนตัวผมเองก็รู้ทฤษฎีการคำนวณสำหรับคอมพิวเตอร์เพียงไม่กี่เรื่องครับ ดังนั้น ก็เลยต้องเลือกทบทวนวรรณกรรมในหัวข้อที่ตนเองถนัดที่สุด นั่นคือ แบบจำลองทางสถิติที่ชื่อว่า Hidden Markov Models และเพื่อให้ไม่เป็นการเสียเวลา มาลองอ่านงานทบทวนวรรณกรรมฉบับร่างของผมดูกันครับ</p>
<p><strong><b>ทบทวนวรรณกรรม</b></strong></p>
<p>นับตั้งแต่งานวิจัย Hidden Markov Model [1][2][3][4] ซึ่งเป็นโมเดลที่เหมาะกับการอนุมานความน่าจะเป็นของลำดับที่ซ่อนอยู่ โดยการวิเคราะห์จากลำดับที่สังเกตได้ ๆ ถูกตีพิมพ์เผยแพร่ออกสู่สาธารณชน และ มีงานวิจัย [5][6][7] ที่ได้บุกเบิกนำ Hidden Markov Models มาปรับใช้สำหรับงานด้าน Speech Recognition เพื่อเปรียบเทียบระหว่างเสียงพูดกับชุดข้อความอย่างมีประสิทธิภาพ ก็ได้ทำให้ Hidden Markov Models กลายเป็นโมเดลที่ถูกประยุกต์ใช้อย่างกว้างขวาง ในการแก้ปัญหาต่าง ๆ ที่เกี่ยวกับการอนุมานความน่าจะเป็นของลำดับที่ซ่อนอยู่ โดยการวิเคราะห์จากลำดับที่สังเกตได้ เช่น งานวิจัย [8] การจับคู่สายรหัสพันธุกรรม ซึ่งเป็นงานด้าน Bioinformatics, งานวิจัย [9] [10][11] การจับคู่ระหว่างข้อความกับรูปแบบของการวาดมือ ซึ่งเป็นงานด้าน Gesture Recognition, งานวิจัย [12] การหาทิศทางเดินให้กับหุ่นยนต์ในสภาพแวดล้อมปิดในอาคาร ซึ่งเป็นงานด้าน Robotics, งานวิจัย [13] [14] [15] ตรวจสอบการบุกรุกระบบคอมพิวเตอร์ ซึ่งเป็นงานด้าน Computer Security เป็นต้น</p>
<p>โดยพื้นฐานแล้วถ้าเราไม่สนใจประสิทธิภาพในการคำนวณ เราจะพบว่า Hidden Markov Models เป็นโมเดลที่ใช้ประโยชน์ได้ดีและไม่มีปัญหา แต่หากเราสนใจประสิทธิภาพในการคำนวณ เราจะพบว่า Hidden Markov Models มีปัญหาพื้นฐานอยู่ 3 ข้อ อันได้แก่ 1) การหาผลรวมสุทธิของความน่าจะเป็นของโมเดล เมื่อเทียบกับลำดับที่สังเกตได้, 2) การหาลำดับที่ถูกซ่อนในโมเดล ซึ่งให้ค่าความเป็นไปได้สูงสุด เมื่อเทียบกับลำดับที่สังเกตได้ และ 3) การปรับค่าพารามิเตอร์ในโมเดล เพื่อให้โมเดลมีผลรวมสุทธิของความน่าจะเป็นเพิ่มขึ้น</p>
<p><span id="more-1873"></span></p>
<p>สำหรับปัญหาพื้นฐานข้อแรก คือ การหาผลรวมสุทธิของความน่าจะเป็นของโมเดล เมื่อเทียบกับลำดับที่สังเกตได้ ซึ่งโดยพื้นฐานแล้วสามารถใช้วิธีการ Brute Force เพื่อคำนวณหาได้ แต่มันเป็นการคำนวณที่ไม่มีประสิทธิภาพ เพราะใช้เวลาเป็น O(2TN^T) ดังนั้นจึงมีงานวิจัยหลายชิ้นที่นำเสนอวิธีการลดเวลาในการคำนวณ เช่น งานวิจัย [2][3] ที่เสนอให้ใช้เทคนิค Dynamic Programming มาช่วยลดเวลาในการคำนวณ เรียกว่า Forward-Backward Algorithm ซึ่งสามารถลดเวลาในการคำนวณลงเหลือ O(TN^2) และต้องเสียพื้นที่เพิ่มเติมเท่ากับ O(TN), งานวิจัย [16] ที่คิดค้นแปลง Hidden Markov Models ให้เป็น Probabilistic Independent Network เพื่อสะดวกในการคำนวณ ซึ่งสามารถลดเวลาในการคำนวณลงเหลือ O(TN) และต้องเสียพื้นที่เพิ่มเติมเท่ากับ O(TN), งานวิจัย [17] ที่ใช้เทคนิค Divide and Conquer ซึ่งลดเวลาในการคำนวณลงเหลือ O(TN log(N)) และต้องเสียพื้นที่เพิ่มเติมเท่ากับ O(T log (N)) เป็นต้น</p>
<p>สำหรับปัญหาพื้นฐานข้อที่สอง คือ การหาลำดับที่ถูกซ่อนในโมเดล ซึ่งให้ค่าความเป็นไปได้สูงสุด เมื่อเทียบกับลำดับที่สังเกตได้ ซึ่งเป็นปัญหาที่ไม่แตกต่างจากปัญหาแรก นั่นคือ หากคำนวณตรง ๆ ก็จะใช้เวลาเป็น O(2TN^T) เพราะต้องคำนวณให้ครบทุกลำดับที่ซ่อนอยู่ที่เป็นไปได้ จึงจะสามารถเลือกลำดับที่ให้ค่าความน่าจะเป็นสูงสุดมาเป็นผลลัพธ์สำหรับแก้ปัญหาที่สองนี้ และเนื่องจากการแก้ปัญหาแบบนี้ไม่มีประสิทธิภาพ จึงได้มีการประยุกต์ใช้เทคนิคอื่นเพื่อแก้ปัญหา เช่น งานวิจัย [18][19] ซึ่งจัดวางโมเดลให้อยู่ในรูปของ Trellis Diagram และใช้เทคนิค Dynamic Programming ซึ่งเรียกว่า Viterbi Algorithm โดยสามารถลดเวลาคำนวณลงเหลือ O(TN^2) และต้องเสียพื้นที่เพิ่มเติมเท่ากับ O(2TN), งานวิจัย [20][21] ที่นำ Viterbi Algorithm มาต่อยอด โดยการลดรูปของ Trellis Diagram ด้วยวิธีการจัดกลุ่ม State ที่คล้ายกัน ทำให้ลดเวลาการคำนวณลงเหลือ O(TN^2/G^2) และยังเพิ่มประสิทธิภาพเพิ่มเติมด้วยการกำหนด Threshold เพื่อข้ามการคำนวณบาง State ที่ไม่จำเป็น เป็นต้น</p>
<p>สำหรับปัญหาพื้นฐานข้อที่สาม คือ การปรับค่าพารามิเตอร์ในโมเดล เพื่อให้โมเดลมีผลรวมสุทธิของความน่าจะเป็นเพิ่มขึ้น ซึ่งเป็นปัญหาที่ยากที่สุดและไม่มีขั้นตอนวิธีตายตัว โดยนักวิจัยได้แบ่งการค้นคว้ากันไปใน 2 แนวทาง ได้แก่ 1) แบบที่ให้ผลลัพธ์เป็น Local Optimum เช่น งานวิจัย [4] ที่ใช้การประมาณการแบบ Iterative Method ด้วยเทคนิคแบบ Expectation Maximization [22] เรียกว่า Baum-Welch Algorithm, งานวิจัย [23] ที่ใช้เทคนิคการปรับตัวเลข เรียกว่า Gradient Descent Algorithm, งานวิจัย [24] ที่ใช้ Ant Colony Optimization ร่วมกับ Baum-Welch Algorithm และ 2) แบบที่ให้ผลลัพธ์เป็น Global Optimum โดยการใช้ขั้นตอนวิธี Metaheuristic เข้ามาช่วยคำนวณ เช่น งานวิจัย [25][26][27] ที่ใช้ Genetic Algorithm, งานวิจัย [28] ที่ใช้ Particle Swarm Optimization, งานวิจัย [29] ที่ใช้ Modified Gravitational Search Algorithm เป็นต้น</p>
<p>ผู้เขียนวิเคราะห์ว่าแนวโน้มในการแก้ปัญหาพื้นฐานข้อที่สามด้วยวิธี Metaheuristic เพื่อให้ได้ผลลัพธ์เป็น Global Optimum กำลังเป็นที่นิยมแพร่หลายมากขึ้นเรื่อย ๆ เนื่องจากเป็นวิธีการหาคำตอบโดยการสุ่มคำตอบที่ดีที่สุดจากค่าที่เป็นไปได้ทั้งหมดจริง ๆ แทนที่จะใช้วิธีการหาคำตอบที่ดีที่สุดแบบ Local Optimum จากชุดของตัวแทนที่ถูกเลือกมาด้วย Forward-Backward Algorithm ซึ่งคำตอบที่ได้จากตัวแทนอาจจะไม่ใช่คำตอบที่ดีที่สุด เมื่อเทียบกับการหาคำตอบจากค่าที่เป็นได้ทั้งหมด</p>
<p>นอกจากปัญหาในแง่การคำนวณเพื่อให้มีประสิทธิภาพสูงสุดแล้ว ยังมีปัญหาท้าทายอีกอย่างหนึ่งนั่นคือ ปัญหาการออกแบบ Topology ให้มีความเหมาะสม ดังนั้น จึงมีงานวิจัยหลายตัวที่ถูกคิดค้นขึ้น เพื่อการทำให้ Topology ของ Hidden Markov Model มีความหลากหลาย เช่น งานวิจัย [30][31] ที่คิดค้น Hierarchical Hidden Markov Model (HHMM) เพื่อสร้าง Topology ของ Hidden Markov Model ใหม่ โดยการจัดกลุ่มของลำดับที่ซ่อนอยู่ซึ่งมีรูปแบบวนซ้ำ ให้อยู่ในรูปโครงสร้างแบบต้นไม้ จุดประสงค์เพื่อนำไปใช้สำหรับแก้ปัญหาซับซ้อนเชิงโครงสร้างหลายระดับ ที่ Topology แบบเรียงลำดับไม่สามารถแก้ปัญหาได้อย่างมีประสิทธิภาพ หรืองานวิจัย [32] ที่คิดค้น variable-length Hidden Markov Model (VLHMM) ซึ่งเป็น Topology ที่เพิ่ม Context Set เข้ามาช่วยในการคำนวณการเชื่อมโยงของลำดับที่ซ่อนอยู่ จากเดิมที่เคยเชื่อมลำดับที่ซ่อนอยู่ปัจจุบันกับลำดับที่ซ่อนอยู่ก่อนหน้าแบบ First Order ก็ให้เปลี่ยนเป็นลำดับที่สูงกว่า First Order แทน โดยขึ้นกับการคำนวณเพื่อเปลี่ยนแปลงค่าความน่าจะเป็นในโมเดล เพื่อให้โมเดลมีผลรวมของความน่าจะเป็นเพิ่มขึ้น โดยอิงกับลำดับที่สังเกตได้</p>
<p>ผู้เขียนวิเคราะห์ว่าการออกแบบ Topology ให้เหมาะสม จะส่งผลทางอ้อม ทำให้ไม่ต้องแก้ปัญหาพื้นฐานของ Hidden Markov Models ให้ครบทั้ง 3 ข้อ หากแต่เลือกเพียงบางข้อเพื่อแก้ปัญหาก็ได้ เช่น ในงานแก้ปัญหา Speech Recognition ซึ่งมักจะใช้ Topology แบบ Left To Right นั้น ใช้เพียงวิธีแก้ปัญหาพื้นฐานของข้อที่หนึ่งกับข้อที่สามก็เพียงพอแล้ว เนื่องจากรูปแบบของ Topology แบบ Left To Right นั้น ได้บังคับทิศทางของลำดับที่ถูกซ่อนในโมเดลเอาไว้อยู่แล้ว จึงไม่จำเป็นต้องใช้วิธีแก้ปัญหาพื้นฐานของข้อที่สองเพื่อแก้ปัญหาเพิ่มเติมอีก</p>
<p><b>เอกสารอ้างอิง</b></p>
<ol>
<li>L.  E.  Baum, T.  Pretrie.  “<b>Statistical Inference For Probabilistic Functions Of Finite State Markov Chains.</b>”  The Annals of Mathematical Statistics.  (April 1966) : 1554-1563.</li>
<li>L.  E.  Baum, J.  A.  Eagon.  “<b>An inequality with applications to statistical estimation for probabilistic functions Markov processes and to a model for ecology.</b>”  Bull. Amer. Math. Soc.  (1967) : 360-363.</li>
<li>L.  E.  Baum, G.  R.  Sell.  “<b>Growth Transformations For Functions on Manifolds.</b>”  Pacific Journal of Mathematics, vol.  27, No.  2.  (1968) : 211-227.</li>
<li>L.  E.  Baum, et al.  “<b>A maximization technique occurring in the statistical analysis of probabilistic functions of Markov chain.</b>”  The Annals of Mathematical Statistics, vol. 41. No. 1.  (1970) : 164-171.</li>
<li>L.  R.  Rabiner, B.  H.  Juang.  “<b>An Introduction to Hidden Markov Models.</b>”  IEEE ASSP Magazine.  (January 1986) : 4-16.</li>
<li>L.  R.  Rabiner.  “<b>A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition.</b>”  Proceeding of the IEEE, vol. 77, No. 2.  (February 1989) : 257-286.</li>
<li>L.  R.  Rabiner,  B.  H.  Juang.  <b>Fundamentals of speech recognition</b>.  New Jersey : Prentice-Hall Inc, 1993.</li>
<li>Richard Durbin, et al.  <b>Biological sequence analysis: Probabilistic models of proteins and nucleic acids.</b>  New York : Cambridge University Press, 1998.</li>
<li>T.  Starner, A.  Pentland.  “<b>Real-time American Sign Language recognition from video using hidden Markov models.</b>”  Proceeding of the International Symposium on Computer Vision.  (November 1995) : 265-270.</li>
<li>Hyeon-Kyu Lee, Jin H. Kim.  “<b>An</b> <b>HMM-Based Threshold Model Approach for Gesture Recognition.</b>”  IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 21, issue 10.  (October 1999) : 961-973.</li>
<li>Martin J.  “<b>Automatic handwriting gestures recognition using hidden Markov models.</b>”  Proceeding of IEEE International Conference.  (March 2000) : 403-409.</li>
<li>Aycard O.  “<b>Place Learning and recognition using hidden Markov models.</b>”  Proceeding of IEEE/RSJ International Conference, vol. 3.  (September 1997) : 1741-1747.</li>
<li>S.  B.  Cho, S.  J.  Han.  “<b>Two Sophisticated Technique to Improve HMM-Based Intrusion Detection Systems.</b>”  RAID2003, (2003) : 207-219.</li>
<li>T.  Lane, C.  E.  Brodley.  “<b>An Empirical Study of Two Approaches to Sequence Learning for Anomaly Detection.</b>”  Machine Learning, 51 (2003) : 73-107.</li>
<li>C.  Warrender, et al.  “<b>Detecting Intrusions Using System Calls: Alternative Data Models.</b>”  Proceedings of the IEEE Computer Society Symposium on Research in Security and Privacy, (1999) : 133–145.</li>
<li>P.  Smyth, D.  Heckerman, M.  Jordan.  “<b>Probabilistic Independence Networks for Hidden Markov Probability Models.</b>”  Technical Report MSR-TR-96-03, Microsoft Research, Redmond, Washington, (1996).</li>
<li>J.  Binder, K.  Murphy, S.  Russell.  “<b>Space-efficient inference in dynamic probabilistic networks.</b>”  Proceedings of 5<sup>th</sup> IJCAI97, vol.  2, (1997) : 1292-1296.</li>
<li>J.  Viterbi.  “<b>Error bounds for convolutional codes and anasymptotically optimal decoding algorithm.</b>”  IEEE Trans.  Informat.  Theory, vol.  IT-13,  (April 1967) : 260-269.</li>
<li>G.  D.  Forney.  “<b>The Viterbi algorithm.</b>”  Proc.  IEEE, vol. 62.  (March 1973) : 268-278.</li>
<li>Y.  Fujiwara, Y.  Sakurai, M.  Yamamuro.  “<b>SPIRAL: Efficient and Exact Model Identification for Hidden Markov Models.</b>”  KDD’08, (August 2008) : 247-255.</li>
<li>Y.  Fujiwara, Y.  Sakurai, M.  Kitsuregawa.  “<b>Fast Likelihood Search for Hidden Markov Models.</b>”  ACM Transaction Knowledge Discovery from Data, vol.  3, no.  4, Article 18, (November 2009) : 1-37.</li>
<li>P.  Dempster, N.  M.  Laird and D.  B.  Rubin.  “<b>Maximum Likelihood from incomplete data via the EM algorithm.</b>”  J.  Roy.  Stat.  Soc., vol.  39, no.  1.  (1977) : 1-38.</li>
<li>S.  E.  Levinson, L.  R.  Rabiner, M.  M.  Sondhi.  “<b>An introduction to the application of the theory of probabilistic functions of a Markov process to automatic speech recognition.</b>”  Bell System Technical Journal.  62 (1983) : 1035-1074.</li>
<li>Q.  Wang, S.  Ju.  “<b>ACO-based BW algorithm for parameter estimation of hidden Markov models.</b>”  International Journal of Computer Applications in Technology, vol.  41, issue 3/4, (September 2011) : 281-286.</li>
<li>Fang Sun, Guangrui Hu.  “<b>Speech recognition based on genetic algorithm for training HMM.</b>”  Electronics Letters, vol.  34, 16 (August 1998) : 1563-1564.</li>
<li>C.  W.  Chau, et al.  “<b>Optimization of HMM by a Genetic Algorithm.</b>”  IEEE ICASSP-97, vol.  3, (1997) : 1727-1730.</li>
<li>Chan, S.  Kwong.  “<b>Analysis of Parallel Genetic Algorithm on HMM based speech recognition system.</b>”  IEEE Conf., (1997) : 1229-1233.</li>
<li>L.  Xue, et al.  “<b>A Particle Swarm Optimization for Hidden Markov Model Training.</b>”  Proceeding of 8th International Conference on Signal Processing, 1 (2006).</li>
<li>A.  R.  Hosseinabadi, M.  R.  Ghaleh, S.  E.  Hashemi.  “<b>Application of Modified Gravitational Search Algorithm to Solve the Problem of Teaching Hidden Markov Model.</b>”  IJCSI, vol.  10, issue 3, no.  2, (May 2013) : 1-8.</li>
<li>S.  Find, Y.  Singer, N.  Tishby.  “<b>The Hierarchical Hidden Markov Model: Analysis and Applications.</b>”  Machine Learning, 32 (1998) : 41-62.</li>
<li>Lin-Yi Chou.  “<b>Techniques to incorporate the benefits of a Hierarchy in a modified hidden Markov model.</b>”  Proceeding of the COLING/ACL06, (July 2006) : 120-127.</li>
<li>Y.  Wang, et al.  “<b>Mining Complex Time-Series Data by Learning Markovian Models.</b>”  Proceeding of the Sixth ICDM06, (2006) : 1136-1140.</li>
</ol>
<p>ก็จบคร่าว ๆ ประมาณนี้ครับ ซึ่งถ้าใครสนใจแบบจำลองทางสถิติที่ชื่อว่า Hidden Markov Models ก็สามารถหาอ่านเพิ่มเติมได้ทางเว็บไซต์ต่าง ๆ ครับ แต่ก็เป็นอะไรที่น่าสับสนนิดนึงนะครับ ทางที่ดีถ้าอยากเรียนรู้เร็ว ก็คงต้องให้คนที่แตกฉานในแบบจำลองมาอธิบายนั่นแหล่ะครับถึงจะเข้าใจได้</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/1873/feed</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>จดหมายเหตุควอนตัมคอมพิวเตอร์</title>
		<link>https://www.parinya.net/node/1832</link>
					<comments>https://www.parinya.net/node/1832#respond</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Fri, 03 Jan 2014 15:15:18 +0000</pubDate>
				<category><![CDATA[Assignment]]></category>
		<category><![CDATA[Feature]]></category>
		<category><![CDATA[Literature Review]]></category>
		<category><![CDATA[Quantum Computer]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=1832</guid>

					<description><![CDATA[ผมต้องทำรายงานส่งอีกแล้วค]]></description>
										<content:encoded><![CDATA[<p>ผมต้องทำรายงานส่งอีกแล้วครับ คราวนี้เป็นหัวข้อ &#8220;สถาปัตยกรรมคอมพิวเตอร์ในอนาคต&#8221; ผมก็เลยคิดว่า ผมควรจะเอาเรื่องที่ผมเคยเขียนเมื่อหลาย ๆ ครั้งที่ผ่านมา จากหลาย ๆ ปีที่ผ่านมา อย่างเรื่องของ &#8220;ควอนตัมคอมพิวเตอร์&#8221; มาปะติดปะต่อเขียนใหม่ให้เป็นลักษณะของจดหมายเหตุ ที่มีการอ้างอิงวารสารวิชาการอย่างมีรูปแบบและเชื่อถือได้ ไม่ใช่การเล่าเรื่องเลื่อนลอยโดยไม่มีหลักฐานอ้างอิงอย่างครั้งที่ผ่าน ๆ มา อีกทั้งยังมีการใส่รายละเอียดเล่าถึงที่มาที่ไปอย่างครบถ้วน โดยพยายามใช้ภาษาอย่างง่ายที่สุด เพื่อให้คนที่ไม่ค่อยรู้ ได้รู้บ้างไม่มากก็น้อย</p>
<p>เอาเป็นว่าเริ่มเลยก็แล้วกันนะครับ &#8230;</p>
<p><strong style="line-height: 1.5em;">บทนำ</strong></p>
<p>ปัจจุบันโลกยังอยู่ในยุคของสถาปัตยกรรมดิจิทัลคอมพิวเตอร์ ซึ่งเป็นสถาปัตยกรรมที่พึ่งพาปรากฎการณ์ทางด้านอิเลกทรอนิกส์ในการขับเคลื่อน นั่นคือ ยังคงประมวลผลโดยพึ่งพาสัญญาณไฟฟ้ากระแสตรงแบบ 0 และ 1 ซึ่งทิศทางของสัญญาณไฟฟ้าเกิดจากการที่อิเล็กตรอนกระโดดออกจากอะตอมหนึ่งข้ามไปยังอีกอะตอมหนึ่งในทิศทางตรงข้ามกัน ในขณะเดียวกัน ปริมาณของทรานซิสเตอร์บนวงจรรวม ก็เพิ่มขึ้นเป็นเท่าตัวประมาณทุก ๆ สองปี ตามกฎของ Gordon E.  Moore</p>
<p>การที่ปริมาณของทรานซิสเตอร์บนวงจรรวมเพิ่มขึ้น ซึ่งทำให้การประมวลผลเร็วขึ้น ในขณะที่หน่วยประมวลผลยังคงมีขนาดเล็กเท่าเดิม แสดงให้เห็นว่า วงจรของหน่วยประมวลผลกำลังเล็กลงเรื่อย ๆ จนกระทั่งสุดท้าย วงจรของหน่วยประมวลผลก็จะมีขนาดเท่ากับอะตอมและไม่สามารถเล็กไปกว่านี้ได้ เพราะถ้าเล็กกว่าอะตอม ก็จะทำให้ปรากฎการณ์ทางไฟฟ้าที่เกิดจากการที่อิเล็กตรอนกระโดดออกจากอะตอมหนึ่งไปยังอีกอะตอมหนึ่งเกิดขึ้นไม่ได้ ซึ่งนั่นหมายความว่าจะไม่สามารถใช้ทฤษฎีแม่เหล็กไฟฟ้าเพื่อมาจัดการกับปรากฎการณ์นี้ได้</p>
<p>ด้วยปัญหาที่เกิดขึ้น ผนวกกับการที่ต่อไปวงจรจะมีขนาดเล็กลงจนอยู่ในระดับอะตอม (หรือเล็กกว่า) ซึ่งทำให้สามารถแสดงคุณสมบัติแบบควอนตัม (ก้อนพลังงานที่แกว่งตัว) ได้ และถ้าเป็นแบบนั้น แนวคิดของวงจรคอมพิวเตอร์ก็จะต้องเปลี่ยนไป จากเดิมที่ใช้ทฤษฎีแม่เหล็กไฟฟ้าเป็นพื้นฐานในการประดิษฐ์วงจร ก็ต้องเปลี่ยนเป็นการใช้ทฤษฎีกลศาสตร์ควอนตัมเป็นพื้นฐานในการประดิษฐ์วงจรแทน ทำให้ต้องมองว่าถ้าจะมีสิ่งใดมาแทนที่ดิจิทัลคอมพิวเตอร์ สิ่งนั้นก็คือควอนตัมคอมพิวเตอร์นั่นเอง</p>
<p><span id="more-1832"></span></p>
<p><strong>กลศาสตร์ควอนตัม</strong></p>
<p>ฟิสิกส์ปัจจุบันประกอบด้วยวิชาหลักสองวิชา คือ ทฤษฎีสัมพัทธภาพ ซึ่งถูกคิดค้นโดย Albert Einstein และ ทฤษฎีฟิสิกส์ควอนตัม ซึ่งถูกคิดค้นโดยนักฟิสิกส์อัจฉริยะหลาย ๆ คน โดยทฤษฎีฟิสิกส์ควอนตัมก็แบ่งย่อยได้เป็น ทฤษฎีกลศาสตร์ควอนตัม ซึ่งใช้อธิบายความเป็นควอนตัมของสสาร และ ทฤษฎีควอนตัมสนาม ซึ่งใช้อธิบายอันตรกิริยาต่าง ๆ ในธรรมชาติ โดยคุณสมบัติสำคัญของทฤษฎีกลศาสตร์ควอนตัมที่น่าสนใจมีอยู่ 2 เรื่องใหญ่ ๆ ก็คือ 1)  เรื่องของหลักความไม่แน่นอนของ Werner Heisenberg คือ ถ้าเราสามารถวัดโมเมนตัมของอนุภาคได้อย่างแม่นยำ เราจะพบว่าเราไม่สามารถวัดตำแหน่งของอนุภาคได้อย่างแม่นยำ และ ถ้าเราสามารถวัดตำแหน่งของอนุภาคได้อย่างแม่นยำ เราจะพบว่าเราไม่สามารถวัดโมเมนตัมของอนุภาคได้อย่างแม่นยำ และ 2) เรื่องของความพัวพัน ซึ่งแสดงให้เห็นว่า ในระบบที่มีอนุภาค 2 อนุภาค ซึ่งอยู่ใกล้กันและมีอันตรกิริยากัน ในเวลาต่อมา ถ้าอนุภาคทั้ง 2 ถูกแยกออกจากกันไปไกลแสนไกลอย่างฉับพลันทันที ถ้ามีการวัดสมบัติของอนุภาคตัวแรก ข้อมูลที่ได้จะทำให้รู้ข้อมูลของอนุภาคตัวที่สองในทันทีทันใด โดยไม่จำเป็นต้องวัดคุณสมบัติของอนุภาคตัวที่สองเลย (สุทัศน์, 2556)</p>
<p>หลักความไม่แน่นอนของ Werner Heisenberg ในทฤษฎีกลศาสตร์ควอนตัมได้นำไปสู่การคิดค้นหลักการซ้อนทับในทางควอนตัมสำหรับคอมพิวเตอร์ หรือ Quantum Superposition ซึ่งเป็นผลให้แนวคิดเกี่ยวกับบิตในทางคอมพิวเตอร์เปลี่ยนไป จากเดิมที่เราคุ้นเคยกันว่า บิตในดิจิตอลคอมพิวเตอร์จะเป็นได้เพียงค่า 0 และ 1 ก็จะกลายเป็นว่าบิตในควอนตัมคอมพิวเตอร์จะมีค่า 0 หรือ 1 หรือเป็นได้ทั้ง 0 และ 1 ในเวลาเดียวกัน หรือที่เรียกว่า Superposition</p>
<p>แรกเริ่มนั้น Richard P.  Feynman ซึ่งเป็นนักฟิสิกส์ที่ได้รับรางวัลโนเบลในทฤษฎีควอนตัมสนาม ได้ตั้งข้อสังเกตว่า เราไม่สามารถจำลองปรากฎการณ์ของกลศาสตร์ควอนตัมที่แน่นอนอย่างมีประสิทธิภาพบนดิจิทัลคอมพิวเตอร์ได้ และคิดว่าการคำนวณโดยทั่วไปน่าจะมีประสิทธิภาพมากขึ้น หากใช้ปรากฎการณ์ควอนตัมเข้ามาช่วยในการคำนวณบนระบบควอนตัมจริง ๆ (R.  P.  Feynman, 1982)</p>
<p>การพิสูจน์สิ่งที่ Richard P. Feynman บอก หมายถึงการต้องสร้างควอนตัมคอมพิวเตอร์จริง ๆ ขึ้นมา เพื่อพิสูจน์ว่ามันสามารถคำนวณด้วยเวลาที่มีประสิทธิภาพมากขึ้น ซึ่งมันอาจไม่คุ้มหากสร้างขึ้นมาจริง ๆ แล้วกลับพบว่ามันไม่ได้คำนวณได้เร็วขึ้น ดังนั้น เพื่อลดต้นทุนในการพิสูจน์ จึงจำเป็นต้องพิสูจน์ทางอ้อมแทน ซึ่งวิธีการพิสูจน์ทางอ้อมที่เชื่อถือได้มากที่สุด คือ การพิสูจน์ด้วยสมการคณิตศาสตร์ และ Peter W.  Shor ก็ได้สร้างความประหลาดใจให้โลกได้เห็นว่า ด้วยขั้นตอนวิธีการแยกตัวประกอบเฉพาะและการหา Discrete Logarithm ที่คิดขึ้นสำหรับใช้บนควอนตัมคอมพิวเตอร์ จะสามารถประมวลผลได้ด้วยเวลาเป็น Polynomial เทียบกับการประมวลผลบนดิจิตอลคอมพิวเตอร์ ที่ต้องใช้เวลาเป็น Exponential (P.  W.  Shor, 1994) ซึ่งทำให้นักวิทยาศาสตร์เริ่มตระหนักว่าควอนตัมคอมพิวเตอร์ คือสิ่งที่คุ้มค่าหากคิดค้นมันขึ้นมาได้</p>
<p><strong>ควอนตัมบิต</strong></p>
<p>ในดิจิทัลคอมพิวเตอร์จะมองคุณสมบัติความเป็น “บิต” จากลูกคลื่นไฟฟ้า โดยหากคลื่นไฟฟ้ายกตัวในจังหวะนาฬิกาหนึ่ง จะถือว่าข้อมูลช่วงเวลาดังกล่าวเป็นบิต 1 ในขณะที่ถ้าคลื่นไฟฟ้าไม่ได้ยกตัวในจังหวะนาฬิกาหนึ่ง จะถือว่าข้อมูลช่วงเวลาดังกล่าวเป็นบิต 0 แต่สำหรับควอนตัมบิตจะเป็นอีกคุณสมบัติหนึ่ง</p>
<p>ควอนตัมบิตจะมองบิตในรูปของ Vector State บน Space และควอนตัมบิตจะไม่ได้มีค่าเพียง 0 หรือ 1 แต่อาจเป็นได้ทั้ง 0 และ 1 ในเวลาเดียวกัน หรือที่เรียกว่า Superposition ซึ่งการมีค่าเป็น 0 หรือ 1 คงไม่ต้องอธิบายเพิ่มเติม เพราะเหมือนกับดิจิทัลคอมพิวเตอร์อยู่แล้ว แต่สำหรับกรณี Superposition ที่เป็นได้ทั้ง 0 และ 1 ในเวลาเดียวกัน เป็นสิ่งที่ต้องอธิบายเพิ่มเติมเป็นพิเศษ และเพื่อให้เข้าใจแนวคิด Superposition นี้ จึงต้องใช้อนุภาคที่สามารถสังเกตได้โดยตรง คือ Photon เพื่อทดลองการจำกัดสนามไฟฟ้าของคลื่นแสงให้สั่นในระนาบเดียวกัน หรือ Photon Polarization ในการอธิบายคุณสมบัติของควอนตัมบิต (E.  Rieffel, W.  Polak, 2000)</p>
<p>ตัวอย่างในการทดลอง (E.  Rieffel, W.  Polak, 2000) คือ การใช้แสงความเข้มสูงยิงจากแหล่งกำเนิด ไปยังบริเวณเป้าหมาย โดยจะใช้แผ่นกรองแสง A ซึ่งจะกรองแสงในแนวนอน, แผ่นกรองแสง B ซึ่งจะกรองแสงในแนวนอนที่ 45 องศา และ แผ่นกรองแสง C ซึ่งจะกรองแสงในแนวตั้ง สำหรับกั้นแสงประกอบการทดลอง</p>
<p>เริ่มแรกจะใช้การยิงแสงความเข้มสูงซึ่งมีแนวคลื่นแสงแบบสุ่มให้กระทบเป้าหมาย โดยใช้แผ่นกรองแสง A ซึ่งจะกรองแสงในแนวนอน วางทับเพื่อบังคลื่นแสง ซึ่งจะทำให้ความเข้มของแสงลดลง 50%  (เป็นการสมมติจากความเป็นไปได้สูงสุด) และคลื่นแสงที่ออกมาจะเป็นแนวนอนทั้งหมด</p>
<p><figure id="attachment_1838" aria-describedby="caption-attachment-1838" style="width: 348px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/01/quantum1.png"><img loading="lazy" decoding="async" class="size-full wp-image-1838" alt="รูปภาพที่ 1 แสดงการกั้นแสงด้วยแผ่นกรองแสง A" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum1.png" width="348" height="139" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum1.png 348w, https://www.parinya.net/wp-content/uploads/2014/01/quantum1-300x119.png 300w" sizes="auto, (max-width: 348px) 100vw, 348px" /></a><figcaption id="caption-attachment-1838" class="wp-caption-text">รูปภาพที่ 1 แสดงการกั้นแสงด้วยแผ่นกรองแสง A</figcaption></figure></p>
<p>จากนั้นใช้แผ่นกรองแสง C ซึ่งจะกรองแสงในแนวตั้ง วางทับเพื่อบังคลื่นแสงแนวนอนที่ผ่านแผ่นกรองแสง A ซึ่งจะทำให้ความเข้มของแสงลดเหลือศูนย์ เมื่อตกกระทบเป้าหมาย เพราะคลื่นแสงแนวนอนไม่สามารถผ่านแผ่นกรองแสงสำหรับคลื่นแสงแนวตั้งได้</p>
<p><figure id="attachment_1839" aria-describedby="caption-attachment-1839" style="width: 348px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/01/quantum2.png"><img loading="lazy" decoding="async" class="size-full wp-image-1839" alt="รูปภาพที่ 2 แสดงการกั้นแสงเพิ่มด้วยแผ่นกรองแสง C" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum2.png" width="348" height="110" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum2.png 348w, https://www.parinya.net/wp-content/uploads/2014/01/quantum2-300x94.png 300w" sizes="auto, (max-width: 348px) 100vw, 348px" /></a><figcaption id="caption-attachment-1839" class="wp-caption-text">รูปภาพที่ 2 แสดงการกั้นแสงเพิ่มด้วยแผ่นกรองแสง C</figcaption></figure></p>
<p>สุดท้าย ใช้แผ่นกรองแสง B ซึ่งจะกรองแสงในแนวนอน 45 องศา วางทับเพื่อบังคลื่นแสงระหว่างแผ่นกรองแสง A และแผ่นกรองแสง C ซึ่งจะทำให้ความเข้มแสงเล็กน้อยสามารถเล็ดลอดผ่านแผ่นกรองแสง C ตกกระทบยังเป้าหมายได้</p>
<p><figure id="attachment_1840" aria-describedby="caption-attachment-1840" style="width: 354px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/01/quantum3.png"><img loading="lazy" decoding="async" class="size-full wp-image-1840" alt="รูปภาพที่ 3 แสดงการกั้นแสงเพิ่มด้วยแผ่นกรองแสง B" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum3.png" width="354" height="120" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum3.png 354w, https://www.parinya.net/wp-content/uploads/2014/01/quantum3-300x101.png 300w" sizes="auto, (max-width: 354px) 100vw, 354px" /></a><figcaption id="caption-attachment-1840" class="wp-caption-text">รูปภาพที่ 3 แสดงการกั้นแสงเพิ่มด้วยแผ่นกรองแสง B</figcaption></figure></p>
<p>เพื่ออธิบายการทดลองนี้ จึงต้องมองทิศทางของแสงให้อยู่ในรูปของ Vector โดยให้มองว่าคลื่นแสงแนวตั้งเป็น Vector a และคลื่นแสงแนวนอนเป็น Vector b และให้มองว่า Vector a และ Vector b เป็นจำนวนเชิงซ้อน ดังนั้น การหาว่าทิศทางของคลื่นแสงสุดท้ายจริง ๆ เป็นค่าใด จะต้องอาศัยการตรวจวัดสภาวะของ Vector a และ Vector b ประกอบกัน โดยอาศัยหลักความน่าจะเป็นและทฤษฎีบทปีทากอรัสเข้ามาช่วยในการตรวจวัด ซึ่งเราจะเปรียบ Vector a โดยเขียนแทนด้วย <img loading="lazy" decoding="async" class="alignnone size-full wp-image-1849" style="vertical-align: middle;" alt="eq_a" src="https://www.parinya.net/wp-content/uploads/2014/01/eq_a.png" width="39" height="26" /> และเปรียบ Vector b โดยเขียนแทนด้วย <img loading="lazy" decoding="async" class="alignnone size-full wp-image-1850" style="vertical-align: middle;" alt="eq_b" src="https://www.parinya.net/wp-content/uploads/2014/01/eq_b.png" width="43" height="28" /> เพื่อตรวจสอบหา Vector ผลลัพธ์ ซึ่งสามารถเขียนแทนด้วย <img loading="lazy" decoding="async" class="alignnone size-full wp-image-1847" style="vertical-align: middle;" alt="eq_psi" src="https://www.parinya.net/wp-content/uploads/2014/01/eq_psi.png" width="145" height="30" srcset="https://www.parinya.net/wp-content/uploads/2014/01/eq_psi.png 145w, https://www.parinya.net/wp-content/uploads/2014/01/eq_psi-144x30.png 144w" sizes="auto, (max-width: 145px) 100vw, 145px" /> และ <img loading="lazy" decoding="async" class="alignnone size-full wp-image-1848" style="vertical-align: middle;" alt="eq_1" src="https://www.parinya.net/wp-content/uploads/2014/01/eq_1.png" width="129" height="30" /></p>
<p><figure id="attachment_1841" aria-describedby="caption-attachment-1841" style="width: 162px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/01/quantum4.png"><img loading="lazy" decoding="async" class="size-full wp-image-1841" alt="รูปภาพที่ 4 แสดงการใช้ Vector a และ Vector b เพื่อการหาตรวจวัดหา Superposition" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum4.png" width="162" height="162" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum4.png 162w, https://www.parinya.net/wp-content/uploads/2014/01/quantum4-150x150.png 150w, https://www.parinya.net/wp-content/uploads/2014/01/quantum4-144x144.png 144w" sizes="auto, (max-width: 162px) 100vw, 162px" /></a><figcaption id="caption-attachment-1841" class="wp-caption-text">รูปภาพที่ 4 แสดงการใช้ Vector a และ Vector b เพื่อการหาตรวจวัดหา Superposition</figcaption></figure></p>
<p>โดยการจะอธิบายให้เข้าใจในรายละเอียดได้นั้น จำเป็นที่จะต้องมีการนิยามสภาวะของ Vector State โดยใช้สัญลักษณ์ที่เรียกว่า Bra/Ket เข้ามาช่วย ได้แก่</p>
<ol>
<li><img loading="lazy" decoding="async" class="alignnone size-full wp-image-1843" alt="quantum_eq1" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq1.png" width="148" height="32" style="vertical-align: middle;" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq1.png 148w, https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq1-144x32.png 144w" sizes="auto, (max-width: 148px) 100vw, 148px" /> หมายความว่า ทิศทางของคลื่นแสงผลลัพธ์ซึ่งเป็นแนวตั้งจะเกิดขึ้นได้ หากความน่าจะเป็นของคลื่นแสงแนวตั้งเป็น 100% และความน่าจะเป็นของคลื่นแสงแนวนอนเป็น 0% เปรียบได้กับการตรวจวัดหาควอนตัมบิตที่มีค่าเป็น 0</li>
<li><img loading="lazy" decoding="async" class="alignnone size-full wp-image-1844" alt="quantum_eq2" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq2.png" width="154" height="31" style="vertical-align: middle;" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq2.png 154w, https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq2-150x31.png 150w" sizes="auto, (max-width: 154px) 100vw, 154px" /> หมายความว่า ทิศทางของคลื่นแสงผลลัพธ์ซึ่งเป็นแนวนอนจะเกิดขึ้นได้ หากความน่าจะเป็นของคลื่นแสงแนวตั้งเป็น 0% และความน่าจะเป็นของคลื่นแสงแนวนอนเป็น 100% เปรียบได้กับการตรวจวัดหาควอนตัมบิตที่มีค่าเป็น 1</li>
<li><img loading="lazy" decoding="async" class="alignnone size-full wp-image-1845" alt="quantum_eq3" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq3.png" width="133" height="43" style="vertical-align: middle;" /> หรือ <img loading="lazy" decoding="async" class="alignnone size-full wp-image-1846" alt="quantum_eq4" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum_eq4.png" width="135" height="43" style="vertical-align: middle;" /> หมายความว่า ทิศทางของคลื่นแสงผลลัพธ์จะเป็นได้ทั้งแนวตั้งและแนวนอน และเป็นได้ทั้งบวกและลบ ขึ้นอยู่กับความน่าจะเป็นของคลื่นแสงแนวตั้งและแนวนอนประกอบกัน (สมมติว่าความน่าจะเป็นของแนวตั้งและแนวนอนเกิดได้เท่ากัน) เปรียบได้กับการตรวจวัดหาควอนตัมบิตที่มีค่าเป็นได้ทั้ง 0 และ 1 ในเวลาเดียวกัน หรือที่เรียกว่า Superposition</li>
</ol>
<p>จุดที่น่าสนใจอีกประการหนึ่งของควอนตัมบิตแบบ Superposition ก็คือ การที่มันจะเป็นได้ทั้ง 0 และ 1 ในเวลาเดียวกันเฉพาะก่อนการตรวจวัด แต่หากถูกตรวจวัดแล้วว่าเป็นค่าใด สภาวะควอนตัมบิตแบบ Superposition ก็จะยุติลง กลายเป็นควอนตัมบิตแบบธรรมดา (เป็น 0 หรือ 1) และสภาวะของอีกค่าหนึ่งก็จะถูกทำลายไปทันที</p>
<p>เพื่อให้เข้าใจอรรถประโยชน์ของควอนตัมบิตที่สามารถเป็นได้ทั้ง 0, 1 และ Superposition จะยกตัวอย่างควอนตัมบิตแบบ 2 บิตดังภาพด้านล่างนี้ โดยใช้ภาพวงกลมลูกศรชี้ขึ้นแทนควอนตัมบิต 1, ลูกศรชี้ลงแทนควอนตัมบิต 0 และลูกศรชี้เฉียงขึ้นขวา 45 องศาแทนควอนตัมบิตแบบ Superposition</p>
<p><figure id="attachment_1852" aria-describedby="caption-attachment-1852" style="width: 361px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/01/qubit.png"><img loading="lazy" decoding="async" class="size-full wp-image-1852" alt="รูปภาพที่ 5 แสดงควอนตัมบิตแบบ 2 บิต" src="https://www.parinya.net/wp-content/uploads/2014/01/qubit.png" width="361" height="367" srcset="https://www.parinya.net/wp-content/uploads/2014/01/qubit.png 361w, https://www.parinya.net/wp-content/uploads/2014/01/qubit-295x300.png 295w" sizes="auto, (max-width: 361px) 100vw, 361px" /></a><figcaption id="caption-attachment-1852" class="wp-caption-text">รูปภาพที่ 5 แสดงควอนตัมบิตแบบ 2 บิต</figcaption></figure></p>
<p>ซึ่งเมื่อดูจากรูปภาพที่ 5 แล้วจะเห็นว่า ด้วยควอนตัมบิตแบบ 2 บิต จะสามารถสร้างรูปแบบที่เป็นไปได้ถึง 9 รูปแบบ และจะสามารถสร้างผลลัพธ์ที่เป็นไปได้ถึง 16 กรณี</p>
<p>สำหรับการประยุกต์ทฤษฎีให้สามารถปฏิบัติได้นั้น นักวิทยาศาสตร์กำลังคัดเลือกสสาร, อะตอม, โมเลกุล หรือ แม้แต่อนุภาค ซึ่งมีคุณสมบัติเหมาะสม สามารถควบคุมสภาวะได้ มีความเสถียร และ สามารถสร้างวิธีการสังเกตตรวจวัดได้ ตามหลักการของควอนตัมบิต ซึ่งปัจจุบันก็มีเทคนิคหลาย ๆ อย่างถูกนำเสนอขึ้นมาไม่ว่าจะเป็นการใช้ ion traps, nuclear magnetic resonance, optical และ solid-state เป็นต้น</p>
<p><strong>การเคลื่อนย้ายควอนตัม</strong></p>
<p>ในทฤษฎีสัมพัทธภาพพิเศษของ Albert Einstein ได้พิสูจน์ให้โลกเห็นว่า ไม่มีสสารใดเคลื่อนที่เร็วไปกว่าความเร็วแสงได้ เพราะหากสสารใดเคลื่อนที่เร็วเท่ากับความเร็วแสง สสารดังกล่าวจะมีมวลเป็นอนันต์, ขนาดหดลงเป็นศูนย์ และ เวลาบนสสารดังกล่าวหยุดนิ่ง ซึ่งเป็นไปไม่ได้</p>
<p>แสงถือเป็นคลื่นแม่เหล็กไฟฟ้าชนิดหนึ่ง ในขณะที่ในธรรมชาติยังมีคลื่นแม่เหล็กไฟฟ้าชนิดอื่นอีก ไม่ว่าจะเป็น คลื่นวิทยุ, คลื่นไมโครเวฟ, รังสีอินฟราเรด, รังสีอัลตร้าไวโอเลต, รังสีเอ็กซ์, รังสีแกมม่า และ รังสีคอสมิก เป็นต้น ซึ่งคลื่นแม่เหล็กไฟฟ้าเหล่านี้ก็ล้วนเคลื่อนที่ด้วยความเร็วแสงทั้งนั้น และปัจจุบันมนุษย์เราก็ได้ใช้ประโยชน์จากคลื่นแม่เหล็กไฟฟ้าชนิดต่าง ๆ โดยเฉพาะการใช้คลื่นวิทยุเพื่อสื่อสารข้อมูลระหว่างกัน</p>
<p>การสื่อสารข้อมูลด้วยคลื่นวิทยุ ถือเป็นวิธีการสื่อสารที่เร็วที่สุดที่มนุษย์พึงกระทำได้ เพราะไม่ได้ขัดกับข้อเท็จจริงในทฤษฎีสัมพัทธภาพพิเศษ แต่ทว่า การค้นพบหลักความพัวพันทางควอนตัม ทำให้เกิดสิ่งที่ขัดแย้งกับความเป็นจริง คือ จะทำให้ระบบมีการสื่อสารกันได้อย่างทันทีทันใด หรือเรียกว่าการเคลื่อนย้ายควอนตัม ซึ่ง Einstein มองว่าเป็นสิ่งที่เป็นไปไม่ได้ เพราะถ้ามันทำได้จริงก็แสดงว่ามันเร็วกว่าแสง และมันจะละเมิดกฎของทฤษฎีสัมพัทธภาพพิเศษ ซึ่งภายหลังปัญหานี้ได้ถูกตั้งชื่อว่า EPR Paradox (A. Einstein, B. Podolsky, N. Rosen, 1935)</p>
<p>การค้นพบความพัวพันทางควอนตัม มีผลกระทบอย่างมากในเรื่องกรอบความคิดเกี่ยวกับระบบเครือข่ายและการสื่อสารข้อมูล เพราะมันสะท้อนให้เห็นว่าการสื่อสารข้อมูลในภายหน้า อาจไม่ต้องพึ่งพาระบบแบบมีสายหรือระบบไร้สาย เนื่องจากระบบสองระบบอาจสื่อสารกันเองได้อย่างทันทีทันใด แต่ทว่า ถึงแม้ว่าความพัวพันทางควอนตัมจะมีอยู่จริง ก็ไม่ได้หมายความว่าเราจะสามารถปฏิบัติให้เกิดขึ้นจริงได้โดยง่าย</p>
<p>ดังนั้น ในปัจจุบันนักวิทยาศาสตร์ยังคงไม่สามารถเคลื่อนย้ายควอนตัมได้โดยตรง หากแต่ใช้วิธีทางอ้อม โดยการใช้บิตปรกติในแบบดิจิทัลคอมพิวเตอร์ เพื่อนำส่งข้อมูลจากต้นทางสู่ปลายทาง โดยให้ต้นทางเข้ารหัสผลลัพธ์แบบควอนตัมบิตจำนวน 1 บิต ด้วยบิตปรกติจำนวน 2 บิต จากนั้นจึงส่งบิตปรกติจำนวน 2 บิตไปยังปลายทาง ผ่านเครือข่ายคอมพิวเตอร์ปรกติ เพื่อให้ปลายทางนำบิตปรกติ 2 บิตไปถอดรหัส เพื่อให้ได้ผลลัพธ์ของควอนตัมบิตจำนวน 1 บิตสำหรับนำไปใช้งานต่อไป (C. H. Bennett, at el., 1993)</p>
<p><strong>ควอนตัมคอมพิวเตอร์</strong></p>
<p>ปัจจุบัน การวิจัยทางด้านควอนตัมคอมพิวเตอร์ เป็นหัวข้อที่ได้รับความสนใจและมีการเติบโตมากขึ้นเรื่อย ๆ โดยได้มีการแบ่งกลุ่มงานวิจัยของควอนตัมคอมพิวเตอร์ออกเป็น 5 กลุ่มใหญ่ ๆ ได้แก่</p>
<ol>
<li>ด้านทฤษฎีการประมวลผลแบบควอนตัม (Quantum Computing Theory)</li>
<li>ด้านภาษาโปรแกรมสำหรับควอนตัมคอมพิวเตอร์ (Quantum Programming)</li>
<li>ด้านสถาปัตยกรรมแบบควอนตัมคอมพิวเตอร์ (Quantum Computer Architecture)</li>
<li>ด้านสถาปัตยกรรมส่วนย่อยแบบควอนตัมคอมพิวเตอร์ (Quantum Computer Micro Architecture)</li>
<li>ด้านการควบคุมสภาวะของควอนตัมบิตให้อยู่ในลักษณะคงตัวและควบคุมได้ (Technology Building blocks)</li>
</ol>
<p>โดยมีการจัดลำดับชั้นของกลุ่มงานวิจัยทางด้านควอนตัมคอมพิวเตอร์จากบนลงล่าง คือ จากลำดับของทฤษฎีที่จับต้องไม่ได้ สู่ลำดับของการปฏิบัติเป็นรูปธรรมที่จับต้องได้ ดังภาพด้านล่าง</p>
<p><figure id="attachment_1842" aria-describedby="caption-attachment-1842" style="width: 424px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2014/01/quantum5.png"><img loading="lazy" decoding="async" class="size-full wp-image-1842" alt="รูปภาพที่ 6 แสดงสถาปัตยกรรมควอนตัมคอมพิวเตอร์ โดยอิงกับกลุ่มงานวิจัยที่เกี่ยวข้อง (R. V. Meter, C. Horsman, 2013)" src="https://www.parinya.net/wp-content/uploads/2014/01/quantum5.png" width="424" height="298" srcset="https://www.parinya.net/wp-content/uploads/2014/01/quantum5.png 424w, https://www.parinya.net/wp-content/uploads/2014/01/quantum5-300x210.png 300w" sizes="auto, (max-width: 424px) 100vw, 424px" /></a><figcaption id="caption-attachment-1842" class="wp-caption-text">รูปภาพที่ 6 แสดงสถาปัตยกรรมควอนตัมคอมพิวเตอร์ โดยอิงกับกลุ่มงานวิจัยที่เกี่ยวข้อง (R. V. Meter, C. Horsman, 2013)</figcaption></figure></p>
<p>จุดสำคัญและถือว่าเป็นปัญหาใหญ่ของการสร้างควอนตัมคอมพิวเตอร์ก็คือ การควบคุมสภาวะของควอนตัมบิตให้มีความคงตัวและสามารถควบคุมได้ เนื่องจากสภาวะของควอนตัมบิตนั้นถูกรบกวนได้ง่ายจากสภาพแวดล้อมภายนอก และต้องไม่ลืมว่าควอนตัมบิตคือหัวใจสำคัญในการประมวลผล ดังนั้น การตรวจวัดสภาะวะของควอนตัมบิตได้อย่างแม่นยำจึงเป็นสิ่งที่สำคัญยิ่ง</p>
<p>จากภาพเราจึงเห็นว่าทุกกลุ่มงานวิจัยล้วนต่อยอดยึดโยงอยู่กับควอนตัมบิต เช่น การวิจัยเทคโนโลยีเพื่อจัดเก็บควอนตัมบิต, การวิจัยเพื่อให้สามารถตรวจวัดค่าจากควอนตัมบิตได้อย่างถูกต้อง, การวิจัยเพื่อเชื่อมต่อข้อมูลจากควอนตัมบิตออกสู่สภาพแวดล้อมภายนอก โดยไม่ทำให้ควอนตัมบิตเสียความคงตัว และการวิจัยเพื่อตีความควอนตัมบิตให้อยู่ในระบบเชิงตัวเลข เพื่อนำไปใช้ในระบบสมการต่อไป เป็นต้น</p>
<p>และนี่คือสาเหตุว่าทำไมควอนตัมคอมพิวเตอร์พาณิชย์เครื่องแรกของโลก ซึ่งผลิตโดยบริษัท D-Wave Systems จำกัด และมีขนาด 128 ควอนตัมบิต จึงมีขนาดใหญ่โตมาก อีกทั้งยังต้องอยู่ในพื้นที่เฉพาะที่มีขนาด 10 ตารางเมตร นั่นเพราะความจำเป็นที่ต้องสร้างชั้นการห่อหุ้มปกป้องเพื่อควบคุมอุณหภูมิ และรักษาสภาวะความคงตัวของควอนตัมบิตเอาไว้ให้ได้นั่นเอง</p>
<p>สำหรับภาษาโปรแกรมคอมพิวเตอร์ ซึ่งเป็นส่วนสำคัญอีกชิ้นหนึ่ง เพื่ออำนวยความสะดวก ให้มนุษย์สามารถสั่งงานควอนตัมคอมพิวเตอร์ได้นั้น ก็ได้มีความพยายามในการวิจัยเพื่อพัฒนาภาษาโปรแกรมคอมพิวเตอร์ใหม่ ๆ ขึ้นมา เพื่อให้มีไวยากรณ์สอดรับกับอัลกอริทึมแบบควอนตัม และให้มีควอนตัมบิตเป็นพื้นฐานของภาษา ไม่ว่าจะเป็นการสร้างภาษา Quipper (A. S. Green, et al, 2013) หรือภาษา QuaFL (A. Lapets, et al, 2013) เป็นต้น</p>
<p><strong>การประยุกต์ใช้งาน</strong></p>
<p>จากรายละเอียดที่กล่าวมาไม่ว่าจะเป็น กลศาสตร์ควอนตัม, ควอนตัมบิต, การเคลื่อนย้ายควอนตัม และ ควอนตัมคอมพิวเตอร์ ได้แสดงให้เห็นว่านักวิทยาศาสตร์คอมพิวเตอร์ จำเป็นที่จะต้องเปลี่ยนความคิดในหลาย ๆ อย่างเพื่อให้สอดรับกับสิ่งใหม่ ๆ ที่เกิดขึ้น ไม่ว่าจะเป็นความเข้าใจในทฤษฎีความซับซ้อนในการคำนวณเชิงควอนตัม และทฤษฎีการประมวลผลสารสนเทศเชิงควอนตัม (C. H. Bennett, P. W. Shor, 1998) รวมถึงการบุกเบิกประยุกต์ใช้ควอนตัมคอมพิวเตอร์เพื่อแก้ปัญหาในงานต่าง ๆ</p>
<p>โดยในช่วงเริ่มแรก นักวิทยาศาสตร์คอมพิวเตอร์ได้บุกเบิกที่จะนำควอนตัมคอมพิวเตอร์ไปใช้ในงานด้านความปลอดภัย เช่น การสร้างรหัสลับแบบควอนตัมเพื่อแลกเปลี่ยนกันระหว่างผู้รับและผู้ส่ง ก่อนที่จะมีการเข้ารหัสข้อมูลเพื่อรับส่งข้อมูลหากัน (D. Bruss, et al, 2007), การสร้างระบบเงินตราแบบควอนตัม เพื่อปกปิดประวัติการใช้จ่ายไม่ให้สามารถตรวจสอบได้ (S. Aaronson, et al, 2012) เป็นต้น</p>
<p>ปัจจุบัน การคิดค้นเพื่อประยุกต์ใช้งานควอนตัมคอมพิวเตอร์ยังคงอยู่ในวงจำกัด เนื่องจากควอนตัมคอมพิวเตอร์เชิงพาณิชย์ที่เริ่มออกสู่ตลาดนั้น ยังคงถูกใช้เพื่อการพิสูจน์ทฤษฎีทางด้านควอนตัมคอมพิวติ้งโดยหน่วยงานรัฐและบริษัทเอกชนชั้นนำของประเทศสหรัฐอเมริกา ดังนั้น คงต้องรอให้ควอนตัมคอมพิวเตอร์มีขนาดเล็กลง และราคาย่อมเยาว์จนผู้บริโภคทั่วไปสามารถเข้าถึงได้ และเมื่อนั้นการประยุกต์ใช้งานควอนตัมคอมพิวเตอร์ในด้านต่าง ๆ นอกจากงานด้านวิทยาศาสตร์และความมั่นคงก็จะมีตามมาเอง ซึ่งเมื่อถึงตอนนั้น เราก็จะได้เห็นนวัตกรรมใหม่ ๆ ที่ถูกต่อยอดโดยควอนตัมคอมพิวเตอร์ ออกมาโลดแล่นในตลาดผู้บริโภคอย่างแน่นอน</p>
<p><strong>เอกสารอ้างอิง</strong></p>
<p>A. Einstein, B. Podolsky, N. Rosen. “<strong>Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?</strong>” Physical Review, Vol. 47. (May 1935) : 777-780.</p>
<p>A. Lapets, et al. “<strong>QuaFL: A Typed DSL for Quantum Programming.</strong>” Proceedings of the 1st annual workshop on FPCDSL &#8217;13. (September 2013) : 19-26.</p>
<p>A. S. Green, et al. “<strong>Quipper: A Scalable Quantum Programming Language.</strong>” Proceedings of the 34th ACM SIGPLAN conference on PLDI &#8217;13. (June 2013) : 333-342.</p>
<p>C. H. Bennett, P. W. Shor. “<strong>Quantum Information Theory.</strong>” IEEE Transactions of Information Theory, Vol. 44, No. 6. (October 1998) : 2724-2742.</p>
<p>C. H. Bennett, et al. “<strong>Teleporting an Unknown Quantum State via Dual Classical and Einstein-Podolsky-Rosen Channels.</strong>” Physical Review Letters, Vol. 70, No. 13. (March 1993) : 1895-1899.</p>
<p>D. Bruss, et al. “<strong>Quantum Cryptography: A Survey.</strong>” ACM Computing Surveys, Vol. 39, No. 2, Article 6. (June 2007) : 1-27.</p>
<p>E. Rieffel, W. Polak. “<strong>An Introduction to Quantum Computing for Non-Physicists.</strong>” ACM Computing Surveys, Vol. 32, No. 3. (September 2000) : 300-335.</p>
<p>P. W. Shor. “<strong>Algorithms for Quantum Computation: Discrete Logarithms and Factoring.</strong>” IEEE. (1994) : 124-134.</p>
<p>P. W. Shor. “<strong>Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer.</strong>” Proceedings of the 35th Annual Symposium on Foundations of Computer Science. (November 1994) : 1-28.</p>
<p>R. P. Feynman. “<strong>Simulating Physics with Computers.</strong>” International Journal of Theoretical Physics, Vol. 21, No. 6/7. (1982) : 467-488.</p>
<p>R. V. Meter, C. Horsman. <strong>A Blueprint for Building a Quantum Computer</strong>. Communication of The ACM, Vol. 56, No. 10. (October 2013) : 94-93.</p>
<p>S. Aaronson, et al. <strong>Quantum Money</strong>. Communication of The ACM, Vol. 55, No. 8. (August 2012) : 84-92.</p>
<p>สุทัศน์ ยกส้าน. <strong>113 ปี ฟิสิกส์ควอนตัม ที่ทำให้โลกเป็นอย่างทุกวันนี้</strong>. <em>โลกวิทยาการ หนังสือพิมพ์ผู้จัดการออนไลน์</em>. [Online]. (18 ตุลาคม 2556).</p>
<p>&#8212;-</p>
<p>ก็จบประมาณนี้แหล่ะครับ เอาเป็นว่า สำหรับใครที่สนใจเรื่องควอนตัมคอมพิวเตอร์ ผมขอแนะนำเลยนะครับว่า ให้ทำความเข้าใจสมการจำนวนเชิงซ้อนที่ใช้แทนค่าควอนตัมบิตเพื่อหา Superposition อ่ะครับ พอเข้าใจแล้ว แก้สมการได้แล้ว ก็จะต่อยอดทางควอนตัมคอมพิวเตอร์ได้ในภายภาคหน้าครับ สู้ ๆ ครับ</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/1832/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>ปัญหา P กับ NP</title>
		<link>https://www.parinya.net/node/1808</link>
					<comments>https://www.parinya.net/node/1808#respond</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Sun, 20 Oct 2013 04:48:29 +0000</pubDate>
				<category><![CDATA[Assignment]]></category>
		<category><![CDATA[Computation]]></category>
		<category><![CDATA[Literature Review]]></category>
		<category><![CDATA[ปัญหา NP]]></category>
		<category><![CDATA[ปัญหา P]]></category>
		<category><![CDATA[Deterministic Polynomial]]></category>
		<category><![CDATA[Non-Deterministic Polynomial]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=1808</guid>

					<description><![CDATA[ผมต้องส่งการบ้านในหัวข้อ ]]></description>
										<content:encoded><![CDATA[<p>ผมต้องส่งการบ้านในหัวข้อ &#8220;งานวิจัย NP ในปัจจุบัน&#8221; พอค้น ๆ ไปในอินเทอร์เน็ตถึงได้พบว่า อย่าว่าแต่ของคนไทยเลย ขนาดของพวกฝรั่งก็ยังเขียนลำดับให้เข้าใจไม่ค่อยได้ คือ เขาจะเขียนข้าม ๆ เป็นห้วง ๆ ไม่ลำดัีบเป็นขั้น ๆ เขาจะถือว่ารู้แล้ว (ซึ่งจริง ๆ เราไม่รู้) ดังนั้น ผมก็เลยต้องอ่านจากหลาย ๆ ที่ แล้วเอามาประมวลเป็นลำดับขั้นตอนเพื่อส่งการบ้าน ทีนี้เห็นว่ามันน่าจะเอามาเผยแพร่ได้ ให้คนทั่วไปเข้าใจได้ง่าย ๆ (เอ๊ะ หรือจะไม่ง่าย?) ก็เลยคิดว่าเอามาลงในบล็อกของตัวเองดีกว่า</p>
<p>งั้นเริ่มเลยล่ะกัน &#8230;</p>
<p><b>1.  บทคัดย่อ</b></p>
<p><b></b>ในวงการวิทยาการคอมพิวเตอร์ หากเรากล่าวถึง “ปัญหา” จะมีสิ่งให้ขบคิดอยู่สองประเด็น นั่นคือ เราจะหาคำตอบของปัญหานั้น ๆ อย่างมีประสิทธิภาพได้อย่างไร และ หากมีการเฉลยคำตอบของปัญหานั้น ๆ แล้ว เราจะหาวิธียืนยันคำตอบนั้น ๆ อย่างมีประสิทธิภาพได้อย่างไร ว่ามันเป็นคำตอบที่ “ใช่” หรือ “ไม่ใช่” ซึ่งกลุ่มของปัญหาที่ต้องการ ๆ ยืนยันคำตอบอย่างมีประสิทธิภาพหากคำตอบคือ “ใช่” จะถูกเรียกในทางทฤษฎีว่าเป็นกลุ่มปัญหา NP หรือ Non-deterministic polynomial time ซึ่งในบทความนี้จะนำเสนอถึงการวิจัย NP ในปัจจุบัน ว่ามีความก้าวหน้าไปอย่างไรบ้าง</p>
<p><strong>2.  บทนำ</strong></p>
<p>วิทยาการคอมพิวเตอร์เป็นศาสตร์ที่ใช้คณิตศาสตร์หลายแขนง เพื่อช่วยในการแก้ปัญหาให้กับศาสตร์ของตนเอง โดยเฉพาะการใช้ศาสตร์ที่เรียกว่า Combinatorics ในการแก้ปัญหา โดยเนื้อหาหลักของ Combinatorics ก็คือ “การจัดหมู่” ในสิ่งที่มีขอบเขต “จำกัด” จากนั้นจึงทำการ &#8220;นับ&#8221; มัน</p>
<p>ปัจจัยสำคัญใน “การนับ” ในทางวิทยาการคอมพิวเตอร์ก็คือการวนรอบ เพราะคุณลักษณะเด่นของคอมพิวเตอร์ก็คือ การที่สามารถวนรอบทำงานซ้ำ ๆ ได้ โดยไม่เหน็ดเหนื่อยและผิดพลาด ดังนั้น เมื่อมีการวนรอบก็จะหมายถึงการต้องเสียเวลา การวนรอบ 1 ชั้นก็หมายถึงการเสียเวลาน้อยกว่าหรือเท่ากับ n รอบ และการวนรอบ 2 ชั้นก็อาจหมายถึงการเสียเวลาน้อยกว่าหรือเท่ากับ n^2 รอบ เป็นต้น</p>
<p>ด้วยรูปแบบของการวนรอบเพื่อนับ จึงทำให้สามารถมองได้ว่าปัญหาส่วนใหญ่ในทางวิทยาการคอมพิวเตอร์ สามารถแก้ได้ในเวลา Polynomial Time แต่การแก้ปัญหาจะไม่ถือว่ามีประสิทธิภาพ หากใช้เวลาในการแก้ปัญหาเกินกว่าจะยอมรับได้ เช่นในการแก้ปัญหา Travelling Salesman Problem ที่กำหนดให้พนักงานขายเลือกเส้นทางที่สั้นที่สุด เพื่อเดินทางไปทีล่ะเมืองให้ครบทุกเมืองโดยไม่ซ้ำ แล้วย้อนกลับมายังเมืองที่ตั้งต้น ซึ่งการหาผลเฉลยที่ถูกต้องที่สุดก็คือการตรวจในทุก ๆ เส้นทางที่เป็นไปได้ แล้วเลือกเส้นทางที่สั้นที่สุดจากการตรวจสอบทั้งหมด โดยต้องใช้จำนวนรอบเพื่อหาผลเฉลยเท่ากับ n! ซึ่งหากมีจำนวนของเมือง 100 เมืองให้เดินทาง ก็หมายถึงการที่ต้องค้นหาผลเฉลยด้วยจำนวนรอบเท่ากับ 100! ซึ่งใช้เวลาที่มากเกินกว่าจะยอมรับได้</p>
<p>ดังนั้น ในทางทฤษฎีจึงเกิดแนวความคิดว่า ถ้ายังคงต้องการแก้ปัญหาที่ใช้เวลามาก ๆ ใน Polynomial Time ได้อย่างมีประสิทธิภาพ (และเราก็เชื่อว่ายังไงก็ต้องแก้แบบ Polynomial Time จนกว่ามันจะมีวิธีอื่นมาแทนที่ เช่น Quantum อะไรประมาณนั้น) จำเป็นอย่างยิ่งที่จะต้องเปลี่ยนแนวคิดของเครื่องจักรทางทฤษฎีที่ใช้ขับเคลื่อนการแก้ปัญหา จากเดิมที่ใช้เครื่องจักรทางทฤษฎีในการแก้ปัญหาที่มีกลไกเคลื่อนที่ 1 State เกิด 1 Action หรือที่เรียกว่า Deterministic Turing Machine ให้กลายเป็นเครื่องจักรทางทฤษฎีในการแก้ปัญหา ที่มีกลไกเคลื่อนที่ 1 State เกิดได้หลาย Action หรือที่เรียกว่า Non-deterministic Turing Machine</p>
<p>ซึ่งการแก้ปัญหาใน Polynomial Time บนเครื่องจักรทางทฤษฎีแบบ Non-deterministic Turing Machine จึงเรียกว่าเป็นการแก้ปัญหาแบบ Non-deterministic Polynomial Time หรือ NP และปัจจุบันก็มีงานวิจัยในหลากหลายแขนงวิชา ที่กำลังค้นคว้าวิจัยกลุ่มปัญหา NP อยู่ในขณะนี้ ดังจะกล่าวในหัวข้อถัดไป</p>
<p><span id="more-1808"></span></p>
<p><strong>3.  งานวิจัยในปัจจุบัน</strong></p>
<p>งานวิจัยที่เกี่ยวข้องกับ NP ในช่วงแรกนั้น มุ่งเน้นไปที่การแสวงหาเทคนิคและอัลกอริทึม ในการค้นหาผลเฉลยที่แม่นยำถูกต้องที่สุดเพียงคำตอบเดียวอย่างมีประสิทธิภาพ เพื่อให้สามารถหาคำตอบได้ในเวลาน้อยกว่า O(n!) เช่น งานวิจัยของ Held &amp; Karp[1] และ Bellman[2] ได้นำเสนอการแก้ปัญหา Travelling Salesman Problem โดยใช้ Dynamic Programming เข้ามาช่วยเก็บผลการคำนวณก่อนหน้า เพื่อจะไม่ต้องมาวนซ้ำคำนวณใหม่อีกครั้งในทุก ๆ รอบซึ่งถูกพิสูจน์แล้วว่าสามารถลดการคำนวณจาก O(n!) เหลือ O(n^2*2^(n-1) )[2] เป็นต้น</p>
<p>เทคนิคการค้นหาผลเฉลยในรูปแบบข้างต้น ช่วยลดเวลาในการแก้ปัญหาจาก Factorial Time ให้อยู่ในรูปของ Exponential Time ได้ก็จริง แต่หากต้องเผชิญกับการแก้ปัญหาขนาดใหญ่ที่มีจำนวนข้อมูลมาก ๆ การแก้ปัญหาใน Exponential Time ก็ยังไม่สามารถถือว่าเป็นการแก้ปัญหาที่มีประสิทธิภาพได้ ดังนั้น งานวิจัยในปัจจุบัน จึงเน้นไปที่การค้นหาผลเฉลยที่เหมาะสมพอยอมรับได้ โดยใช้เวลาในการค้นหาที่จำกัดบนทรัพยากรที่จำกัด ด้วยเทคนิคและอัลกอริทึมต่าง ๆ ไม่ว่าจะเป็นการจำลองความฉลาดแบบกลุ่มด้วย Swarm Intelligence, การเลียนแบบขั้นตอนวิธีเชิงพันธุกรรมด้วย Genetic Algorithm หรือวิธีอื่น ๆ เป็นต้น</p>
<p><strong>3.1  Swarm Intelligence</strong></p>
<p>คำว่า Swarm Intelligence ถูกอ้างขึ้นครั้งแรกโดย Gerardo Beni &amp; Jing Wang[3] ในบันทึกการประชุมเกี่ยวกับ Cellular Robotic Systems โดยมีเนื้อหาที่กล่าวถึงระบบซึ่งมีกลุ่มของหุ่นยนต์ที่ไม่ฉลาดจำนวนมากอยู่รวมกันเพื่อบรรลุภารกิจใหญ่ภารกิจหนึ่ง ซึ่งหุ่นยนต์ดังกล่าวจะบริหารจัดการตนเองโดยไม่มีศูนย์กลางควบคุม จะสามารถสื่อสารข้อมูลได้เฉพาะกับหุ่นยนต์ที่อยู่ในรัศมีใกล้ ๆ กัน จะแสดงพฤติกรรมที่ไม่สุ่มแต่ก็ไม่สามารถคาดเดาได้ จะแสดงพฤติกรรมหลายอย่างเกินกว่าความเข้าใจ และไม่สามารถใช้สถิติเพื่ออธิบายพฤติกรรมได้เลย</p>
<p>แนวความคิด Swarm Intelligence ได้ถูกนำไปต่อยอดเพื่อสร้างอัลกอริทึมในการค้นหาผลเฉลยที่เหมาะสมในหลาย ๆ รูปแบบ ซึ่งหนึ่งในนั้นก็คืองานวิจัยของ Marco Dorigo[4][5] ซึ่งเป็นผู้บุกเบิกหลักในการคิดค้น Ant Colony Optimization Algorithms ขึ้นมา โดยแนวคิดของ Ant Colony Optimization Algorithms หรือ ACO ก็คือ การจำลอง Set ของตัวแทนซึ่งมีความร่วมมือกัน โดยสิ่งที่ใช้เป็นตัวแทนก็คือ “มด” ในการร่วมมือร่วมใจกันเพื่อค้นหาผลเฉลยที่ดีที่สุด เปรียบได้กับการร่วมมือร่วมใจของมด ในการเดินทางออกจากรังเพื่อค้นหาแหล่งอาหารด้วยระยะทางเดินที่ใกล้ที่สุด โดยระหว่างการเดินทางค้นหา มดแต่ล่ะตัวจะใช้วิธีทางอ้อมเพื่อทิ้งร่องรอยของเส้นทางเดินให้มดตัวอื่นตามมา ด้วยการปล่อยฟีโรโมนตามเส้นทางเป็นระยะและยิ่งเส้นทางเดินใดมีฟีโรโมนมาก มดตัวใหม่ ๆ ที่เดินตามมาก็จะยิ่งเลือกเส้นทางดังกล่าวมากขึ้น และปล่อยฟีโรโมนซ้ำลงไปเรื่อย ๆ จนกระทั่งสุดท้ายเส้นทางอื่นก็จะไม่ถูกเลือกอีกต่อไป โดยเทคนิคของ ACO จะใช้ทฤษฎีกราฟเป็นโมเดล โดยจะแทนที่ทางเดินระหว่างรังมดกับแหล่งอาหารด้วย Connected Graph, แทนที่การเลือกเส้นทางในช่วงแรกของมดด้วยการสุ่มและ แทนที่การปล่อยฟีโรโมนของมดด้วยการให้ค่าน้ำหนักบน Edges ในระหว่างการเดินบน Path ดังนั้น เมื่อคำนวณจนถึงระดับหนึ่งแล้ว ก็จะได้ผลเฉลยที่เหมาะสมในรูปของ Path ที่มีผลรวมของ Edges มากที่สุดนั่นเอง</p>
<p>ปัจจุบัน มีงานวิจัยซึ่งนำแนวคิด Ant Colony Optimization หรือ ACO ไปเพิ่มขีดความสามารถอย่างกว้างขวาง เช่น งานวิจัยของ Lijie Li, Shangyou Ju และ Ying Zhang[6] ซึ่งได้สร้างโมเดลความน่าจะเป็นแบบใหม่ โดยใช้ Held-Karp Lower Bound ในการพิจารณาตัดสินใจว่าจะให้ระบบเลือกผลเฉลยอย่างใดอย่างหนึ่ง ระหว่างผลเฉลยที่ได้จากค่าน้ำหนักบน Edges หรือผลเฉลยที่ได้จาก Heuristic Information เป็นต้น</p>
<p>หรือการนำ ACO ไปประยุกต์ใช้ เช่น งานวิจัยของ Guangyu Li &amp; Lila Boukhatem[7] ที่ทำให้ยานพาหนะทุกคันซึ่งวิ่งอยู่บนท้องถนน ทำตัวเป็น Wireless Router เพื่อสร้างระบบ Mobile Network โดยการประยุกต์ใช้ ACO เพื่อค้นหาเส้นทางที่สั้นที่สุดระหว่างยานพาหนะที่ต้องการจะสื่อสารกัน โดยการกำหนดให้ยานพาหนะเป็น Vertex ซึ่งเคลื่อนที่ได้, กำหนดให้การเชื่อมโยง Wireless ระหว่างรถแต่ล่ะคันที่มีระยะทำการใกล้ ๆ กัน (100-300 เมตร) เป็น Edge และกำหนดให้ Path คือเส้นทาง Mobile Network ระหว่างรถที่ต้องการสื่อสารกัน ซึ่งจุดที่น่าสนใจจะอยู่ที่ Vertex และ Edge จะสามารถเปลี่ยนแปลงไปมาได้ เพราะยานพาหนะที่วิ่งอยู่บนท้องถนนไม่อยู่นิ่งอยู่กับที่ เป็นต้น</p>
<p><b>4.  เอกสารอ้างอิง</b></p>
<p>[1]  Michael Held &amp; Richard M. Karp.  A dynamic programming approach to sequencing problems.  ACM &#8217;61 Proceedings of the 1961 16th ACM national meeting Pages 71.201-71.204.</p>
<p>[2]  Richard Bellman.  Dynamic Programming Treatment of the Travelling Salesman Problem.  Journal of the ACM (JACM) JACM Homepage archive.  Volume 9 Issue 1, Jan. 1962.  Pages 61-63.</p>
<p>[3]  Gerardo Beni &amp; Jing Wang.  Swarm Intelligence in Cellular Robotic Systems.  Proceedings of NATO Advanced Workshop on Robots and Biological Systems Vol 102.</p>
<p>[4]  Alberto Colomi, Marco Dorigo, Vittorio Mamiezzo.  Distributed Optimization by Ant Colonies.  Proceedings of ECAL91 European Conference on Artificial Intelligence Life, Paris, France, Elsevier Publishing, 134-142.</p>
<p>[5]  Marco Dorigo.  Ant Colony System: A Cooperative Learning Approach to the Traveling Salesman Problem.  IEEE Transactions on Evolutionary Computation, Vol.1, No. 1, 1997.</p>
<p>[6]  Lijie Li, Shangyou Ju  and Ying Zhang.  Improved Ant Colony Optimization for the Traveling Salesman Problem.  Proceeding of ICICTA &#8217;08 Proceedings of the 2008 International Conference on Intelligent Computation Technology and Automation &#8211; Volume 01, Pages 76-80</p>
<p>[7]  Guangyu Li &amp; Lila Boukhatem.  Adaptive vehicular routing protocol based on ant colony optimization.  Proceeding of VANET &#8217;13 Proceeding of the tenth ACM international workshop on Vehicular inter-networking, systems, and applications, Pages 95-98, June 25 2013, Taipei, Taiwan</p>
<p>&#8230;ก็จบประมาณนี้</p>
<p>จริง ๆ แล้วการบ้านชิ้นนี้เป็นงานกลุ่ม ดังนั้น ผมจึงต้องให้เกียรติผู้ร่วมกลุ่ม โดยการไม่เอาส่วนที่พวกเขาเขียนมาลงในบล็อกของผม แต่ผมก็คิดว่าเฉพาะส่วนที่ผมเขียน ก็น่าจะครอบคลุมให้ผู้อ่านเกิดความเข้าใจได้ในระดับหนึ่งครับ</p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/1808/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
