<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>งานวิจัยคนอื่น &#8211; PARINYA.NET</title>
	<atom:link href="https://www.parinya.net/node/tag/%e0%b8%87%e0%b8%b2%e0%b8%99%e0%b8%a7%e0%b8%b4%e0%b8%88%e0%b8%b1%e0%b8%a2%e0%b8%84%e0%b8%99%e0%b8%ad%e0%b8%b7%e0%b9%88%e0%b8%99/feed" rel="self" type="application/rss+xml" />
	<link>https://www.parinya.net</link>
	<description>ทฤษฎีการคำนวณสำหรับคอมพิวเตอร์และทฤษฎีการประมวลผลสารสนเทศ</description>
	<lastBuildDate>Fri, 01 Mar 2019 07:53:27 +0000</lastBuildDate>
	<language>th</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.2</generator>
	<item>
		<title>อัลกอริทึมสำหรับควอนตัมคอมพิวเตอร์</title>
		<link>https://www.parinya.net/node/2568</link>
					<comments>https://www.parinya.net/node/2568#respond</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Fri, 17 Nov 2017 08:06:07 +0000</pubDate>
				<category><![CDATA[Quantum Computer]]></category>
		<category><![CDATA[ควอนตัมคอมพิวเตอร์]]></category>
		<category><![CDATA[งานวิจัยคนอื่น]]></category>
		<category><![CDATA[งานวิจัยทฤษฎี]]></category>
		<category><![CDATA[อัลกอริทึม]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=2568</guid>

					<description><![CDATA[คิดว่าทุกคนคงทราบกันแล้วว]]></description>
										<content:encoded><![CDATA[<p>คิดว่าทุกคนคงทราบกันแล้วว่า การสั่งให้ควอนตัมคอมพิวเตอร์ทำงานได้ มันต้องใช้อัลกอริทึมที่เหมาะสม และในปัจจุบัน อัลกอริทึมเหล่านั้นก็ยังมีจำนวนไม่มากนัก และส่วนใหญ่ล้วนอ้างอิงพื้นฐานจากอัลกอริทึมซึ่งคนระดับปรมาจารย์คิดค้นเอาไว้</p>
<p>บทความส่วนใหญ่ในอินเทอร์เน็ตที่กล่าวถึงอัลกอริทึมสำหรับควอนตัมคอมพิวเตอร์ มักจะอ้างถึงชื่อบทความวิจัย และมักจะยกเอาเนื้อหาบางส่วนในบทความวิจัยมาอ้างอิง แต่เอาเข้าจริง เราก็มักจะไม่ค่อยได้มีโอกาสอ่านบทความวิจัย <strong>&#8220;ฉบับเต็ม&#8221;</strong> กันซักเท่าไหร่ (อืม จริง ๆ มันก็อ่านยากด้วยแหล่ะ)</p>
<p>ดังนั้น มาลองอ่านบทความวิจัยของอัลกอริทึมสำหรับควอนตัมคอมพิวเตอร์ <strong>&#8220;ระดับตำนาน&#8221;</strong> แบบ <strong>&#8220;ฉบับเต็ม&#8221;</strong> กันดีกว่า โดยการกดลิงก์ที่ชื่ออัลกอริทึมในรายการข้างล่างนี้</p>
<ul>
<li style="list-style-type: none;">
<ul>
<li><a href="https://drive.google.com/open?id=1a4A_yv3_x8R64v6ISP7geFw27HtHmvKE">Deutsch Jozsa Algorithm</a> และ <a href="https://drive.google.com/open?id=1pl6VNptsM-4g7sf0hKfislaMLzNVUmDN">ส่วนปรับปรุง</a></li>
<li><a href="https://drive.google.com/open?id=1pyJ4hy4pxkLN1Y0mKmDTHmlptFWsAMg_">Simon Algorithm</a></li>
<li><a href="https://drive.google.com/open?id=1RLKbk2tPcq60IPXfYPn7JznBmzTzs6HD">Grover Algorithm</a></li>
<li><a href="https://drive.google.com/open?id=1GeGOoz4eaB7MyG7VFEdbuN76RMjnYCND">Shor Algorithm</a> (ขี้เกียจอ่านบทความวิจัยตัวเต็ม? โชคดีมีคนย่อยให้อ่าน<a href="https://khunpanya.wordpress.com/2016/07/31/shors-algorithm/">ที่นี่</a>แล้ว กด<a href="https://khunpanya.wordpress.com/2016/07/31/shors-algorithm/">ตรงนี้</a>เลย แต่ถ้าให้ดี ผมว่าอ่านตัวเต็มด้วยก็ดีนะ!!!)</li>
</ul>
</li>
</ul>
<p><a href="https://www.parinya.net/wp-content/uploads/2017/11/math-1547018_640.jpg"><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-2570" src="https://www.parinya.net/wp-content/uploads/2017/11/math-1547018_640.jpg" alt="" width="640" height="326" srcset="https://www.parinya.net/wp-content/uploads/2017/11/math-1547018_640.jpg 640w, https://www.parinya.net/wp-content/uploads/2017/11/math-1547018_640-300x153.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a></p>
<p>แถมอีกนิดนึง อันนี้ส่วนตัวผมชอบเอง ผมชอบการผนวกเอไอกับควอนตัมคอมพิวเตอร์เข้าไว้ด้วยกัน และมันก็มีบทความวิจัยสำคัญ ๆ ด้านนี้อยู่ 2 ฉบับที่ผมเจอ คือ <a href="https://drive.google.com/open?id=1E1xfUU_IT5Dm0xw92hfFiy_26jqfOlUv">ฉบับนี้</a> และ <a href="https://drive.google.com/open?id=11dKvMylOcCV3mtyZpaBuAsiHN9fdRuuF">ฉบับนี้</a> ถ้าสนใจก็ลองกดเข้าไปอ่านตัวเต็มดูครับ</p>
<p>สุดท้ายล่ะ แถมอีกนิดนึง ถ้าอ่านบทความวิจัยแบบแยกเป็นเรื่อง ๆ แล้วเข้าใจยาก เพราะมันไม่ได้บอกลำดับก่อนหลังหรือบอกลำดับความสำคัญ งั้นไปอ่านหนังสือตัวเต็มกันดีกว่า หนังสือมันดีตรงที่มันร้อยเรียงบทความวิจัยให้เรียบร้อยแล้ว มันเป็นหนังสือชื่อ <a href="https://drive.google.com/open?id=1RUO2zqGLWJGpqCALkhjphFZp0BFcupvC">Quantum Computation and Quantum Information</a> (กดตรง<a href="https://drive.google.com/open?id=1RUO2zqGLWJGpqCALkhjphFZp0BFcupvC">ชื่อหนังสือ</a>เลย) พิมพ์มา 10 ครั้งแล้ว และที่สำคัญ หนังสือเล่มนี้ถูกอ้างอิงโดยบทความวิจัยและหนังสือเล่มอื่นถึงกว่า 30,000 ฉบับ ถือว่าเป็นหนึ่งในหนังสือหลาย ๆ เล่มทางฟิสิกส์ที่ถูกอ้างอิงมากที่สุดตลอดกาล!!!!</p>
<p>สุดท้ายอีกทีนึง เอางี้ ผมว่าอ่านหนังสือก่อน แล้วพอจะเจาะรายละเอียดของอัลกอริทึม ค่อยไปอ่านบทความวิจัยเพิ่มเติม เพราะในหนังสือมันไม่ค่อยมีบทพิสูจน์ แต่ในบทความวิจัยมันมีบทพิสูจน์!!!</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/2568/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>เวลาในการทำงานของ Deep Learning</title>
		<link>https://www.parinya.net/node/2556</link>
					<comments>https://www.parinya.net/node/2556#respond</comments>
		
		<dc:creator><![CDATA[ไท้ ปริญญา]]></dc:creator>
		<pubDate>Sat, 30 Sep 2017 06:35:53 +0000</pubDate>
				<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Computation]]></category>
		<category><![CDATA[Quantum Computer]]></category>
		<category><![CDATA[งานวิจัยคนอื่น]]></category>
		<category><![CDATA[งานวิจัยทฤษฎี]]></category>
		<category><![CDATA[Big O]]></category>
		<guid isPermaLink="false">http://www.parinya.net/?p=2556</guid>

					<description><![CDATA[บล็อกนี้เอาสั้น ๆ นะ สืบเ]]></description>
										<content:encoded><![CDATA[<p>บล็อกนี้เอาสั้น ๆ นะ สืบเนื่องจากคราวก่อนเขียนเรื่อง&nbsp;<a href="https://www.parinya.net/node/2546">ทำไม DEEP LEARNING บน QUANTUM COMPUTER จึงทำงานเร็วมาก ๆ</a> เอาไว้ แล้วเห็นว่ามันมีประเด็นเรื่อง Big O ที่ต้องขยายความอยู่นิดนึง เลยมาต่องานในบล็อกนี้</p>
<figure id="attachment_2557" aria-describedby="caption-attachment-2557" style="width: 640px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2017/09/nerve-cell-2213009_640.jpg"><img decoding="async" class="size-full wp-image-2557" src="https://www.parinya.net/wp-content/uploads/2017/09/nerve-cell-2213009_640.jpg" alt="Neural Network" width="640" height="360" srcset="https://www.parinya.net/wp-content/uploads/2017/09/nerve-cell-2213009_640.jpg 640w, https://www.parinya.net/wp-content/uploads/2017/09/nerve-cell-2213009_640-300x169.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-2557" class="wp-caption-text">Neural Network</figcaption></figure>
<p>คือเวลาในการทำงานของ Deep Learning มันก็เหมือนโมเดลปัญญาประดิษฐ์ทั่วไป แบบว่าเวลาในการสอนกับเวลาในการใช้งาน มันไม่เท่ากัน ซึ่ง Big O มันก็จะไม่เท่ากัน เลยจะมาขยายความว่าถ้าเป็นเวลาในการสอน Big O จะเท่าไหร่ และเวลาในการใช้งาน Big O จะเท่าไหร่</p>
<p>มาเริ่มกันเลย!!!</p>
<p><span style="color: #0000ff;"><strong>1) เวลาในการสอน Deep Learning</strong></span></p>
<p>สั้น ๆ ผมวิเคราะห์ว่ามันจะเป็นสมาชิกของ Big O(ED(LXN + LXN))</p>
<p>โดย E = จำนวน Epoch ในตอนที่สอน, D = จำนวน Dataset ที่ใช้สอน, L = จำนวน Hidden Layer + Output Layer ของโมเดล, X = จำนวน Node ใน Layer ถัดไปของโมเดล และ N = จำนวน Node ใน Layer ปัจจุบันของโมเดล</p>
<p>และที่ต้องเอา LXN มาบวกกับ LXN ก็เพราะว่า LXN แรกคือเวลาในการคำนวณผล ส่วน LXN หลังคือเวลาในการป้อนค่่าน้ำหนักย้อนกลับ!!!</p>
<p><span style="color: #0000ff;"><strong>2) เวลาในการใช้งาน Deep Learning</strong></span></p>
<p>อันนี้สั้นยิ่งกว่า ผมวิเคราะห์ว่ามันจะเป็นสมาชิกของ Big O(LXN)</p>
<p>โดยตัวแปร L, X และ N อธิบายไว้แล้วในข้อที่ 1 ตรงนี้ไม่อธิบายเพิ่มนะ</p>
<figure id="attachment_2558" aria-describedby="caption-attachment-2558" style="width: 640px" class="wp-caption aligncenter"><a href="https://www.parinya.net/wp-content/uploads/2017/09/hourglass-1875812_640.jpg"><img decoding="async" class="size-full wp-image-2558" src="https://www.parinya.net/wp-content/uploads/2017/09/hourglass-1875812_640.jpg" alt="นาฬิกาทราย" width="640" height="482" srcset="https://www.parinya.net/wp-content/uploads/2017/09/hourglass-1875812_640.jpg 640w, https://www.parinya.net/wp-content/uploads/2017/09/hourglass-1875812_640-300x226.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-2558" class="wp-caption-text">นาฬิกาทราย</figcaption></figure>
<p>ทีนี้พอลงในรายละเอียดอีกนิดนึง&nbsp;Big O(ED(LXN + LXN)) ก็ถือว่าเป็นสมาชิกของ Big O(N ^ 5) ส่วน Big O(LXN) ก็ถือว่าเป็นสมาชิกของ Big O(N ^ 3)</p>
<blockquote><p>O(ED(LXN + LXN)&nbsp;∈ O(N ^ 5)</p>
<p>O(LXN)&nbsp;∈ O(N ^ 3)</p></blockquote>
<p>หรือสรุปง่าย ๆ ก็คือ ตอนที่สอน Deep Learning ต้องวนลูป 5 ชั้น และในทางตรงกันข้าม ตอนที่ใช้งาน Deep Learning วนลูปเพียง 3 ชั้นก็พอ!!!</p>
<p>ดังนั้นผมถึงได้คิดว่า ถ้าสร้างอัลกอริทึมสำหรับสอนและใช้งาน Deep Learning บน Quantum Computer ได้เมื่อไหร่ จากที่ต้องสอนด้วยเวลา Big O(N ^ 5) และใช้งานด้วยเวลา Big O(N ^ 3) ก็อาจจะลดเวลาลงเหลือเท่ากับ Big O(Log N) ซึ่งมันเป็นอะไรที่เร็วมาก ๆ เลยล่ะ</p>
<p>สำหรับงานทาง Computer Science ใครก็ตามที่สามารถคิดค้นอัลกอริทึม ที่สามารถลดเวลาคำนวณให้เหลือแค่ Big O(Log N) ได้ ถือว่าโคตรสุดยอดครับ!!!</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.parinya.net/node/2556/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
