วันอาทิตย์ที่ 29 พฤศจิกายน พ.ศ. 2552

ปรับแต่ง blogger gmail , Link add friend

1.ขั้นตอนแรกเข้า www.blogspot.com
2.ใส่ Username และ Password เพื่อเข้าใช้
3.click แผงควบคุม
4.click รูปแบบ
5.click ที่ เพิ่ม Gadget
6.click รายชื่อลิงค์
7.จะปรากฏหน้าต่างเพื่อเพิ่มลิงค์ ให้ตั้งชื่อหัวข้อก่อน ,นำ URL ของผู้ที่จะติดต่อมาใส่ ,ใส่ชื่อเว็บไซด์ของผู้ติดต่อ
8.เมื่อเพิ่มลิงค์เสร็จแล้ว กดบันทึกเป็นอันเสร็จสิ้น

วันอังคารที่ 3 พฤศจิกายน พ.ศ. 2552

logo แผนก ทค.

วันอังคารที่ 20 ตุลาคม พ.ศ. 2552

การ เปิด MSN หลาย จอ ( For Vista )


1.Start manu --> Run หรือ ปุ่ม Windows+R ตามรูปครับ



2.เข้าไปที่ HKEY_LOCAL_MACHINE-> SOFTWARE-> Microsoft-> Windows Live>Messenger แล้วคลิกขวาพื้นที่ว่าง เลือก new > DWORD Value ตามรูปครับ



3.จะได้ ไอคอน ขึ้นมา ตามรูป



4.เปิด ไอคอน ขึ้นมา ตามรูป เปลี่ยนในช่อง Value data จาก 0 ไปเป็น 1 แล้ว กด OK



5.คลิก ขวา ที่ไอคอน ตามรูป เลือก Rename



6.เปลี่ยนชื่อเป็น MultipleInstances ตามรูปครับ



7.กด Enter เป็นอันเสร็จ ครับ ^^



การเปลี่ยน Background ของ Blogspot



1.เข้าหน้าบล้อค แล้วเลือกในส่วน '' ปรับแต่ง ''



2.เมื่อเข้า วิธีที่ 1 มาแล้ว เลือก รูปแบบ --> แก้ไข HTML



3.มองลงมาข้างล่างจะเห็น หัวข้อ แก้ไขแม่แบบ มองหาโค้ดในส่วนของ body ตามภาพ แล้วเริ่มทำการเปลี่ยน Background ( ให้ใส่ Url ของภาพ ) ลงไปในกรอบ สีแดง



>> คลิกที่ภาพ เพื่อ ขยายภาพ <<

4.เมื่อ ใส่ Url ของภาพ เสร็จแล้ว กด บันทึกแม่แบบ เพื่อ ยืนยัน



5.จะมีข้อความขึ้น ดังรูป แล้ว กด ดูบล็อก





วันจันทร์ที่ 12 ตุลาคม พ.ศ. 2552

Music >> Pitbull

Pitbull - ft. Lil' Jon - "Krazy"



Pitbull - I Know You Want Me

ส 1 อุปกรณ์คอมพิวเตอร์ที่รู้จัก

1.การ์ดจอ (Graphic Card)



การ์ดจอ (Video Card) เป็นคำเก่าที่ใช้เรียก การ์ดแสดงผล หรือ กราฟฟิกการ์ด (Graphic card) จริง ๆ คือการ์ดเดียวกันคะ เป็นแผงวงจรอิเล็กทรอนิกส์ ที่ทำหน้าที่ในการนำข้อมูลที่ได้จากการประมวลผลของซีพียูมาแสดงบนจอภาพ แปรเปลี่ยนให้อยู่ในรูปแบบของตัวอักษร หรือ รูปภาพ ทำให้ผู้ใช้ สามารถควบคุมการทำงาน ได้อย่างมีประสิทธิภาพ โดยจอภาพจะเป็นส่วนที่รับข้อมูลจากการ์ดแสดงผลอีกทีหนึ่ง เพราะฉะนั้นทั้งการ์ดแสดงผลและจอภาพจะต้องทำงานร่วมกันเพื่อให้ได้ภาพออกมาแสดงบนจอภาพ จอภาพจะต้องสนับสนุนความสามารถที่การ์ดแสดงผลสามารถทำได้คะ

2.เมนบอร์ด(Mainboard)


เมนบอร์ด หรือ แผงวงจรหลัก เป็นหัวใจสำคัญที่สุดที่อยู่ภายในเครื่อง เมื่อเปิดฝาเครื่องออกมาจะเป็นแผงวงจรขนาดใหญ่วางนอนอยู่ นั่นคือส่วนที่เรียกว่า "เมนบอร์ด"ส่วนประกอบหลักที่สำคัญบนเมนบอร์ดคือ
ซ็อคเก็ตสำหรับซีพียู
ชิปเซ็ต (Chip set)
ซ็อคเก็ตสำหรับหน่วยความจำ
ระบบบัสและสล็อต
สัญญาณนาฬิกาของระบบ
ถ่านหรือแบตเตอรี่
ขั้วต่อสายแหล่งจ่ายไฟ
ขั้วต่อสวิทช์และไฟหน้าเครื่อง
จัมเปอร์สำหรับกำหนดการทำงานของเมนบอร์ด
ขั้วต่อ IDE
ขั้วต่อ Floppy disk drive
พอร์ตอนุกรมและพอร์ตขนาน
พอร์ตคีย์บอร์ดและเมาส์
พอร์ต USB

3.แรม (RAM)

RAM ย่อมาจากคำว่า Random-Access Memory เป็นหน่วยความจำของระบบ มีหน้าที่รับข้อมูลเพื่อส่งไปให้ CPU ประมวลผลจะต้องมีไฟเข้า Module ของ RAM ตลอดเวลา ซึ่งจะเป็น chip ที่เป็น IC ตัวเล็กๆ ถูก pack อยู่บนแผงวงจร หรือ Circuit Board เป็น module
เทคโนโลยีของหน่วยความจำมีหลักการที่แตกแยกกันอย่างชัดเจน 2 เทคโนโลยี คือหน่วยความจำแบบ DDR หรือ Double Data Rate (DDR-SDRAM, DDR-SGRAM) ซึ่งเป็นเทคโนโลยีที่พัฒนาต่อเนื่องมาจากเทคโนโลยีของหน่วยความจำแบบ SDRAM และ SGRAM และอีกหนึ่งคือหน่วยความจำแบบ Rambus ซึ่งเป็นหน่วยความจำที่มีแนวคิดบางส่วนต่างออกไปจากแบบอื่น


SDRAM



อาจจะกล่าวได้ว่า SDRAM (Synchronous Dynamic Random Access Memory) นั้นเป็น Memory ที่เป็นเทคโนโลยีเก่าไปเสียแล้วสำหรับยุคปัจจุบัน เพราะเป็นการทำงานในช่วง Clock ขาขึ้นเท่านั้น นั้นก็คือ ใน1 รอบสัญญาณนาฬิกา จะทำงาน 1 ครั้ง ใช้ Module แบบ SIMM หรือ Single In-line Memory Module โดยที่ Module ชนิดนี้ จะรองรับ datapath 32 bit โดยทั้งสองด้านของ circuite board จะให้สัญญาณเดียวกัน

DDR - RAM




หน่วยความจำแบบ DDR-SDRAM นี้พัฒนามาจากหน่วยความจำแบบ SDRAM เอเอ็มดีได้ทำการพัฒนาชิปเซตเองและให้บริษัทผู้ผลิตชิปเซตรายใหญ่อย่าง VIA, SiS และ ALi เป็นผู้พัฒนาชิปเซตให้ ปัจจุบันซีพียูของเอเอ็มดีนั้นมีประสิทธิภาพโดยรวมสูงแต่ยังคงมีปัญหาเรื่องความเสถียรอยู่บ้าง แต่ต่อมาเอเอ็มดีหันมาสนใจกับชิปเซตสำหรับซีพียูมากขึ้น ขณะที่ทางเอเอ็มดีพัฒนาชิปเซตเลือกให้ชิปเซต AMD 760 สนับสนุนการทำงานร่วมกับหน่วยความจำแบบ DDR เพราะหน่วยความจำแบบ DDR นี้ จัดเป็นเทคโนโลยีเปิดที่เกิดจากการร่วมมือกันพัฒนาของบริษัทยักษ์ใหญ่อย่างเอเอ็มดี, ไมครอน, ซัมซุง, VIA, Infineon, ATi, NVIDIA รวมถึงบริษัทผู้ผลิตรายย่อยๆ อีกหลายDDR-SDRAM เป็นหน่วยความจำที่มีบทบาทสำคัญบนการ์ดแสดงผล 3 มิติ

ทางบริษัท nVidia ได้ผลิต GeForce ใช้คู่กับหน่วยความจำแบบ SDRAM แต่เกิดปัญหาคอขวดของหน่วยความจำในการส่งถ่ายข้อมูลทำให้ทาง nVidia หาเทคโนโลยีของหน่วยความจำใหม่มาทดแทนหน่วยความจำแบบ SDRAM โดยเปลี่ยนเป็นหน่วยความจำแบบ DDR-SDRAM การเปิดตัวของ GeForce ทำให้ได้พบกับ GPU ตัวแรกแล้ว และทำให้ได้รู้จักกับหน่วยความจำแบบ DDR-SDRAM เป็นครั้งแรกด้วย การที่ DDR-SDRAM สามารถเข้ามาแก้ปัญหาคอคอดของหน่วยความจำบนการ์ดแสดงผลได้ ส่งผลให้ DDR-SDRAM กลายมาเป็นมาตรฐานของหน่วยความจำที่ใช้กันบนการ์ด 3 มิติ ใช้ Module DIMM หรือ Dual In-line Memory Module โดย Module นี้เพิ่งจะกำเนิดมาไม่นานนัก มี datapath ถึง 64 bit โดยทั้งสองด้านของ circuite board จะให้สัญญาณที่ต่างกัน

Rambus



Rambus นั้นทางอินเทลเป็นผู้ที่ให้การสนับสนุนหลักมาตั้งแต่แรกแล้ว Rambus ยังมีพันธมิตรอีกเช่น คอมแพค, เอชพี, เนชันแนล เซมิคอนดักเตอร์, เอเซอร์ แลบอเรทอรีส์ ปัจจุบัน Rambus ถูกเรียกว่า RDRAM หรือ Rambus DRAM ซึ่งออกมาทั้งหมด 3 รุ่นคือ Base RDRAM, Concurrent RDRAM และ Direct RDRAM RDRAM แตกต่างไปจาก SDRAM เรื่องการออกแบบอินเทอร์-เฟซของหน่วยความจำ Rambus ใช้วิธีการจัด address การจัดเก็บและรับข้อมูลในแบบเดิม ในส่วนการปรับปรุงโอนย้ายถ่ายข้อมูล ระหว่าง RDRAM ไปยังชิปเซตให้มีประสิทธิภาพสูงขึ้น มีอัตราการส่งข้อมูลเป็น 4 เท่าของความเร็ว FSB ของตัว RAM คือ มี 4 ทิศทางในการรับส่งข้อมูล เช่น RAM มีความเร็ว BUS = 100 MHz คูณกับ 4 pipline จะเท่ากับ 400 MHz

วิธีการเพิ่มประสิทธิภาพในการขนถ่ายข้อมูลของ RDRAM นั้นก็คือ จะใช้อินเทอร์เฟซเล็ก ๆ ที่เรียกว่า Rambus Interface ซึ่งจะมีอยู่ที่ปลายทางทั้ง 2 ด้าน คือทั้งในตัวชิป RDRAM เอง และในตัวควบคุมหน่วยความจำ (Memory controller อยู่ในชิปเซต) เป็นตัวช่วยเพิ่มแบนด์วิดธ์ให้ โดย Rambus Interface นี้จะทำให้ RDRAM สามารถขนถ่ายข้อมูลได้สูงถึง 400 MHz DDR หรือ 800 เมกะเฮิรตซ์ เลยทีเดียว

แต่การที่มีความสามารถในการขนถ่ายข้อมูลสูง ก็เป็นผลร้ายเหมือนกัน เพราะทำให้มีความจำเป็นต้องมี Data path หรือทางผ่านข้อมูลมากขึ้นกว่าเดิม เพื่อรองรับปริมาณการขนถ่ายข้อมูลที่เพิ่มขึ้น ซึ่งนั่นก็ส่งผลให้ขนาดของ die บนตัวหน่วยความจำต้องกว้างขึ้น และก็ทำให้ต้นทุนของหน่วยความจำแบบ Rambus นี้ สูงขึ้นและแม้ว่า RDRAM จะมีการทำงานที่ 800 เมกะเฮิรตซ์ แต่เนื่องจากโครงสร้างของมันจะเป็นแบบ 16 บิต (2 ไบต์) ทำให้แบนด์วิดธ์ของหน่วยความจำชนิดนี้ มีค่าสูงสุดอยู่ที่ 1.6 กิกะไบต์ต่อวินาทีเท่านั้น (2 x 800 = 1600) ซึ่งก็เทียบเท่ากับ PC1600 ของหน่วยความจำแบบ DDR-SDRAM

สัญญาณนาฬิกา

DDR-SDRAM จะมีพื้นฐานเหมือนกับ SDRAM ทั่วไปมีความถี่ของสัญญาณนาฬิกาเท่าเดิม (100 และ 133 เมกะเฮิรตซ์) เพียงแต่ว่า หน่วยความจำแบบ DDR นั้น จะสามารถขนถ่ายข้อมูลได้มากกว่าเดิมเป็น 2 เท่า เนื่องจากมันสามารถขนถ่ายข้อมูลได้ทั้งในขาขึ้นและขาลงของหนึ่งรอบสัญญาณนาฬิกา ในขณะที่หน่วยความจำแบบ SDRAM สามารถขนถ่ายข้อมูลได้เพียงขาขึ้นของรอบสัญญาณนาฬิกาเท่านั้น
ด้วยแนวคิดง่าย ๆ แต่สามารถเพิ่มแบนด์วิดธ์ได้เป็นสองเท่า และอาจจะได้พบกับหน่วยความจำแบบ DDR II ซึ่งก็จะเพิ่มแบนด์วิดธ์ขึ้นไปอีก 2 เท่า จากหน่วยความจำแบบ DDR (หรือเพิ่มแบนด์วิดธ์ไปอีก 4 เท่า เมื่อเทียบกับหน่วยความจำแบบ SDRAM) ซึ่งก็มีความเป็นไปได้สูง เพราะจะว่าไปแล้วก็คล้ายกับกรณีของ AGP ซึ่งพัฒนามาเป็น AGP 2X 4X และ AGP 8X

หน่วยความจำแบบ DDR จะใช้ไฟเพียง 2.5 โวลต์ แทนที่จะเป็น 3.3 โวลต์เหมือนกับ SDRAM ทำให้เหมาะที่จะใช้กับโน้ตบุ๊ก และด้วยการที่พัฒนามาจากพื้นฐานเดียว DDR-SDRAM จะมีความแตกต่างจาก SDRAM อย่างเห็นได้ชัดอยู่หลายจุด เริ่มตั้งแต่มีขาทั้งหมด 184 pin ในขณะที่ SDRAM จะมี 168 pin อีกทั้ง DDR-SDRAM ยังมีรูระหว่าง pin เพียงรูเดียว ในขณะที่ SDRAM จะมี 2 รู ซึ่งนั่นก็เท่ากับว่า DDR-SDRAM นั้น ไม่สามารถใส่ใน DIMM ของ SDRAM ได้ หรือต้องมี DIMM เฉพาะใช้ร่วมกันไม่ได้

การเรียกชื่อ RAM

Rambus ซึ่งใช้เรียกชื่อรุ่นหน่วยความจำของตัวเองว่า PC600, PC700 และ ทำให้ DDR-SDRAM เปลี่ยนวิธีการเรียกชื่อหน่วยความจำไปเช่นกัน คือแทนที่จะเรียกตามความถี่ของหน่วยความจำว่าเป็น PC200 (PC100 DDR) หรือ PC266 (PC133 DDR) กลับเปลี่ยนเป็น PC1600 และ PC2100 ซึ่งชื่อนี้ก็มีที่มาจากอัตราการขนถ่ายข้อมูลสูงสุดที่หน่วยความจำรุ่นนั้นสามารถทำได้ ถ้าจะเปรียบเทียบกับหน่วยความจำแบบ SDRAM แล้ว PC1600 ก็คือ PC100 MHz DDR และ PC2100 ก็คือ PC133 MHz DDR เพราะหน่วยความจำที่มีบัส 64 บิต หรือ 8 ไบต์ และมีอัตราการขนถ่ายข้อมูล 1600 เมกะไบต์ต่อวินาที ก็จะต้องมีความถี่อยู่ที่ 200 เมกะเฮิรตซ์ (8 x 200 = 1600) หรือถ้ามีแบนด์วิดธ์ที่ 2100 เมกะไบต์ต่อวินาที ก็ต้องมีความถี่อยู่ที่ 266 เมกะเฮิรตซ์ (8 x 266 = 2100)

อนาคตของ RAM

บริษัทผู้ผลิตชิปเซตส่วนใหญ่เริ่มหันมาให้ความสนใจกับหน่วยความจำแบบ DDR กันมากขึ้น อย่างเช่น VIA ซึ่งเป็นบริษัทผู้ผลิตชิปเซตรายใหญ่ของโลกจากไต้หวัน ก็เริ่มผลิตชิปเซตอย่าง VIA Apollo KT266 และ VIA Apollo KT133a ซึ่งเป็นชิปเซตสำหรับซีพียูในตระกูลแอธลอน และดูรอน (Socket A) รวมถึงกำหนดให้ VIA Apolle Pro 266 ซึ่งเป็นชิปเซตสำหรับเซลเลอรอน และเพนเทียม (Slot1, Socket 370) หันมาสนับสนุนการทำงานร่วมกับหน่วยความจำแบบ DDR-SDRAM แทนที่จะเป็น RDRAM


แนวโน้มที่น่าจะเป็นไปได้มากที่สุดของทั้ง DDR II กับ RDRAM เวอร์ชันต่อไป เทคโนโลยี quard pump คือการอัดรอบเพิ่มเข้าไปเป็น 4 เท่า เหมือนกับในกรณีของ AGP ซึ่งนั่นจะทำให้ DDR II และ RDRAM เวอร์ชันต่อไป มีแบนด์-วิดธ์ที่สูงขึ้นกว่างปัจจุบันอีก 2 เท่า ในส่วนของ RDRAM นั้น การเพิ่มจำนวนสล็อตในหนึ่ง channel ก็น่าจะเป็นหนทางการพัฒนาที่อาจเกิดขึ้น ซึ่งนั่นก็จะเป็นการเพิ่มแบนด์วิดธ์ของหน่วยความจำขึ้นอีกเป็นเท่าตัวเช่นกัน และทั้งหมดที่ว่ามานั้น คงจะพอรับประกันได้ว่า การต่อสู้ระหว่าง DDR และ Rambus คงยังไม่จบลงง่าย ๆ และหน่วยความจำแบบ DDR ยังไม่ได้เป็นผู้ชนะอย่างเด็ดขาด


ข้อมูลจาก http://www.dcomputer.com/

4.CPU (ไมโครโปรเซสเซอร์)



ประวัติความเป็นมาของไมโครโปรเซสเซอร์

ไมโครโปรเซสเซอร์กำเนิดขึ้นมาในช่วงต้นทศวรรษที่ 1970 โดยเกิดจากการนำเทคโนโลยี 2 อย่างมาพัฒนาร่วมกันซึ่งก็คือเทคโนโลยีทางด้านดิจิตอลคอมพิวเตอร์และเทคโนโลยี ทางดัานโซลิดสเตต(solidstate)

ดิจิตอลคอมพิวเตอร์จะทำงานตามโปรแกรมที่เราป้อนเข้าไปโดยโปรแกรมเป็นตัวบอกคอมพิวเตอร์ ว่าจะทำการเคลื่อนย้ายและประมวลผลข้อมูลอย่างไรการที่มันจะทำงานได้นั้นก็ต้องมีวงจรคำนวณ หน่วยความจำ และอุปกรณ์อินพุต/เอาต์พุต(input/output) เป็นส่วนประกอบซึ่งรูปแบบในการนำสิ่ง ที่กล่าวมานี้รวมเข้าด้วยกันเราเรียกว่าสถาปัตยกรรม (architecture)

ไมโครโปรเซสเซอร์มีสถาปัตยกรรมคล้ายกับดิจิตอลคอมพิวเตอร์หรือพูดอีกนัยหนึ่งได้ว่า ไมโครโปรเซสเซอร์ก็เหมือนกับดิจิตอลคอมพิวเตอร์เพราะสิ่งทั้งสองนี้ทำงานภายใต้การควบคุม ของโปรแกรมเหมือนกันฉะนั้นการศึกษาประวัติความเป็นมาของดิจิตอลคอมพิวเตอร์จะช่วยให้เ เราเข้าใจ การทำงานของไมโครโปรเซสเซอร์ และการศึกษาประวัติความเป็นามาของ วงจรโซลิดสเตตก็จะช่วยให้เราเข้าใจไมโครโปรเซสเซอร์มากยิ่งขึ้นเพราะไมโครโปรเซสเซอร์ก็ คือวงจรโซลิดสเตตนั่นเอง

ช่วงสงครามโลกครั้งที่ 2 ดิจิตอลคอมพิวเตอร์ได้ถูกพัฒนาขึ้นเพื่อใช้งานทางก้านการทหาร ในช่วงกลางทศวรรษที่1940ดิจิตอลคอมพิวเตอร์ถูกพัฒนาขึ้นเพื่อใช้งานในด้านวิทยาศาสตร์ และธุรกิจ ในช่วงสงครามนี้ได้มีการศึกษาการทำงานของดิจิตอลคอมพิวเตอร์ที่มีความเร็วสูง (มีชื่อว่า วงจรแบบพัลส์ (pulse circuit) ที่ใช้ในเรดาร์) ทำให้เราเข้าใจดิจิตอลคอมพิวเตอร์มากขึ้น ภายหลังสงครามได้มีการค้นคว้าเกี่ยวกับคูณสมบัติทางกายภายของโซลิดสเตตอย่างมากจนกระทั่งในปี ค.ศ. 1948 นักวิทยาศาสตร์ที่ห้องเบลล์แล็บ (Bell laboratory) ได้ประดิษฐ์ทรานซิสเตอร์ที่ทำจากโซลิดสเตต

ในช่วงต้นทศวรรษที่ 1950 เริ่มมีการผลิตดิจิตอลคอมพิวเตอร์ขึ้นเพื่อใช้งานโดยทั่ว ๆ ไป ซึ่งทำมาจากหลอดสูญญากาศหลอดสูญญากาศเหล่านี้เป็นส่วนประกอบสำคัญ ของดิจิตอลคอมพิวเตอร์ ซึ่งเราจะนำไปสร้างเป็นวงจรพื้นฐาน เช่น เกต (gate) แปละฟลิปฟลอป (flip-flop) โดยเราจะนำเกตและฟลิปฟลอปหลาย ๆ อันมารวมกันเพื่อใช้ในการสร้างวงจรคำนวณ หน่วยความจำ และอุปกรณ์อินพุต/เอาต์พุตของดิจิตอลคอมพิวเตอร์

ดิจิตอลคอมพิวเตอร์ตัวหนึ่ง ๆ จะมีวงจรต่าง ๆ อยู่มากมาย ในช่วงแรกวงจรต่าง ๆจะสร้างขึ้นจาก หลอดสูญญากาศ จึงทำให้ดิจิตอลคอมพิวเตอร์ในช่วงแรก ๆมีขนาดใหญ่และเนื่องจาก หลอดสูญญากาศ นี้เมื่อใช้งานนานๆจะร้อนดังนั้นเราจึงต้องติดตั้งระบบระบายความร้อน เข้าไปด้วย ดิจิตอลคอมพิวเตอร์ที่ใช้หลอดสูญญากาศนี้มักเชื่อถือไม่ค่อยได้ เมื่อเทียบกับมาตรฐานของคอมพิวเตอร์ในปัจจุบันการใช้หลอดสูญญากาศนี้เป็นส่วนประกอบ ของดิจิตอลคอมพิวเตอร์ ทำให้ดิจิตอลคอมพิวเตอร์ช่วงแรกมีราคาแพงและยากต่อการดูแลรักษา ข้อเสียต่าง ๆ ของหลอดสูญญากาศนี้ทำให้เราพัฒนาดิจิตอลคอมพิวเตอร์ในช่วงแรงไปได้ช้ามาก

คอมพิวเตอร์ช่วงแรก ๆ ยังไม่มีที่สำหรับเก็บโปรแกรม แต่จะมีที่ไว้สำหรับเก็บข้อมูลเท่านั้น ซึ่งในช่วงปลายทศวรรษที่ 1940 จนถึงต้นทศวรรษที่ 1950 การใช้งานคอมพิวเตอร์จะทำการโปรแกรมโดยวิธีที่เรียกว่า พาตช์คอร์ด (patch - cord) ซึ่งโปรแกรมเมอร์จะต้องเป็นผู้นำสายต่อเข้ากับเครื่องเพื่อบอกให้เครื่องรู้ว่าจะต้องทำการ ประมวลผลข้อมูลอย่างไร โดยหน่วยความจำของเครื่องจะมีไว้สำหรับเก็บข้อมูลเท่านั้น

คอมพิวเตอร์ในช่วงหลัง ๆ จะมีที่สำหรับเก็บโปรแกรม ซึ่งก็หมายความว่า ขั้นตอนการทำงานของคอมพิวเตอร์จะถูกจัดเก็บอยู่ในหน่วยความจำของคอมพิวเตอร์ด้วย การที่เราจะทราบว่าข้อมูลในตำแหน่งใดเป็นขั้นตอนการทำงานหรือเป็นข้อมูลที่มีไว้สำหรับประมวลผล ก็โดยการตรวจสอบดูข้อมูลนั้นว่าอยู่ที่ตำแหน่งใด (ซึ่งเราจะต้องทราบว่าเราเก็บข้อมูลต่าง ๆ ที่ตำแหน่งใดและเก็บโปรแกรมที่ตำแหน่งใด) ความคิดเกี่ยวกับที่เก็บโปรแกรมนี้เป็นสิ่งจำเป็นอย่างมาก รวมทั้งเป็นพื้นฐานที่สำคัญตัวหนึ่งในสถาปัตยกรรมคอมพิวเตอร์

ในช่วงทศวรรษที่ 1950 ได้มีการค้นคว้าและทดลองโซลิดสเตตกันอย่างจริงจัง ทำให้ได้รู้จักสารกึ่งตัวนำมากยิ่งขึ้น ได้มีการนำสารซิลิคอนมาทดแทนสารเจอร์เมเนียม ซึ่งเป็นวัตถุดิบที่สำคัญในการผลิตเซมิคอนดักเตอร์ (semiconductor) ทำให้ช่วยลดต้นทุนการผลิตลงเนื่องจากสารซิลิคอนหาได้ง่ายกว่าสารเจอร์เมเนียม และการผลิตทรานซิสเตอร์ (transistor) ที่ทำมาจากสารกึ่งตัวนำจำนวนมากก็จะช่วยทำให้หาง่าย และมีราคาถูกลง

ในช่วงปลายทศวรรษที่ 1950 นักออกแบบดิจิตอลคอมพิวเตอร์ได้นำทรานซิสเตอร์มาใช้แทนหลอดสูญญากาศ โดยวงจรต่าง ๆ ก็ยังคงใช้ทรานซิสเตอร์หลายตัวในการทำงาน แต่คอมพิวเตอร์ที่ทำจากทรานซิสเตอร์นี้จะมีขนาดเล็กกว่า เย็นกว่า และน่าเชื่อถือมากกว่าคอมพิวเตอร์ที่ทำจากหลอดสูญญากาศ

ในช่วงต้นทศวรรษที่ 1960 แนวทางการสร้างคอมพิวเตอร์จากโซลิดสเตตได้แยกออกเป็น 2 แนวทาง แนวทางหนึ่งคือ การสร้างคอมพิวเตอร์ขนาดใหญ่ที่ต้องอยู่ในห้องที่มีเครื่องปรับอากาศ ซึ่งสร้างโดยบริษัทยักษ์ใหญ่ เช่น บริษัท IBM,Burroughs และ Honeywell เครื่องคอมพิวเตอร์ประเภทนี้สามารถประมวลผลได้ทีละมาก ๆ และจะถูกนำไปใช้งานทางด้านการพาณิชย์และด้านวิทยาศาสตร์

คอมพิวเตอร์ขนาดใหญ่เหล่านี้จะมีคราคาแพงมาก เพื่อที่จะให้คุ้มกับราคาจึงต้องใช้งานมันตลอดเวลา มีวิธีการอยู่ 2 วิธีในการที่จะใช้งานคอมพิวเตอร์ได้อย่างคุ้มค่าที่สุด นั่นก็คือวิธีแบตช์โหมด (batch mode) และไทม์แชริ่งโหมด (timesharing mode) วิธีแบตช์โหมดคือการที่งานขนาดใหญ่เพียง 1 ชิ้นจะถูกทำในทีเดียว และงานชิ้นต่อไปจะถูกทำทันทีเมื่องานชิ้นนี้เสร็จ ส่วนวิธีไทม์แชริ่งโหมดคือการทำงานหลาย ๆ ชิ้นพร้อมกัน โดยแบ่งงานนั้นออกเป็นส่วน ๆ และผลัดกันทำทีละส่วน

อีกแนวทางหนึ่งคือ การสร้างเครื่องคอมพิวเตอร์ที่มีขนาดเล็กกว่า โดยมีขนาดเท่าโต๊ะ เรียกว่า มินิคอมพิวเตอร์ (minicomputer) ซึ่งมีความสามารถไม่เท่ากับเครื่องขนาดใหญ่แต่มีราคาถูกกว่า และสามารถทำงานที่มีประโยชน์ได้มาก ดิจิตอลคอมพิวเตอร์ถูกนำไปใช้งานในห้องแล็บ นักวิทยาศาสตร์จะใช้ดีดิเคตคอมพิวเตอร์ (dedicated computer)ซึ่งก็คือคอมพิวเตอร์ ที่ทำงานได้อย่างเดียวแทนที่จะใช้คอมพิวเตอร์ขนาดใหญ่ที่สามารถทำงานที่แตกต่างกันได้หลายอย่าง

โซลิดสเตตยังคงถูกพัฒนาต่อไปควบคู่กับดิจิตอลคอมพิวเตอร์ แต่ในปัจจุบันเทคโนโลยีทั้งสองนี้ มีความเกี่ยวดองกันมากขึ้น การที่คอมพิวเตอร์มีวงจรพื้นฐานที่คล้ายกันจึงทำให้อุตสาหกรรม ด้านสารกึ่งตัวนำทำการผลิตวงจรที่สามารถนำไปใช้กับคอมพิวเตอร์พื้นฐานเดียวกันได้

ในช่วงต้นทศวรรษที่ 1960 ได้มีการนำทรานซิสเตอร์หลาย ๆ ตัวมาบรรจุลงในซิลิคอนเพียงตัวเดียว โดยทรานซิสเตอร์แต่ละตัวจะถูกเชื่อมต่อกันโดยโลหะขนาดเล็กเพื่อสร้างเป็นวงจรแบบต่าง ๆ เช่น เกต ฟลิปฟลอป รีจิสเตอร์ วงจรบวก วงจรที่สร้างจากเทคโนโลยีเซมิคอนดักเตอร์แบบใหม่นี้เรียกว่า ไอซี (integrated circuit : IC)

ในช่วงกลางทศวรรษที่ 1960 ได้มีการผลิตไอซีพื้นฐานที่เป็นแบบ small และ medium scale integration (SSI และ MSI) ทำให้นักออกแบบสามารถเลือกใช้งานไอซีได้หลายแบบ เทคโนโลยีไดซีนี้ถูกแลักดันออก 2 แนวทางคือ การพัฒนาทางด้านเทคนิคเพื่อลดต้นทุนการผลิต และอีกแนวทางหนึ่งก็คือการเพิ่มความซับซ้อนให้กับวงจร

การนำไอซีมาใช้ในมินิคอมพิวเตอร์ทำให้มีความสามารถสูงขึ้น มินิคอมพิวเตอร์ขนาดเท่าโต๊ะ ในช่วงทศวรรษที่ 1960 นั้นมีประสิทธิภายพอ กับคอมพิวเตอร์ขน่าดเท่าห้องในช่วงปลายทศวรรษ ที่ 1950 และมินิคอมพิวเตอร์รุ่นใหม่ขนาดเท่าลิ้นชักราคา 10,000 ดอลลาร์ มีประสิทธิภาพพอ ๆ กับมินิคอมพิวเตอร์รุ่นเก่าขนาดเท่าโต๊ะที่มีราคาถึง 100,000 ดอลลาร์

จากที่กล่าวมาแล้วว่าเทคโนโลยีไอซีมีการพัฒนามาตั้งแต่กลางทศวรรษที่ 1960โดยในช่วงปลาย ทศวรรษที่ 1960 และต้นทศวรรษที่ 1970 ได้เริ่มนำเอาวงจรดิจิตอลมาสร้างรวมกัน และบรรจุอยู่ในไอซีเพียงตัวเดียวเราเรียกไอซีตัวนี้ว่า large-scale integration (LSI) และในช่วงทศวรรษที่1980ได้มีการนำเอาทรานซิสเตอร์มากกว่า100,000ตัวมาใส่ลงใน ไอซีเพียงตัวเดียว เราเรียกไอซีตัวนี้ว่า very large-scale integration (VLSI) ซึ่งเป็นที่นิยมใช้กันอย่างแพร่หลาย

วงจร LSI ในตอนแรกนั้นถูกผลิตขึ้นเพื่อใช้กับงานเฉพาะอย่าง แต่ก็มีวงจร LSI บางชนิดที่ถูกผลิตขึ้น เพื่อใช้กับงานทั่ว ๆ ไป เราจะเห็นการพัฒนาของวงจร LSI ได้อย่างชัดเจน โดยดูได้จากการพัฒนา ของเครื่องคิดเลข โดยเครื่องคิดเลขเริ่มแรกจะใช้ไอซีจำนวน 75 ถึง 100 ตัว ต่อมาวงจร LSI ชนิดพิเศษได้ถูกนำมาแทนที่ไอซีเหล่านี้ โดยใช้วงจร LSI นี้เพียง 5 ถึง 6 ตัว และต่อมาช่วงกลางทศวรรษที่ 1970 วงจร LSI เพียงตัวเดียวก็สามารถ ใช้แทนการทำงานทั้งหมดของเครื่องคิดเลขได้ หลังจากที่วงจรคำนวณได้ถูกลดขนาดลง สถาปัตยกรรมของคอมพิวเตอร์ก็ถูกลดขนาดลงด้วย โดยเหลือเป็นไอซีเพียงตัวเดียว และเราเรียกว่า ไมโครโปรเซสเซอร์ (microprocessor) เราสามารถโปรแกรมไมโครโปรเซสเซอร์เพื่อให้มันทำงานเฉพาะอย่างได้ ดังนั้นมันจึงถูกนำไปใช้เป็น ส่วนประกอบที่สำคัญในสินค้า เช่น ในเตาอบไมโครเวฟ เครื่องโทรศัพท์ ระบบควบคุมอัตโนมัติ เป็นต้นตั้งแต่ช่วงต้นทศวรรษที่ 1970 ได้มีการปรับปรุงสถาปัตยกรรมของไมโครโปรเซสเซอร์เพื่อเพิ่มความเร็ว และเพิ่มประสิทธิภาพในการคำนวณ ไมโครโปรเซสเซอร์ช่วงแรกจะประมวลผลข้อมูลทีละ 4บิต หรือเรียกว่าใช้เวิร์ดข้อมูลขนาด 4 บิตซึ่งทำงานได้ช้าแต่ต่อมาได้มีการพัฒนาไมโครโปรเซสเซอร์ใหม่ ที่ทำงานได้เร็วขึ้น ซึ่งก็คือ ไมโครโปรเซสเซอร์ขนาด 8 บิต และพัฒนาจนเป็นไมโครโปรเซสเซอร์ขนาด 16 บิต และ 32 บิตในที่สุด

ชุดคำสั่ง (instruction set) ในไมโครโปรเซสเซอร์จะมีขนาดเพิ่มขึ้น และมีความซับซ้อนมากขึ้น เมื่อจำนวนบิตของไมโครโปรเซสเซอร์เพิ่มขึ้น ไมโครโปรเซสเซอร์บางตัวจะมีความสามารถพอ ๆ กับหรือเหนือกว่ามินิคอมพิวเตอร์ทั่วไป ในช่วงต้นทศวรรษที่ 1980 ได้มีการพัฒนาระบบไมโครโปรเซสเซอร์ขนาด 8 บิตที่มีหน่วยความจำ และมีความสามารถในการติดต่อสื่อสาร ระบบนี้มีชื่อเรียกว่า ไมโครคอมพิวเตอร์ (microcomputer) หรือไมโครโปรเซสเซอร์ชิปเดี่ยว ซึ่งได้มีการนำไปใช้อย่างแพร่หลาย เพื่อควบคุมการทำงานของอุปกรณ์ต่าง ๆ เช่น คีย์บอร์ด เครื่องเล่นวีดีโอเทป โทรทัศน์ เตาอบไมโครเวฟ โทรศัพทื์ที่มีความสามารถสูง และอุปกรณ์ต่าง ๆ ในด้านอุตสาหกรรม

ถ้าเปรียบเทียบกับร่างกายของมนุษย์โพรเซสเซอร์ก็น่าจะเปรียบเทียบเป็นเหมือนสมองของมนุษย์นั่งเอง ซึ่งคอยคิดควบคุมการทำงานส่วนต่างๆของร่างกาย ดังนั้นถ้าจัดระดับความสำคัญแล้วโพรเซสเซอร์ก็น่าจะมีความสำคัญเป็นอันดับแรก



บล็อกไดอะแกรมของโพรเซสเซอร์

ส่วนประกอบของโพรเซสเซอร์มีดังนี้
• Bus Interface Unit (BIU) (Cbox) คือส่วนที่เชื่อมต่อระหว่าง address bus, control bus และ data bus กับภายนอกเช่น หน่วยความจำหลัก (main memory) และอุปกรณ์ภายนอก (peripherals)
• Memory Management Unit (MMU) (Mbox) คือส่วนที่ควบคุมโพรเซสเซอร์ในการใช้งานแคช (cache) และหน่วยความจำ (memory) โดย MMU ยังช่วยในการทำ virtual memory และ paging ซึ่งแปลง virtual addresses ไปเป็น physical addresses โดยใช้ Translation Look-aside Buffer (TLB)
• Integrated on-chip cache เป็นส่วนสำหรับเก็บข้อมูลที่ใช้งานบ่อยๆใน Synchronous RAM (SRAM) เพื่อให้การทำงานของโพรเซสเซอร์มีประสิทธิภาพสูงสุด ใช้งานได้ทั้ง L1 และ L2 on chip cache
• Prefetch Unit (part of Ibox) คือส่วนที่ดึงข้อมูลและคำสั่งจาก instruction cache และ data cache หรือ main memory based เมื่อ Prefetch Unit อ่านข้อมูลและคำสั่งมาแล้วก็จะส่งข้อมูลและคำสั่งเหล่านี้ต่อไปให้ Decode Unit
• Decode Unit or Instruction Unit (part of Ibox) คือส่วนที่แปลความหมาย ถอดรหัส หรือแปลคำสั่ง ให้เป็นรูปแบบที่ ALU และ registers เข้าใจ
• Branch Target Buffer (BTB) คือส่วนที่บรรจุคำสั่งเก่าๆที่เข้ามาสู่โพรเซสเซอร์ ซึ่ง BTB นั้นเป็นส่วนหนึ่งของ Prefetch Unit
• Control Unit or Execution Unit คือส่วนที่เป็นศูนย์กลางคอยควบคุมการทำงานในโพรเซสเซอร์ดังนี้
• อ่านและแปลความหมายของคำสั่งตามลำดับ
• ควบคุม Arithmetic and Logic Unit (ALU), registers และส่วนประกอบอื่นๆของโพรเซสเซอร์ ตามคำสั่ง
• ควบคุมการเคลื่อนย้ายของข้อมูลที่รับ-ส่งจาก primary memory และอุปกรณ์ I/O
• ALU (Ebox) คือส่วนที่ปฎิบัติตามคำสั่งและเปรียบเทียบ operands ในบางโพรเซสเซอร์มีการแยก ALU ออกเป็น 2 ส่วนดังนี้
• Arithmetic Unit (AU)
• Logic Unit (LU)
• operation ที่ ALU ปฎิบัติตามเช่น
• Arithmetic operations (+, -, *, และ /)
• Comparisons (<, >, และ =)
• Logic operations (and, or)
• Floating-Point Unit (FPU) (Fbox) คือส่วนที่ทำการคำนวณเกี่ยวกับจำนวนตัวเลขที่เป็นจุดทศนิยม
• Registers (part of Ibox, Fbox, และ Ebox) คือส่วนที่ใช้สำหรับเก็บข้อมูลสำหรับการคำนวณในโพรเซสเซอร์
• Data register set เก็บข้อมูลที่ใช้งานโดย ALU เพื่อใช้สำหรับการคำนวณที่ได้รับการควบคุมจาก Control Unit ซึ่งข้อมูลนี้อาจส่งมาจาก data cache, main memory, หรือ Control Unit ก็ได้
• Instruction register set เก็บคำสั่งที่กำลังทำงานอยู่

หน่วยประมวลผลกลาง (Central Processing Unit : CPU)
หน่วยประมวลผลกลางหรือซีพียู เรียกอีกชื่อหนึ่งว่า โปรเซสเซอร์ (Processor) หรือ ชิป (chip) นับเป็นอุปกรณ์ ที่มีความสำคัญมากที่สุด ของฮาร์ดแวร์เพราะมีหน้าที่ในการประมวลผลข้อมูลที่ผู้ใช้ป้อน เข้ามาทางอุปกรณ์อินพุต ตามชุดคำสั่งหรือโปรแกรมที่ผู้ใช้ต้องการใช้งาน หน่วยประมวลผลกลาง ประกอบด้วยส่วนประสำคัญ 3 ส่วน คือ

1. หน่วยคำนวณและตรรกะ (Arithmetic & Logical Unit : ALU)
หน่วยคำนวณตรรกะ ทำหน้าที่เหมือนกับเครื่องคำนวณอยู่ในเครื่องคอมพิวเตอร์โดยทำงานเกี่ยวข้องกับ การคำนวณทางคณิตศาสตร์ เช่น บวก ลบ คูณ หาร นอกจากนี้หน่วยคำนวณและตรรกะของคอมพิวเตอร์ ยังมีความสามารถอีกอย่างหนึ่งที่เครื่องคำนวณธรรมดาไม่มี คือ ความสามารถในเชิงตรรกะศาสตร์ หมายถึง ความสามารถในการเปรียบเทียบตามเงื่อนไข และกฏเกณฑ์ทางคณิตศาสตร์ เพื่อให้ได้คำตอบออกมาว่าเงื่อนไข นั้นเป็น จริง หรือ เท็จ เช่น เปรียบเทียบมากว่า น้อยกว่า เท่ากัน ไม่เท่ากัน ของจำนวน 2 จำนวน เป็นต้น ซึ่งการเปรียบเทียบนี้มักจะใช้ในการเลือกทำงานของเครื่องคอมพิวเตอร์ จะทำตามคำสั่งใดของโปรแกรมเป็น คําสั่งต่อไป

2. หน่วยควบคุม (Control Unit)
หน่วยควบคุมทำหน้าที่คงบคุมลำดับขั้นตอนการการประมวลผลและการทำงานของอุปกรณ์ต่างๆ ภายใน หน่วยประมวลผลกลาง และรวมไปถึงการประสานงานในการทำงานร่วมกันระหว่างหน่วยประมวลผลกลาง กับอุปกรณ์นำเข้าข้อมูล อุปกรณ์แสดงผล และหน่วยความจำสำรองด้วย เมื่อผู้ใช้ต้องการประมวลผล ตามชุดคำสั่งใด ผู้ใช้จะต้องส่งข้อมูลและชุดคำสั่งนั้น ๆ เข้าสู่ระบบ คอมพิวเตอร์เสียก่อน โดยข้อมูล และชุดคำสั่งดังกล่าวจะถูกนำไปเก็บไว้ในหน่วยความจำหลักก่อน จากนั้นหน่วยควบคุมจะดึงคำสั่งจาก ชุดคำสั่งที่มีอยู่ในหน่วยความจำหลักออกมาทีละคำสั่งเพื่อทำการแปล ความหมายว่าคำสั่งดังกล่าวสั่งให้ ฮาร์ดแวร์ส่วนใด ทำงานอะไรกับข้อมูลตัวใด เมื่อทราบความหมายของ คำสั่งนั้นแล้ว หน่วยควบคุมก็จะส่ง สัญญาณคำสั่งไปยังฮาร์แวร์ ส่วนที่ทำหน้าที่ ในการประมวลผลดังกล่าว ให้ทำตามคำสั่งนั้น ๆ เช่น ถ้าคำสั่ง ที่เข้ามานั้นเป็นคำสั่งเกี่ยวกับการคำนวณ หน่วยควบคุมจะส่งสัญญาณ คำสั่งไปยังหน่วยคำนวณและตรรกะ ให้ทำงาน หน่วยคำนวณและตรรกะก็จะไปทำการดึงข้อมูลจาก หน่วยความจำหลักเข้ามาประมวลผล ตามคำสั่งแล้วนำผลลัพธ์ที่ได้ไปแสดงยังอุปกรณ์แสดงผล หน่วยคงบคุมจึงจะส่งสัญญาณคำสั่งไปยัง อุปกรณ์แสดงผลลัพธ์ ที่กำหนดให้ดึงข้อมูลจากหน่วยความจำหลัก ออกไปแสดงให้เห็นผลลัพธ์ดังกล่าว อีกต่อหนึ่ง

3. หน่วยความจำหลัก (Main Memory)
คอมพิวเตอร์จะสามารถทำงานได้เมื่อมีข้อมูล และชุดคำสั่งที่ใช้ในการประมวลผลอยู่ในหน่วยความ จำหลักเรียบร้อยแล้วเท่านั้น และหลักจากทำการประมวลผลข้อมูลตามชุดคำสั่งเรียบร้อบแล้ว ผลลัพธ์ที่ได้ จะถูกนำไปเก็บไว้ที่หน่วยความจำหลัก และก่อนจะถูกนำออกไปแสดงที่อุปกรณ์แสดงผล


ข้อมูลจาก http://www.sanambin.com/