CPU
CPU(シーピーユー、テンプレート:Lang-en-short)は、コンピュータなどにおいて中心的な処理装置として働く電子回路のことである。中央処理装置(ちゅうおうしょりそうち)や中央演算処理装置(ちゅうおうえんざんしょりそうち)などと訳される。
CPUはプログラムによって様々な数値計算や情報処理、機器制御などを行う。CPUは通常はハードウェアであるプロセッサにより実現され、現代のプロセッサの大多数はマイクロプロセッサである。最近の製品では一つのCPUがコア化され、その複数が一つのマイクロチップに実装されプロセッサ・パッケージ内に収められているもの(マルチコア型)も多い。
「CPU」と「プロセッサ」と「マイクロプロセッサ」は、ほぼ同義語として使われる場合も多い。本来は「プロセッサ」は処理装置の総称、「CPU」はコンピュータ上で中心的なプロセッサ、「マイクロプロセッサ」はマイクロチップに実装されたプロセッサである。
目次
概要
CPUは記憶装置上にあるプログラムと呼ばれる命令列を順に読み込んで解釈・実行することで情報の加工を行う。CPUはコンピュータ内での演算を行なう中心であり、CPUは通常はバスと呼ばれる信号線を介して主記憶装置や入出力回路に接続され、何段階かの入出力回路を介して補助記憶装置や表示装置、通信装置などの周辺機器が接続され、データやプログラムなど情報のやりとりを行う。人間に例えると脳に相当する部分である。
このようなCPUを用いたプログラムによるコンピュータの逐次動作がほとんどのコンピュータの基本的な動作原理となっている。記憶装置上にプログラムを配置してから、プログラムを実行する方式をプログラム内蔵方式と言う。
現在のCPUは、部品としてはプロセッサの1種である。プロセッサの多くはマイクロチップとして実装されており、マイクロプロセッサやMPU (Micro Processing Unit) と呼ばれる。また、算術演算機能を強化し信号処理に特化したデジタルシグナルプロセッサ (DSP) や、メモリや周辺回路を搭載し組込み機器制御を目的としたマイクロコントローラ(マイコン)などの展開種も登場している。
専用の電子回路に比べると実行速度は遅いが、プログラムを変えるだけで多様な処理が行えることから、非常に多岐にわたる用途に使用でき、専用回路に比べ設計、修正が容易である。このため、CPUはおよそあらゆるシステムに内蔵され、現代の産業や生活の屋台骨を支える存在にまで普及している。現在最も普及しているCPUアーキテクチャとしてARMアーキテクチャが挙げられる。ARMアーキテクチャは1991年から数え2008年初頭に出荷個数が100億個を超える[1]など、家電製品から工業製品、携帯機器などに至る多くのシステムに組み込まれ、機器制御を司っている。また、PCなど、現在の汎用コンピュータ製品における多くのシステムのメインCPUにx86アーキテクチャが用いられており、インテルのx86系CPU出荷数は1978年6月9日の8086発売から2003年までの25年で10億個を越えた[2]。
CPUの構造は1949年に世界最初のストアードプログラム方式コンピュータであるEDSACが発表された時点で、すでに基本的原理が確立している。CPUの発達は、プロセス技術の微細化による高速化、パイプライン並列化(命令パイプライン、演算パイプライン)、命令並列化(スーパースケーラ、VLIW)、データ並列化(SIMD演算)、CPUコア並列化、スレッド並列化(同時マルチスレッディング)などに支えられている。
構造と動作
構造
CPUは、全体を制御する制御装置、演算装置、データを一時記憶するレジスタ、メモリなどの記憶装置とのインタフェース、周辺機器との入出力装置とのインタフェース、などから構成される。
その他 浮動小数点演算を行うFPU(浮動小数点演算ユニット)、レジスタより多くの情報を一時記憶するキャッシュメモリ、DMAコントローラ、タイマー、シリアルインターフェースなどの機能をCPUと同一IC内にもつものもある。また、メモリから読み込んだ命令語を内部的なオペレーションに置き換える変換部を持つものもある。
クロック同期型のCPUは、クロック信号によって規則正しいタイミングで各部の動作を統制されている。 同じCPUであればクロック周波数が高い方が高速に動作し、一定時間に多くのことを処理できる。 1クロックで処理できる内容はCPUの設計により異なり、複数クロックで1つの機械語命令を実行するものから、1クロックで複数の命令を同時に実行できるものまである。クロック周波数が1GHzのCPUは、基本回路が1秒間に10億回の動作をする。
多くのCPUでは、大まかに言って制御装置が命令の解釈とプログラムの制御の流れを制御し、演算装置が演算を実行する。
高性能なCPUや、非ノイマン型のCPUや、画像処理向けのCPUは、同時に複数の命令を実行できるように複数の実行部を同一IC内に持っているものがある。
動作
ノイマン型CPUの基本的な動作は、その実装に関わらずプログラムと呼ばれる命令列を順番に実行することである。
プログラムは数値列として何らかのメモリに格納されている。CPUでは、フェッチ、デコード、実行という3つのステップがほぼ必ず存在する。
最初の段階であるフェッチとは、実行すべき命令(ある数値または数値の並び)をプログラムの置かれたメモリから取り出すことである。メモリ上の実行すべき命令の位置はプログラムカウンタで指定される。プログラムカウンタはCPUが現在見ているプログラム上の位置を示しているとも言える。命令フェッチに使用されると、プログラムカウンタはフェッチしたぶんだけ増加させられる。
CPUがメモリからフェッチした命令によってCPUの次にすべきことが決定される。デコードでは、命令をCPUにとって意味のある形式に分割する。命令を表す数値をどう分割するかは、予めそのCPUの命令セットで決定される。命令の一部の数値は命令コードと呼ばれ、実行すべき処理を指定する。その他の部分はオペランドと呼ばれ、その命令で使用する情報を示している。たとえば加算命令のオペランドは加算すべき数値を示している。オペランドには数値そのものが書かれていたり、数値のある場所(メモリのアドレスかレジスタの番号)が書かれている。古い設計では、デコーダ(デコードを行う部分)は変更不可能なハードウェア部品だった。しかし、より複雑で抽象的なCPUや命令セットではマイクロプログラム方式がしばしば使われ、命令を様々な信号に変換するのを助けている。このマイクロプログラムは書き換え可能な場合があり、製造後でも命令デコード方法を変更することができる。
フェッチとデコードの次は、実行ステップが行われる。このステップでは、CPUの多くの部分が接続され(たとえばマルチプレクサを切り替えるなどして)指定された操作を実行する。たとえば、加算を要求されている場合、加算器が所定の入力と接続され、出力と接続される。入力は加算すべき数値を提供し、出力には加算結果が格納される。加算結果が大きすぎてそのCPUに扱えない場合、算術オーバーフローフラグをフラグレジスタ(ステータスレジスタ)にセットする(RISCではフラグレジスタが存在しない場合もある)。入力や出力にはいろいろなものが使用される。演算結果が一時的かあるいはすぐに利用される場合にはレジスタと呼ばれる高速で小さなメモリ領域に格納される。メモリも入力や出力に使われる。レジスタ以外のメモリは低速だが、コスト的には一般的なメモリの方が安価であり大量のデータを格納できるため、コンピュータには必須である。
いくつかの命令はプログラムカウンタを操作する。それらは一般にジャンプ命令と呼ばれ、ループを構成したり、条件分岐をしたり、サブルーチンを実現するのに使われる。また、多くの命令はフラグレジスタを変化させる。それらのフラグはプログラムの動作に影響を与える。たとえば比較命令は二つの値を比較してフラグレジスタにその大小を示す値をセットする。そして、その値を使用してその後の処理の流れを決定するのである。
命令を実行後、同じ流れが繰り返されて次の命令をプログラムカウンタにしたがってフェッチする。もっと複雑なCPUでは、複数の命令をフェッチし、デコードし、同時に実行することもできる。しかし、基本的にどんなCPUでもやっていることはここで説明した流れと同じである。
歴史
現代のCPUのような装置が出てくる以前、ENIACのような計算機は、実行する処理の内容を変える度に物理的に配線を変更していた。このような機械では、プログラムを変更するために物理的に再構成する必要がある(たとえばENIACなどではパッチパネルが使われた)ことから「プログラム固定計算機」と呼ばれることがある(なお、ENIACは非常に限られた機能と性能になるが、ある程度はプログラム内蔵方式的な動作もできた)。
CPUは、一般にソフトウェア(プログラム)を実行する装置として定義されるため、CPUと呼べる最初の装置はプログラム内蔵方式のコンピュータからである。プログラム内蔵方式の考え方は、ENIACの設計時にすでに存在していたが、マシンの完成を早期に可能とするため、ENIACの初期段階で採用されなかった。ENIACが完成する以前の1945年6月30日、数学者のジョン・フォン・ノイマンの名で、First Draft of a Report on the EDVAC という報告書が公開・配布された。この中で、プログラム内蔵方式のコンピュータの設計について概説されている(アイディアの元はENIACのプロジェクト中に検討されたもので、ノイマンは助言役として加わり、報告書の執筆者はノイマンである。報告書の著者がノイマンだけとされたことやアイディアを誰の功績とみるかについては諸説ある)。この報告書はEDSACなどに影響を与えた。EDVACは1949年8月に一応の完成を見、アバディーンに移された(モークリーとエッカートの離脱(理由については諸説)などがありごたついた。運用に入ったのは1951年)。EDVACは様々な命令の集まりを実行するよう設計されていた。命令を組み合わせることで実用的なプログラムを構成し、EDVACで動作させることができたのである。殊にEDVACではプログラムは高速なメモリに格納されており、物理的に配線を変更することで指定されるものではない点が重要である。ノイマン型の設計では、EDVACで動作させるプログラムを変更するにはメモリを書き換えればよかったのである(ノイマン型はプログラム内蔵だけでなく、プログラムがデータとして書き換え可能である点まで含む点に注意)。
結果としてノイマン型で先に完成したのは、EDSAC(1949年)やManchester Mark Iの試作機 Baby (1948年)である。EDVACは先に設計が始まっているが、設計者間のごたごたがあって完成が遅れた。また、アイデアレベルではZuse Z3を1941年に開発しているコンラッド・ツーゼもそれ以前にプログラム内蔵方式(書き換えでない点に注意)を考案していた(1936年に特許申請しているが、アメリカに出願した際にチャールズ・バベッジの解析機関との類似を指摘され、特許は成立していない。ツーゼはこのときまでバベッジの業績を知らなかったと思われる。なおZ3は1998年にチューリング完全であったことが示されている)。データとプログラムを同じ記憶装置に格納するかどうかという点が異なる方式として、ハーバード・アーキテクチャがある。これはEDVAC以前に完成したHarvard Mark Iに由来する。同機ではさん孔テープにプログラムを格納した。ノイマン型とハーバード型の大きな違いは、後者が命令とデータの格納場所と扱いを完全に分離していることであり、前者はどちらも同じ記憶領域に格納する。汎用CPUは基本的にノイマン型であるが、ハーバード・アーキテクチャも部分的に採用されている(キャッシュメモリなど)。
デジタル機器としてのCPUは、状態を変更したり表現したりするために、何らかのスイッチを必要とする。電気機械式から電子式への移行期には、リレーや真空管がスイッチとして使われた。これらは、従来の完全な機械式よりも高速にスイッチを切り替えられたが、チャタリングをはじめ、コイル(インダクタ)によって発生する高電圧などの問題があった。一方、真空管はチャタリングは起こさないが、機能するには熱が必要であり、劣化により動作中にカソードの電子放射能力が減退(エミッション減退)して動作不能になってしまう。真空管が劣化・故障したら、故障した部位を特定して交換しなければならない。したがって、初期の電子計算機は高速化は実現したものの、電気機械式計算機よりも信頼性が低かった。EDVACのような真空管計算機は故障と故障の間の平均時間(MTBF = Mean Time Between Failure)は約 8 時間であったが、Harvard Mark Iのようなリレー式計算機はほとんど故障しなかった。しかし、信頼性よりも性能が重視され、真空管式計算機が主流となっていった。当時の同期式CPUのクロック周波数は現在のCPUに比較すると非常に遅く、100kHz~4MHz程度であった。これは、当時の論理素子(真空管)のスイッチング速度によって限界が定められていたのである。
半導体化
CPUの設計と複雑さの進化は、さらに小型で信頼性の高い電子部品を使うことで達成された。その最初の進化は、新たに発明され急激に性能の向上したトランジスタの利用である。これによって、1950年代から1960年代には、かさばって信頼性の低い真空管やリレーは使われなくなり、トランジスタ製CPUが主流となった。この改善によってさらに複雑で信頼性のあるCPUを一枚から数枚のプリント基板で構成できるようになったのである。
1964年、IBMが発表したSystem/360アーキテクチャは、いろいろな性能と大きさのコンピュータとして実装され、それらのシリーズではプログラムを変更することなく動作させることができた。当時、たとえ同じメーカーであっても、サイズの違うコンピュータは互換性がないのが普通だったのである。この改善を成し遂げるため、IBMはマイクロプログラム方式を採用した。これは現在のCPUでも広く使われている手法である。System/360は大変な成功を収め、その後数十年間メインフレーム市場を支配し続け、現在のz/Architectureに至っている。
同じ1964年、DECも、「PDP-8」という後世に影響を与えたミニコンピュータを、科学分野や研究分野に向けてリリースした。DECは、後にさらに広く使われることとなる「PDP-11シリーズ」を発表したが、このシリーズは、後に集積回路(IC)が使えるようになると、それを使ったバージョンも製造されている。トランジスタを使ったCPUでは、新たな設計上の工夫をする余裕が生じ、SIMDやベクトル計算機と呼ばれるものが出現した。そのような初期の実験的設計は、後にクレイ社の製造したスーパーコンピュータのベースとなっている。
トランジスタを使ったコンピュータは、それ以前のものと比較していくつかの明確な利点があった。信頼性向上と消費電力低下はもちろん、トランジスタによるスイッチは切り替え時間が劇的に短縮されたため、CPUが高速化されたのである。トランジスタによるコンピュータでは動作周波数は数十MHzまで高速化された。
マイクロプロセッサ
テンプレート:Main CPUの実装と設計を大きく変えた最近の技術革新は、1970年代中頃に登場したマイクロプロセッサである。世界初のマイクロプロセッサは1970年(Intel 4004)であり、広く使われるようになったのは1974年(Intel 8080)であるが、このクラス(8ビット)のCPU実装方法は完全にマイクロプロセッサだけになってしまった。それ以前のCPUが一枚から数枚の基板で実装されていたのに対して、マイクロプロセッサではそれを小さな集積回路(IC)にまとめ、多くの場合シングルチップでCPUを実現している。トランジスタのサイズが小さくなることによってゲートの静電容量が減るので、スイッチとしてもさらに高速化した。そのため、同期式マイクロプロセッサの動作周波数は数十MHzから数GHzが可能となった。また、IC上のトランジスタは技術の向上にしたがって小さくなっていき、CPUを構成するトランジスタ数は飛躍的に多くなって機能も複雑化していった。この傾向はムーアの法則と呼ばれ、CPU(IC)の高速化・集積化を正確にモデル化していた。
複雑さ、大きさ、構造、一般的な形状はこの60年間で劇的に変化したが、CPUの基本的な機能とデザインはほとんど変化していない。今日のCPUのほとんどは基本的にはノイマン型を採用している。
ムーアの法則は未だに現実でのコンピュータの性能に近似し続けているが、従来型コンピュータの処理性能の向上余地に限界が近づきつつあることが懸念されている。これまで同様に電子回路を縮小し続けてきたが、光学的な手法で電子回路を焼き付けるには紫外線からやがてはX線に移行する必要があり、この光学的問題以前に、すでに21世紀に入ってからの市販製品でも量子論的効果が現れはじめており、エレクトロマイグレーションやリーク電流のような問題が大きくなっているためである。さらなる高性能化のために、並列コンピューティングなどの手法によるノイマン型での高性能化、ジョセフソンコンピュータなど量子技術の採用、非ノイマン型化、この半世紀のコンピュータを支えた電子技術から、新たな物理現象に途を求める光コンピューティング、量子コンピュータや分子コンピュータのような新たな原理に基づくコンピュータ、などが研究されている。
デザインと実装
ビット幅
テンプレート:N-bit 21世紀現在のコンピュータはすべて二進法によって演算しており[注釈 1]、1ビットが2進数の1桁を意味している。CPUが内部演算回路やデータパスで扱うビット数を「ビット幅」あるいは「データパス幅」と呼んで、4、8、16、32、64ビットと4種ほどある幅の違いからCPUの性能や使用分野が大別される。
例えば、「ビット幅」や「データパス幅」が8ビットであるため8ビットCPUと呼ばれるCPUでは1度に扱えるデータの幅が8ビットであり、数値としては8桁の2進数で表せる範囲である「2の8乗」つまり「0-255」まで表現できる。また「アドレス幅」はCPUが1度に指定できるメモリ上の位置(アドレス)の範囲を制限する。例えば、アドレス幅が32ビットのCPUでは、1度のメモリ・アクセス(記憶装置への読み書き動作)によってそのCPUが指定できるメモリ・アドレスの範囲は、2の32乗、つまり4,294,967,296個の異なる位置になる。多くの場合、1つのメモリ・アドレスには8ビット=1バイトが割り当てられるので4ギビバイト(ギガバイトとほぼ同義)の範囲へアクセスできる。
これらはCPUのデータ幅やアドレス幅による単純な分類方法であり、実際のCPUではデータ信号線やアドレス指定方法に工夫することで、外部的に少ないデータパス幅や内部的に少ないアドレス幅でも効率的にメモリ・アクセスできるようにしているものがあるため、こういった分類は多少複雑になっている[注釈 2]。
CPUを表現する場合のビット数の意味は以下の通りである。
- アドレス幅(内部のアドレスレジスタ幅、外部アドレスバス幅)
- データバス幅(内部データ幅、外部データバス幅)
- 内部演算幅(=演算装置の幅と整数レジスタ幅)
- 命令語長
1990年代以降は4ビットから64ビットまで多様なビット幅のCPUが製品化されている。高ビット幅のCPUは機能や性能が高い反面、高集積化や回路の複雑度から高価格で消費電力も大きく、低ビット幅のCPUは機能や性能が制限される代わりに安価で低消費電力であるなど特徴があり、状況に応じて使い分けられている。また、21世紀初頭現在では、VLIWの登場によってそれまでの命令語長と内部演算幅の関係が変わり、1つのCPUコア内に複数の実行ユニットを持つものでも1つの演算器のビット幅で表現される。
1990年代後半から21世紀に入って一般化した、いくぶん新たなCPU高速化技術についてはマルチコアやVLIW、スーパースケーラなどがある。
CPUのビット数による用途の例を示す。
- 8ビット、16ビット
- 一般的な家電製品や小さなリモコン、電卓や時計など、ローエンドの組み込みシステムに広く用いられている。これらの多くには広義のCPUの中でも8ビットや16ビットのMCUと呼ばれるものが使用されている。
- 32ビット
- 携帯電話、PDA・スマートフォン、デジタルメディアプレーヤー、セットトップボックス、携帯型と据え置き型の家庭用コンシューマーゲーム機、デジタルカメラや薄型テレビなどの高性能情報家電、ネットワーク機器や大規模なシステム制御といった組み込みシステムで比較的性能が要求される装置、比較的大きなデータを扱う必要のある電子装置に用いられており、狭義のCPUと呼ばれるものの主要な使用例である。
- また、半導体製造技術の進歩に伴い、ローエンドの32ビットコアと16/8ビットコアの価格差は少なくなっており、16ビット命令(ARMのThumb命令など)を備えた32ビットコアがローエンドのMCU用途へも広く使われるようになりつつある。
- 64ビット
- パーソナルコンピュータ(PC)、ネットワーク・サーバ、ワークステーション、HPC、ハイエンドのルータ、高性能ゲーム機など、大量のデータを処理する用途で使われている。
- 2012年現在、市販されているPCは64ビットCPUがほとんどであるが、ネットアクセスやオフィススイートなどの用途では64ビットアプリケーションにしてもパフォーマンスはそれほど向上せず、PC上での多くのアプリケーションソフトウェアがいまだに32ビット製品のままである。ただし、巨大な画像処理や動画編集など大量のデータを処理する用途では巨大なメモリを割り当てることができる64ビットアプリケーションのメリットは大きく、これらの応用ソフトウェアの64ビット化が進んでいる。サーバでは大きな主記憶容量が求められたため、1990年代からCPUとOSの64ビット化が進められたが、2010年代には事務や家庭で使われる普通のPCでも4GB以上のRAMを使用できる64ビットのOSが普及しつつある。オフィススイート、例えばMicrosoft Officeにも64ビット版が用意されているが、このような用途には64ビットのメリットが少ないうえ32ビット版のアドオンが使用できなくなるため、普及は進んでいない。
上記の分類に当てはまらないものとして、過去には、互いに結合し自由にビット長を増やす事ができる方式のCPUがあり、これはビットスライスプロセッサと呼ばれた。代表的な製品にAMDのAM2900シリーズなどが挙げられる。AM2901は、スイス連邦工科大学のLilithワークステーション等に使用されていた。またデータをバイト単位で扱うCPU(バイトマシン)の他、ワード単位で扱うCPU(ワードマシン)もある(日本電気のACOS-6など)。
低消費電力化
低電圧化
最も基本的なCPUの低消費電力化技術は低電圧化であった。ロジック動作の信号線の電圧を低電圧化することは、低消費電力化につながると同時に信号を"Hi"と"Low"の間で高速に変更できるため動作速度の向上にも寄与した。
当初はリレーのような数十ボルトの動作電圧だったが、1980年代には5Vがデジタルコンピュータの標準的な動作電圧となり、1990年代には内部回路が3V程度の低電圧化を取り入れはじめ、外部との信号線でも同様の低電圧化が行なわれる頃には、CPUの内部ではさらに低い電圧が採用されるようになった。2009年現在では内部的には1V未満まで低電圧化が進められており、ノイズ耐性を考慮すればほぼ限界であると考えられている。
クロックゲーティング
ほとんどのCPU(もっと言えばほとんどの順序回路)は同期式である。つまり、CPUは同期信号にしたがって動作するよう設計されている。この信号は「クロック信号」として知られていて、一定周期の矩形波の形であることが多い。電気信号の伝播速度からCPU内の信号経路の長さを考慮してクロック信号の周波数が決定される。この周波数は信号伝播の最悪ケースを考慮して決めなければならない。最悪ケースを考慮して周波数を決定すれば、CPU全体が波形のエッジ部分で動作するよう設計でき、CPUの設計を簡略化できると同時にトランジスタ数も減らすことができる。しかし、この設計手法の欠点としてCPU全体が最も遅い部分を待つように設計しなければならず、全体の高速化がその遅い部分によって制限される。この制限に対処するために命令パイプラインやスーパースケーラといった手法が採られてきた。
パイプラインだけでは同期式CPUの問題を全て解決することはできない。たとえば、クロック信号は他の電気信号の遅延に影響される。クロック周波数が高くなり、さらに複雑なCPUを動作させようとしたとき、全回路を同期させるのが困難になってきた。このため、新たな高性能CPUでは1つのクロック信号でCPU全体を同期するのではなく、いくつかのクロック信号で各部分を個別に同期させるようにしている。また、クロック周波数が高くなるにつれてCPUの発熱が大きな問題となってきた。クロック信号が"Hi"と"Low"を繰り返すことで多くのロジック回路が同様に"Hi"と"Low"を繰り返し、その回路が演算処理に使われていない時でもクロック信号が供給されている間は無駄に動作して発熱する。21世紀現在CPUに使用されている半導体回路では、信号電圧を"Hi"か"Low"に保持し続けるよりも"Hi"から"Low"や"Low"から"Hi"へ移る時に多くの電気エネルギーを消費する。このため、CPUに高速処理能力を求めるとクロック周波数が高くなり発熱も多くなって、さらに冷却する必要が生じる。
つまり、無駄にクロック信号を供給することを止めれば電力消費は抑えられ発熱も小さくなる。このように、演算処理に関与しない不要ブロックへのクロック信号の供給を止めるクロックゲーティングと呼ばれる手法がある。
非同期設計
また、クロック信号そのものを無くしてしまう方法もある。クロック信号を使用しないと、回路の設計は非常に難しくなるがクロックを無くした非同期設計は消費電力と発熱の面で大きな利点がある。この技術はあまり一般的ではないが、クロックを無くしたCPUも存在する。たとえば、ARMアーキテクチャ互換のAMULETとMIPSのR3000 互換の MiniMIPS がある。大多数のCPUでは、クロックを完全に無くするのではなく部分的に非同期化することで性能を高める工夫を行なっている[注釈 3]。例えば、非同期演算装置を使ってスーパースカラーのパイプラインを構成することで演算性能を上げようとした設計などがある。全体を非同期化したときに、同期動作するCPUに比較して性能が向上するかどうかは定かではないが、少なくとも原理的には効果が期待できる。
パワーゲーティング
ただし、21世紀以降に登場している最新の高性能CPUで使用されている半導体回路技術(プロセス技術)では、消費電力に対するリーク電流の比率が大きくなり、リーク電流はクロック信号の有無に関係が無いためにこの供給停止だけでは大きな効果がないようになっている。
このような高性能CPUでは、クロック信号の供給停止だけではなく、動作していないモジュール等への電源供給そのものを遮断するパワーゲーティングと呼ばれる技術も用いられている。これまでは、高性能化したCPUが消費する大電流をロジック回路に最適化された半導体回路技術(プロセス技術)で制御することは容易ではなかったが、ようやく解決されて2009年現在、市販製品に利用されつつある。
並列化
MCU
CPUを中心に拡張された電子部品にマイクロコントローラ(MCU)がある。 このMCUはCPUに加えてプログラム格納用を含む半導体メモリやGPIOとシリアルIO、DAC/ADCといった各種入出力機能にタイマーやDMACにクロック回路、必要に応じてDSPやフラッシュメモリなどの周辺回路を1つのパッケージに内蔵して、主に小型の組込み機器の制御に使用される。
呼称
CPU(Central Processing Unit)という用語は、特定のクラスのプログラム可能論理マシンを表す用語であり、この定義は「CPU」が広く使われるようになる前の初期のコンピュータにも適用できる。この用語が一般に使われるようになったのは1960年代になってからである。
CPUの中でも特にマイクロプロセッサのことを「MPU」(Micro Processing Unit)と呼ぶことがある。日本においては、半導体由来であることから、古くからのトランジスタやダイオードの呼称と同様に「石」と呼ぶことがある。
企業および製品
関連項目
- CPU設計
- 命令セット
- キャッシュメモリ
- 演算装置、FPU、スタックマシン、マイクロコントローラ
- バス (コンピュータ)
- CISC / RISC
- ソフトウェア工学
- CPUの冷却装置
- パイプライン処理 - 命令パイプライン
- マイクロプロセッサ
- マイクロプログラム方式
- スーパースケーラ
- ベクトル計算機
- オーバークロック
- ストリーム・プロセッシング
参考文献
- ジョン・L・ヘネシー/デイビッド・A・パターソン著、富田眞冶/村上和彰/新實治男訳、『コンピュ-タ・ア-キテクチャ 設計・実現・評価の定量的アプローチ』、日経BP社、ISBN 4-8222-7152-8
- デイビッド・A・パターソン/ジョン・L・ヘネシー著、成田光彰訳、『コンピュータの構成と設計 ハードウエアとソフトウエアのインタフェース 第3版(上/下)』、日経BP社、ISBN 4-8222-8266-X/ISBN 4-8222-8267-8
- マイク・ジョンソン著、村上和彰監訳、『スーパスカラ・プロセッサ- マイクロプロセッサ設計における定量的アプローチ -』、日経BP社、ISBN 4-8227-1002-5
- 中森章著、『マイクロプロセッサ・アーキテクチャ入門 RISCプロセッサの基礎から最新プロセッサのしくみまで TECHI Vol.20』、CQ出版社、ISBN 4-7898-3331-3
注釈
- ↑ 初期のデジタルコンピュータには、それ以前の機械式計算機に類似させたため(ENIACの場合)や、事務的な計算のため(IBM 1401の場合)に、十進法を採用したものもあった(EDSACのように二進のものもあった)。他には3進数を採用したものもあった。それ以降は二進法を採用するのが一般化した。二進法では各桁はふたつの値(1 と 0)しかとらないので、高い電圧と低い電圧でそれを表すことができる。
- ↑ アドレスbit幅は8bitCPUに於いては16bit幅以上ある事が通常で、32bitCPUでは24bitなど、×bitCPUと称する場合のbit数と一致しない事が多数ある。外部データバス幅は16bitCPUで外部データバス8bit、32bitCPUで外部バス16bitなど、これも×bitCPUと称する場合のbit数と一致しない事が多数ある。内部データバス幅は32bitCPUで内部データバス64bitの例がある。レジスタのbit幅では16bitCPUで32bitレジスタを持つCPUがある。命令長はCISCでは複数のbit幅が混在しており、RISCでも32bit演算で16bitバスなどがある。
- ↑ このため多くのCPUは外部回路をスタテック回路に換えてもDC動作と呼ばれるクロックを(例えば)手動で送るような操作は行なえない。PLL回路が含まれるようになってからは一層不可能である。
参照
- ↑ テンプレート:Cite web
- ↑ 25周年を迎えた、インテルのx86アーキテクチャ, 2003年6月10日, CNET Japan