複数のビットを表す単位
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/03/17 09:14 UTC 版)
伝統的に複数のビットを表す情報単位(英語版)がいくつか使用されてきた。最も一般的なのは、1956年6月にワーナー・ブッフホルツ(英語版)によって作られた単位「バイト」である。これは、歴史的にコンピュータで1つのキャラクタの符号化に使用されるビットの集まりを表すために使用された。このため、多くのコンピュータアーキテクチャで基本的なアドレスの単位として使用された。過去には様々なビット数のバイトが使用されてきたが、今日では8ビットを1バイトとする実装が広く使用されている。ただし、バイトの大きさが基礎となるハードウェア設計に依存するという曖昧さを回避するために、8ビットであることを明示的に示す単位「オクテット」が定義されている。 通常、コンピュータは、「ワード」と呼ばれる固定サイズのビットのグループ単位で操作を行う。バイトと同様に、1つのワードに含まれるビット数もハードウェア設計によって異なる。通常は8〜80ビットだが、一部の専用コンピュータではさらに大きくなる。21世紀初頭において、パーソナルコンピュータやサーバコンピュータのワードサイズは32ビットまたは64ビットである。 国際単位系では、基本となる単位の十進数の倍量・分量を表す接頭辞が定義されている。これは一般的にビットやバイトに対しても適用されている。ただし、本来の十進数の倍量(1000の冪乗)ではなく、1024の冪乗を表すのに使用されることもあり、曖昧さの回避のために1024の冪乗であることを明示する別の接頭辞が定義されている(2進接頭辞を参照)。
※この「複数のビットを表す単位」の解説は、「ビット」の解説の一部です。
「複数のビットを表す単位」を含む「ビット」の記事については、「ビット」の概要を参照ください。
- 複数のビットを表す単位のページへのリンク