ビット

用語の解説

ビットとは

(bit)
ビットとは、コンピュータが処理する最小の単位のことである。
「BInary digiT」がその語源とされている。 ビットは、2進数の0と1に対応している。 コンピュータでは通常、8ビット(1バイト)を1つの単位として扱い、1バイトは、0から2進数の11111111(10進数の255)までが表現可能となる。 コンピュータ内部の四則演算では、ビットをシフトして処理することが多い。 例えば、数値を2で割る時は、ビットの内容を右にシフトすることで結果が求められる。 なお、ビットは、JIS規格で、ビットの概念の提案者で情報理論の創始者と言われるクロード・シャノンにちなんで、シャノンと定義されている。 ただし、プログラム開発現場において、シャノンが実際に使用されている例は少ない。

用語解説出典   powered by. Weblio

CNET Japan

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]