ビット

用語の解説

ビットとは

(bit)
ビットとは、コンピュータが処理する最小の単位のことである。
「BInary digiT」がその語源とされている。 ビットは、2進数の0と1に対応している。 コンピュータでは通常、8ビット(1バイト)を1つの単位として扱い、1バイトは、0から2進数の11111111(10進数の255)までが表現可能となる。 コンピュータ内部の四則演算では、ビットをシフトして処理することが多い。 例えば、数値を2で割る時は、ビットの内容を右にシフトすることで結果が求められる。 なお、ビットは、JIS規格で、ビットの概念の提案者で情報理論の創始者と言われるクロード・シャノンにちなんで、シャノンと定義されている。 ただし、プログラム開発現場において、シャノンが実際に使用されている例は少ない。

用語解説出典   powered by. Weblio

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

自社にとって最大のセキュリティ脅威は何ですか

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]