ハードから読み解くITトレンド放談

サーバ向け新プロセッサのXeon Scalable--アーキテクチャで探るその中身 - (page 2)

山本雅史

2017-08-07 06:00

コア性能を向上させたメッシュアーキテクチャ

 Xeon Scalableでは、コアの接続方法がXeon E7/E5 v4とは大きく異なっている。Xeon E7/E5ではコアを双方向のリングバスで接続する方式が使われていた。このため、コア数が増えてくると、リングを2つに分割して、リング間は専用のバッファで接続していた。しかしXeon Scalableは、コア数が増えたことで、リングバスでは対処が困難になった(レイテンシの観点からリングバスを3つには増やせない)。そこで、コアをタイルのように並べて、メッシュ状に接続する(メッシュアーキテクチャ)。

 Xeon Scalableの最大コア数は28コアだ。Xeon E7が24コアだったため、増加分は4コアになる。実際は、この増加のためにコア接続のアーキテクチャが変わったと言うよりも、今後のXeon Scalableが世代を経るごとに、コア数が増えていくことを考えれば、今のうちに対処しておいたというのが本音だろう。また、メッシュアーキテクチャを採用したことで、プロセッサの設計も楽になったというIntel側の都合もあるようだ(コアの個数で、リングを増やす設計などよりも容易になる)。

Xeon
Xeon Scalableでは、コアの接続アーキテクチャにメッシュアーキテクチャを採用(画像右側)。以前のリングアーキテクチャから変更された
プロセッサのキャッシュの持ち方も大きく変更され、2次キャッシュが分厚くなった。その分、3次キャッシュが小さくなっている(日本での発表会資料より)''
プロセッサのキャッシュの持ち方も大きく変更され、2次キャッシュが分厚くなった。その分、3次キャッシュが小さくなっている(日本での発表会資料より)

 メッシュアーキテクチャの採用は、Xeon Scalableのキャッシュ構造にも変化をもたらした。

 Xeon E7/E5では、コアが占有して使用する2次キャッシュ(Middle Level Cache=MLC)よりも、全てのコアがアクセスできる3次キャッシュ(Last Level Cache=LLC)の容量が大きかった。

 しかし、Xeon Scalableでは、2次キャッシュの容量を増やし、3次キャッシュの容量を減らしている。これは、メッシュアーキテクチャを採用したためだろう。コアの近くに、できるだけ専用のキャッシュを置くことで、繰り返しの処理を高速化している。ただし、3次キャッシュが少なくなっているため、キャッシュからデータがヒットしなければ、レイテンシの大きいメインメモリから読み込まれるため、ウェイトの状態が増える。

 今後処理が増えてくるビッグデータや機械学習、ディープラーニングなどは、繰り返しの処理が多いため、このようなキャッシュ構造でもパフォーマンスは落ちないだろう。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    Google Chrome Enterprise が実現するゼロトラスト セキュリティの最新実情

  2. ビジネスアプリケーション

    ITSMに取り組むすべての人へ、概要からツールによる実践まで解説、「ITSMクイックスタートガイド」

  3. セキュリティ

    あなたの会社は大丈夫?--サイバー攻撃対策として必要な情報セキュリティの早分かりガイドブック

  4. ビジネスアプリケーション

    業務マニュアル作成の課題を一気に解決へ─AIが実現する確認と修正だけで完了する新たなアプローチ

  5. セキュリティ

    いまさら聞けないPPAPの問題点、「脱PPAP」を実現する3つの手法と注目の"第4のアプローチ"とは

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]