Enterprise Watch
バックナンバー

伊勢雅英のInfiniBand探検隊 - 【前編】InfiniBandっていったい何?


 大手IT企業のサポートによって、華々しくデビューを飾った超高速インターフェイス規格「InfiniBand」。しかし、InfiniBandの最大かつ最強のサポーターだったIntelがInfiniBand用チップの市場から撤退することを発表し、それに追い打ちをかけるかのようにMicrosoftはWindows Server 2003でInfiniBandをネイティブサポートしないことを発表した。こうした理由から、メディア関係者の多くは、InfiniBandから次第に距離を置くようになった。

 筆者は、そんなメディア関係者に不人気のテクノロジを追うのが趣味なのだが(笑)、最近InfiniBandについていろいろと調べてみたところ、実は地味ながらも着実に頑張っていることが分かった。だったら、もう一度InfiniBandに光を与えてやろうではないか。ということで、エンタープライズシステムの視点から見たInfiniBandの利点、活用法を3回にわたってお届けする。InfiniBandについて忘れている方も多いと思うので、今回はInfiniBandの技術概要をおさらいしておこう。


高いスケーラビリティとRASを両立する新しいI/Oアーキテクチャの必要性

 インターネットの普及によって、基幹業務系のコンピューティング環境が大きな進化を遂げたが、このようなコンピューティング環境では、より広い帯域幅と、より短い応答速度を持った新しいI/Oアーキテクチャが求められている。実際こうした要求に応えるために、コンピュータとI/Oサブシステム間を接続する高性能インターフェイスとして、Ultra320 SCSIやSerial Attached SCSI、Fibre Channel、10Gbit Ethernetなどが登場した。

 そして、日々高まりつつある高性能化への要求、さらには24時間365日稼働という高い可用性に対する要求に応えるべく、システムコンポーネントを分散させたり、独立したネットワークに配備することで、処理性能と耐障害性を高める方法が採られるようになってきた。代表例としては、複数のサーバーを束ねて使用するサーバークラスタリングやSANのようなストレージネットワーキングが挙げられる。

 こうした数々の要件を満たすためには、I/Oアーキテクチャの大きな変革が必要だ。一般に、コンピュータシステムの性能効率を高めるためには、CPU、メモリ、I/Oシステムの性能バランスをとらなければならない。一方、ムーアの法則によれば、CPUやメモリのような半導体ベースの集積回路は18カ月に2倍のペースで高速化されていく。しかし、従来型のI/Oシステム(バスアーキテクチャ)は、機械的、電気的な制限によって、CPUやメモリのような半導体の進歩にはなかなか追いつけない。結果として、I/Oシステムがコンピュータシステムの性能向上の足かせとなってしまったのだ(これはすべてのコンピュータシステムに関わる問題だが、今回はハイエンド分野に的を絞って話を進める)。

 そこで、長期的なスケーラビリティを持ち、長距離の接続(外部接続)が可能で、高いRAS(信頼性・可用性・保守性)を実現できるスイッチ型ファブリックインターコネクトテクノロジに基づく新しいI/Oアーキテクチャが検討された。Intelは、PCI-Xよりも高性能な次世代インターフェイスとしてNGIO(Next Generation I/O)の開発に着手した。一方のPCI-X陣営は、NGIOに対抗すべく、同じくスイッチ型ファブリックインターコネクト・テクノロジを採用したFIO(Future I/O)の開発に着手した。ここで、次世代I/Oアーキテクチャの権力抗争が勃発したわけだ。

 ところが、最終的には両陣営の歩み寄りによって両テクノロジはSIO(System I/O)に統合されることになり、1999年10月にはInfiniBandに改称された。2000年10月には、数多くのベンダから構成された業界団体「InfiniBand Trade Association」(IBTA)によって最初の規格書がリリースされている。現在最新の規格は、2002年11月に公開されたInfiniBand Architecture Specification Release 1.1である。なお、2004年内にはデータ転送速度を高速化したRelease 2.0が発表される見込みだ。


少々古い話になるが、2001年2月に開催されたインテルの技術者向けカンファレンス「Intel Developer Forum Spring 2001」では、各社のInfiniBand試作機を接続した世界初の動作デモが披露された(写真は筆者が当時撮影したもの)。QLogicのInfiniBandスイッチを中心に、複数のサーバー、AdaptecやAgilent、LSI Logicのディスク・サブシステム、Crossroads SystemsのInfiniBand-SCSIルータを介したテープドライブ、InfiniBand-Gigabit Ethernetルータを介したLANクライアントなどが接続されていた。

複数レーンによる広帯域化と柔軟な接続トポロジをサポートするInfiniBand

 InfiniBandは、コンピュータの種類や接続するデバイスなどに一切依存しない汎用のI/Oアーキテクチャであり、コンピュータ同士、コンピュータとストレージもしくはネットワーク機器を接続するために用いられる。

 機器間の物理的な接続方法には、バックプレーンポート、ケーブルポート、光ファイバポートの3種類が規定されている。バックプレーンポートは、プリント基板上の配線のことで、拡張スロットやブレードの形態を実現するために用いられる。ケーブルポートは安価な銅線ケーブルによって接続するもので、機器の短距離接続(最大10~17m)に用いられる。光ファイバポートは光ファイバケーブルによって接続するもので、機器の長距離接続に用いられる。光ファイバポートのレーザー光源には、短距離向け(最大125~250m)と長距離向け(最大10km)のものが規定されている。

 InfiniBandに基づくホストには、I/Oバスブリッジを介してHCA(HCA Host Channel Adapter)が接続される。HCAは、InfiniBand機器がホスト側のCPUやメモリにアクセスできるようにするもので、ホストにとってInfiniBandの出入口となる。一方、ターゲットとなる機器(ストレージやネットワーク機器)は、TCA(Target Channel Adapter)を介して接続される。TCAは、それぞれの機器に求められるI/O機能を提供する。接続形態はLANと非常によく似ており、ホストとターゲットのデバイスはすべてI/Oスイッチを介して一対一で接続される。ネットワーク層でのパケット転送をサポートするルータを用いれば、サブネット間の通信も可能だ。

 InfiniBandの物理層は、10Gbit EthernetやFibre Channelと同じIEEE 802.3zに基づく。現行の規格では、一方向あたりの信号帯域幅が2.5Gbpsと規定されている。データ符号化方式には8B/10B符号化方式を採用しているため、データ転送速度は最大250MB/s(=2.5bps×0.8)となる。複数の接続を束ねて高速化を図る手法もサポートされており、4本束ねる「4X」では10Gbps、12本束ねる「12X」では30Gbpsの信号帯域幅を確保できる。現在のシステム性能では、もはや1Xでは速度面のメリットが出ないことから、多くのシステムでは4X以上の構成をとっている。なお、InfiniBandのリンクは全二重通信をサポートしているため、双方向の合計帯域幅はそれぞれ5Gbps、20Gbps、60Gbpsとなる。


InfiniBandは汎用のI/Oアーキテクチャなので、各種I/Oデバイス(ストレージやネットワーク機器)、計算ノードなど、コンピュータシステムを構成するさまざまなコンポーネントを接続できる(出典:Richard Libby - Technical Marketing Engineer, Enterprise Plaftorms Group, Intel Corp., Intel Architecture Uses PCI Express and InfiniBand to Deliver Winning Solutions for HPC, Intel Developer Forum 2004 Spring)。
InfiniBandで規定されている物理インターコネクトには、バックプレーン、銅線ケーブル、光ファイバケーブルの3種類がある。データセンター内ではコンポーネント間の接続が比較的短く、またコスト的な観点から、多くは銅線ケーブルが用いられる(出典:Tom Lehmann - Managers, Advanced Projects, Intel Corp., Building InfiniBand Based High Performance Computing Clusters HPC Middleware Packages, Intel Developer Forum 2004 Spring)。
InfiniBandには、ホストとターゲットという2つの役割を持つコンポーネントが一対一で接続される。ここで、ホストの出入り口となるのがHCA、ターゲットの出入り口となるのがTCAと呼ばれるアダプタだ(出典:Richard Libby - Technical Marketing Engineer, Enterprise Plaftorms Group, Intel Corp., Intel Architecture Uses PCI Express and InfiniBand to Deliver Winning Solutions for HPC, Intel Developer Forum 2004 Spring)。

PCIなど既存インターフェイスの代替えではなく独自の路線を歩み始める

 NGIOとFIOの抗争からも分かるように、InfiniBandは、もともとPCIやPCI-Xの次世代を担う内部接続用のシステムインターフェイスとしても期待されていた。このため、当初はハイエンドサーバーからデスクトップPCに至るまで、あらゆるシステムでInfiniBandが採用されるものと予想されていた。しかし、PCI-X 2.0やPCI Expressの登場によって、InfiniBandは次第に特定の市場へと追い出される形となった。

 特にサーバー分野ではPCI-X 2.0の影響が大きい。PCI-X 2.0は、現行のPCI-X 1.0aをベースにしながら性能と信頼性をさらに高めた規格だ。PCI-X 2.0で追加された新しい動作モード(モード2)では、データ転送方式としてDDR転送(2倍速)やQDR転送(4倍速)をサポートしている。64ビット、133MHz動作の場合、DDR転送(PCI-X 266)では最大2.6GB/sec、QDR転送(PCI-X 533)では最大5.3GB/secのデータ転送速度を確保できる。これはInfiniBand 12Xにも匹敵するデータ転送性能であり、接続するターゲットデバイスが少なければ共有バス型のPCI-Xでも実用になると考えられる。

 何よりPCI-Xは、PCIとの完全な下位互換性を持ち合わせており、これまでのPCIの流儀に従って製品を開発できるという大きな強みがある。すでに、PCI-X 1.0に基づく製品が数多く登場しており、経験やノウハウも十分に集まっている。多くのベンダは、製品やソリューションのいち早い市場投入を望んでおり、InfiniBandで一から製品を開発するのではなく、やはりPCI-Xで製品を開発したいと考えるのが実情だろう。裏を返せば、InfiniBandを用いて製品を開発できるのは、次回にお話しするようなInfiniBand自身に大きなメリットを見いだせる一部のベンダということになる。

 デスクトップPCの分野でも、PCI-X 2.0をPCI Expressに置き換えれば似たような論理が成り立つ。PCI Expressの信号帯域幅は1レーンでInfiniBand 1Xと同等であり、しかも既存のPCIとソフトウェア的な互換性を持つ。開発者がどちらを好むかといえば、いわずもがなPCI Expressのほうだ。すでに、PCI Expressに対応したデスクトップPC、ワークステーション向けのチップセット(インテル 925X、915G/P エクスプレス・チップセット)も登場しており、デスクトップPCの中にInfiniBandが入り込む余地はもはやない。

 では、InfiniBandはどのような分野で生き残っていくのか。現在、最も注目されているのが、InfiniBandの基本コンセプトである“Bandwidth Out of the Box”を最大限に生かせる分野、すなわちHPCC(High Performance Computing Clusters)やデータセンター内のクラスタシステムである。これらの分野とInfiniBandの高い親和性については次回に取り上げよう。



URL
  InfiniBand Trade Association(英文)
  http://www.infinibandta.com/
  IntelのInfiniBandページ(英文)
  http://developer.intel.com/technology/infiniband/

関連記事
  ・ 伊勢雅英のInfiniBand探検隊 - 【中編】HPCCで高いパフォーマンスを発揮するInfiniBand(2004/07/08)
  ・ 伊勢雅英のInfiniBand探検隊 - 【後編】データセンターでの活躍が期待されるInfiniBand(2004/07/09)


( 伊勢 雅英 )
2004/07/07 00:00

Enterprise Watch ホームページ
Copyright (c) 2004 Impress Watch Corporation, an Impress Group company. All rights reserved.