library home hp.com home products and services support and drivers solutions
cd-rom home
End of Jump to page title
HP OpenVMS Systems
Documentation

Jump to content


HP OpenVMS

HP OpenVMS
OpenVMS Cluster 構成ガイド


前へ 次へ 目次 索引


10.7.5 ハイパワー・ワークステーション OpenVMS Cluster (1995 年のテクノロジ)

図 10-22 は,FDDI リング上で高いパフォーマンスと可用性を実現できる OpenVMS Cluster 構成です。

図 10-22 ハイパワー・ワークステーション・サーバの構成 (1995 年)


図 10-22 には,専用のシステム・ディスクを持った Alpha ワークステーションが数台あります。これらは,FDDI リングに接続されています。 Alpha ワークステーションを FDDI に接続すると各ワークステーションが自身のシステム・ディスクに直接アクセスできるため,高いパフォーマンスが可能になります。また,FDDI 帯域幅は,Ethernet の場合よりも高くなります。Alpha ワークステーションには FDDI アダプタがあるため,これらのワークステーションを FDDI に接続するのは,ワークステーションの重要度に応じた代替策として有効です。FDDI は Ethernet よりも 10 倍高速であり,Alpha ワークステーションには,FDDI の処理速度を活かせるだけの処理能力があります。 (Fast Ethernet は FDDI と同等の速度で, Gigabit Ethernet は Fast Ethernet や FDDI より 10 倍高速です。)

10.7.6 ハイパワー・ワークステーション OpenVMS Cluster (2004 年のテクノロジ)

図 10-23 に,LAN に Gigabit Ethernet を使用し,ストレージに Fibre Channel を使用した,ハイパフォーマンスで可用性の高い OpenVMS Cluster 構成を示します。

図 10-23 ハイパワー・ワークステーション・サーバの構成 (2004 年)


図 10-23 には,専用のシステム・ディスクをそれぞれ持った Alpha ワークステーションが数台あり,これらは Gigabit Ethernet LAN に接続されています。各ワークステーションが自身のシステム・ディスクに直接アクセスできるため,それらを Gigabit Ethernet LAN に接続することで高いパフォーマンスを実現できます。さらに,Gigabit Ethernet の帯域幅は,FDDI よりも 10 倍広く高速です。 Alpha ワークステーションには, Gigabit Ethernet の速さを活かせるだけの処理能力があります。

10.7.7 サテライトを備えた OpenVMS Cluster の指針

以下に示すのは,サテライトを持った OpenVMS Cluster をセットアップするときの指針です。

10.7.8 拡張 LAN 構成の指針

LAN セグメント間にブリッジとスイッチを使用すると,拡張 LAN を形成できます。シングル LAN に比べたとき,これにより,可用性,接続距離,全帯域幅の強化が可能です。ただし,拡張 LAN では,遅延が増加し,パスによっては帯域幅が低下する因子もあります。パケット損失,キューイング遅延,パケット・サイズのような要因もネットワークのパフォーマンスに影響を与えることがあります。 表 10-3 は,以上の因子を扱う場合に,十分な LAN パフォーマンスを確保するための指針をまとめたものです。

表 10-3 拡張 LAN 構成指針
係数 指針
伝播遅延 パケットが LAN を移動する時間は,移動距離と,スイッチまたはブリッジによってリンク間で中継される回数によって異なります。応答時間を重視する場合は,これらの因子を制御する必要があります。

OpenVMS Cluster 通信に FDDI が使用されている場合,FDDI リングがアイドリング時のリング待ち時間の上限は 400 ms とします。 FDDI パケットが 5.085 マイクロ秒/km で移動し,各ステーションにおける送受信の遅延は約 1-ms です。FDDI 待ち時間は以下のアルゴリズムで計算できます。

待ち時間 = (距離単位 km) * (5.085 ms/km) + (ステーションの数) * (1 ms/ステーション)

ハイ・パフォーマンス・アプリケーションでは,ノード間のスイッチ数を 2 つまでにしてください。ハイ・パフォーマンスが求められない場合,ノード間で使用できるスイッチまたはブリッジの数は 7 つまでとします。

キューイング遅延 スイッチまたはブリッジとホスト・アダプタにおいて,即時着信率がサービス率を超えるとキューイングが発生します。キューイングは以下の方法で制御できます。

  • 通信頻度の高いノード間は,スイッチまたはブリッジの数を削減する。

  • ハイ・パフォーマンスなスイッチまたはブリッジとアダプタだけを使用する。

  • LAN におけるトラフィック・バーストを削減する。たとえば,小規模な I/O は結合し,小さいパケットのバーストの代わりに 1 つのパケットにまとめられる。

  • 高速プロセッサと高速 LAN を利用し,スイッチまたはブリッジでトラフィックを分離して, LAN セグメントとホスト・プロセッサの利用レベルを下げる。

パケット損失 LAN が配信しなかったパケットは,再送信が必要であり,これはネットワーク・リソースの余分な消費や遅延の増加,あるいは帯域幅の低下をもたらします。ブリッジとアダプタに輻輳が生じると,パケットが廃棄されます。このパケット損失を少なくするには,先に説明したキューイングを制御します。

通過時に損傷を受けたパケットも廃棄されます。この問題を制御するには,LAN ハードウェアの構成規則を順守し,電気的な干渉源を排除し,確実にすべてのハードウェアを適正に運用します。

パケット損失は,VMS バージョン 5.5-2 以降を利用すれば緩和できます。これは PEDRIVER 輻輳制御の機能を備えているからです。

再送タイムアウト率では,パケット損失の兆候を知ることができます。ノード間の OpenVMS Cluster トラフィックの場合,送信 1000 回に対しタイムアウト 1 回を限度とします。ハイ・パフォーマンス・アプリケーションに使用される LAN パスでは,さらに大幅に低い率が求められます。OpenVMS Cluster における再送タイムアウトの発生状況をよく監視してください。

関連項目: 再送タイムアウトの発生状況の監視については,『OpenVMS Cluster システム』を参照してください。

スイッチまたはブリッジの回復遅延 自己診断時間が短いスイッチまたはブリッジを選択し,高速自動再構成ができるようにそれらを調整してください。ネットワークの要件に合わせてスパニング・ツリーのパラメータを調整することも含みます。

関連項目: LAN ブリッジ・フェールオーバの詳細については,『OpenVMS Cluster システム』を参照してください。

帯域幅 OpenVMS Cluster 通信に使用するすべての LAN パスは,最低 10 Mb/s の公称帯域幅で使用できるものに限定します。LAN セグメントの平均利用率は,任意の 10 秒間に 60% を超えないようにします。

FDDI 構成の場合,パフォーマンスの要求度が最も高い通信パスには FDDI だけを使用してください。 2 つの FDDI セグメント間には Ethernet LAN セグメントを配置しないでください。 FDDI 帯域幅は非常に大きいので,Ethernet LAN がボトルネックになります。 1 つの FDDI 上のサーバから別の FDDI 上のクライアントのサービスをするとき,その間に Ethernet LAN があれば,この手法は無効です。FDDI 上にサーバを配置し,Ethernet LAN にクライアントを配置するほうが,より適切です。 図 10-21 を参照してください。

Gigabit Ethernet 構成の場合は,可能であればジャンボ・フレームを有効にしてください。

トラフィックの分離 相互の通信頻度が高いノード間では,スイッチまたはブリッジを利用してトラフィックを分離しローカライズしてください。たとえば,スイッチまたはブリッジは,他の LAN から OpenVMS Cluster を分離したり,OpenVMS Cluster 内の通信頻度の高いノードを他の OpenVMS Cluster 内のノードから分離するときに使用します。

複数のアダプタがある重要なシステム間には,LAN によって独立したパスを提供してください。

パケット・サイズ NISCS_MAX_PKTSZ システム・パラメータは,FDDI のフル・パケット・サイズを利用できるような調整が可能です。LAN パスが,エンド・ツー・エンドで最低 4474 バイトのデータ・フィールドをサポートしているか確認してください。

障害によっては,トラフィックが大きなパケット・サイズをサポートする LAN パスから,より小さいサイズのパケットしかサポートしないパスに切り替わることがあります。この種の障害の自動検出と自動回復は実装可能です。このような機能では,パケットが宛先 FDDI リンクに配信されると,FDDI フレーム制御バイトの優先順位フィールドの値が ELAN によりゼロに設定されます。IEEE 802.1 ブリッジ準拠の Ethernet-to-FDDI ブリッジ仕様では,この機能をサポートしています。

10.7.9 OpenVMS Cluster のシステム・パラメータ

サテライトとサーバがある OpenVMS Cluster には, OpenVMS Cluster を効率よく管理できるシステム・パラメータが用意されています。 表 10-4 は,これらのシステム・パラメータの推奨値をまとめたものです。

表 10-4 OpenVMS Cluster システム・パラメータ
システム・パラメータ サテライト用の値 サーバ用の値
LOCKDIRWT 0 1〜4。 LOCKDIRWT の設定は,ノードがリソース・ディレクトリ・ノードとしてどのようなサービスを行うかに影響します。また,リソース・ツリーのマスタを決定するために使用することもできます。一般的に,1 より大きい設定は,クラスタ・ノードの具体的なワークロードと,各アプリケーションの稼動状況を慎重に調査した後に決定するものであり,本書では説明しません。
SHADOW_MAX_COPY 0 4,環境によってはさらに高い値に設定可能
MSCP_LOAD 0 1
NPAGEDYN スタンドアロン・ノードの場合よりも高い値 サテライト・ノードの場合よりも高い値
PAGEDYN スタンドアロン・ノードの場合よりも高い値 サテライト・ノードの場合よりも高い値
VOTES 0 1
EXPECTED_VOTES OpenVMS Cluster ボーツの合計値 OpenVMS Cluster ボーツの合計値
RECNXINTERVL 1 全ノードに同じ値 全ノードに同じ値


1ブリッジ時間と LAN 利用率に関係。

関連項目: これらのパラメータの詳細については,『OpenVMS Cluster システム』および『Volume Shadowing for OpenVMS 説明書』を参照してください。

10.8 I/O のスケーリング

OpenVMS Cluster の拡張性にとって,I/O のスケーラビリティは重要な要素です。 OpenVMS Cluster に構成要素を追加する場合,追加した構成要素がボトルネックになったり,OpenVMS Cluster 全体のパフォーマンスが低下するのを防ぐため,高い I/O スループットが必要になります。I/O スループットに影響を与える要素は,以下のとおりです。

以上の要素は,I/O スケーラビリティそのものに影響する場合と,スケーラビリティの組み合わせに影響する場合があります。以下の項では,以上の要素について説明するとともに,アプリケーションに変更を加えずに I/O スループットとスケーラビリティを最大限に発揮する方法を説明します。

その他,I/O スループットに対しては,インターコネクトやストレージ・サブシステムの種類が影響します。

関連項目: インターコネクトの詳細については 第 4 章 を,ストレージ・サブシステムの詳細については 第 5 章 を参照してください。 MSCP_BUFFER および MSCP_CREDITS の詳細については,『OpenVMS Cluster システム』を参照してください。

10.8.1 MSCP サービス対象のストレージへのアクセス

MSCP サーバの機能性は,OpenVMS Cluster にとって大きな利点をもたらします。たとえば,ノードとストレージ間の直接通信が可能になります。そして,MSCP サービスによる I/O はオーバヘッドを引き起こしません。 図 10-24 は,サービス・システムによる特別な処理をパケットが要求する仕組みを簡略化したものです。

図 10-24 直接アクセスと MSCP サービスによるアクセスの比較


図 10-24 で,MSCP サービス対象のパケットは,別のシステムによる "中継"を受けてから宛先に到達します。MSCP サービス対象のパケットが宛先ストレージに対応するシステムに達すると,パケットは直接アクセスの場合と同様の処理を受けます。

大量の MSCP サービスを必要とする OpenVMS Cluster では,I/O パフォーマンスやスケーラビリティが低下します。MSCP サービスによる I/O と直接アクセスによる I/O を比較すると,I/O スループットは,全体で約 20% 低下します。サテライトがそれぞれのローカル・ストレージを OpenVMS Cluster 全体に提供する方式ではなく,少数の大ノードのストレージを多数のサテライトに提供するように構成してください。

10.8.2 ディスク・テクノロジ

ここ数年,CPU による情報処理能力は,I/O サブシステムによるプロセッサに対するデータ提供能力を越えています。その結果,プロセッサが I/O 処理の終了を待機する時間が増えています。

半導体ディスク (SSD),DECram,そして RAID レベル 0 は,処理速度と磁気ディスクのアクセス速度のギャップをとりもつテクノロジです。磁気ディスクのパフォーマンスは,シーク待ち時間と回転待ち時間による制約を受けますが,SSD と DECram はメモリを使用するため,即時アクセスが可能です。

RAID レベル 0 は,1 つのファイルを複数のディスク・ボリュームに分散 (または "ストラインピング") するための技術です。その目的は,アクセス頻度の高いファイルをストライプ・セットにパーティション化し,複数のデバイスに保存することにより,1 つのディスクにボトルネックが発生するのを防ぐことです。この技術では,1 つの I/O を多数のディスクで併行処理することができます。

表 10-5 は,ディスク・テクノロジとその機能をまとめたものです。

表 10-5 ディスク・テクノロジのまとめ
ディスク・テクノロジ 特性
磁気ディスク アクセス時間がかかる。
低費用。
複数のインターコネクトで使用可能。
半導体ディスク あらゆる I/O サブシステム・デバイス内で最速のアクセス時間。
書き込み頻度が高いファイルの場合に最高のスループット。
複数のインターコネクトで使用可能。
DECram 中小サイズの I/O 要求で最高のスループット。
揮発性ストレージ領域; 一時読み取り専用ファイルに最適。
Alpha システムや VAX システムで利用可能。
RAID レベル 0 HSD コントローラ,HSJ コントローラ,および HSG コントローラで使用可能。

注意: I/O をスケーリングする最も速い方法は,半導体ディスクや DECram に対して共用直接アクセスする場合です。


前へ 次へ 目次 索引