HP OpenVMS Systems Documentation |
| 前へ | 次へ | 目次 | 索引 |
選択するハードウェアと,その構成に適用する手法は, OpenVMS Cluster のスケーラビリティと重要な関係があります。この項では,スケーラビリティの高い OpenVMS Cluster の構成方法を説明します。
10.2.1 スケーラビリティの手法
表 10-2 は,スケーラビリティについて重要度の高い順に手法を並べています。この章では,この手法の実装方法を多くの図を使って説明します。
| 手法 | 説明 |
|---|---|
| キャパシティの計画 | キャパシティの 80% ( ほぼパフォーマンスとしては飽和状態 ) を超えてシステムを実行している状態では,それ以上の拡張性は望めません。
ビジネスやアプリケーションが拡大するかどうかを見極める必要があります。プロセッサ,メモリ,I/O に将来,どのような仕様が必要になるかを見積もることも大切です。 |
| 全ストレージへの共用の直接アクセス | コンピュータと I/O のパフォーマンスのスケーラビリティは,全システムから全ストレージまで共用の直接アクセスが設定されているかどうかで大きく異なります。
以下に示す CI と DSSI OpenVMS Cluster の図では,MSCP のオーバヘッドなしでストレージへの共用直接アクセスを実装したさまざまな例を示します。 関連項目: MSCP のオーバヘッドの詳細については, 第 10.8.1 項 を参照してください。 |
| ノード・カウントの範囲を,3 から 16 に制限 | OpenVMS Cluster が小さければパフォーマンスの管理や調整がしやすく,大きな OpenVMS Cluster よりも OpenVMS Cluster 通信のオーバヘッドが少なくて済みます。ノード・カウントを抑制するには,強力なプロセッサにアップグレードし,OpenVMS SMP の能力を活かします。
サーバに負荷がかかり過ぎてコンピューティングのボトルネックになっている場合,アプリケーションをノード間に分散できないか検討します。可能であれば,ノードを追加します。 不可能な場合は,プロセッサ (SMP) を追加します。 |
| システム・ボトルネックを取り除く | OpenVMS Cluster 機能のキャパシティを最大化するにあたっては,その機能を実装するハードウェアとソフトウェアの構成要素を検討します。ボトルネックになっている構成要素があると,他の構成要素のポテンシャルをフルに活せなくなります。ボトルネックを探し出し,その要因を削減すれば,OpenVMS Cluster のキャパシティを強化できます。 |
| MSCP サーバを使用可能にする | MSCP サーバを利用すれば,OpenVMS Cluster にサテライトを追加でき,すべてのストレージへのアクセスをノード間で共用できます。また,MSCP サーバには,インターコネクトに障害が発生すると共用ストレージに対するフェールオーバを実行する機能があります。 |
| 相互依存の緩和と単純な構成 | システム・ディスクが 1 つだけの OpenVMS Cluster システムは,そのディスクだけに OpenVMS Cluster の実行を依存します。ディスクや,そのディスクのサービスをしているノード,あるいはノード間のインターコネクトに障害が発生すると, OpenVMS Cluster システム全体が使用できなくなります。 |
| サービス用リソースの確保 | 容量の小さいディスク・サーバで多くのディスクをサテライトに提供する場合, OpenVMS Cluster 全体のキャパシティが制約されます。サーバが過剰負荷になるとボトルネックになり,フェールオーバによる回復操作を効果的に処理できなくなるので注意してください。 |
| リソースとコンシューマを近づける | サーバ ( リソース ) とサテライト ( コンシューマ ) の間を近づけます。 OpenVMS Cluster のノード数を追加する場合は,まず分割することを検討してください。詳細については, 第 11.2.4 項 を参照してください。 |
| 適切なシステム・パラメータの設定 | OpenVMS Cluster の拡張度合いがめざましい場合,重要なシステム・パラメータが現状に合わなくなることがあります。このようなときは,重要なシステム・パラメータを自動的に計算し,ページ,スワップ,ダンプの各ファイルのサイズ調整ができる AUTOGEN を実行してください。 |
10.3 CI OpenVMS Cluster におけるスケーラビリティ (Alpha および VAX)
1 つの CI スター・カプラには,最高で 32 のノードを付けることができます。その内,16 ノードをシステムにでき,残りをストレージ・コントローラとストレージにできます。 図 10-2 , 図 10-3 ,
図 10-4 は,2 ノード CI OpenVMS Cluster から 7 ノード CI OpenVMS Cluster への拡張状況を示しています。
10.3.1 2 ノード CI OpenVMS Cluster
図 10-2 では,クォーラム・ディスクを含むストレージまで 2 つのノードから共用の直接アクセスが設定されています。VAX システムと Alpha システムのどちらにも専用のシステム・ディスクが設定されています。
図 10-2 2 ノード CI OpenVMS Cluster
図 10-2 に示すこの構成の長所と短所は次のとおりです。
ストレージ・リソースや処理リソースの需要が増加すると, OpenVMS Cluster の構成は 図 10-3 のようになります。
10.3.2 3 ノード CI OpenVMS Cluster
図 10-3 では, 3 つのノードは CI インターコネクトで 2 つの HSJ コントローラに接続されています。重要なシステム・ディスクは,デュアル・ポート化され,シャドウ化されています。
図 10-3 3 ノード CI OpenVMS Cluster
図 10-3 に示すこの構成の長所と短所は次のとおりです。
I/O 処理が CI インターコネクトのキャパシティを超えると, OpenVMS Cluster の構成は 図 10-4 のようになります。
10.3.3 7 ノード CI OpenVMS Cluster
図 10-4 に示す 7 ノードは,それぞれ 2 つのスター・カプラとすべてのストレージに直接アクセスできます。
図 10-4 7 ノード CI OpenVMS Cluster
図 10-4 に示すこの構成の長所と短所は次のとおりです。
以下の指針に従って,CI OpenVMS Cluster を構成してください。
10.3.5 CI OpenVMS Cluster のボリューム・シャドウイングにおける指針
ボリューム・シャドウイングは,可用性の強化を目的としたもので,パフォーマンスは対象外です。ただし,以下のボリューム・シャドウイングの手法では, I/O キャパシティを最大限に維持しながら可用性の強化することができます。以下の例では,CI の構成を示していますが,DSSI と SCSI の構成にも適用できます。
図 10-5 シングル・コントローラ上のボリューム・シャドウイング
図 10-5 では, 2 つのメンバ・シャドウ・セットとともに HSJ に 2 ノードが接続されています。
この方法の短所として,コントローラが単一点障害の要因になる可能性があります。 図 10-6 における構成は,すべてのコントローラ間のシャドウイングの例を示しています。これにより, 1 つのコントローラに障害が発生しても全体が使用できなくなることはありません。すべての HSJ コントローラや HSC コントローラにシャドウイングをすると, OpenVMS Cluster システムにおけるスケーラビリティと可用性を最適化できます。
図 10-6 すべてのコントローラに対するボリューム・シャドウイング
図 10-6 にあるように,すべてのコントローラに対してシャドウイングする方法は,3 通りあります。
図 10-7 は,すべてのノードを対象にしたシャドウイングの例です。
図 10-7 すべてのノードを対象にしたボリューム・シャドウイング
図 10-7 にあるように,すべてのノードでシャドウイングすると距離面で融通性があり有利です。ただし,書き込み I/O で MSCP サーバにオーバヘッドがかかります。また,ノードのどれかに障害が発生し, OpenVMS Cluster へ復帰する際にコピー操作が必要になります。
ボリュームが複数あれば,コントローラ内のシャドウイングと,すべてのコントローラに対するシャドウイングの方が,すべてのノードに対してシャドウイングをするよりも効果的です。
関連項目: 詳細については,『Volume Shadowing for OpenVMS 説明書』を参照してください。
10.4 DSSI OpenVMS Cluster におけるスケーラビリティ (Alpha および VAX)
DSSI インターコネクトごとに,最高で 8 ノードを接続できます。その内,4 ノードはシステムとすることができ,残りをストレージ・デバイスに割り当てることができます。 図 10-8 , 図 10-9 と
図 10-10 は, 2 ノード DSSI OpenVMS Cluster から 4 ノード DSSI OpenVMS Cluster までの拡張の様子を示したものです。
10.4.1 2 ノード DSSI OpenVMS Cluster
図 10-8 で,2 つのノードは,共通 DSSI インターコネクトで 4 つのディスクに接続されています。
図 10-8 2 ノード DSSI OpenVMS Cluster
図 10-8 に示すこの構成の長所と短所は次のとおりです。
図 10-8 内の OpenVMS Cluster により強力な処理能力,記憶容量,冗長性が必要な場合,この構成は, 図 10-9 のようになります。
10.4.2 共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster
図 10-9 では,4 つのノードは,8 つのディスクへの直接アクセスを 2 本の DSSI インターコネクトで共用しています。内 2 つのディスクは,すべての DSSI インターコネクト上でシャドウ化されています。
図 10-9 共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster
図 10-9 に示すこの構成の長所と短所は次のとおりです。
図 10-9 で示した構成でさらに多くのストレージの容量が必要な場合,この構成は, 図 10-10 のようになります。
10.4.3 非共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster
図 10-10 は,4 ノード,16 ディスクの OpenVMS Cluster です。このモデルは,ノードの一部が一部のディスクへの直接アクセスを共用せず,これらのディスクを MSCP サービスの対象にする必要があるという点で, 図 10-8 や 図 10-9 とは異なります。優先順位が最も高いデータは,共通 DSSI インターコネクトでノードに結合されているディスクに保存すれば,最高のパフォーマンスを発揮できます。すべての共通 DSSI インターコネクト間のボリューム・シャドウイングでは,最高の可用性が得られるだけでなく,読み取りパフォーマンスが強化されます。
図 10-10 16 ディスクを備えた DSSI OpenVMS Cluster
図 10-10 に示すこの構成の長所と短所は次のとおりです。
| 前へ | 次へ | 目次 | 索引 |