HP OpenVMS Systems Documentation |
| 前へ | 次へ | 目次 | 索引 |
可用性の強化プロセスは現在進行中です。OpenVMS Cluster システムの管理方法は,その構成方法と同様に重要です。この節では,OpenVMS Cluster 構成の可用性の保守の方法を紹介します。
8.4.1 可用性の保守の手法
初期構成のセットアップ後, 表 8-5 の方法に従って,OpenVMS Cluster システムの可用性を保守します。
| 方法 | 説明 |
|---|---|
| フェールオーバ方法の計画 | OpenVMS Cluster システムでは,ハードウェア構成要素間のフェールオーバをソフトウェア・サポートします。どのようなフェールオーバ機能があり,またニーズに応じたカスタマイズができるのはどれなのか,よく確認してください。障害時に回復すべき構成要素はどれか,また,フェールオーバで生じた余分な作業負荷に構成要素が対応できるか確認します。
関連項目: 表 8-2 は,OpenVMS Cluster フェールオーバ機能と,それによる回復レベルをまとめたものです。 |
| 分散アプリケーションのコーディング | OpenVMS Cluster システムの複数のノードでアプリケーションを同時に実行できるようコーディングします。ノードに障害が発生しても,OpenVMS Cluster システムの残ったメンバは利用でき,ディスク,テープ,プリンタ,その他必要な周辺機器のアクセスを維持します。 |
| 変更を最小限にする | 実行中のノードに対するハードウェアやソフトウェアの変更は,実装する前に,その必要性をよく検討してください。変更する場合は,生産環境で実施する前に,重要度の低い環境でテストします。 |
| サイズと複雑さを抑制 | 冗長性を実現できたら,構成の要素数と複雑さを抑制してください。構成が簡潔であれば,ハードウェアやソフトウェアによるエラーだけでなく,ユーザやオペレータによるエラーも減ります。 |
| 全ノードに同一ポーリング・タイマを設定 | OpenVMS Cluster システムの維持管理に使用するポーリング・タイマは,決められたシステム・パラメータで制御します。これらのシステム・パラメータの値は,すべての OpenVMS Cluster メンバ・ノードで同じ値に設定してください。
関連項目: これらのシステム・パラメータの詳細については,『OpenVMS Cluster システム』を参照してください。 |
| 管理のための事前対策 | システム管理者の熟練度は高いほど適しています。アクセス権限はそれを必要とするユーザやオペレータだけに設定してください。 OpenVMS Cluster システムの管理とセキュリティ保持のポリシーは厳密に定義してください。 |
| AUTOGEN の有効活用 | 通常の AUTOGEN フィードバックでは,システム・パラメータの設定に影響を与えるリソースの使用法が解析できます。 |
| 単独サーバやディスクに対する依存度の抑制 | 複数のシステムやディスクにデータを分散すれば,システムやディスクによる単一点障害を防げます。 |
| バックアップ・ストラテジの実装 | 定期的に,そして頻繁にバックアップを実行すれば,障害後にデータを確実に回復できます。この表にある方法のどれも確実なバックアップにはなりません。 |
8.5 LAN OpenVMS Cluster における可用性
図 8-1 は,スモール・キャパシティで可用性の高い LAN OpenVMS Cluster システムの最適な構成です。 図 8-1 の後の項で,以下の構成を検討します。
図 8-1 LAN OpenVMS Cluster システム
8.5.1 構成要素
図 8-1 に示す LAN OpenVMS Cluster 構成の構成要素は以下のとおりです。
| 構成要素 | 説明 |
|---|---|
| 1 | 2 本の Ethernet インターコネクト。ネットワーク・キャパシティを強化するには, Ethernet ではなく FDDI インターコネクトを使用します。
解説: 冗長化のためには,最低 2 本の LAN インターコネクトを使用し,全ノードを全 LAN インターコネクトに接続します。 インターコネクトが 1 本だけでは,単一点障害 (Single point of failure (単一機器の障害がシステム全体の障害になる)) の要因になります。 |
| 2 | 3 個から 8 個の Ethernet 対応の OpenVMS ノード
各ノードには,別のディスクに依存しないよう専用のシステム・ディスクが備えられます。 解説: 少なくとも 3 個のノードを使用し,定足数を維持します。 8 つのシステム・ディスクを管理するのは大変なので,ノード数は 8 個未満にしてください。 代替法 1: サテライト・ノードが必要な場合は,1 個または 2 個のノードをブート・サーバとして構成します。ただし,サテライト・ノードの可用性は,サーバ・ノードの可用性に依存します。 代替法 2: 第 8.10 節 にあるように,8 ノードを超える場合,LAN OpenVMS Cluster 構成を使用します。 |
| 3 | システム・ディスク
ブート順序の制約上,システム・ディスクは,通常は LAN OpenVMS Clusterではシャドウイングしません。 代替法 1: 2 つのローカル・コントローラ間でシステム・ディスクをシャドウイングします。 代替法 2: 2 個のノード間でシステム・ディスクをシャドウイングします。2 番めのノードでは,ディスクは非システム・ディスクとしてマウントされます。 関連項目: ブート順序とサテライトの依存内容については, 第 11.2.4 項 を参照してください。 |
| 4 | 重要データ・ディスク
すべての重要データ・ディスクには,ボリューム・シャドウイングでコピーを複数作成しておきます。シャドウ・セット・メンバは,少なくとも 2 個のノードに配置して,単一点障害の要因にならないようにします。 |
この構成には,以下のような長所があります。
この構成には,以下のような短所があります。
図 8-1 の構成では,以下の手法により可用性を強化しています。
高い可用性を備えたマルチ LAN クラスタを構成するには,以下のガイドラインに従ってください。
関連項目: 拡張 LAN (ELAN) の詳細については, 第 10.7.8 項 を参照してください。
8.6.1 MOP サーバの選択
マルチ LAN アダプタとマルチ LAN セグメントを併用するときは,MOP サービスを提供する LAN セグメントまでの接続を分散してください。分散することで,ネットワーク構成要素に障害が発生しても,MOP サーバからサテライトにダウンライン・ロードをすることができます。
サテライトをブートするためのダウンライン・ロードをサポートするには,VAX ノードと Alpha ノードに十分なキャパシティの MOP サーバが必要です。ネットワーク上で,各 MOP サーバに適した LAN 接続 (必要に応じて Alpha または VAX) を選択すれば,ネットワーク障害が発生しても MOP サービスを続行できます。
8.6.2 2 つの LAN セグメントの構成
図 8-2 は,異なる 2 つの LAN セグメントに接続した OpenVMS Cluster システムの構成例です。この構成には,Alpha ノードと VAX ノード,サテライト,2 個のブリッジがあります。
図 8-2 2 LAN セグメントの OpenVMS Cluster構成
この図では,以下の点に着目してください。
図 8-3 は,異なる 3 つの LAN セグメントに接続した OpenVMS Cluster システムの構成例です。この構成には,Alpha ノードと VAX ノード,サテライト,複数のブリッジがあります。
図 8-3 3 LAN セグメントの OpenVMS Cluster構成
この図では,以下の点に着目してください。
関連項目: LAN におけるブート順序とサテライト依存の詳細については, 第 11.2.4 項 を参照してください。LAN ブリッジ・フェールオーバの詳細については,『OpenVMS Cluster システム』を参照してください。
8.7 DSSI OpenVMS Cluster における可用性
図 8-4 は,中程度のキャパシティで,高い可用性を備えた DSSI OpenVMS Cluster システムです。図の後の項で,以下の構成を検討します。
図 8-4 DSSI OpenVMS Cluster システム
8.7.1 構成要素
図 8-4 の DSSI OpenVMS Cluster 構成には,以下の構成要素があります。
| パート | 説明 |
|---|---|
| 1 | ノード当たり 2 つの DSSI アダプタの DSSI インターコネクトが 2 本
解説: 冗長性を達成するため,最低 2 本のインターコネクトを使用し,全ノードを全 DSSI インターコネクトに関連付けます。 |
| 2 | 2 個から 4 個の DSSI 対応の OpenVMS ノード
解説: 定足数を満たすには,最低 3 個のノードを推奨します。 1 本の DSSI インターコネクトで,最高 4 個の OpenVMS ノードをサポートします。 代替法 1: 2 ノード構成では,ノードに障害が発生したときの定足数を満たすため,クォーラム・ディスクが必要です。 代替法 2: ノードが 4 個以上ある場合,2 本の LAN インターコネクトで接続された DSSI ノード・セットを 2 つ構成します。 |
| 3 | 2 本の Ethernet インターコネクト
解説: DECnet--Plus 通信には LAN インターコネクトを追加する必要があります。インターコネクトを 2 本使用して冗長性を強化しています。ネットワーク・キャパシティを上げるには,Ethernet ではなく FDDI を使用します。 |
| 4 | システム・ディスク
DSSI インターコネクト上でシステム・ディスクにシャドウします。 解説: ディスクやインターコネクトが単一点障害の要因になるのを防ぐため,インターコネクト間にシステム・ディスクをシャドウ化します。 |
| 5 | データ・ディスク
重要なデータ・ディスクは,DSSI インターコネクト上でシャドウ化します。 解説: ディスクとインターコネクトが単一点障害の要因になるのを防ぐため,インターコネクト上でデータ・ディスクをシャドウ化します。 |
図 8-4 の構成には,以下の長所があります。
この構成には,以下のような短所があります。
図 8-4 の構成では,以下の手法により可用性を強化しています。
8.8 CI OpenVMS Cluster における可用性
図 8-5 は,ラージ・キャパシティと高い可用性を備えた CI OpenVMS Cluster システムの最適構成です。図の後の項で,以下の構成を検討します。
図 8-5 CI OpenVMS Cluster システム
| 前へ | 次へ | 目次 | 索引 |