library home hp.com home products and services support and drivers solutions
cd-rom home
End of Jump to page title
HP OpenVMS Systems
Documentation

Jump to content


OpenVMS

OpenVMS
OpenVMS Cluster システム


前へ 次へ 目次 索引


6.4.4 静的負荷バランス調整

MSCP サーバは,使用可能なサービス・キャパシティを MSCP クラス・ドライバ (DUDRIVER) に定期的に送信します。ディスクがマウントされるか,またはディスクで障害が発生すると, DUDRIVER は使用可能なサービス・キャパシティが最大のサーバをそのディスクに割り当てます (TMSCP サーバはこのマウント機能を実行しません)。この初期割り当てを静的負荷バランス調整と呼びます。

6.4.5 動的負荷バランス調整 (VAX のみ)

動的負荷バランス調整は VAX システムでのみ実行されます。 MSCP サーバの動作は 5 秒ごとに確認されます。サーバに対する動作が過剰になると,サービス負荷は自動的にクラスタ内の他のサーバに移動されます。

6.4.6 特殊な目的での MSCP I/O 負荷バランス調整の無効化

一部の構成では,クラスタ内の 1 つ以上のシステムをプライマリ I/O サーバとして指定し,他のシステムで I/O トラフィックを制限しなければならないことがあります。この目標を達成するには,MSCP サーバで使用されるデフォルトの負荷キャパシティの値を無効にします。たとえば,クラスタが 2 台の Alpha システムと 1 台の VAX 6000-400 システムで構成され,VAX システムに対して MSCP でサービスされる I/O トラフィックを削減したい場合は,たとえば 50 などの小さな MSCP_LOAD の値を VAX に割り当てることができます。2 台の Alpha システムは,それぞれ負荷キャパシティ値が 340 で起動され, VAX システムは負荷キャパシティ値が 50 で起動されるため, MSCP によってサービスされるサテライトは,大部分の I/O トラフィックを Alpha システムに送信するようになります。

6.5 Mount ユーティリティによるクラスタ・ディスクの管理

ローカルに接続されているディスクをクラスタ内の他のノードからアクセスできるようにするには,ディスクが接続されているコンピュータに MSCP サーバ・ソフトウェアをロードしなければなりません ( 第 6.3.1 項 を参照)。さらに,Mount ユーティリティと適切な修飾子 (/CLUSTER,/SYSTEM,/GROUP のいずれか) を使用して,各ディスクをマウントしなければなりません。複数のディスクのマウントは,コマンド・プロシージャを使用して自動化できます。 SYS$EXAMPLES ディレクトリに格納されているサンプル・コマンド・プロシージャ MSCPMOUNT.COM を参照してください。

Mount ユーティリティには,再マウント操作でディスクを自動的に再構築するかどうかを指定する他の修飾子もあります。データ・ディスクとシステム・ディスクとでは,適切な再構築手法は異なります。

ここでは,これらの目的で Mount ユーティリティを使用する方法について説明します。

6.5.1 クラスタ・ディスクのマウント

すべてのコンピュータ間で共用されるディスクをマウントするには,以下の表に示す方法で MOUNT コマンドを指定します。

マウントする場合 設定
システム・スタートアップ時
ディスクが 1 台のシステムに接続されていて,クラスタ内の他のすべてのノードから使用できるように設定する場合 ディスクがマウントされるコンピュータで MOUNT/CLUSTER device-name を使用する。このコマンドが実行された時点でクラスタ内でアクティブであるすべてのコンピュータで,ディスクがマウントされる。最初に,ディスクはローカルでマウントされる。次に,マウント操作が正常終了すると,ディスクはクラスタ内の他のノードでマウントされる。
コンピュータにディスクが直接接続されていない場合 コンピュータでアクセスしなければならない各ディスクに対して,そのコンピュータで MOUNT/SYSTEM device-name を使用する。ディスクは 1 台のシステムに接続することができ, HS x コントローラによってアクセスされる共用ディスクに接続することもできる。マウント操作が正常終了すると,ディスクはクラスタに参加しているコンピュータでマウントされる。
システムが稼動されているとき
ディスクを追加する場合 ディスクがマウントされるコンピュータで MOUNT/CLUSTER device-name を使用する。このコマンドが実行された時点でクラスタ内でアクティブなすべてのコンピュータで,ディスクがマウントされる。最初に,ディスクはローカルでマウントされる。次に,マウント操作が正常終了すると,ディスクはクラスタ内の他のノードでマウントされる。

クラスタ内のシステムがブート (またはシャットダウン) される順序とは無関係に,可能な場合必ずディスクがマウントされるようにするには,上記の表の説明に従って,スタートアップ・コマンド・プロシージャで MOUNT/CLUSTER および MOUNT/SYSTEM を使用しなければなりません。

注意: システム・ディスクまたはグループ・ディスクだけは,クラスタ全体またはクラスタ・メンバの一部でマウントできます。 /SYSTEM 修飾子または /GROUP 修飾子を指定せずに MOUNT/CLUSTER を入力すると,/SYSTEM であるものと解釈されます。また,/SYSTEM 修飾子または /GROUP 修飾子を使用してマウントされる各クラスタ・ディスクには,固有のボリューム・ラベルを付けなければなりません。

6.5.2 共用ディスクのマウントの例

3 メンバ・クラスタ内のすべてのコンピュータが COMPANYDOCS というディスクを共用したいとしましょう。ディスクを共用するには,以下の例に示すように,3 台のコンピュータのいずれかが MOUNT/CLUSTER コマンドを使用して COMPANYDOCS をマウントできます。


$ MOUNT/CLUSTER/NOASSIST $1$DUA4: COMPANYDOCS

3 台のコンピュータのうち,2 台だけがディスクを共用するように設定する場合は,以下の例に示すように,2 台のコンピュータがどちらも同じ MOUNT コマンドを使用してディスクをマウントしなければなりません。


$ MOUNT/SYSTEM/NOASSIST $1$DUA4: COMPANYDOCS

スタートアップ時にディスクをマウントするには,スタートアップ時に起動される共通のコマンド・プロシージャまたはコンピュータ固有のスタートアップ・コマンド・ファイルに MOUNT コマンドを指定します。

注意: /NOASSIST 修飾子は,ディスクのマウントを複数回実行するように設計されているコマンド・プロシージャで使用されます。ディスクは一時的にオフラインになったり,その他の何らかの理由でマウントできなくなることがあります。数回マウント操作を実行した後,ディスクをマウントできない場合,プロシージャは処理を続行します。デフォルト設定である /ASSIST 修飾子を使用すると,ディスクをただちにマウントできないときに,コマンド・プロシージャは処理を停止し,オペレータに問い合わせます。

6.5.3 コマンド・プロシージャによるクラスタ・ディスクのマウント

クラスタ・ディスクを構成するには,ディスクをマウントするためのコマンド・プロシージャを作成します。サイト固有の SYSTARTUP プロシージャから起動される別のコマンド・プロシージャ・ファイルに,クラスタ・ディスクをマウントするコマンドを指定することもできます。クラスタ環境に応じて,以下のいずれかの方法でコマンド・プロシージャを設定できます。

どちらの方法の場合も,各コンピュータはサイト固有の SYSTARTUP プロシージャから共通プロシージャを起動できます。

例: システムの SYS$EXAMPLES ディレクトリに格納されている MSCPMOUNT.COM ファイルは,クラスタ・ディスクをマウントするために一般に使用されるコマンドが格納されているサンプル・コマンド・プロシージャです。この例には,プロシージャの各段階を説明するコメントが含まれています。

6.5.4 ディスクの再構築操作

ファイルが作成または拡張されるときに,ディスク I/O 操作をできるだけ少なくし,パフォーマンスを向上するために, OpenVMS ファイル・システムではあらかじめ割り当てられたファイル・ヘッダとディスク・ブロックのキャッシュが管理されています。

ディスクが不正にディスマウントされると (たとえば,システム障害が発生した場合や, SYS$SYSTEM:SHUTDOWN.COM を実行せずにクラスタから削除された場合),あらかじめ割り当てられているこの領域が一時的に使用できなくなります。ディスクが再びマウントされると, MOUNT はディスクをスキャンしてこの領域を回復します。この処理をディスクの再構築操作と呼びます。

6.5.5 クラスタ・ディスクの再構築

クラスタに接続されていないコンピュータでは,あらかじめ割り当てられた領域を回復するための MOUNT スキャン操作は,単にブート処理を長引かせるだけです。しかし, OpenVMS Cluster システムでは,この操作はクラスタ内のすべてのユーザ・プロセスの応答時間を長引かせる可能性があります。特定のディスクに対してスキャンが実行されている間,そのディスクに対する大部分の動作は実行できません。

注意: 特に,ディスクに多くのファイルが含まれている場合や,ユーザ数が多い場合,ディスク上のファイルに読み込みまたは書き込みを実行しようとしているユーザ・プロセスで数分以上の遅延が発生することがあります。

再構築操作は,OpenVMS Cluster のコンピュータのスタートアップでディスクへのアクセスを遅らせる可能性があるため,クラスタ・ディスクのマウント・プロシージャでは,なるべく /NOREBUILD 修飾子を使用することをお勧めします。 MOUNT/NOREBUILD を指定すると,失われた領域を回復するためにディスクがスキャンされることがないので,コンピュータがディスクをマウントするときに発生する遅延時間を最低限に抑えることができます。

関連項目: システム・ディスクの再構築の詳細については, 第 6.5.6 項 を参照してください。ディスクの再構築およびシステム・ディスクのスループットを向上する方法の詳細については, 第 9.5.1 項 を参照してください。

6.5.6 システム・ディスクの再構築

ほとんどのシステムの動作はシステム・ディスクへのアクセスを必要とするため,システム・ディスクの再構築は特に重要です。システム・ディスクの再構築が実行されている場合,そのディスクを使用するどのコンピュータでも,動作はほとんど実行されません。

他のディスクと異なり,システム・ディスクはブート・シーケンスの初期の段階で自動的にマウントされます。 再構築が必要で,システム・パラメータ ACP_REBLDSYSD の値が 1 の場合は,システム・ディスクはブート・シーケンスで再構築されます (ACP_REBLDSYSD システム・パラメータのデフォルト設定は 1 であり,この値はシステム・ディスクを再構築しなければならないことを指定します)。以下の例外があります。

設定 説明
サテライトでは,ACP_REBLDSYSD パラメータを 0 に設定しなければならない。 このように設定すると,ブート・シーケンスの初期の段階でシステム・ディスクがマウントされるときに,サテライトがシステム・ディスクを再構築しないようにすることができ,サテライトがクラスタに参加するときに,このような再構築によって発生する遅延時間を回避することができる。
ブート・サーバでは,ACP_REBLDSYSD をデフォルト値の 1 に設定しなければならず,ブート・サーバでディスクをマウントするプロシージャでは, /REBUILD 修飾子を使用しなければならない。 このようにすると,ブート・サーバのリブートの時間が長くなる可能性があるが,予想しないシャットダウンが発生した後,システム・ディスクの領域が確実に使用可能になる。

クラスタが起動され,実行された後,システム管理者は失われたディスク領域を回復するために, SET VOLUME/REBUILD コマンドを実行するバッチ・プロシージャをキューに登録することができます。このようなプロシージャは,ディスクへのアクセスがブロックされてもユーザが不便を感じない時刻 (たとえば毎日午前 0 時から午前 6 時の間) に実行できます。 SET VOLUME/REBUILD コマンドは,再構築が必要であるかどうかを判断するので,プロシージャでは,通常マウントされる各ディスクに対してコマンドを実行できます。

推奨: これらのプロシージャを以下のコンピュータで実行すれば,プロシージャの実行時間を短縮し,ディスク・アクセスで発生する遅延時間を短縮することができます。

さらに,それぞれ異なるディスク・セットを再構築するプロシージャを 2 つ以上同時に実行することもできます。

警告: ディスクをマウントするときに,以下の条件のいずれか一方または両方が満たされる場合は,定期的に SET VOLUME/REBUILD コマンドを含むプロシージャを実行して,ディスクを再構築することが重要です。

ディスク・ボリュームを再構築しないと,使用可能な領域が失われ,アプリケーションがファイルを作成および拡張することができなくなることがあります。

6.6 OpenVMS Cluster 全体でのディスクのシャドウイング

ボリューム・シャドウイング (ディスク・ミラーリングとも呼ぶこともあります) は,データを複数のディスクに複製することで,高いデータ可用性を達成します。1 つのディスクで障害が発生しても,他のディスクがアプリケーションおよびユーザ I/O 要求のサービスを続行できます。

6.6.1 目的

Volume Shadowing for OpenVMS ソフトウェアは,シングル・ノードから大規模な OpenVMS Cluster システムに至るまで,すべての OpenVMS 構成にわたってデータ可用性を提供するので,最も必要とされる場所でデータ可用性を提供することができます。

Volume Shadowing for OpenVMS ソフトウェアは, RAID 1 (redundant arrays of independent disks) テクノロジを実装したものです。Volume Shadowing for OpenVMS は,ディスク・デバイス障害が発生しても,システムやアプリケーションの動作が中断されるのを防止します。複数のディスクにデータを複製することで,ボリューム・シャドウイングはメディアの劣化,通信パス障害,コントローラ障害やデバイス障害などによって,ストレージ・サブシステムがシステム全体をダウンさせるようなシングル・ポイント障害になるのを明瞭に防止します。

6.6.2 シャドウ・セット

図 6-9 に示すように,1 つ, 2 つ,または 3 つの互換性のあるディスク・ボリュームをマウントして,シャドウ・セットを作成できます。シャドウ・セット内の各ディスクをシャドウ・セット・メンバと呼びます。 Volume Shadowing for OpenVMS は,シャドウ・セット・デバイスを論理的に結合して, 仮想ユニットと呼ぶ 1 つの仮想デバイスとして表現します。つまり,仮想ユニットによって表されるシャドウ・セットの複数のメンバは,オペレーティング・システムやユーザにとって可用性の高い 1 つのディスクとして認識されます。

図 6-9 3 つのメンバで作成されるシャドウ・セット


6.6.3 I/O 機能

アプリケーションやユーザは,シャドウイングされていない I/O 操作の場合と同じコマンドおよびプログラム言語構文やセマンティックを使用して,シャドウ・セットからデータを読み込んだり,シャドウ・セットにデータを書き込むことができます。システム管理者は,シャドウイングされていないディスクの場合と同じコマンドやユーティリティを使用して,シャドウ・セットの管理と監視を行います。唯一の相違点は,個々のデバイスではなく,仮想ユニットを介してアクセスされるという点です。

関連項目: シャドウイング製品の機能の詳細については,『Volume Shadowing for OpenVMS』を参照してください。

6.6.4 サポートされるデバイス

1 台のワークステーションまたは大規模なデータ・センタに対して,有効なシャドウイング構成は以下のとおりです。

データ・ディスクとシステム・ディスクをシャドウイングすることができます。したがって,システム・ディスクからブートされるシステムにとって,そのディスクがシングル・ポイント障害になることはありません (そのディスクで障害が発生しても,システム全体がダウンすることはありません)。システム・ディスクのシャドウイングは特に, 共通システム・ディスクを複数のコンピュータのブートで使用する OpenVMS Cluster システムで重要です。

Volume Shadowing for OpenVMS では,クォーラム・ディスクのシャドウイングはサポートされません。これは,ボリューム・シャドウイングでは OpenVMS 分散ロック・マネージャが使用されますが,ロックを有効にする前に,クォーラム・ディスクを利用しなければならないからです。

『Volume Shadowing for OpenVMS Software Product Description』 (SPD 27.29.xx) に定義されている有効なディスク構成に含まれていないシャドウ・セット・メンバの場所は特に制限されません。


前へ 次へ 目次 索引