HP OpenVMS Systems Documentation |
| 前へ | 次へ | 目次 | 索引 |
Fast Path のサポートは OpenVMS Alpha Version 7.3 で Fibre Channel に対して導入されており,デフォルトで有効になっています。シンメトリック・マルチプロセッサ・システム (SMP) で使用するように設計されています。 Fast Path が有効な場合,I/O 完了処理はプライマリ CPU だけでなく SMP システムのすべてのプロセッサで発生することが可能になります。 Fast Path は,SMP システムにおける潜在的な I/O スループットを実質的に向上させ,プライマリ CPU が飽和状態になるのを防ぎます。
Fast Path システム・サービスを使用して, Fast Path をプログラムで管理することができます。また,DCL コマンドを使用して Fast Path を管理することも,システム・パラメータ FAST_PATH および FAST_PATH_PORTS を使用して管理することもできます。 Fast Path の詳細は,『OpenVMS I/O User's Reference Manual』を参照してください。
7.12 FIBRE_SCAN ユーティリティによるデバイス情報の表示
FIBRE_SCAN.EXE ユーティリティは,システムの Fibre Channel に接続されたすべてのストレージ・デバイス (構成済みデバイスおよび未構成デバイスの両方) についての情報を表示します。表示される情報は, Fibre Channel ターゲット値および LUN 値,ベンダー ID および製品 ID,デバイス・タイプ,ポート WWID およびデバイス WWID,シリアル番号,ファームウェア・リビジョン・レベル,ポート・ログイン状態などのデータです。プログラムは主にディスクとテープ・デバイスについて表示し,コントローラやその他の汎用 ($n$GGAn) デバイスについても情報を表示します。
FIBRE_SCAN は各システムでローカルに使用することができます。 OpenVMS Version 7.3-2 より古いバージョンのシステムでは使用できないだけでなく,クラスタ内の他のシステムに接続されたデバイスの情報を表示することもできません。 |
FIBRE_SCAN は次の 2 つのモードで起動できます。
$ MCR SYS$ETC:FIBRE_SCAN ! Scans all ports on the Fibre Channel. $ MCR SYS$ETC:FIBRE_SCAN PGx ! Scans only port x on the Fibre Channel. |
FIBRE_SCAN は CMKRNL および LOG_IO 特権を必要とします。
FIBRE_SCAN の出力をファイルに落すには, FIBRE_SCAN を実行する前に次のようなコマンドを実行してください。
$ DEFINE/USER SYS$OUTPUT xxx.log |
FIBRE_SCAN は表示専用のユーティリティで,デバイス・ドライバのローディング機能や Fibre Channel 上のデバイスの構成機能はありません。デバイスの構成には SYSMAN IO AUTOCONFIGURE コマンドを使用してください。$$$$$$$$$$$$
7.12.1 OpenVMS Alpha システムと OpenVMS I64 システムの相違点
OpenVMS Alpha システムには, FC デバイスからブートしたり FC デバイスを停止するための FC コントローラ・コンソール・ドライバが組み込まれた SRM コンソールが用意されています。 SRM コンソールにはまた,主にブートおよびダンプ用の FC デバイスのエイリアス名を定義するために使用される,WWIDMGR ユーティリティが用意されています。 WWIDMGR は,コンソール・デバイス名 (FC デバイスのワールドワイド識別子 WWID とストレージ・コントローラ・ポートに対応付けられる) を割り当てるためにも使用されます。 WWIDMGR を使用すると,ブート・パス (アダプタ,デバイスの WWID,およびストレージ・コントローラ・ポートの WWID) と,ブートとダンプに使用されるデバイス名との対応を指定できます。ブートドライバの選択中に,ターゲット・ポートの WWID (Alpha 上の ev n* に格納) と,ターゲット・デバイスの論理ユニット番号 (LUN) (Alpha 上の ev wwid* と同じ) が保存され,後で実行時ドライバの選択に使用されます。
Itanium® ベースのプラットフォームでは,オペレーティング・システム (OS) と, EFI (Extensible Firmware Interface) と呼ばれるプラットフォーム・ファームウェア間に新しいインタフェースが導入されました。 EFI は,システム内に存在するブート・デバイスの初期化を担っています。この初期化は,ホスト・バス・アダプタまたはシステムのファームウェアからブート可能ファームウェアをロードするか, EFI シェルから手作業でロードすることによって実行されます。 EFI は,EFI デバイス・パスの形式で,すべてのブート可能デバイスを OS ローダ (VMS_LOADER) に提示する役割も持っています。
VMS_LOADER が実行されたときに, OpenVMS I64 のプライマリ・ブート・ブロック (IPB) がロードされます。 IPB では,適切なブート・デバイス・ドライバが選択され起動されます。 IPB のブート選択機能は,ターゲット・ポートの WWID とターゲット・デバイスの LUN が含まれた EFI デバイス・パスを解析します。ブート・ドライバはこの後,FC デバイスの UDID を照会し,後から実行時ドライバで使用できるように,収集した情報を保存します。$$$$$$$$$$$
可用性 (Availability) とは,コンピューティング・システムがアプリケーション・サービスを提供する時間の比率です。OpenVMS Cluster のさまざまな特長を活かせば,ディザスタ・トレランスをはじめ,さまざまなレベルの可用性に OpenVMS Cluster システムを構成できます。
この章では,高い可用性を備えた OpenVMS Cluster システムを構築するための方法や最適な構成例を紹介します。これらの方法や構成例は,可用性の要件ごとの設定やトレードオフの選択に役立ててください。
8.1 可用性の要件
OpenVMS Cluster システムは要求に応じてさまざまなレベルの可用性に構成できます。 表 8-1 は,そのような可用性レベルの主な分類を示したものです。
| 可用性の要件 | 説明 |
|---|---|
| 一般の用途 | システムやアプリケーションが利用できなくてもほとんど,あるいはまったく影響なしで待機できるビジネス向け。 |
| 24 x 365 | 重要時間帯のみならず年間を通してほとんどの業務時間帯は,途切れることのないコンピューティング・サービスが必要なビジネス向け。最小限のダウン・タイムはあっても構わない。 |
| ディザスタ・トレラント | 可用性の要件が厳しいビジネス向け。このようなビジネスでは,地震,洪水,停電などに対する対策が必要となる。 |
8.2 OpenVMS Clusterによる可用性の提供方法
OpenVMS Cluster システムでは,以下の方式により可用性を強化しています。
OpenVMS Cluster 環境では,複数のシステム上のユーザとアプリケーションが,ストレージ・デバイスとファイルを透過的に共用できます。システムのどれかをシャット・ダウンしてもユーザは共用ファイルとデバイスに引き続きアクセスできます。ストレージ・デバイスの共用方法には,以下の 2 通りがあります。
OpenVMS Cluster システムでは,以下の構成要素をはじめ,多くの構成要素に冗長性を設定できます。
冗長構成要素を利用すれば,構成要素のどれかに障害が発生しても,ユーザやアプリケーションは別の構成要素を利用できます。
8.2.3 フェールオーバの仕組み
OpenVMS Cluster システムには,OpenVMS Cluster のどこかで障害が発生しても,それを回復できるフェールオーバのメカニズムがあります。 表 8-2 は,これらのメカニズムとそれによる回復レベルをまとめたものです。
| メカニズム | フェールオーバ時の動作 | 回復方法 |
|---|---|---|
| DECnet--Plus クラスタ・エイリアス | ノードに障害が発生すると, OpenVMS Cluster ソフトウェアは新しい着信接続を他のノードに分散します。 | 手動。障害の発生したノードにログインするユーザは,残りのノードに再接続できます。
この方式に合わせて構成したアプリケーションでは自動処理。その場合,アプリケーションはクラスタ・エイリアス・ノード名で再接続し,その接続は残りのノードのどれかに直結されます。 |
| I/O パス | ストレージ・デバイスまでの冗長パスにより,パスのどれかに障害が発生しても OpenVMS Cluster ソフトウェアは,機能している作業パスがあれば,そこにフェールオーバします。 | 他の作業パスがあれば透過的 |
| インターコネクト | 冗長または複合インターコネクトにより, OpenVMS Cluster ソフトウェアは最速の作業パスを利用して他の OpenVMS Cluster メンバに接続します。インターコネクト・パスのどれかに障害が発生しても,機能している作業パスがあれば,そこにフェールオーバします。 | 透過的 |
| ブート・サーバとディスク・サーバ | 少なくとも 2 個のノードをブート・サーバとディスク・サーバに構成すると,サーバのどれかがシャット・ダウンしたり障害を起しても,引き続きサテライトからブートしたり,ディスクにアクセスできます。
ブート・サーバに障害が発生しても,MSCP サービス対象のディスクにアクセスできる代替パスがあれば影響はありません。 |
自動 |
| ターミナル・サーバと LAT ソフトウェア | ターミナルとプリンタをターミナル・サーバに接続します。ノードに障害が発生すると,LAT ソフトウェアは残ったノードのどれかに自動的に接続します。また,ユーザ・プロセスが LAT ターミナル・セッションから切り離されても,LAT セッションに再接続するとき,切り離されたセッションに LAT ソフトウェアが自動的に再接続します。
|
手動。ターミナル・ユーザが,障害の発生したノードにログインするには,残ったノードにログインしてアプリケーションを再起動する必要があります。 |
| 汎用バッチとプリント・キュー | 汎用キューをセットアップすれば, 1 つ以上のノード上の (処理が発生した) 実行キューにジョブをフィードできます。ノードのどれかに障害が発生すると,汎用キューは,残ったノード上の実行キューにジョブを発行します。また,/RESTART 修飾子で発行されたバッチ・ジョブは,残ったノードのどれかで自動的に再起動します。
|
ディスパッチを待機中のジョブには透過的
障害の発生したノードで実行中のジョブには自動的,または手動 |
| 自動起動バッチとプリント・キュー | フェールオーバ・リストで,実行キューを自動起動キューとしてセットアップすれば,可用性をフルに活用できます。ノードに障害が発生すると,自動起動キューとそのジョブがフェールオーバ・リストの次の論理ノードに自動的にフェールオーバし,別のノードで処理を続行します。自動起動キューは,ターミナル・サーバに接続されたプリンタに送信されたプリント・キューに特に適しています。 | 透過的 |
関連項目: クラスタ・エイリアス,汎用キュー,自動起動キューについては,『OpenVMS Cluster システム』を参照してください。
8.2.4 関連ソフトウェア製品
表 8-3 は,HP が可用性を強化するために提供しているさまざまな関連 OpenVMS Cluster ソフトウェア製品です。
| 製品 | 説明 |
|---|---|
| Availability Manager | 複数ノードのデータを同時に収集,解析し,すべての出力を一元された DECwindows 表示に送信します。解析時に可用性の問題を検出し,対処方法を提示します。 |
| RTR | 分散環境においてスケーラビリティと位置透過性を備えた連続的で耐障害性のあるトランザクション転送サービスを提供します。実行中のトランザクションは 2 フェーズのコミット・プロトコルにより保証され,データベースは全体に分配することが可能であるとともに,性能の改善のために分割することができます。 |
| Volume Shadowing for OpenVMS | OpenVMS Cluster システム上の任意のディスクを,そのOpenVMS Cluster システム内にある他の同じサイズ (同じ物理ブロック数) のディスクとで冗長構成にします。 |
8.3 高い可用性を備えた OpenVMS Cluster 構成の実現手法
選択するハードウェアとその構成方法は,OpenVMS Cluster システムの可用性に重要な影響があります。この節では,可用性強化を目的とした OpenVMS Cluster 構成設計の基本手法を説明します。
8.3.1 可用性の強化手法
表 8-4 は,高可用性 OpenVMS Cluster の構成方法をまとめたものです。これらの方法は,重要度の高い順に並んでいます。以下の方法のうち多くは,この章で紹介する最適構成の例で取り上げています。
| 強化手法 | 説明 |
|---|---|
| 単一点障害 (Single point of failure (単一機器の障害がシステム全体の障害になる))の要因を排除 | 構成要素に冗長性を与え,ある構成要素に障害が発生しても他の構成要素で対応します。 |
| システム・ディスクのシャドウ化 | システム・ディスクは,ノード操作にきわめて重要です。Volume Shadowing for OpenVMS で,システム・ディスクを冗長化できます。 |
| 基本データ・ディスクのシャドウ化 | Volume Shadowing for OpenVMS でデータ・ディスクを冗長化してデータの可用性を強化します。 |
| ストレージ領域までの共用直接アクセスを提供 | 可能な場合,すべてのノードにストレージ領域の共用直接アクセスを与えます。これにより,ストレージ領域へのアクセス時に MSCP サーバ・ノードに対する依存度を緩和できます。 |
| 環境上のリスクを最小化 | 以下の手順により,環境上の問題のリスクを最小限に抑えます。
|
| 最低 3 ノードを構成 | OpenVMS Cluster ノードには,操作を続行するための定足数が定められています。最適構成では,最低 3 ノードを使用し,どれか 1 ノードが使用できなくなっても,残り 2 ノードで定足数を満たして処理を続行します。
関連項目: 定足数の実現手法の詳細については, 第 11.5 節 と『OpenVMS Cluster システム』を参照してください。 |
| 予備キャパシティを構成 | 構成要素ごとに,キャパシティの処理に必要な数に加え,少なくとも 1 つは予備の構成要素を構成します。構成要素の使用パーセンテージは,キャパシティの 80% 未満になるようにします。重要な構成要素については,リソースの使用パーセンテージがキャパシティの 80% を 十分に下まわるように構成します。これは構成要素のどれかに障害が発生しても残りの構成要素に余裕をもって作業負荷を分散するためです。 |
| 予備構成要素をスタンバイ | 構成要素ごとに,予備構成要素を 1 つまたは 2 つ用意しておき,構成要素の障害発生に備えます。予備構成要素は定期的にチェックして正しく機能するか確認します。予備構成要素を 1 つまたは 2 つを超えて用意しても複雑になるだけでなく,必要なときに予備構成要素が正しく機能しなくなる可能性も高くなります。 |
| 共通環境ノードの使用 | 似たようなサイズ,パフォーマンスのノードを構成してフェールオーバ時のキャパシティの過剰負荷を避けます。サイズの大きなノードに障害が発生すると,サイズの小さいノードでは転化された負荷に対応できないことがあります。それによるボトルネックで OpenVMS Cluster のパフォーマンスが低下することがあります。 |
| 信頼性の高いハードウェアを使用 | ハードウェア・デバイスの障害の可能性を考慮します。MTBF (平均故障間隔) に関する製品の記述を確認してください。一般に,テクノロジが新しいほど信頼性が高くなります。 |
| 前へ | 次へ | 目次 | 索引 |