oracle database 11g release 2 automatic storage...
TRANSCRIPT
1
2
11g R2におけるASMの進化をご理解いただくために、これまでのASMの開発コンセプトをご紹介します介します。
近年はハードウェアのスペックも向上し、CPUのマルチコアなど当たり前になってきています。し
かし、データベースシステムの性能という意味では必ずしもハードウェアのスペック向上がデータベースシステムの性能向上にはつながりません。
いくら性能のいいサーバを使用していてもディスクI/Oの部分がそこに対応できていないとディスクボトルネックにより、性能は伸びません。
これにより データベースシステムの性能向上のためにはハードウェアだけでなく 大量のI/Oリこれにより、データベースシステムの性能向上のためにはハードウェアだけでなく、大量のI/Oリクエストにも対応が可能なストレージ自体の設計が必要だということがわかります。
3
そこで従来のデータベースのストレージ設計はアクセスタイプやI/Oの特性に応じたディスクの割り当てを設計し 運用することが 般的でした割り当てを設計し、運用することが一般的でした。
短期的に見るとこの方法でデータベースシステムの性能向上を見込めるかもしれませんが、長期的に考えると、このような設計を維持し、一定の性能を確保し続けることは非常に困難です。
4
Oracleでは上記のようにデータベースのストレージを管理する理想像を定義しています。持って
いるデ スクは最大限に活用し さらに大量のデ タを処理し続けることができること そして職いるディスクは最大限に活用し、さらに大量のデータを処理し続けることができること。そして職人技になってしまっている設計を解決する必要性もあります。
これらの要件や課題を全て解決するために開発されたのがAutomatic Storage Management(ASM)です。 10g R1より新しく導入されたASMはOracleデータベースを管理する最適な領域として既に多くのお客様が採用されているという実績があります。
5
ASMではストライピング、ミラーリング、動的リバランシングという大きく3つの機能を実装することでO l デ タベ スのための最適なストレ ジ管理を実現していますとでOracleデータベースのための最適なストレージ管理を実現しています。
6
11g R1まではデータベースに最適なプラットフォームを目指して様々な機能拡張がされてきましたが 11 R2からはデ タセンタ 型の運用を意識していますしたが、11g R2からはデータセンター型の運用を意識しています。
7
データセンター型の運用を意識した11g R2のASMではデータベースの中のひとつの機能では
なくインフラを支える機能として生まれ変わ ています デ タセンタ 型の運用を支えるストレなくインフラを支える機能として生まれ変わっています。データセンター型の運用を支えるストレージ管理に必要な要件として様々なものがありますが、ASMでは上記スライドのような3点にフォーカスをして機能拡張を行っています。
8
ASMによる単一ソリューションでのストレージ管理を実現するため、OCR,投票ディスクのASM管理や ASMのクラスタフ イルシステムなどが実装されています管理や、ASMのクラスタファイルシステムなどが実装されています。
また統合環境でも管理をより楽にするために新しい管理ツールなども実装されています。
また、ディスクの性能を最大限に活用するという本来のASMのコンセプトに基づいた新機能実装されています。
9
10
上記のスライドでは11g R1までの典型的なストレージ管理のイメージを表しています。
11gR1までのASMはデータベース基盤として活用されていましたが、1つのシステム全体のストレージ管理を一元化することはできませんでした。
11
上記のスライドでは11g R2でのASMを使用したストレージ管理のイメージを表しています。
OSの上にこれまで使用していたOracleデータベースの記憶域管理としてのASMディスク・グループがあります。
11gR2ではそれに加えて、ASMとOSのレイヤーを繋ぐボリューム・マネージャが開発され、
そのボリューム・マネージャを介してASMのクラスタファイルシステムが使用可能です。
Oracle Clusterwareとの統合
これまでASMはデータベースの持ち物でしたが、11g R2 よりOracle Clusterwareと統合され、gGrid Infrastructureのコンポーネントとして提供されています。
そのため、ASMを使用する環境では必ず、Grid Infrastructureのインストールが必要になります。
Grid Infrastructureに含まれるコンポーネントは以下です。
-Oracle Clusterware-Oracle Restart-Automatic Storage Management(ASM)g g ( )-Kernel Services Driver(OKS)-ASM動的ボリューム・マネージャ(ADVM)
12
13
完全なストレージ統合を実現するACFS関連のコンポーネントの構成図が上記スライドです。従来のASMフ イルはデ タベ スの記憶域管理として使用され 新しく導入されたASMボリ来のASMファイルはデータベースの記憶域管理として使用され、新しく導入されたASMボリュームファイルによってACFSや関連機能を実装しています。
14
OSから見えるボリュームファイルのことをADVMデバイスファイル、ASMから見えるボリュームフ イルのことをASMボリ ムフ イルと呼びますファイルのことをASMボリュームファイルと呼びます。
ASMVDRLファイルはASMディスク・グループの冗長度を標準冗長性(2重化)または高冗長性(3重化)に設定している際にASMVOL(ASMボリュームファイルファイル)作成時に自動的に作成されます。
ADVMを使用するディスク・グループにはASMディスク・グループ互換性属性の‘compatible.asm’と‘compatible.advm’の値を’11.2‘に変更する必要があります。
また、ADVMはASMがサポートするストレージ・ソリューションの全てをサポートします。(NFSとExadataは対象外)は対象外)
ADVMの制限事項
-ADVMデバイスファイルはfdiskなどでパーティションに区切って使用することはできません。
-rootファイルシステムや、ブートデバイスへの利用はできません。
-ADVMデバイス上にマルチデバイスは構成できません。
-ADVMデバイス上にASMLIBは構成できません。
15
ADVMドライバがロードされるのはOEL5, RedHat5 のみです。
Oracle VM環境ではOEL5.4, RedHat5.4以降がサポートされます。
ASMインスタンスリソース(init)の依存性
crsctl stat resourceコマンドでora.asm リソース(init)の依存関係を確認すると、下記のように、ドライバを管理するリソース(ora.drivers.acfs)と依存関係を持っていることが分かります。
この依存関係により、ASM インスタンス起動時に、自動的に ADVM ドライバが ロードされます。
# crsctl stat resource ora.asm -init -p |grep DEPENDENCIES
START_DEPENDENCIES=hard(ora.cssd,ora.ctssd)pullup(ora.cssd,ora.ctssd)weak(ora.drivers.acfs)
STOP_DEPENDENCIES=hard(intermediate:ora.cssd)
16
/sbin 配下に配置されるACFS関連のOSコマンド
$ ls |grep acfs
acfsdbg
acfsdbg.bin
acfsutil
acfsutil.bin
fsck.acfs
fsck.acfs.bin
/sbin 配下に配置されるADVM関連のOSコマンド
mkfs.acfs
mkfs.acfs.bin
mount.acfs
mount.acfs.bin
$ ls |grep advm
advmutil
advmutil.bin
17
11g R2より下記の4つが新しくバックグラウンドプロセスとして加わりました。
また、ADVMのプロセスはカーネル部分で動作し、ASMのバックグラウンドプロセスと連携して動作します。
プロセスの役割
- VDBG(Volume Driver Background)ADVMドライバに対してリバランシングのためのエクステントロック情報や、ボリュームのリサイズ、ディスクオフライン、ディスク追加、削除、などのASMリクエストをフォワードするプロセス。このプロセスはASMとAVDドライバの通信をするための重要なプロセスです。
VBG#(V l B k d)- VBG#(Volume Background)ADVMドライバがファイルシステムのマウント操作などでボリュームオープン のリクエストを受けた場合(ASMボリュームファイルのオープンリクエスト)や、ファイルシステムのアンマウント操作などでボリュームクローズのリクエストを受けた場合(ASMボリュームファイルのクローズリクエスト)などに動くプロセスです。
- VMB(Volume Membership Background)ASMインスタンスとのクラスタメンバーシップの管理を行います。
ACFS(ACFS Background)- ACFS(ACFS Background)ASM内のACFSバックグラウンドプロセスはクラスタフェア上の全てのノードのメンバーシップや状態の管理を行います。RACモードの時のみ起動
上記プロセス以外にも、カーネル部分で動作するプロセスがありますが、それぞれの役割等については割愛させていただきます。
18
ASMファイルのオープン時の動作
DBインスタンスよりASMファイルの作成や、構成変更に関する指令がASMインスタンスに出されると、ASMインスタンスより、エクステントマップが受け渡されます。そのマップをDBインスタンスはSGA内に確保し、次回からASMに格納されているファイルへのアクセスはこのエクステントマップを利用して行います。
ASMボリュームファイルオープン時の動作
ASMボリュームファイルも同様の動きを違う方法で行います。ボリュームファイルのエクステント情報はACFS上のデータを実際に書き込むADVMドライバに渡す必要があるため ASMインス情報はACFS上のデータを実際に書き込むADVMドライバに渡す必要があるため、ASMインスタンスはOSのカーネルメモリ内にボリュームエクステントマップを受け渡します。
ADVMドライバはこのメモリ上のマップを利用してファイルへのアクセスを行います。
ASMファイルも、ASMボリュームファイルもエクステントマップを使用して効率的にI/Oできるように実装されています。
19
-ASMボリュームファイル毎にストライプ幅とストライプ列を指定可能です。
-ストライプ幅はストライピングされるデータのサイズ、ストライプ列は分散度を表します。
-下図はASMCAからASMボリューム作成時のストライプ設定画面です。
←ストライプ幅の設定
20
ストライプ列の設定→
-上図は通常のASMファイルのストライピング(FINEの場合)のイメージ図です。
-ASMボリュームファイルのデフォルト値と同じ128KBでエクステントに割り当てられます。
21
1つのマウントポイントに作成されたファイルは1つのASMボリュームファイルに格納されます。その際 各フ イルデ タを128K単位に分割してストライピングを行います (デフォルト)その際、各ファイルデータを128K単位に分割してストライピングを行います。(デフォルト)※実際の構造はスライドのように直接的にACFS上のファイルデータが分割されるわけではな
いですが、ストライプ列、ストライプ幅を理解していただくために簡略化したイメージ図を記載しています。
22
デフォルトのストライプ幅、ストライプ列でASMボリュームファイルを構成する場合
1. ASMディスクが8本で構成されている場合、ストライプ列が4なので4本のディスクで枠が決まります。(ディスク4本×2)
2. デフォルトのASMボリュームファイルのエクステントは64Mなので、各ディスクに64Mの
エクステントが作成されます。
3. ACFS上にファイルAがあると仮定します。ファイルAはストライプ幅、128Kで分割してストライプされます。その際ストライプ列に従って、ストライプされ、4つ目のエクステントに格納されると1 目の ク テントに戻りラウンド ビン形式で格納されていきますると1つ目のエクステントに戻りラウンドロビン形式で格納されていきます。
4. ACFS上の別のファイルBのデータはファイルAのデータの後に続いて格納され、エクステント内が一杯になるまでラウンドロビン形式で格納されていきます。
5. 最初のディスク①~④のエクステント全てが埋まると、新しく別の4本のディスクにエクステントが配置され、同様にACFS上のファイルを格納していきます。
※実際の構造はスライドのように直接的にACFS上のファイルデータが分割されるわけではな
いですが ストライプ列 ストライプ幅を理解していただくために簡略化したイメ ジ図を記いですが、ストライプ列、ストライプ幅を理解していただくために簡略化したイメージ図を記載しています。
23
ASMボリュームファイルのミラーリング
ボリュームファイルのミラーリングは通常のASMファイルと同様にミラーエクステントが確保され、その中にそれぞれプライマリデータ、セカンダリデータ(ミラーデータ)を格納します。
単位はデフォルトで64Mです。
ASMボリュームファイルのリバランシング
ASMボリュームファイルのリバランシングはデフォルトで64M単位で行われます。
※実際の構造はスライドのように直接的にACFS上のファイルデータが分割されるわけではな
いですが、ストライプ列、ストライプ幅を理解していただくために簡略化したイメージ図を記載しています。
24
ASMCAによるASMボリュームファイルの動的リサイズ
-ASMCAの[ボリューム]タブよりサイズ変更したいボリューム上で右クリックします。
-右クリックメニューより[サイズ変更]を選択
(ボリュームがマウントされている場合は[サイズ変更]は選択できません)
25
26
ACFSは一般的なジャーナリング・ファイルシステムの1つとして実装され、POSIXに完全準拠していますしています。
注意
11gR2でACFSを使用可能なプラットフォームはLinux及びWindowsのみです。LinuxではRedHat及びOELの5以上が必須になります。
また、ACFSおよびADVMはASMディスクとしてNFSをサポートしていません。
27
ASM上に構成されるACFSは高いパフォーマンス、高可用性、柔軟な管理を提供します。
高パフォーマンス
ボトルネックを排除するため、1つのノードをマスタにするのではなく、
ピア・ツー・ピア型のクラスタ構成になっています。また、メタデータやファイルキャッシュ技術により、
より高速なディレクトリ検索を実現しています。
ASMの特徴である、ストライピングを拡張し、より多くのファイルタイプに最適なパフォーマンスを提供することができます。
柔軟な管理
オンラインでの拡張、縮小などその時のシステムの状態に合わせて、柔軟な構成変更が可能です。
高可用性
通常のファイルシステムと同様にジャーナリング機能によるデータ不整合やデータのリカバリを実現します。また、ASMボリュームファイルはASMのミラーリング機能を活用しているため、デ
データロスやディスク破損などから保護されます。
28
29
30
ASMCAツールからACFSの動的サイズ拡張手順
1. [ASMクラスタ・ファイルシステム]タブから、右クリックメニューで[サイズ変更]をクリック
31
2. サイズ変更画面で変更したいサイズ(変更前のサイズ+増やしたいサイズ)を入れる。
(最小値は256M)
注意
ASMディスク・グループ内に十分な領域がない場合は、ディスク・グループへの
ディスク追加を行ってからサイズの拡張をする必要があります。(エラーになる)
[ディスク・グループ]タブより右クリックメニューで[ディスク追加]を選択
32
カーネル内で使用されているメモリオブジェクトを見るとacfs関連のものがいくつかあることが分かりますかります。
# cat /proc/slabinfo
slabinfo - version: 2.1
# name <active_objs> <num_objs> <objsize> <objperslab> <pagesperslab> : tunables <limit> <batchcount> <sharedfactor> : slabdata <active_slabs> <num_slabs> <sharedavail>
acfs metadata buffer cache 41216 41216 512 8 1 : tunables 54 acfs_metadata_buffer_cache 41216 41216 512 8 1 : tunables 54 27 8 : slabdata 5152 5152 0
acfs_ofsbuf_cache 41216 41228 88 44 1 : tunables 120 60 8 : slabdata 937 937 0
acfs_inode_cache 2114 2885 728 5 1 : tunables 54 27 8 : slabdata 577 577 0
acfs_reqd_fcb_cache 4 46 84 46 1 : tunables 120 60 8 : slabdata 1 1 0
acfs ccb cache 1 56 68 56 1 : tunables 120 60acfs_ccb_cache 1 56 68 56 1 : tunables 120 60 8 : slabdata 1 1 0
acfs_fcb_cache 4 12 312 12 1 : tunables 54 27 8 : slabdata 1 1 0
fio 0 0 12 254 1 : tunables 120 60 8 : slabdata 0 0 0
AsmPhysIo 0 0 84 46 1 : tunables 120 60 8 : slabdata 0 0 0
AsmVolIo 0 24 160 24 1 : tunables 120 60
33
AsmVolIo 0 24 160 24 1 : tunables 120 60 8 : slabdata 0 1 0
ACFS上にOracleデータベースを配置する場合、ASMCAツールを使用して配置する必要があります 手順はA di を参考にしてくださいります。手順はAppendixを参考にしてください。
34
作成手順のstep4、依存関係の追加についてはcrsctlコマンドで実施します。
しかし、crsctlコマンドでの依存関係追加などはユーザが実施することは基本的にサポートされていません。
35
上記のスライドはACFSをリモートクライアントから利用した場合のイメージです。
まず、Grid Infrastructureがインストールされている環境でACFSを作成、マウントしします。通常のファイルシステムと同様に/etc/exportsにファイルシステム情報を記載し、エクスポートを行うと、アプリケーションサーバなどGrid InfrastructureがインストールされていないサーバからLinuxの場合はNFS, Windowsの場合はCIFSのプロトコルを通じてアクセス可能となります。
36
上記のスライドは、Apache Web サーバを Oracle Clusterware で管理した場合の例になります その他 AP サ バやサ ドパ ティ製アプリケ シ ンなど ユ ザ アプリケ シ ンをす。その他、AP サーバやサードパーティ製アプリケーションなど、ユーザーアプリケーションをOracle Clusterware で管理させることが可能です。
ポイントとしては以下が挙げられます。
-Apache および、Apache VIP は CRS リソースとして Oracle Clusterware が管理
サーバー障害時でもリソースをフェイルオーバーさせることで、可用性の確保および、継続的なサ ビ 提供が可能なサービス提供が可能
- サーバー・プール上にリソースを配置
ポリシーベース管理によりサーバーの割り当てを自動制御
- アプリケーション・バイナリとアクション・スクリプトを Oracle ACFS 上に配置
クラスタを構成する全サーバーに対するバイナリやスクリプトの配置の必要性を排除
- リソース間で依存関係を構築
Apache と Apache VIP は必ず同じサーバー上で起動するように制御p と p は必ず同じサ で起動するように制御
37
注意
ACFS上のファイルデータをRMANでバックアップすることはできません。
38
CRSにより管理されるASM関連リソースには以下のようなものがあります。
-ora.asm:ASMインスタンス・リソース
-ora.<ディスク・グループ名>.dg:ディスク・グループ・リソース
-ora.registry.acfs:ACFSマウントレジストリ・リソース
それぞれのリソースのチェック間隔は以下です。
種別 リソース リソース名 監視 CRS エージェント
監視間隔(秒)
監視間隔(秒) (秒)
11gR2(秒)11gR1
Oracle ASM
Oracle ASM ora.asm oraagent 60 (常時)(*1)
300 (常時)
ディスク・グループ
ora.diskgroupname.dg oraagent 300 なし
ACFSリソース(*2)
Ora.diskgroupname.volumename.ACFS
orarootagent 60 なし
(*1) ASM は、OHAS エージェントにより、1 秒間隔で監視
(*2) Oracle Homeを配置するACFSリソースはASMCAで作成時に自動的にディペンデンシーがついた状態のリソースが作成されます。
Oracle Home配置以外の用途で使用する場合はsrvctl add filesystemコマンドで追加する必要があります
( )
Oracle ACFS レジストリ
ora.registry.acfs orarootagent 30 なし
39
す。
40
ACFSはASMが入っている環境全てで使用できます。(シングル、RAC共に)注意注意
-ACFS スナップショットはRAC Oneオプションに含まれます。
41
ACFSスナップショットは一般的なストレージのスナップショット機能などと同様に、Copy-On-Writeという技術を使用して実装されています。ACFS上のファイルのスナップショットを取得した時点では実際のファ技術を使用して実装されています。ACFS上のファイルのスナップショットを取得した時点では実際のファ
イルデータはコピーされず、元のファイルのデータが更新されたときに初めて更新前のデータがスナップショットのデータとして格納されるという仕組みです。
これにより、ディスクスペースを効率的に活用することができ、通常のコピーコマンドより早くファイルシステム上のデータのPIT(ポイント・イン・タイムコピー)を取得することが可能です。
42
コマンドラインでのACFSスナップショット取得例
ACFSのマウントポイントを指定して取得-ACFSのマウントポイントを指定して取得
-v$asm_acfssnapshotsビューで確認
# /sbin/acfsutil snap create “snapshot_20090521” /mnt/acfs
SQL> select FS_NAME,VOL_DEVICE,SNAP_NAME,CREATE_TIME from $ f h t
なくな プ 削除
v$asm_acfssnapshots;
FS_NAME VOL_DEVICE SNAP_NAME CREATE_T
---------- ------------------------------ ------------------------------ -------- --------------
/mnt/acfs /dev/asm/acfsvol1-462 snapshot_20090521 09-05-21
-必要ではなくなったスACFSナップショットの削除
# /sbin/acfsutil snap delete “snapshot_20090521” /mnt/acfs
43
スナップショット取得時点に
ACFS上にあるデータが保存されている
44
45
注意
OCR 投票デ スクはACFS上に配置することはサポ トされません-OCR,投票ディスクはACFS上に配置することはサポートされません。
-OCR,投票ディスクをASMで管理する場合、Oracle Clusterware 11g R2で管理可能なデータベースのバージョンは11g R1以降です。それより下位のバージョンのデータベースを管理したい場合はOCR,投票ディスクを共有ファイルシステム上で管理する必要があります。
46
OCR,投票ディスクをASM上に格納すると、OCRはASMが新しいファイルタイプ(OCRFILE)として認識し CRSはASMインスタンスと通信しますして認識し、CRSはASMインスタンスと通信します。
投票ディスクをASMで管理する場合でもCSSは投票ディスクに対して I/Oを実行することが可能です。CSSの投票ディスクに対するアクセスはASMインスタンスの起動の有無に依存しない実装になっています。
CSSはASMディスク・グループ内のディスクヘッダーに書かれる、投票ディスクのポインタを読み、アクセスをします。
47
注意
-Grid Infrastructure11g R2よりOUIからのRAWデバイスへのOCR,投票ディスクの配置はサポートさG d ast uctu e g よりOU からの デ イス のOC ,投票ディスクの配置はサポ トされません。(My Oracle Support NOTE:754305.1)インストール時のOCR,投票ディスクのASM管理の選択画面(下図)
ここで[自動ストレージ管理(ASM)]を選択すると
自動的にOCR,投票ディスクはASM上に格納される
-ASMを選択すると、続いて
OCR,投票ディスクを格納する
ディスク・グループの構成に
移ります (右図)
48
移ります。(右図)
External 構成の場合、OCR / 投票ディスクの冗長化はされないため、外部冗長化での対応が必要です N l 構成での投票デ スクの多重化が通常より多い (3 重化) のは 1個の障害必要です。Normal 構成での投票ディスクの多重化が通常より多い (3 重化) のは、1個の障害グループの破損に耐えるためです。 CSS は、過半数の投票ディスクにアクセス可能でない場合、投票ディスクの障害とみなし、ノードリブートを起こします。High の場合も 2 個の障害グループの破損に耐えるため、投票ディスクは 5 重化されます。
ミラーリングされるデータは、同一の障害グループに配置されません。同一の障害グループにオリジナルとミラーを配置しても耐障害性の意味がないためです。
変更点変更点
11g R1まではOCRは2個まで、投票ディスクは31個までサポートされていましたが、11g R2よりOCRは5個、投票ディスクは15個までのサポートに変更されています。
49
注意
-RAC 11g R2より オフライン時の投票ディスクの変更(追加/削除)はサポートされません。
-RAC 11g R2からは投票ディスクを操作するためにはCSSが起動されている必要があります。
-RMANではOCR,投票ディスクのバックアップはできません。
50
OCR/投票ディスクのディスク障害時動作とリカバリ
①ディスク障害をASMが検知します。
②該当のディスクをオフラインに変更します。
③投票ディスクは同じディスク・グループの他のディスクに再配置され、OCRはASMディスクの
状態がオフラインからドロップされる際に、該当ディスクに格納されていたデータを他のディスクにリバランスし、冗長性を自動的に回復します。
④CSSはどのディスクに投票ディスクが再配置されたかを確認するため、ヘッダー部分を探索します。
⑤新しい投票デ スクをもとにCSSの再構成を行い デ スク障害からリカバリします⑤新しい投票ディスクをもとにCSSの再構成を行い、ディスク障害からリカバリします。
51
OCR,投票ディスクを共有ファイルシステムに配置した場合
従来どおりOCRは全ノードのOracle Clusterwareを停止して、リストアすることが可能です。過半数の投票ディスクが破損した場合はCSSを排他モードで起動して投票ディスクの再作成を行います。
投票ディスクが論理破損した場合の自動リカバリ
投票ディスクが論理破損してもCSSが即時にオフラインからオンラインにステータスを変更しま
す。ただし、ここでの回復は過半数以上の投票ディスクが破損した場合の全ノードリブートを回避するための一時的な処置です避するための 時的な処置です。
最終的な回復には投票ディスクの再作成が必要です。
投票ディスク破損時は即時にオンラインに戻るものの、Oracle Clusterwareを再起動したタイミングでオフラインになります。その結果、Oracle Clusterwareの起動に失敗することもあります。(過半数の投票ディスクがオフラインであった場合)投票ディスクをASMに配置している場合、ディスク障害によるASMのディスクの切り離しが発生した後の再配置された投票ディスクは完全に回復します。
52
デフォルトでは全てREGULARに分類されます。QUORUMを指定していない場合、
REGULARディスクには全てのデータタイプを格納できます。
53
通常、1つのディスク・グループ内に含めるディスクは同等のスペックのディスクを用意する
必要がありますが、投票ディスク専用のQUORUMディスクは同じディスク・グループに含
まれるREGULARディスクと同等スペックである必要はありません。
構成方法
Grid Infrastructureのインストール時のOCR,投票ディスク構成フェーズではQUORUMの指定はできません。下記手順で構成します。
1. インストール時に任意のディスク・グループを作成
2. インストール後、下記のようなコマンドで新しいディスク・グループを作成
SQL> CREATE DISKGROUP TEST NORMAL REDUNDANCY FAILGROUP fg1 DISK ‘<SAN1上のディスク>’FAILGROUP fg2 DISK ‘<SAN2上のディスク>’QUORUM FAILGROUP fg3 DISK ‘<別のストレージアレイ上のディスク>' ATTRIBUTE 'compatible.asm' = '11.2.0.0.0';
3. ステップ2で作成したディスク・グループに下記コマンドで投票ディスクを移動します。
# crsctl replace votedisk +TEST
54
上記の表は仮に全ての投票ディスクをQUORUMに指定したディスクに格納して管理する場合の最低必要ディスク数です 前述のスライドのような場合は上表の条件はあてはまりませんの最低必要ディスク数です。前述のスライドのような場合は上表の条件はあてはまりません。
-ASMCA画面からの設定
ASMCAのディスク・グループ作成時に[定数]にチェックボックスをつけると
そのディスクをQUORUMに設定
55
ASMのディスク・グループからディスク・グループへの移行はディスク・グループ間で異なる冗長構成であっても対応可能です。長構成であっても対応可能です。
replaceオプションが使用できるのは以下のケースです。
-ASMディスク・グループから別のディスク・グループ(冗長構成は問わない)-ASMから共有ファイルシステム上
-共有ファイルシステム上からASM
共有ファイルシステム間の移動に関しては従来通りcrsctl add / delete css votedisk を使用して移行しますして移行します。
56
OCRは他のデータベースファイルと同様に、ASMファイルとして認識されるものは冗長構成に関わらず1つですが 内部でミラ リングされます関わらず1つですが、内部でミラーリングされます。
57
OCRはこれまで通り自動バックアップが取得されます。手動でのバックアップも可能です。
58
ocrconfigコマンドaddオプションで追加し、deleteオプションで削除するという作業の間は一時的に共有ファイルシステム上とASMのディスクグループ上にOCRが存在することになりま時的に共有ファイルシステム上とASMのディスクグル プ上にOCRが存在することになりますが、あくまでも移行時のみのサポートとなります。共有ファイルシステム、ASMの両方にOCRが配置されている状態での運用は避けてください。
59
60
スタンドアロンサーバー用Grid Infrastructureの場合
ASMのSPFILEの配置場所はGP Pプロフ イルではなく O l L l R i t (OLR)に格納されASMのSPFILEの配置場所はGPnPプロファイルではなく、Oracle Local Registry(OLR)に格納されます
ASM SPFILEの構成
ASM SPFILEはASMCAからASM上に作成することができます。
また、Grid Infrastructureインストール時にASMを選択すると自動的にASMディスク・グループ内に作成されます。
ASMのSPFILEを格納するディスク・グループの作成
61
ASM プロファイル
ASM が使用する ASM ディスクおよび、ASM 自身の SPFILE を検出する際に利用されます。ASM で使用される初期化パラメータ ASM_DISKSTRING で指定される文字列と同じ情報です。asmcmd で SPFILE の配置場所を変更、もしくは、 ASM_DISKSTRING を変更した場合は、GPnP プロファイルも自動的に更新されます。投票ディスクが ASM 管理されている場合にも利用されます。
ASMアラートログ出力例
asm disksgringパラメータの変更時-asm_disksgringパラメータの変更時
Thu Oct 01 09:42:44 2009
NOTE: updated gpnp profile ASM diskstring: /dev/sd*
ALTER SYSTEM SET asm_diskstring='/dev/sd*' SCOPE=SPFILE;
62
ASMのSPFILEやCSSの投票ディスク検出はASMのディスクヘッダを使用して行われます。
ディスク・グループ内のあるディスクのヘッダーを確認すると、投票ディスクの格納されている場所や、SPFILEの格納されている場所へのポインタを確認することができます。そのポインタを利用して実際のデータにアクセスし、Oracle Clusterwareの起動やASMの起動を行っています。
63
ASMCA で ASM を構成すると、デフォルトで ASM の SPFILE は ASM 管理されます。
SQL*Plus もしくは、SRVCTL で ASM インスタンスを起動する場合も、GPnP プロファイルから情報を取得するため、ASM SPFILE を使用した ASM インスタンスの起動は可能です。
インスタンス起動中の SPFILE へのアクセスは読み込みのみ許可されています。そのため、SPFILE 内の初期化パラメータを変更するためには、ASM インスタンスが起動されている必要があります。
SPFILE を格納したディスク・グループは、ASM インスタンス起動時に自動的にマウントされます。
SPFILE の確認方法
以下のコマンドで、GPnP プロファイル内の SPFILE のパスやディスク検出文字列を確認することが可能です。
$ asmcmd spgetpg+DATA/jpintl-cluster/asmparameterfile/registry.253.696194007
$ asmcmd dsgetparameter:/dev/sdc*profile:/dev/sdc*
64
ASM SPFILEのバックアップとリストアの流れ
1.spcopyコマンドローカルなどにspfileのコピーを取得しておく
2.scopy –uでASMディスク・グループ内にリストア
$ asmcmd spcopy +DATA/spfile.ora /home/grid/spfile.ora
$ asmcmd spcopy –u /home/grid/spfile.ora +DATAp py g p
65
完全なストレージ統合の実現をするための機能としてACFSやOCR,投票ディスクのASM管理など紹介しましたが ディスクグル プを構成する際の目安として オラクルが考えるASMディなど紹介しましたが、ディスクグループを構成する際の目安として、オラクルが考えるASMディスク・グループ構成のベストプラクティスを示します。
66
ASMディスク・グループ構成のベストプラクティス
-データベースファイルとフラッシュリカバリエリアのディスク・グループを構成
-同じディスク・グループ内のディスクは同一スペック(パフォーマンス・容量)-データベース毎にディスク・グループを作成
67
OCR,投票ディスクはデータベースファイルと同じディスク・グループに配置することを推奨します デ タフ イルと共存することでディスク障害に対する検知をより早期に行うためですす。データファイルと共存することでディスク障害に対する検知をより早期に行うためです。
OCRの論理破損に対する耐性について
OCRの論理破損にも耐え得る構成にしたい場合はFRAディスク・グループにもOCRを追加する運用が必要です。
OCRをASMで管理した場合、ASMのレベルでOCRを冗長化させることが可能です。ただし、Oracle Clusterwareから見ると一つのディスク・グループに配置されたOCRは一つのOCRとして認識します OCRを配置したASMディスクに対して論理破損が発生してからASMが障害をて認識します。OCRを配置したASMディスクに対して論理破損が発生してからASMが障害を検知してリバランスするまでの間はCRSからOCRへのアクセスはエラーになる可能性があります。ASM側で障害を検知してリバランスが起きた場合は、CRSからも正常にOCRへのアクセスが可能になります。このリバランスまでの間も継続してOCRへの正常なアクセスを行うためにはOracle ClusterwareレベルでもOCRを冗長化させておく必要があります。その場合は、DATAディスク・グループとFRAディスク・グループに対してそれぞれOCRを配置することによってOCRの論理破損に対する耐性を高める事ができます。
68
ストレージ機能を利用したバックアップの際はデータファールとその他のファイルを分割する必要があるため OCR 投票ディスクはREDOディスク グル プに配置することを検討します要があるため、OCR,投票ディスクはREDOディスク・グループに配置することを検討します。OCRの論理破損に対する耐性を考える場合は、RMANでのバックアップと同様に他のディスク・グループにOCRを追加することで対応します。
69
70
ASMCAはASMの初回構成時だけではなく、ディスク追加やディスク・グループ属性変更など、運用にも活用できるGUIツールです運用にも活用できるGUIツ ルです。
ASM関連の操作がASMCAに統一されたことで、ASMはDBCA(Database Configuration Assistant)から完全に切り離されました。
71
-ディスク・グループタブ
72
-ボリュームタブ
-ASMクラスタ・ファイルシステムタブ
73
ASMインスタンスのローリング・アップグレード手順
-Clusterware(Grid Inftastructure)のアップグレード
1. 11.1.0.7以前のClusterwareとRACのインストール
2. 11.2のClusterwareのインストーラ起動
3. ‘ASMインスタンスのアップグレード’を選択しない
4. rootupgrade.shの実行(各ノード)-ASMインスタンスのローリング・アップグレード
1 ASMCA ROLLING UPGRADEパラメータをtrueに設定(node1)1. ASMCA_ROLLING_UPGRADEパラメ タをtrueに設定(node1)2. ./asmcaの実行(node1)3. パスワードを入力し、‘ASMのアップグレード’をクリック
$ bin/asmcaASMのローリング・アップグレードの開始中Stopping database instance orcl1 on node node01データベース・インスタンスorcl1がノードnode01で停止しました
インスタンス 1がノ ド d 01で停止しましたASMインスタンス+ASM1がノードnode01で停止しましたASMインスタンス+ASM1がノードnode01で起動しましたStarting database instance orcl1 on node node01データベース・インスタンスorcl1がノードnode01で起動しましたStopping database instance orcl2 on node node02データベース・インスタンスorcl2がノードnode02で停止しましたASMインスタンス+ASM2がノードnode02で停止しましたASMインスタンス+ASM2がノードnode02で起動しましたStarting database instance orcl2 on node node02データベース・インスタンスorcl2がノードnode02で起動しました
74
デ タベ ス インスタンスorcl2がノ ドnode02で起動しましたASMのローリング・アップグレードが完了しました
75
11g R1で提供されたASMCMDユーティリティですが、これまでは主に構成情報を確認したりという運用フェーズでの活用がメインでしたが 11g R2より構成に関連するコンポーネント(デという運用フェ ズでの活用がメインでしたが、11g R2より構成に関連するコンポ ネント(ディスク・グループ、ディスクなど)の作成や変更にも活用できるユーティリティとなりました。
AMSMCDユーティリティ・コマンド一覧(赤字が11g R2からサポートされる)各コマンドの詳細の説明と使用方法についてはストレージ管理者ガイドを参照してください。
カテゴリ コマンド(説明)カテゴリ コマンド(説明)
ASMインスタンス管理 dsget / dsset / lsct / lsop / lspwuser / orapwuser / shutdown / spbackup / spcopy / spget / spmove / spset / startup
ASMファイル管理 cd / cp / du / find / ls / lsof / mkalias / pwd / rm / /rmalias
ASMディスク・グループ管理 chdg / chkdg / dropdg / iostat / lsattr / lsdg / lsdsk / lsod / md backup / md restore / mkdg /mount /lsod / md_backup / md_restore / mkdg /mount / offline /online / rebal / remap / setattr / umount
ASMボリューム管理 volcreate / voldelete / voldisable / volenable /volinfo / volresize /volset /volstat
ASMファイル・アクセスコントロール管理 chgrp / chmod / chown / groups / grpmod / lsgrp / lsusr / mkgrp / mkusr / passwd / rmgrp / rmusr
76
ASMテンプレート管理 chtmpl / lstmpl /mktmpl / rmtmpl
77
SYSDBA権限とSYSASM権限の分割
11g R1ではSYSASM権限が新しく追加され、ASMインスタンスとデータベースインスタンスの権限分割が可能となっていました。しかし、11g R1まではSYSDBA権限でもSYSASM権限と同様の操作を実施できたため、完全な分割はできていませんでした。
11g R2より明確にデータベースインスタンスの管理操作はSYSDBA, ASMインスタンスの管理操作はSYSASMというように完全に権限が分割されました。
複数データベースユーザによるディスク・グループの共有
11g R1までは異なるデータベースのユーザーが同一のASMディスク・グループにアクセスを
し、共有することができました。しかし同一のディスク・グループ内では各データベースのファイルにファイルのアクセス制限ができず、データベースのユーザーが異なるデータベースのファイルにアクセス可能だったため、ファイル削除などの危険がありました。
11g R2よりデータセンター型の運用を実現するため、各データベースのファイルにもアクセス制御の設定が可能になりました。
78
11g R2よりASMファイルアクセスコントロールでは下記の操作を可能にしています。
SYSDBA権限とSYSASM権限の完全分割-SYSDBA権限とSYSASM権限の完全分割
-ASMファイルやディスク・グループに対するアクセス権限の設定
により、データセンターなどで複数のデータベースが同一のディスク・グループを使用する場合など他のデータベースユーザのファイルにアクセスをさせないようにすることができます。ファイルの上書きなどをこれにより防ぐことができます。
79
-11gR2ではUNIX及びLinuxのプラットフォームのみサポートします。
SYSASM権限
SYSASM権限はASMインスタンスにおける全ての権限を持ち、ASMインスタンス上のSYSユーザがこの権限を持っています。
SYSDBA権限
SYSDBA権限はASM上のデータにアクセスする権限を持ちます。SQL*PlusやASMCMDコマ ンドでSYSDBAとしてASMインスタンスに接続することでデータベースに関連するASMのコンポ ネント管理が可能です 可能な操作は以下ですコンポーネント管理が可能です。可能な操作は以下です。
‐ASMファイル、エイリアス、ディレクトリ、テンプレートの作成/削除
‐ASMインスタンスのv$表の分析
‐ユーザが作成したファイルや他のユーザが作成し、アクセス権限を与えられているファイルの管理
‐他のユーザへのASMファイル・アクセスコントロールの付与
SYSOPER権限
SYSOPER権限はASMインスタンスにおける下記操作が可能です。ASMディスク・グループの作成や、ASMディスクの追加、削除、リサイズ等はできません。SYSOPERが可能な操作は以下です。尚、SYSOPERはv$asm系のビューにはアクセスできません。
‐ASMインスタンスの起動、停止、
‐ASMディスク・グループのマウント、ディスマウント、チェック(修復はしない)
-GridInfrastructureのインストール時にASMSNMPユーザが作成されます。ASMSNMPはSYSDBA権限を持ち ASMインスタンスの監視 ザとして使用されます
80
SYSDBA権限を持ち、ASMインスタンスの監視ユーザとして使用されます。
個々のファイルにマスキングの属性を設定する際は、
0 マスクしない(全ての操作可能)0:マスクしない(全ての操作可能)
2:書き込み権限をマスキング(読み込みのみ可)6:書き込み、読み込み権限を共にマスキング(権限なし)の3段階で設定します。
Enterprise Managerからの設定画面
-ASMディスク・グループへのOSユーザの追加
81
Enterprise Managerからの設定画面
-ASMディスク・グループへのグループの追加
-アクセスコントロールするASMファイルの選択と設定
グループを追加するOSユーザの選択
82
権限と所有者を設定して完了
83
これまではASMディスクのヘッダに書き込まれたASMディスク・グループ名を変更することができず リネ ムはできませんでしたきず、リネームはできませんでした。
そのため、ストレージの機能で取得したPIT(ポイント・イン・タイムコピー)をディスク・グループとしてマウントする際は別のノードが必要でした。
Renamedgは取得したPITのディスクヘッダーの情報を新しいディスク・グループ名に変更することで同一ノードでのマウントを可能にします。
リネームディスク・グループが使えないケース
-ディスク・グループがマウントされている状態でのリネームディスク グル プがマウントされている状態でのリネ ム
-CSSによってアクセスされているディスク・グループのリネーム
-オフラインのディスクを含んでいるディスク・グループのリネーム
84
注意
デ グ プ 前を変 も 新 デrenamedgでASMディスク・グループの名前を変更してもリソースの更新や、データベース内のファイル参照先は更新されません。
そのため、もとのASMディスク・グループのリソースは自動的に削除されません。
完全にディスク・グループ名を変更するためにはcrsctl stat resource –tコマンドでリソースの状態を確認し、
srvctl remove diskgroupコマンドでディスク・グループのリソースを削除してください。リネームされたディスク・グループのリソースはマウント時に自動的に作成されます。
-フェーズを分割しない場合の実行例フェ ズを分割しない場合の実行例
$ renamedg dgname=AAA newdgname=BBB asm_diskstring='/dev/sd*' verbose=true NOTE: No asm libraries found in the system Parsing parameters.. Parameters in effect:
Old DG name : AAA New DG name : BBB Phases :Phases :
Phase 1 Phase 2
Discovery str : /dev/sd* Clean : TRUE Raw only : TRUE
renamedg operation: dgname=AAA newdgname=BBB asm_diskstring=/dev/sd* verbose=true Executing phase 1
85
Executing phase 1 ・・・
Completed phase 1 Executing phase 2・・・
Completed phase 2
86
11g R1より障害解析や障害からの復帰を迅速にするため、サポートワークベンチというデータベースインスタンスに関連する新しいインフラストラクチャーが提供されましたベ スインスタンスに関連する新しいインフラストラクチャ が提供されました。
11g R2ではASMインスタンスにも同様のインフラストラクチャーを提供します。
87
-問題の分析とドリルダウンが可能
インシデント番号をクリックして詳細をドリルダウンすることが
可能です。
88
89
IDPが有効なケース
‐データファイルへのアクセスが偏っているようなトランザクションが流れている場合
‐ディスク・グループが25%以上埋まっている場合
(25%以下だと管理のためにオーバヘッドが出てしまう場合があります。)
注意
ASMが直接物理ディスクにアクセスできない場合は、(RAIDアレイで仮想化されている場合など)期待する効果が得られない可能性があります。
90
これまでのILMソリューションではディスクのスペックによりASMディスクグループを分割し、複数のディスク グル プで運用をする必要がありました数のディスク・グループで運用をする必要がありました。
91
IDPを利用することでASMディスク・グループ内で手軽にディスクの特性を生かしたILMソリューシ ンが可能です 表領域を作成する際(ASMフ イルが作成される時)や 作成後もE t iションが可能です。表領域を作成する際(ASMファイルが作成される時)や、作成後もEnterprise Managerなどを利用して設定可能です。
92
ディスク・パーティションとの違い
ディスクパーティションで高速な外側から切っていく場合は、一度切ってしまうと動的に変更すディスクパ ティションで高速な外側から切っていく場合は、 度切ってしまうと動的に変更することが不可(ディスクをオフラインにする必要がある)ですが、IDPの場合、HOT/COLDの境界線がファイル属性の設定状況によって変更されるため、動的な変更が可能です。
93
Enterprise Managerからの設定
-ASMのファイル属性で設定する場合(テンプレートでの設定も可能)
94
プライマリデータとミラーデータそれぞれに
属性を指定可能
ASMのAU番号も物理的にディスクの外側から内側に紐付けられるため、AU番号が若いほどディスクの外側に位置すると考えられますディスクの外側に位置すると考えられます。
注意
RAID構成などで物理的な複数のディスクを切り出して1つのボリュームにしている場合、ASM的には同じ動きをしますが、物理的なディスクのセクタ番号と一致していない可能性があるため、想定する動作にはならない可能性があります。
95
96
4kセクタ・ディスクでのディスク・グループの構成例
SQL>CREATE DISKGROUP mydgroup1 NORMAL REDUNDANCY FAILGROUP mycontroller1 DISK'/devices/diska1', '/devices/diska2', '/devices/diska3',
'/devices/diska4' FAILGROUP mycontroller2 DISK'/devices/diskb1', '/devices/diskb2', '/devices/diskb3', '/devices/diskb4' ATTRIBUTE 'SECTOR SIZE'='4096';
注意
-ACFSでは4Kセクタ・ディスク・ドライブをサポートしていません。
-OS側も4kセクタをサポートしている必要があります。
ATTRIBUTE SECTOR_SIZE 4096 ;
97
各ファイルのブロックサイズを変更する場合
SQL> ALTER DATABASE ADD LOGFILE +DATA SIZE=100M BLOCKSIZE 4k;
98
99
100
101
102
ACFSは基本的にASMに格納可能なファイル(データベースファイル、REDOログファイル)以外の全てのファイルを格納可能です。それに対し、DBFSはデータベースに関連するアプリケーションのデータ(LOB型)を中心としたビジネスデータファイルのみ格納可能です。しかし、DBFSはACFSと違い、データベースの表領域としてデータが格納されるため、圧縮や、暗号化などOracleデータベースの機能の恩恵を受けることが
できるというメリットがあります。
103
上記スライドのようにACFSとDBFSの最大の違いはデータベース内にデータを格納するのか デ タベ の外に格納するというと ろ す DBFSはDBFS専用のクライ トが専か、データベースの外に格納するというところです。DBFSはDBFS専用のクライアントが専用のインスタンスを通してデータベース内にデータを格納します。ACFSはアプリケーションが直接ACFS上にファイルを作成、書き込みを行い、ACFSからASMのボリュームファイルとして格納されます。
104
11g R1より異バージョン環境の共存のためにディスク・グループに属性を設定することが可能です 11 R2では新たに tibl d という属性が追加され 主にACFSやADVMの操作です。11g R2では新たにcompatible.advmという属性が追加され、主にACFSやADVMの操作をするディスク・グループへの設定が必須となっています。赤字の機能名が11g R2より追加された機能です。
105
-/var/log/messagesの出力内容
# grep 'Oracle' /var/log/messages
Sep 28 10:49:52 node01 kernel: [Oracle ADVM] Volume DBHOME-DBHOME_DB1 was resized, new size is 7168 MB.
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Cluster Membership change -Current incarn 0xa
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Nodes in cluster:
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Node 1 (IP 0xa01016f) Node p [ ] ( )2 (IP 0xa010170) Node 4 (IP 0xa010172)
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Node count 3
Sep 29 16:27:02 node01 kernel: [Oracle ADVM] Cluster reconfiguration started.
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Cluster Membership change -Current incarn 0xb
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Nodes in cluster:
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Node 1 (IP 0xa01016f) NodeSep 29 16:27:02 node01 kernel: [Oracle OKS] Node 1 (IP 0xa01016f) Node 2 (IP 0xa010170)
Sep 29 16:27:02 node01 kernel: [Oracle OKS] Node count 2
106
-ノード再起動時の/proc/oks/logの出力例
###!!!@@@ KsLog Tail/Start @@@!!!###<略>K 17180789.260/091004115707 oracle[5684] kcss_set_racmode: mode RAC modeK 17180789.324/091004115707 oks_rbld[5698] kcss_rbld_th: rebuild thread ec3b4f40 rcb ee81e4a0 client id 0 startedK 17180789.324/091004115707 oks_rbld[5699] kcss_rbld_th: rebuild thread e2186e80 rcb ee81e4dc client id 1 startedK 17180789.324/091004115707 oks_rbld[5700] kcss_rbld_th: rebuild thread e2186e00 rcb ee81e518 client id 2 startedV 17180789.344 oracle[5684] Asm_createDG: name=DBHOME asmdg=2 avddg=428 incarn=2748828005V 17180789.344 oracle[5684] asmAddVolume: name DBHOME.DBHOME_DB1, 1, 7168MB
i 1 d /dbh db1 428copies 1 dev asm/dbhome_db1-428V 17180790.368 oracle[5684] Asm_createDG: name=ACFS asmdg=5 avddg=325 incarn=656918883V 17180790.368 oracle[5684] asmAddVolume: name ACFS.VOL1, 1, 4096MB copies 2 dev asm/vol1-325V 17180936.893 mount.acfs.bin[6403] AsmOpenVolume: name ACFS.VOL1K 17180936.989/091004115935 oracle[5697] [Oracle OKS] Cluster Membership change setup start -------> asm_acfs_+ASM3K 17180936.989/091004115935 oracle[5697] [Oracle OKS] Cluster Membership change - Current incarn 0x19K 17180936 989/091004115935 oracle[5697] [Oracle OKS] Nodes in cluster:K 17180936.989/091004115935 oracle[5697] [Oracle OKS] Nodes in cluster:K 17180936.989/091004115935 oracle[5697] Node 1 (IP 0xa01016f)K 17180936.989/091004115935 oracle[5697] Node 2 (IP 0xa010170)K 17180936.989/091004115935 oracle[5697] Node 3 (IP 0xa010171)K 17180936.989/091004115935 oracle[5697] Node 4 (IP 0xa010172)K 17180936.989/091004115935 oracle[5697] [Oracle OKS] Node count 4K 17180936.989/091004115935 oracle[5697] odlm_stall_all: reason 5F 17180936.989/091004115935 oracle[5697] OfsStallInterfaces: incarn 0x19 stall 0 reason 5F 17180936.989/091004115935 oracle[5697] OfsStallInterfaces: Interfaces disabledK 17180937.021/091004115935 oks_comm[6410] rcbp 0xee81e588 step 0, cur_leader 0xffffffff incarn 0x0K 17180937.021/091004115935 oks_comm[6410] odlm_stall_all: reason 5V 17180937.061 oracle[5695] Asm_loadDisks: devCount=14 AU=1048576 for dg ACFSV 17180937.061 oracle[6406] Asm_updateDevModes: num_devs=14<略>F 116.095/091004120137 acfs_recover[6531] OfsRecoverNode: Phase 1 vcb 0xd7461000 node 3 <Unknown> <Unknown>F 116.095/091004120137 acfs_recover[6531] ProcessLogFile: vcb: 0xd7461000 node: 3 (this node)F 116.095/091004120137 acfs_recover[6531] ProcessLogFile Exit: status 0x0F 116.095/091004120137 acfs_recover[6531] OfsRecoverNode: Phase 1 complete vcb 0xd7461000 node 3 <Unknown> <Unknown>F 116.119/091004120137 mount[6529] OfsRecoverOneDRSL():Called for NodeNum (3)F 116.119/091004120137 mount[6529] OfsRecoverOneDRSL(): ret 0x0F 116.119/091004120137 acfssnap0[6533] ofs_snap_lock_special_locks(): acquired lock type 0x0 for VCB 0xd7461000
116 119/09100 12013 0 6 33 iF 116.119/091004120137 acfssnap0[6533] ofs_snap_lock_special_locks(): acquired lock type 0x5 for VCB 0xd7461000F 116.119/091004120137 acfssnap0[6533] ofs_snap_lock_special_locks(): acquired lock type 0x8 for VCB 0xd7461000F 116.159/091004120137 mount[6529] ofs_mount: VCB 0xd7461000 /dev/asm/vol1-325
107
RAC 11gR2 では、Oracle Clusterware と ASM を統合した Grid Infrustructure を提供します。また O l Cl t に必要な OCR / 投票ディスクを ASM 管理するため 従来のようなまた、Oracle Clusterware に必要な OCR / 投票ディスクを ASM 管理するため、従来のようなASM インスタンスのみ停止する操作に制限がかけられています。
以下は、各種停止コマンドにおける ASM の停止の可否を表しています。
ASM で管理しているファイル
停止方法 SPFILE OCR / 投票ディスク
svctl stop asm × ×
svctl stop asm –f ○ ×
shutdown (normal / immediate) ○ ×
shutdwn abort ○ ○
crsctl stop crs ○ ○
crsctl stop cluster ○ ○p
108
Note:注意:ACFSがマウントされている場合、まずACFSをディスマウントする必要があります。マウントしたままだとアプリケーションにはI/Oエラーが返り、ACFS上データやメタデータがASMディスクのI/Oフェンシングが行われる前に完了しない可能性があります。
-ACFSがマウントされた状態でのASMインスタンス停止
$ sqlplus /nolog
SQL*Plus: Release 11.2.0.1.0 Production on 日 9月 6 23:00:00 2009
Copyright (c) 1982, 2009, Oracle. All rights reserved.py g ( ) , , g
SQL> connect sys as sysasm
パスワードを入力してください:
接続されました。
SQL> shutdown normal
ORA-15487: cannot shutdown the ASM instance with an open ASM volume
ORA-15097: cannot SHUTDOWN ASM instance with connected client
109
110
111
112
113
Oracle HomeをACFS上に配置している場合、レジストリには登録されません。
デフォルトで自動起動する仕組みになっています。
その他の通常のACFSは作成時にレジストリに登録するか、しないかを選択できます。
レジストリに登録したものについては/etc/fstabに書き込んだ場合と同様に自動起動の対象となります。
注意
レジストリに登録するACFSの自動マウント機能はOracle Restart環境ではサポートされていません。
レジストリに登録せずに/etc/fstabに書き込みをしても自動起動はされません。
114
ora.drivers.acfsはcrsctl stat resource –t コマンドでは出力されません。
注意
Oracle Restartの構成環境では下記コマンドにより手動でロードする必要があります。
# <Grid_home>/bin/acfsload start -s
115
注意
Oracle Restartの構成環境ではACFSリソースはサポートされません。
116
117
GPnP プロファイルから有効な SPFILE を検出できなかった場合は、<Grid_home>/dbs 配下の SPFILE / PFILE を探索します それでも SPFILE / PFILE を見つけることができなか た場の SPFILE / PFILE を探索します。それでも SPFILE / PFILE を見つけることができなかった場合は、デフォルトの初期化パラメータ (パラメータの設定なし) で ASM インスタンスは起動します。
アラートログの出力(ASMインスタンス起動時)
Starting up:
Oracle Database 11g Enterprise Edition Release 11 2 0 1 0 ProductionOracle Database 11g Enterprise Edition Release 11.2.0.1.0 - Production
With the Real Application Clusters and Automatic Storage Management options.
Using parameter settings in server-side spfile+GRID/grid112/asmparameterfile/registry.253.697722587
System parameters with non-default values:
….
SQL> ALTER DISKGROUP ALL MOUNT /* asm agent */
NOTE: Diskgroup used for Voting files is:GRID
Diskgroup with spfile:GRID
Diskgroup used for OCR is:GRID
118
1. [ディスク・グループ]タブより[作成]ボタンを選択
119
2 表示されたASMディスクからORACLE HOMEに割り当てるものを選択2. 表示されたASMディスクからORACLE_HOMEに割り当てるものを選択
注意 ORACLE_HOME用ACFSは6GB以上の空き領域がないと作成できません。
3.作成したディスク・グループ上で右クリックし、[データベース・ホームのACFSの作成]を選択
120
4. 作成するASMボリュームの名前、マウントするポイント、サイズ、データベース所有者やグループを設定して、[OK]を選択を設定し 、[ ]を選択
注意 Grid Infrastructureの管理者(Gridユーザ)とOracle Databaseの管理者(Oracleユーザ)を分割している場合、デフォルトではASMCAを起動
するGridユーザが所有者として入力されているため、
Oracleユーザに書き換えてください。
書き換えないでACFSの作成はできますが、Databaseのインストール時にリソースが権限不足のため作成できず、エラーになります。
5. 最初のノードのみでacfs_script.shの実行。このスクリプトを実行することでCRSデーモンが監視するOracleDatabase用のACFSリソースが作成されます。
121
6 ASMCAの画面より 作成したACFSのステータスをチェックして正常にマウントされていれば6. ASMCAの画面より、作成したACFSのステ タスをチェックして正常にマウントされていればOK
7. runInstallerでOracleDatabaseのバイナリのインストール先に作成したACFSのマウントポイントを指定すればDatabaseHome on ACFSの構成完了
122
123
ASM関連のメトリック設定
-ASMインスタンス管理画面 [ホームタブ] の関連リンクカテゴリより
全てのメトリックを選択
124
125
126
127
ASMボリュームファイルやACFSはOSで認識されるものですが、SQL*Plusなどのデータベース管理のためのツールからも構成することができますス管理のためのツ ルからも構成することができます。
128
129
130
131