Linux LVMミラーを構成する!

折角のG/WなのでESXのバージョンを6.0から6.5にUpdateしようと思って色々とやってみたらデータが飛んだ今日この頃です…  😥 


H/W RAID基板で無理やりRAID1化していたので、片方のSATAケーブルを抜いてUpdateしようとしたところ、ESXが見えなくなるという事態が発生…
新しく交換したH/W RAID基板が役に立たない事がここにきて判明…
何故か基板を通さずに接続すると中のデータは見えたので、旧H/W RAID基板に交換してUpdateしようとしたんですが…


普通に起動すると問題ないにも関わらず、CDから起動するとVMFSパーティションが発見できない自体に…  😆
仕方なく、ココを参考にESXの設定をダウンロードしてUSBメモリに新規でESXをインストールして設定を書き戻ししてなんとか復旧。

壊れかけたRAIDは意味がないので、片方のディスクを直接接続して新規にデータストアを作成し中のデータをちまちまコピー…
やっとこさっとこESXのバージョンを6.5に上げたのですが、USBパススルーで見せていたICカードリーダーがどうやっても使えない事が判明…(ライセンスの関係か?)
仕方なく元のバージョンに戻すハメに。
色々復旧作業をしている最中にハングアップ状態になったため強制的にリセットを掛けたらLinuxが起動不可能に…  👿

症状は、データディスク「xxxx.vmdk」が依存しているスナップショット ディスクの 1 つを開くことができません… などというもの。
色々調査してみたものの、構成ファイルに不足はなくvmdkファイルを再作成しても解消せず…
コピーも何もできず、Invalid argument (1441801) エラーが出力されるのみ。
どうもVMFSのハートビート情報とやらが壊れているんだとか。解消法はVMwareにコンタクトしろ…と書かれた情報しか見つからなかった。  :mrgreen:

仕方ないので新規にまっさらなディスクを作成しLinuxにアサイン
元のディスク構成をこのブログに書いていたので、Googleのキャッシュから同容量でvgを再作成。
後は、日次で自動的に取得しているバックアップ(数日に1回しか成功してないけど)からリカバリ…

これで一部領域を覗いて、1週間前程度までは何とか復旧できた。  😕
DBの情報だけはシステムディスク側にも最新のデータをちゃんとコピー出来ていたので復旧できたものの、画像ファイル(このブログのもの)などは再度Uploadし直して記事を修正したり…

Windows10Proであれば標準機能でソフトウェアミラーが組めることがわかったので、H/W RAID基板無しで構成してみることに…(参考はこちら
LinuxのLVMの場合はどうすればいいのか… やってみたので以下に残しておきます。

PVを初期化
[root@Linux-Server ~]# pvcreate /dev/sdc
Physical volume "/dev/sdc" successfully created.
[root@Linux-Server ~]#

初期化したPVをミラーを構成するVGに追加
[root@Linux-Server ~]# vgextend /dev/vg01 /dev/sdc
Volume group "vg01" successfully extended
[root@Linux-Server ~]#

VGのに追加されたことを確認
[root@Linux-Server ~]# vgdisplay -v vg01
--- Volume group ---
VG Name vg01
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 6
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 4
Open LV 4
Max PV 0
Cur PV 2
Act PV 2
VG Size 599.99 GiB
PE Size 4.00 MiB
Total PE 153598
Alloc PE / Size 75776 / 296.00 GiB
Free PE / Size 77822 / 303.99 GiB
VG UUID z1jfRV-0Udm-N1l0-aGrS-4DQc-0LPY-qLcMjF

--- Logical volume ---
LV Path /dev/vg01/lvol1
LV Name lvol1
VG Name vg01
・・・中略・・・
--- Physical volumes ---
PV Name /dev/sdb
PV UUID zBeoFk-K6dd-O72O-oSlh-AlHt-4K1j-XEQyoa
PV Status allocatable
Total PE / Free PE 76799 / 1023

PV Name /dev/sdc
PV UUID TB8AGg-685e-d3Mk-CJwe-bxpv-axNr-317b3D
PV Status allocatable
Total PE / Free PE 76799 / 76799

ミラー構成の対象となる論理ボリュームの数と名前を確認
[root@Linux-Server ~]# vgdisplay -v vg01 | grep lvol
LV Path /dev/vg01/lvol1
LV Name lvol1
LV Path /dev/vg01/lvol2
LV Name lvol2
LV Path /dev/vg01/lvol3
LV Name lvol3
LV Path /dev/vg01/lvol4
LV Name lvol4
[root@Linux-Server ~]#

ミラー構成
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol1
Are you sure you want to convert linear LV vg01/lvol1 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol1 successfully converted.
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol2
Are you sure you want to convert linear LV vg01/lvol2 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol2 successfully converted.
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol3
Are you sure you want to convert linear LV vg01/lvol3 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol3 successfully converted.
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol4
Are you sure you want to convert linear LV vg01/lvol4 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol4 successfully converted.
[root@Linux-Server ~]#

ミラーの構成情報を確認
[root@Linux-Server ~]# lvs -a -o name,copy_percent,devices vg01
LV Cpy%Sync Devices
lvol1 18.80 lvol1_rimage_0(0),lvol1_rimage_1(0)
[lvol1_rimage_0] /dev/sdb(0)
[lvol1_rimage_1] /dev/sdc(1)
[lvol1_rmeta_0] /dev/sdb(75776)
[lvol1_rmeta_1] /dev/sdc(0)
lvol2 100.00 lvol2_rimage_0(0),lvol2_rimage_1(0)
[lvol2_rimage_0] /dev/sdb(61440)
[lvol2_rimage_1] /dev/sdc(61442)
[lvol2_rmeta_0] /dev/sdb(75777)
[lvol2_rmeta_1] /dev/sdc(61441)
lvol3 100.00 lvol3_rimage_0(0),lvol3_rimage_1(0)
[lvol3_rimage_0] /dev/sdb(61696)
[lvol3_rimage_1] /dev/sdc(61699)
[lvol3_rmeta_0] /dev/sdb(75778)
[lvol3_rmeta_1] /dev/sdc(61698)
lvol4 100.00 lvol4_rimage_0(0),lvol4_rimage_1(0)
[lvol4_rimage_0] /dev/sdb(68096)
[lvol4_rimage_1] /dev/sdc(68100)
[lvol4_rmeta_0] /dev/sdb(75779)
[lvol4_rmeta_1] /dev/sdc(68099)

新たな不具合が出ない事を祈る…  😎 

録画PC RAIDディスク交換2017 その3

さて、RAID6ボリュームの拡張を開始してから24時間以上が経過しましたが…

Adaptec Storage Managerを見てみると…

Logical devicesのステータスが「Optimal」に変わってますので、やっと終了した様です。 🙂

イベントログを見てみると…
25日の1時29分から、26日の13時41分ですから… 36時間12分!
ふぃー、お疲れ様です。


ディスクの管理から該当のディスクを見てみても大きくなった感じはありません。
デバイスマネージャーを開いてスキャンとかもしてみましたが特に変化はなし… 何か方法はあるのでしょうが、メンドイのでサクっと再起動しましょう!  😉

Windows10は起動停止がサクサクなのでいいですね…

はい、再度ディスクの管理を開くと… ちゃんと拡張されて「未割り当て」ができてます。

既存の領域を右クリックして「ボリュームの拡張(X)」をポチり!

ボリュームの拡張ウィザードなるものが起動しますので「次へ(N)」

デフォルトで拡張された未割り当て分が表示されますので… 注目すべきは「ボリュームサイズの合計(MB)」部分でしょうかね。

最後に「完了」を押せば終了!簡単です。  😀

はい、無事に中のデータはそのままでボリュームが拡張されました!!


あとはひたすらにデータを戻す作業の始まりです…  🙄

録画PC RAIDディスク交換2017 その2

昨日は2.5インチのRAID HDDを交換しただけで終了してしまいましたが、今日はいよいよ肝心のデータの方を何とかしていきます。

『Seagate ST3000DM008 3.5インチ内蔵SATA 3.0TB』

リムーバブルHDDのケースに取り付けて…

PCへ挿入!


再びAdaptec Storage Managerを起動…

昨日から気付いていた方もいるかもしれませんが、「temp」というRAID5のボリュームが存在します。  😯

これは5TBのRAID6領域が足りなくなってしまったため、交換済みのHDDだけを使って一時的にRAID5領域を作成しそこにデータを移動してなんとか凌いでいました…


RAID6領域を拡張するには、まずこの領域を解放しなければ… と言う事でPCに挿入した3TBのHDDにデータをガンガン退避させちゃいます。

データの退避が終わればこの領域は不要なので、ディスクの管理からボリュームを削除した上で、Adaptec Storage Manager上からも「Delete logical device」で削除。

「Yes」を押してサクっと綺麗に…

これで綺麗サッパリになりました。


続いては、RAID6領域を現在の5TBから、交換したHDD全領域を資料した10TBに拡張しましょう!「Expand or change logical device」をポチり

【RAID6】のまま「Next」を…

「Advanced settings」の三角を押して、【Enter new size】に新しいサイズを入力して「Next」をポチり!

RAIDレベルとサイズの指定を確認したら「Apply」!

「Yes」を押すと処理が始まります。

あとは待つばかり…  😎

好評につき売切れです

好評につき売切れです

好評につき売切れです

録画PC RAIDディスク交換2017 その1

管理人宅のESX化された録画PCのRAIDボリュームですが、ここ数年容量がひっ迫しております。

5インチベイ上段がRAIDディスク6本、下段がリムーバブルHDDになっています。
見えている部分以外にも1本RAIDディスクがあるので、1TB×7本 RAID6で… 5TBの容量があるんですが、微妙にあふれ気味です。  😉

そこでそこで!、管理人的クリスマスプレゼント!!って事で。


いよいよ全部入れ替えの為に用意しましたHDD!!!


『左側:Seagate ST3000DM008 3.5インチ内蔵SATA 3.0TB』
『右側:Seagate ST2000LM007 2.5インチ内蔵SATA 2.0TB 7mm厚』
別に7mm厚に拘りがある訳ではないんですが、普通にコレが一番安かったのでこれを選択しております…  😆


Adaptec Storage Manager を起動してRAIDの情報を確認します。

実は、7本中の3本は2TBに交換済みだったりします。ちまちま交換しているのでロットや型番がバラバラなのがアレ(うち2本は9.5mm厚だし)ですが…

交換する対象の1TB(931.513GB)のディスクを選んで「Blink physical drive」をポチり

アクセスLEDが周期的に点滅しているHDD(この場合は右下)を交換します。

「OK」を押して問題のHDDを電源入ったままの状態でサクっと取り外し!

HGST(左)からSeagate(右)へ交換します。

元通りスロットに挿入して暫く経つと…

リビルドが開始されました!
RAID6なので、2本同時に交換しても… まぁいいんですが、まぁのんびり行きましょう。  🙂

…で、取り外した旧HDDはと言うと…

ちょっと前の秋葉原週間の時に800円くらいで購入したUSB3.0 HDDケースに挿入…
これで我が家にもUSB3.0機器が登場したぜ!  😛 

好評につき売切れです


好評につき売切れです

好評につき売切れです

Next »