録画PCもといリビングESXのマザーボード交換! その2

マザーボードを交換したので意図的に負荷をかけて様子を見ていたところ…


出ましたよ…
全く同じ現象だよ…  😆

ではでは… と言う事で、ASMedia SATAチップ経由になるSATAポートにSSDの接続を変えてみました。(ついでにHDDのLED極性も修正…)

結果…
凄い!めっちゃくちゃ調子いいし速度も早い!!

って事で、Intel B75チップセットのSATAコントローラはESXではSSDとの相性があまり良くないみたいですね…
ASMedia ASM1061っていうカードを挿せば同じ環境にできるので、もし空きスロットがあればその方法でも良かったかもしれません。 🙂

2018/10/21 訂正
確かに挙動は変わったのですが、どちらかと言うとESXとSSDの相性の方が大きい様です。

Linux LVMミラーを構成する!

折角のG/WなのでESXのバージョンを6.0から6.5にUpdateしようと思って色々とやってみたらデータが飛んだ今日この頃です…  😥 


H/W RAID基板で無理やりRAID1化していたので、片方のSATAケーブルを抜いてUpdateしようとしたところ、ESXが見えなくなるという事態が発生…
新しく交換したH/W RAID基板が役に立たない事がここにきて判明…
何故か基板を通さずに接続すると中のデータは見えたので、旧H/W RAID基板に交換してUpdateしようとしたんですが…


普通に起動すると問題ないにも関わらず、CDから起動するとVMFSパーティションが発見できない自体に…  😆
仕方なく、ココを参考にESXの設定をダウンロードしてUSBメモリに新規でESXをインストールして設定を書き戻ししてなんとか復旧。

壊れかけたRAIDは意味がないので、片方のディスクを直接接続して新規にデータストアを作成し中のデータをちまちまコピー…
やっとこさっとこESXのバージョンを6.5に上げたのですが、USBパススルーで見せていたICカードリーダーがどうやっても使えない事が判明…(ライセンスの関係か?)
仕方なく元のバージョンに戻すハメに。
色々復旧作業をしている最中にハングアップ状態になったため強制的にリセットを掛けたらLinuxが起動不可能に…  👿

症状は、データディスク「xxxx.vmdk」が依存しているスナップショット ディスクの 1 つを開くことができません… などというもの。
色々調査してみたものの、構成ファイルに不足はなくvmdkファイルを再作成しても解消せず…
コピーも何もできず、Invalid argument (1441801) エラーが出力されるのみ。
どうもVMFSのハートビート情報とやらが壊れているんだとか。解消法はVMwareにコンタクトしろ…と書かれた情報しか見つからなかった。  :mrgreen:

仕方ないので新規にまっさらなディスクを作成しLinuxにアサイン
元のディスク構成をこのブログに書いていたので、Googleのキャッシュから同容量でvgを再作成。
後は、日次で自動的に取得しているバックアップ(数日に1回しか成功してないけど)からリカバリ…

これで一部領域を覗いて、1週間前程度までは何とか復旧できた。  😕
DBの情報だけはシステムディスク側にも最新のデータをちゃんとコピー出来ていたので復旧できたものの、画像ファイル(このブログのもの)などは再度Uploadし直して記事を修正したり…

Windows10Proであれば標準機能でソフトウェアミラーが組めることがわかったので、H/W RAID基板無しで構成してみることに…(参考はこちら
LinuxのLVMの場合はどうすればいいのか… やってみたので以下に残しておきます。

PVを初期化
[root@Linux-Server ~]# pvcreate /dev/sdc
Physical volume "/dev/sdc" successfully created.
[root@Linux-Server ~]#

初期化したPVをミラーを構成するVGに追加
[root@Linux-Server ~]# vgextend /dev/vg01 /dev/sdc
Volume group "vg01" successfully extended
[root@Linux-Server ~]#

VGのに追加されたことを確認
[root@Linux-Server ~]# vgdisplay -v vg01
--- Volume group ---
VG Name vg01
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 6
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 4
Open LV 4
Max PV 0
Cur PV 2
Act PV 2
VG Size 599.99 GiB
PE Size 4.00 MiB
Total PE 153598
Alloc PE / Size 75776 / 296.00 GiB
Free PE / Size 77822 / 303.99 GiB
VG UUID z1jfRV-0Udm-N1l0-aGrS-4DQc-0LPY-qLcMjF

--- Logical volume ---
LV Path /dev/vg01/lvol1
LV Name lvol1
VG Name vg01
・・・中略・・・
--- Physical volumes ---
PV Name /dev/sdb
PV UUID zBeoFk-K6dd-O72O-oSlh-AlHt-4K1j-XEQyoa
PV Status allocatable
Total PE / Free PE 76799 / 1023

PV Name /dev/sdc
PV UUID TB8AGg-685e-d3Mk-CJwe-bxpv-axNr-317b3D
PV Status allocatable
Total PE / Free PE 76799 / 76799

ミラー構成の対象となる論理ボリュームの数と名前を確認
[root@Linux-Server ~]# vgdisplay -v vg01 | grep lvol
LV Path /dev/vg01/lvol1
LV Name lvol1
LV Path /dev/vg01/lvol2
LV Name lvol2
LV Path /dev/vg01/lvol3
LV Name lvol3
LV Path /dev/vg01/lvol4
LV Name lvol4
[root@Linux-Server ~]#

ミラー構成
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol1
Are you sure you want to convert linear LV vg01/lvol1 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol1 successfully converted.
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol2
Are you sure you want to convert linear LV vg01/lvol2 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol2 successfully converted.
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol3
Are you sure you want to convert linear LV vg01/lvol3 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol3 successfully converted.
[root@Linux-Server ~]# lvconvert -m1 /dev/vg01/lvol4
Are you sure you want to convert linear LV vg01/lvol4 to raid1 with 2 images enhancing resilience? [y/n]: y
Logical volume vg01/lvol4 successfully converted.
[root@Linux-Server ~]#

ミラーの構成情報を確認
[root@Linux-Server ~]# lvs -a -o name,copy_percent,devices vg01
LV Cpy%Sync Devices
lvol1 18.80 lvol1_rimage_0(0),lvol1_rimage_1(0)
[lvol1_rimage_0] /dev/sdb(0)
[lvol1_rimage_1] /dev/sdc(1)
[lvol1_rmeta_0] /dev/sdb(75776)
[lvol1_rmeta_1] /dev/sdc(0)
lvol2 100.00 lvol2_rimage_0(0),lvol2_rimage_1(0)
[lvol2_rimage_0] /dev/sdb(61440)
[lvol2_rimage_1] /dev/sdc(61442)
[lvol2_rmeta_0] /dev/sdb(75777)
[lvol2_rmeta_1] /dev/sdc(61441)
lvol3 100.00 lvol3_rimage_0(0),lvol3_rimage_1(0)
[lvol3_rimage_0] /dev/sdb(61696)
[lvol3_rimage_1] /dev/sdc(61699)
[lvol3_rmeta_0] /dev/sdb(75778)
[lvol3_rmeta_1] /dev/sdc(61698)
lvol4 100.00 lvol4_rimage_0(0),lvol4_rimage_1(0)
[lvol4_rimage_0] /dev/sdb(68096)
[lvol4_rimage_1] /dev/sdc(68100)
[lvol4_rmeta_0] /dev/sdb(75779)
[lvol4_rmeta_1] /dev/sdc(68099)

新たな不具合が出ない事を祈る…  😎 

Redhat/CentOS yumアップデート前に自動的にESXのスナップショットを作成する

Redhat/CentOSのyumアップデートは皆さんどのくらいの頻度で実施されているんでしょうか…
管理人は過去に自動的に毎日実施する様にしていたら、gccのライブラリ更新でエラーを吐き始めてそのままOSがお亡くなりになっていた事があり、それから慎重になってしまいました。
ただ、現在の光輪サーバはESX上で動いているのでスナップショットで簡単にバックアップが撮れるので活用する事に…

ただ手動でやるのは面倒なのでスクリプトを作ってみました。
まず、ホストのESXiシェルとSSHを有効にしておく必要があります。


(上記クリックでダウンロード)

事前にTeraTerm等でESXにログインして、vim-cmd vmsvc/getallvms コマンドでVMIDを控えて下さい。

例)
 [root@Living-ESX:~] vim-cmd vmsvc/getallvms
 Vmid          Name                                File                              Guest OS          Version                Annotation
 1     Linux-Server          [datastore] Linux-Server/Linux-Server.vmx       rhel6_64Guest            vmx-11    Redhat
 2     WindowsXP             [datastore] WindowsXP/WindowsXP.vmx             winXPProGuest            vmx-11
 3     Windows10             [datastore] Windows10/Windows10.vmx             windows9_64Guest         vmx-11
 [root@Living-ESX:~]

上記スクリプトの下記を環境に合わせて修正
VMID=上記で控えたVMID
PASSWORD=’ESXのパスワード
ESXIPADD=”ESX 管理IPアドレス

これを対象Linuxにて、OS側で自動的なyum updateが仕込んである場合はそちらを停止した上で、rootのcronに以下の様な感じで登録すればOKです。(/root/updateyum.shに配置した場合)

30   01 *  *  *  /root/updateyum.sh >> /root/updateyum.log 2>&1


成功するとこんな感じでスナップショットが作成されます。

ADATA Ultimate SU650 SSD 2.5インチ 240GBを買ってみた!

我が家のリビングESXなのですが、ちょっと前に密林のタイムセールで安かったSSDの容量が大きなものに交換しました…が、


ESXのイベントログにI/Oウェイトに関するメッセージが上がる様になってしまいました。
一時期はSSDを完全に見失ってゲストOSが停止してしまうほど… SSDのファーム更新以降、認識しなくなることは無くなったものの相変わらずログには上がり続けています。


『ADATA社製 Ultimate SU650 2.5インチSSD 240GB ASU650SS-240GT-C』

問題のSSDと交換する前に元々使っていたSSDと同一メーカーをチョイスしてみました。安価な上、3D NANDを採用しMTBF(平均故障間隔)は最大200万時間と言うのが決め手です。
スペック的には、2.5インチ SATA 6Gb/sインタフェースで、最大 520MB(読込)/450MB(書込)/秒 となります。



SSDの外装はあまり面白みが無いですよね…

適当な空きポートにSSDを接続してESXから認識させます。

現状はこんな感じ… datastore0がSSDです。
空きが36GB程度ありますが、シンプロビジョンで使っているため溢れそうになること数回… と言う訳で、今回は容量も大きなものにしています。


「ストレージの追加」を選択して「ディスク/LUN」を選んで次へ…

対象が表示されるハズなので、選択して次へ…

新品のSSDなので特に何もなくそのまま次へ…

データストア名を入力して次へ…
今回は、あとあとdatastore0をdatastore2に名前を変更するつもりで、datastore1にしてみました。

全部使いたいので「使用可能な最大領域」を選んで次へ…

設定のサマリが表示されるので「終了」を押すとディスクが追加されます。


追加されました。
あとは既存のデータストアにあるデータを用途別に再配置して…

こんな感じで分散してみました。
datastore1が主に光輪サーバー及び録画PC用領域です。空きが100GBあれば… まぁ、大丈夫でしょう。
datastore0は常時使用することのない検証用や古いOS(WindowsXPなど)を入れて置くことにします。
Systemデータストアが無理やりRAID1化のせいでアクセス速度がかなり遅いこともあり、データディスクやバックアップ置き場にする事にします。


ESX上の作業は終わったので、仮付けで適当に接続していたSSDを本来の場所に設置します… このAntecのケースは面白い所に設置場所があるんですよね…

5インチベイがハマっているんですが、これを持ち上げると…

こんな感じで設置できます。スペース的に横並びであと1台くらい置けそうですね… (ネジ穴が無いので固定できませんが)

最終的にこんな感じになりました。
問題のSSDをそのまま使い続ける事になりますが、接続ポートやケーブルも変わっているのでしばらく様子見ですね… まぁ、検証用がメインなので最悪は消えても問題は無いですし。




« Prev - Next »