光輪サイト

Redhat/CentOS yumアップデート前に自動的にESXのスナップショットを作成する

Redhat/CentOSのyumアップデートは皆さんどのくらいの頻度で実施されているんでしょうか…
管理人は過去に自動的に毎日実施する様にしていたら、gccのライブラリ更新でエラーを吐き始めてそのままOSがお亡くなりになっていた事があり、それから慎重になってしまいました。
ただ、現在の光輪サーバはESX上で動いているのでスナップショットで簡単にバックアップが撮れるので活用する事に…

ただ手動でやるのは面倒なのでスクリプトを作ってみました。
まず、ホストのESXiシェルとSSHを有効にしておく必要があります。


(上記クリックでダウンロード)

事前にTeraTerm等でESXにログインして、vim-cmd vmsvc/getallvms コマンドでVMIDを控えて下さい。

例)
 [root@Living-ESX:~] vim-cmd vmsvc/getallvms
 Vmid          Name                                File                              Guest OS          Version                Annotation
 1     Linux-Server          [datastore] Linux-Server/Linux-Server.vmx       rhel6_64Guest            vmx-11    Redhat
 2     WindowsXP             [datastore] WindowsXP/WindowsXP.vmx             winXPProGuest            vmx-11
 3     Windows10             [datastore] Windows10/Windows10.vmx             windows9_64Guest         vmx-11
 [root@Living-ESX:~]

上記スクリプトの下記を環境に合わせて修正
VMID=上記で控えたVMID
PASSWORD=’ESXのパスワード
ESXIPADD=”ESX 管理IPアドレス

これを対象Linuxにて、OS側で自動的なyum updateが仕込んである場合はそちらを停止した上で、rootのcronに以下の様な感じで登録すればOKです。(/root/updateyum.shに配置した場合)

30   01 *  *  *  /root/updateyum.sh >> /root/updateyum.log 2>&1


成功するとこんな感じでスナップショットが作成されます。

光輪サーバー Linux LVM領域のオンライン拡張

今日は色々なPCに散らばってるISOとかメモ(無題.txt, 無題2.txt, memo,txt… 等)とか、リンク切れのWEBショートカットとか古いドライバとかパッチとか…
削除したり、一カ所に纏めたりデータの整理をしていた訳です。

評価版のISOとかパッチとかは光輪サーバーに放り込んであったりするのですが…

空きが5GBになってしまいました…
と言う事で、/home領域のオンライン拡張を実施しました。
(実は、以前に古い光輪サーバーでもっと大掛かりな手順で実施しているものとやってることは変わりません)

● /home 領域として利用しているボリュームを確認

[root@Server ~]# df -k | grep home
/dev/mapper/vg01-lvol1 206292968 190498856 5291968 98% /home <= 使用率98%!

● vg01の割り当て領域サイズと未使用領域サイズを確認

[root@Server ~]# vgdisplay -v vg01
--- Volume group ---
VG Name vg01
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 5
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 4
Open LV 4
Max PV 0
Cur PV 1
Act PV 1
VG Size <300.00 GiB
PE Size 4.00 MiB
Total PE 76799
Alloc PE / Size 65536 / 256.00 GiB
Free PE / Size 11263 / <44.00 GiB <= 未使用44GiB
VG UUID otQhLv-SSPP-yfDi-2gpI-U2jF-BEf1-jTovcN

--- Logical volume ---
LV Path /dev/vg01/lvol1
LV Name lvol1
VG Name vg01
LV UUID owNriB-OYTm-GjOn-19Ph-dQqQ-Zirf-SFdJfB
LV Write Access read/write
LV Creation host, time Server.kourin.org, 2015-10-24 22:34:46 +0900
LV Status available
# open 1
LV Size 200.00 GiB <= /home領域割当てサイズ200GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:0

--- Logical volume ---
LV Path /dev/vg01/lvol2
LV Name lvol2
VG Name vg01
LV UUID 5iZm1y-pQft-yNsC-D74h-UWK9-azee-5WFFml
LV Write Access read/write
LV Creation host, time Server.kourin.org, 2015-10-24 22:36:46 +0900
LV Status available
# open 1
LV Size 1.00 GiB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:1

--- Logical volume ---
LV Path /dev/vg01/lvol3
LV Name lvol3
VG Name vg01
LV UUID fZsfJL-qmXl-X0tz-X4bC-iq9z-1WKr-aN3EP4
LV Write Access read/write
LV Creation host, time Server.kourin.org, 2015-10-24 22:37:50 +0900
LV Status available
# open 1
LV Size 25.00 GiB
Current LE 6400
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2

--- Logical volume ---
LV Path /dev/vg01/lvol4
LV Name lvol4
VG Name vg01
LV UUID iV85Vl-6uKj-K2OF-4gvn-dJKc-Be9b-UeDgOB
LV Write Access read/write
LV Creation host, time Server.kourin.org, 2015-10-24 22:38:22 +0900
LV Status available
# open 1
LV Size 30.00 GiB
Current LE 7680
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3

--- Physical volumes ---
PV Name /dev/sdb
PV UUID gn2EvZ-lIP6-Nycm-EZlJ-0v7w-ZU8V-TLXKJj
PV Status allocatable
Total PE / Free PE 76799 / 11263

● /home領域(/dev/vg01/lvol1)に未使用の40GiBを追加割当て

[root@Server ~]# lvextend -L 240GiB /dev/vg01/lvol1
Size of logical volume vg01/lvol1 changed from 200.00 GiB (51200 extents) to 240.00 GiB (61440 extents).
Logical volume vg01/lvol1 successfully resized.

● /home領域(/dev/vg01/lvol1)が拡張されたことを確認

[root@Server ~]# lvdisplay /dev/vg01/lvol1
--- Logical volume ---
LV Path /dev/vg01/lvol1
LV Name lvol1
VG Name vg01
LV UUID owNriB-OYTm-GjOn-19Ph-dQqQ-Zirf-SFdJfB
LV Write Access read/write
LV Creation host, time Server.kourin.org, 2015-10-24 22:34:46 +0900
LV Status available
# open 1
LV Size 240.00 GiB <= 200GiBから240GiBに拡張された
Current LE 61440
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:0
[root@Server ~]#
[root@Server ~]# df -k | grep home
/dev/mapper/vg01-lvol1 206292968 190498856 5291968 98% /home <= ファイルシステムは200GiBのまま

● /home領域のファイルシステムを拡張

[root@Server ~]# resize2fs /dev/vg01/lvol1
resize2fs 1.42.9 (28-Dec-2013)
Filesystem at /dev/vg01/lvol1 is mounted on /home; on-line resizing required
old_desc_blocks = 25, new_desc_blocks = 30
The filesystem on /dev/vg01/lvol1 is now 62914560 blocks long.

● /home領域が拡張されたことを確認

[root@Server ~]# df -k | grep home
/dev/mapper/vg01-lvol1 247577788 190498556 44878436 81% /home <= 使用率が下がった!
[root@Server ~]#

2017/11/11 追記

グラフですが、こんな感じになりました。

ADATA Ultimate SU650 SSD 2.5インチ 240GBを買ってみた!

我が家のリビングESXなのですが、ちょっと前に密林のタイムセールで安かったSSDの容量が大きなものに交換しました…が、


ESXのイベントログにI/Oウェイトに関するメッセージが上がる様になってしまいました。
一時期はSSDを完全に見失ってゲストOSが停止してしまうほど… SSDのファーム更新以降、認識しなくなることは無くなったものの相変わらずログには上がり続けています。


『ADATA社製 Ultimate SU650 2.5インチSSD 240GB ASU650SS-240GT-C』

問題のSSDと交換する前に元々使っていたSSDと同一メーカーをチョイスしてみました。安価な上、3D NANDを採用しMTBF(平均故障間隔)は最大200万時間と言うのが決め手です。
スペック的には、2.5インチ SATA 6Gb/sインタフェースで、最大 520MB(読込)/450MB(書込)/秒 となります。



SSDの外装はあまり面白みが無いですよね…

適当な空きポートにSSDを接続してESXから認識させます。

現状はこんな感じ… datastore0がSSDです。
空きが36GB程度ありますが、シンプロビジョンで使っているため溢れそうになること数回… と言う訳で、今回は容量も大きなものにしています。


「ストレージの追加」を選択して「ディスク/LUN」を選んで次へ…

対象が表示されるハズなので、選択して次へ…

新品のSSDなので特に何もなくそのまま次へ…

データストア名を入力して次へ…
今回は、あとあとdatastore0をdatastore2に名前を変更するつもりで、datastore1にしてみました。

全部使いたいので「使用可能な最大領域」を選んで次へ…

設定のサマリが表示されるので「終了」を押すとディスクが追加されます。


追加されました。
あとは既存のデータストアにあるデータを用途別に再配置して…

こんな感じで分散してみました。
datastore1が主に光輪サーバー及び録画PC用領域です。空きが100GBあれば… まぁ、大丈夫でしょう。
datastore0は常時使用することのない検証用や古いOS(WindowsXPなど)を入れて置くことにします。
Systemデータストアが無理やりRAID1化のせいでアクセス速度がかなり遅いこともあり、データディスクやバックアップ置き場にする事にします。


ESX上の作業は終わったので、仮付けで適当に接続していたSSDを本来の場所に設置します… このAntecのケースは面白い所に設置場所があるんですよね…

5インチベイがハマっているんですが、これを持ち上げると…

こんな感じで設置できます。スペース的に横並びであと1台くらい置けそうですね… (ネジ穴が無いので固定できませんが)

最終的にこんな感じになりました。
問題のSSDをそのまま使い続ける事になりますが、接続ポートやケーブルも変わっているのでしばらく様子見ですね… まぁ、検証用がメインなので最悪は消えても問題は無いですし。

[rakuten]getplus:51202882[/rakuten]
[rakuten]compmoto-r:10491907[/rakuten]
[rakuten]getplus:51202881[/rakuten]
[rakuten]compmoto-r:10491906[/rakuten]

.hack//G.U. Last Recode 買った!

.hack//G.U. Last Recodeが発売になりましたね!
当ブログではあまり触れていませんでしたが、ココの経緯からして買わない訳には… ってことでもちろん購入済みであります。 🙂



『.hack//G.U. Last Recode PREMIUM EDITION PS4版』

プレミアムエディションですよ!いや、何がプレミアムなのか全然確認してないのですが(ぉぃ
とりあえず、今回のリマスターで新しいお話が追加されたっていう情報はキャッチしております。


カバー(?)はペラっと剥がれます。(このペラ紙って毎回保管に困るんだよね…)


内容物はこんな感じ… プレミアムディスクセットと、ゲーム本体と、シークレットファイル
ゲーム本体は言うまでもなく… シークレットファイルは、画集もしくは設定資料集のような感じでしょうか?


プレミアムディスクセットはこんな感じ… えーと、信号機カラー(爆)
えーと、サウンドトラックとドラマCDと、原作で付属だったアニメDVDをBD化したもの…らしいです。


ゲームディスクはこんな感じ。

さて、問題は1作目の.hack(カイト君)も、2作目の.hack//gu(ハセヲ君)も、全クリしてないんですよねぇ… 全部そろってはいるんですけどね(汗)
ぷ、プレイしないとなっ!!

[rakuten]book:18723784[/rakuten]
[rakuten]biccamera:11643534[/rakuten]
[rakuten]hobbystock:10122558[/rakuten]
[rakuten]amiami:11317697[/rakuten]

« Prev - Next »