落ちてたので立ててみた。
本家
http://www.linux-kvm.org/page/Main_Page
参考: Linux カーネル仮想マシンを探る
http://www.ibm.com/developerworks/jp/linux/library/l-linux-kvm/index.html
前スレ
http://engawa.2ch.net/test/read.cgi/linux/1254504654/
探検
KVM(Kernel based Virtual Machine)を語れ 2
■ このスレッドは過去ログ倉庫に格納されています
1login:Penguin
2012/01/01(日) 12:02:24.44ID:j6P2SYaT2013/02/06(水) 20:56:38.01ID:44A2GJXi
>>469
物理だと問題無いんですよね。あと、KVM 無しの QEMU でも問題無かったです。
Xeon E3-1200v2 の仮想化支援機能に何か問題があるんじゃないかなーと思ってます。。
ひとまず、E5 を使うことで切り抜けたのですが、
他の方々は E3 で問題無く、FreeBSD 9.1 amd64 disk1 の起動できます?
物理だと問題無いんですよね。あと、KVM 無しの QEMU でも問題無かったです。
Xeon E3-1200v2 の仮想化支援機能に何か問題があるんじゃないかなーと思ってます。。
ひとまず、E5 を使うことで切り抜けたのですが、
他の方々は E3 で問題無く、FreeBSD 9.1 amd64 disk1 の起動できます?
2013/02/07(木) 18:39:36.28ID:2mak0S6u
2013/02/08(金) 01:56:44.07ID:EJKL/a7r
>>471
CPUとしては全然別物
CPUとしては全然別物
473446
2013/02/08(金) 09:29:49.76ID:s+XsNCZ6 ちょっとなかなか高負荷にならず、間空いちゃってすいません。
>>460
rw,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=56,retrans=2,sec=sys,
mountaddr=**,mountvers=3,mountport=58074,mountproto=udp,local_lock=none,addr=**
asyncは指定してません。デフォなのでおそらくsyncですね。
>>461
ddで100MBのファイルを5回書き込み、1MBのファイルを500回書き込みとやってみましたが
いずれもキャッシュに載ってしまって200MB/sとかです。
それ以上のサイズは、本稼働中なんでちょっと厳しいw
>>462
readが0〜8000kで平均1000k、writeが0〜5000kで平均1500kといった感じでした。
>>460
rw,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=56,retrans=2,sec=sys,
mountaddr=**,mountvers=3,mountport=58074,mountproto=udp,local_lock=none,addr=**
asyncは指定してません。デフォなのでおそらくsyncですね。
>>461
ddで100MBのファイルを5回書き込み、1MBのファイルを500回書き込みとやってみましたが
いずれもキャッシュに載ってしまって200MB/sとかです。
それ以上のサイズは、本稼働中なんでちょっと厳しいw
>>462
readが0〜8000kで平均1000k、writeが0〜5000kで平均1500kといった感じでした。
2013/02/08(金) 09:58:47.24ID:sq66tPlr
>473
乙です。
NFSの引数はあまりわかってないですが、
今のところ、見せてもらった情報からは、
NFSがボトルネックのような内容見えてない気がします。
iowaitは気になりますが、コア8つでロードアベレージが
7ってことは、コア単位で言えば、待ちは1つ以下になるし。
使ってるグループウェアの仕様上のボトルネックみたいな
ものはないんでしょうか。同時接続数がいくつまで・・とか、
無駄にiowaitを生じさせるような動作をしてるとか・・・
乙です。
NFSの引数はあまりわかってないですが、
今のところ、見せてもらった情報からは、
NFSがボトルネックのような内容見えてない気がします。
iowaitは気になりますが、コア8つでロードアベレージが
7ってことは、コア単位で言えば、待ちは1つ以下になるし。
使ってるグループウェアの仕様上のボトルネックみたいな
ものはないんでしょうか。同時接続数がいくつまで・・とか、
無駄にiowaitを生じさせるような動作をしてるとか・・・
2013/02/08(金) 10:21:13.30ID:EJKL/a7r
>>473
NFSのオプションにいくつかイケてない内容があるです
それはクライアント側のマウントオプションだけど、
rsize=8192,wsize=8192 これもっと大きい数字にできる。
うちはrsize=1048576,wsize=1048576
mountproto=udp これ事故る元。
tcpに変えた方がいいです。
syncかasyncかはサーバ側で exportfs -v しないと解らないです。
そこに必ず表記が出ます。
NFSのオプションにいくつかイケてない内容があるです
それはクライアント側のマウントオプションだけど、
rsize=8192,wsize=8192 これもっと大きい数字にできる。
うちはrsize=1048576,wsize=1048576
mountproto=udp これ事故る元。
tcpに変えた方がいいです。
syncかasyncかはサーバ側で exportfs -v しないと解らないです。
そこに必ず表記が出ます。
476474
2013/02/08(金) 10:26:33.85ID:sq66tPlr NFSの引数について判らなかったために
随分適当なことを言ってしまったみたいですね、
すみません。
rsize, wsizeは昔は8192にするのは定石だったと思いますが、
今はもっとずっと大きいんですね・・・
随分適当なことを言ってしまったみたいですね、
すみません。
rsize, wsizeは昔は8192にするのは定石だったと思いますが、
今はもっとずっと大きいんですね・・・
2013/02/08(金) 10:42:02.04ID:EJKL/a7r
NFSは枯れててあまり最新のネタって無いですからね、仕方ないと思います。
適当でも普通に動いちゃうし。
dstatの結果を見る限り、かなりディスクに負荷かかってるんじゃないかと思います。
ランダムアクセスで常時Read/Writeが1〜2MB/sって、そこそこリソース食ってると思う。
ストレージの無負荷のDiskMark値がないとなんとも言えんけど、
HDD2台のRAID1構成のNFSサーバに、KVMゲストからDiskMarkしたときは、
4kランダムで1〜4MB/sくらいでした。
RAID6遅いし、使ってるディスクの仕様が解らんけど、ストレージもある程度酷使されてると予想。
適当でも普通に動いちゃうし。
dstatの結果を見る限り、かなりディスクに負荷かかってるんじゃないかと思います。
ランダムアクセスで常時Read/Writeが1〜2MB/sって、そこそこリソース食ってると思う。
ストレージの無負荷のDiskMark値がないとなんとも言えんけど、
HDD2台のRAID1構成のNFSサーバに、KVMゲストからDiskMarkしたときは、
4kランダムで1〜4MB/sくらいでした。
RAID6遅いし、使ってるディスクの仕様が解らんけど、ストレージもある程度酷使されてると予想。
2013/02/08(金) 10:46:20.85ID:onEADul2
>>475
proto=でなくmountproto=だからあまり問題ないんでは?
proto=でなくmountproto=だからあまり問題ないんでは?
479446
2013/02/08(金) 10:57:16.80ID:s+XsNCZ6 何度もありがとう、参考になります。
>>474
メーカーにさんざん調べさせた結果、もうどう叩いてもこちら側の問題ではなく
サーバー側ディスクIOパフォーマンスの問題である、というのが最終回答でした。
実際、仮想化物理ホストのローカルHDDに載せてしまえば、現スペックでも
こんな程度のユーザー数、アクセス数は余裕で裁ける程度なんですよね。
>>475
なるほど、rwsizeは拡大方向で、計測しながら変更してみます。
mountprotoは無指定なのでデフォ値ですね。これもtcpに変えたら
どれくらいパフォーマンスが落ちるかを計測しつつ検討してみます。
ちなみにfstabのマウントオプションは rsize=8192,wsize=8192,timeo=56,hard,nointr です。
で、nfsサーバー側でexportfs -v をしたところ、asyncでした。
<world>(rw,async,wdelay,insecure,no_root_squash,no_subtree_check)
実際nfsサーバー側で見てる限り、iowaitなんか全くないし
その他負荷もさっぱりなんですよね。
深夜の無負荷時にhdparmでも実行してみます。
>>474
メーカーにさんざん調べさせた結果、もうどう叩いてもこちら側の問題ではなく
サーバー側ディスクIOパフォーマンスの問題である、というのが最終回答でした。
実際、仮想化物理ホストのローカルHDDに載せてしまえば、現スペックでも
こんな程度のユーザー数、アクセス数は余裕で裁ける程度なんですよね。
>>475
なるほど、rwsizeは拡大方向で、計測しながら変更してみます。
mountprotoは無指定なのでデフォ値ですね。これもtcpに変えたら
どれくらいパフォーマンスが落ちるかを計測しつつ検討してみます。
ちなみにfstabのマウントオプションは rsize=8192,wsize=8192,timeo=56,hard,nointr です。
で、nfsサーバー側でexportfs -v をしたところ、asyncでした。
<world>(rw,async,wdelay,insecure,no_root_squash,no_subtree_check)
実際nfsサーバー側で見てる限り、iowaitなんか全くないし
その他負荷もさっぱりなんですよね。
深夜の無負荷時にhdparmでも実行してみます。
2013/02/08(金) 10:59:43.83ID:EJKL/a7r
これは確かにネタが少なくて調べるの大変なんですが、
NFS マウントオプション tcp
これでぐぐったら出てくるよ。(修行中とか言われてリンク貼れなかったorz)
この辺りに書いてあるです。
NFS マウントオプション tcp
これでぐぐったら出てくるよ。(修行中とか言われてリンク貼れなかったorz)
この辺りに書いてあるです。
2013/02/10(日) 01:50:32.82ID:LJwjzQu7
さくらとかの、VPSってKVMつかっているんでしょ
仮想マシンイメージファイルのダウンロード、バックアップって、許可されていないんだろうか
仮想マシンイメージファイルのダウンロード、バックアップって、許可されていないんだろうか
2013/02/10(日) 22:37:49.70ID:UUWVgmws
自分でバックアップとったのをダウンロードして
手元のkvmで動かしたけど、許可必要だったのかー
手元のkvmで動かしたけど、許可必要だったのかー
2013/02/10(日) 23:26:32.03ID:LJwjzQu7
>>482
仮想マシンイメージファイルのレベルで、ダウンロードできるんだ?
仮想マシンイメージファイルのレベルで、ダウンロードできるんだ?
2013/02/10(日) 23:44:05.39ID:V8FzsEi4
仮想マシンイメージのダウンロード、アップロード機能提供したら、
-ちょっとでも価格の安い事業者へユーザーが引っ越しちゃう
-繁忙期以外にも無駄に契約させておく事が出来なくなる
なので、余程自信のあるところ以外はやらないでしょ
一応、Amazonが(Xenだけど)提供してたはず。他は聞いたこと無い
-ちょっとでも価格の安い事業者へユーザーが引っ越しちゃう
-繁忙期以外にも無駄に契約させておく事が出来なくなる
なので、余程自信のあるところ以外はやらないでしょ
一応、Amazonが(Xenだけど)提供してたはず。他は聞いたこと無い
2013/02/11(月) 00:31:05.13ID:Cpvy0uGk
さくらのクラウドは対応してるよ。
2013/02/11(月) 14:07:29.26ID:3/TB2HI+
2013/02/11(月) 15:06:50.87ID:Cpvy0uGk
>>486
VPSはできない。
VPSはできない。
2013/02/11(月) 19:36:49.11ID:3/TB2HI+
○さくらのクラウド
×さくらのVPS
同じものだと思っていました。
ちがうってことですね?
×さくらのVPS
同じものだと思っていました。
ちがうってことですね?
2013/02/11(月) 19:37:53.74ID:3/TB2HI+
クラウドの定義ってあるんですか
VPSのことがクラウドだと思っていた
VPSのことがクラウドだと思っていた
2013/02/11(月) 19:41:52.54ID:u2cb6J4c
ぐぐればすぐわかることをいちいち聞くキチガイは
死んだほうがいいと思うよ。
死んだほうがいいと思うよ。
2013/02/11(月) 19:46:46.29ID:3/TB2HI+
K O W A I !
2013/02/16(土) 00:39:37.80ID:dPtclbyw
KVM使ってて、たまにVirtual Machine Manager越しに
This usually means that QEMU or KVM is not installed on your machine, or the KVM kernel modules are not loaded.
って出て新規ゲストが作れなかったり、マイグレーション出来なくなることってない?
調べてもわかんねーんだが。
ログにもたいした内容出てないし。
This usually means that QEMU or KVM is not installed on your machine, or the KVM kernel modules are not loaded.
って出て新規ゲストが作れなかったり、マイグレーション出来なくなることってない?
調べてもわかんねーんだが。
ログにもたいした内容出てないし。
2013/02/22(金) 14:23:41.62ID:2+V5LRUA
ホストとゲストに同じディスクの同じパーティションをマウントしてます.
片方でそのパーティションを変更しても,もう片方ではその変更が
同期されないんですけど,同期させるにはなにかオプションとか
必要ですか?
片方でそのパーティションを変更しても,もう片方ではその変更が
同期されないんですけど,同期させるにはなにかオプションとか
必要ですか?
2013/02/22(金) 16:52:21.66ID:Zu99WWbz
何がどうなってんのか詳しく書かないと解らんです。
どうやってマウントしてるのか、ゲストのOSは何なのか、
何をマウントしてるのか。
どうやってマウントしてるのか、ゲストのOSは何なのか、
何をマウントしてるのか。
2013/02/22(金) 17:04:47.58ID:2+V5LRUA
>>494
どうも,詳しく書かせてもらいます.
OSはホスト,ゲスト共に Debian squeeze です.
「ホストの /dev/sdf というディスクをホスト,ゲスト両方で使いたい」というのが目的です.
/dev/sdf は3TBのHDDでパーティションは1つのみ,ファイルシステムはext4でフォーマットしてます.
ホストでは普通に
host# mount /dev/sdf1 /mnt
でマウントしていて,中身がきちんと見れます.
ゲストの方は,libvirt で /dev/sdf を disk device として接続しており,
ゲストでは /dev/vdd として認識されています.これで
guest# mount /dev/vdd1 /mnt
とやると普通にマウントができて,最初にマウントした時は両者とも
/mnt 内のファイルは一致していました.
しかし,片方で新しいファイルを作ったり削除しても,もう片方のほうでは
それが反映されません.というのが問題点です.
mount のオプションかなー,とおもって どちらのマウントも sync にして見ましたが,
結果変わらずでした.なにかご意見お願いします.
どうも,詳しく書かせてもらいます.
OSはホスト,ゲスト共に Debian squeeze です.
「ホストの /dev/sdf というディスクをホスト,ゲスト両方で使いたい」というのが目的です.
/dev/sdf は3TBのHDDでパーティションは1つのみ,ファイルシステムはext4でフォーマットしてます.
ホストでは普通に
host# mount /dev/sdf1 /mnt
でマウントしていて,中身がきちんと見れます.
ゲストの方は,libvirt で /dev/sdf を disk device として接続しており,
ゲストでは /dev/vdd として認識されています.これで
guest# mount /dev/vdd1 /mnt
とやると普通にマウントができて,最初にマウントした時は両者とも
/mnt 内のファイルは一致していました.
しかし,片方で新しいファイルを作ったり削除しても,もう片方のほうでは
それが反映されません.というのが問題点です.
mount のオプションかなー,とおもって どちらのマウントも sync にして見ましたが,
結果変わらずでした.なにかご意見お願いします.
2013/02/22(金) 17:15:57.85ID:2+V5LRUA
また,/dev/sdf のディスク以外もゲストに接続しているので,
そのディスクでもホスト,ゲスト両方でマウントして,
同様に内容を編集してみましたが,やはり内容の編集は
反映されませんでした.特定のディスクの問題という
わけではないようです.
今までは各ディスクはゲストのみで使うようにしていて,
ゲスト,ホスト両方で使う用途がなかったので気づきませんでした.
そのディスクでもホスト,ゲスト両方でマウントして,
同様に内容を編集してみましたが,やはり内容の編集は
反映されませんでした.特定のディスクの問題という
わけではないようです.
今までは各ディスクはゲストのみで使うようにしていて,
ゲスト,ホスト両方で使う用途がなかったので気づきませんでした.
2013/02/22(金) 17:20:25.80ID:2+V5LRUA
連レスすいません.
詳しいバージョンを書いておきます.
デフォルトの sueeze の kvm と libvirt が古かったので,
backports の新しいものをインストールしています.
カーネル: 2.6.32-5-amd64
kvm: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-5~bpo60+1, Debian)
libvirt: 0.9.12
詳しいバージョンを書いておきます.
デフォルトの sueeze の kvm と libvirt が古かったので,
backports の新しいものをインストールしています.
カーネル: 2.6.32-5-amd64
kvm: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-5~bpo60+1, Debian)
libvirt: 0.9.12
2013/02/22(金) 18:27:41.60ID:Xu/vRH7T
共有想定してないファイルシステムを複数箇所からマウントすると壊れないか?
2013/02/22(金) 19:10:09.21ID:4MroaQFK
クラスタファイルシステム使わないとダメかと。でもNFS使った方がお手軽かも
2013/02/22(金) 19:37:40.04ID:2+V5LRUA
>>498-499
なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.
とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや.
なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.
とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや.
2013/02/22(金) 23:15:16.12ID:wscWw5WI
KVMでvirtualbox用のかそーディスクの.OVAを
インポートして使えたりできないんですかね?
インポートして使えたりできないんですかね?
2013/02/22(金) 23:27:42.43ID:7MDnyQx1
>>500
なんでやねーん
なんでやねーん
2013/02/22(金) 23:59:52.44ID:2+V5LRUA
2013/02/23(土) 00:01:52.48ID:H0h2xM9L
sambaで共有したいけど、ホストにsamba入れたくないならそれでおkなような
505503
2013/02/23(土) 01:34:08.38ID:VIKqv7zQ ちょっと考えなおして,
ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画
のほうがいいかと思い始めた.
で,ちょっと聞きたいんだけど,
SAMBA 公開するゲストが起動したタイミングで,
自動的にホストに smbmount させることってできるかな?
ゲストからホストの操作って可能?
ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画
のほうがいいかと思い始めた.
で,ちょっと聞きたいんだけど,
SAMBA 公開するゲストが起動したタイミングで,
自動的にホストに smbmount させることってできるかな?
ゲストからホストの操作って可能?
2013/02/23(土) 02:03:49.17ID:K/wRctdB
>>505
そうそう
ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX
これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。
そうそう
ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX
これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。
2013/02/23(土) 02:34:17.03ID:VIKqv7zQ
>>506
うむ,やっぱり ssh か.まあそれが楽か.
ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの?
うむ,やっぱり ssh か.まあそれが楽か.
ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの?
2013/02/23(土) 02:39:18.19ID:K/wRctdB
mountオプションにnoautoでいけるんじゃないかな
2013/02/23(土) 02:51:04.94ID:VIKqv7zQ
2013/02/23(土) 14:06:52.17ID:ZRdOiKVb
ここにあんま書かれないけど、KVMもかなり新機能出てきてるっぽいね。
2013/02/23(土) 15:38:53.21ID:VbcJVGPt
2013/02/23(土) 15:50:29.21ID:YSd8r4L6
無知を自慢されても困りますぅ
2013/02/23(土) 19:36:10.49ID:pxCX6VeX
2013/02/24(日) 00:42:57.68ID:Kk3axBme
よっこら
性能を改善したオープンソースのエミュレータ「QEMU 1.4」が公開 - SourceForge.JP Magazine : オープンソースの話題満載
http://sourceforge.jp/magazine/13/02/19/006211
性能を改善したオープンソースのエミュレータ「QEMU 1.4」が公開 - SourceForge.JP Magazine : オープンソースの話題満載
http://sourceforge.jp/magazine/13/02/19/006211
2013/02/24(日) 09:58:37.40ID:poWB60P8
516511
2013/02/24(日) 13:04:25.61ID:TrfgiyV9 さくらVPSってのは、qemuっぽいみたいですね。失礼いたしました。
2013/02/24(日) 13:17:29.57ID:VH5HcKPu
いやいや、思うのは勝手だからいいですよ
だたあんま偉そうにすんな
だたあんま偉そうにすんな
2013/03/08(金) 23:23:58.14ID:AeeaW3/j
一台のサーバーにkvmでホストOSとしてdebianとWindowsServerを入れて、 両方Webサーバを動かそうとしてるんだけど
2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる?
ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど
サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・
2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる?
ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど
サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・
2013/03/08(金) 23:34:46.96ID:1loOFSwU
2013/03/09(土) 00:21:39.14ID:1EKqgfpG
きっとマルチブート環境
2013/03/09(土) 00:49:32.66ID:0yK7mC13
kvmなんか使わなくても、iisでよくね?
なんで1台のwebサーバで2サイトやりたくないのか解らんけど、
ホストヘッダー設定したら目的は達成できるでしょ。
全然問題ないからやってみ。
なんで1台のwebサーバで2サイトやりたくないのか解らんけど、
ホストヘッダー設定したら目的は達成できるでしょ。
全然問題ないからやってみ。
2013/03/09(土) 02:29:55.08ID:g5Zjov3F
2つのゲストOSの間違いだったしにたい。
素直にiisでやります。
素直にiisでやります。
523login:Penguin
2013/03/11(月) 23:24:25.85ID:G6kbvRfs qemu-kvmを-no-kvmオプションでVBOX上のCentOS6で動かしたいのですが可能ですか?
virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。
長いオプションを指定して起動するしか方法がないでしょうか?
virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。
長いオプションを指定して起動するしか方法がないでしょうか?
2013/03/13(水) 20:28:30.25ID:ddqrRsai
vmのネストをやりたいんだと思うけど、
条件をぶった切って、
ホスト機→vmware player→fedora17以上→kvm
なら実現できるはず。
バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk
Cent6でもネストは可能だけど、マンドクセので勧めません
上記はできるはずってだけで、自分もこれから実施予定
条件をぶった切って、
ホスト機→vmware player→fedora17以上→kvm
なら実現できるはず。
バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk
Cent6でもネストは可能だけど、マンドクセので勧めません
上記はできるはずってだけで、自分もこれから実施予定
2013/03/13(水) 20:38:54.33ID:SHSmxLbV
ごめん、ボケてました。
ホスト機→VMWwarePlayer→Cent6→KVM
これでOKだね。
VMWwarePlayerなら仮想化支援引き継げます。
ホスト機→VMWwarePlayer→Cent6→KVM
これでOKだね。
VMWwarePlayerなら仮想化支援引き継げます。
526login:Penguin
2013/03/14(木) 01:35:34.78ID:1pgF5NI7 >>525
VMPlayerでできました。ありがとうございます。
VMPlayerでできました。ありがとうございます。
527login:Penguin
2013/03/28(木) 11:24:35.73ID:0oUKlWo6 CentOS6.3 x86_64にyumでKVM入れたんだけど
qemu-nbdはどこにあるんでしょ?
リポジトリあれば教えてください
qemu-nbdはどこにあるんでしょ?
リポジトリあれば教えてください
2013/03/28(木) 21:51:20.93ID:LU0XAv6w
"qemu-nbd centos"はぐぐってみたの?
529login:Penguin
2013/03/29(金) 12:03:55.21ID:xPDMNO1O ググっても出てこないですねぇ
# yum list | grep qemu
gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3
qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
EPELにもないみたいです
# yum list | grep qemu
gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3
qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
EPELにもないみたいです
2013/03/29(金) 16:22:31.03ID:xPDMNO1O
qemu-nbdなさそうなのでソースからコンパイルしました
お騒がせしました
お騒がせしました
2013/03/29(金) 19:54:55.00ID:ndurgvQR
なんか殺伐
2013/03/30(土) 13:05:23.09ID:ee0pZ3h1
>>529
パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ
Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64
パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ
Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64
2013/04/06(土) 08:09:27.87ID:oUfXD2kP
ググって単語さえヒットすれば存在するという・・・
なんというかとてもメルヘンで幻想的な・・・
なんというかとてもメルヘンで幻想的な・・・
2013/04/06(土) 22:34:54.25ID:5/9SBv43
つか
普通に RPM Search で検索したら
10秒で見つかるじゃねーかw
普通に RPM Search で検索したら
10秒で見つかるじゃねーかw
2013/04/23(火) 02:01:30.43ID:KJdVms1h
すんません質問です
KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが
普通にcpしても壊れますよね
LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか?
もし他に方法があれば教えてください
KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが
普通にcpしても壊れますよね
LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか?
もし他に方法があれば教えてください
2013/04/23(火) 08:43:00.41ID:EGsKWz2v
VMレベルでIOをサスペンドして、スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいいよ。
理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。
理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。
2013/04/23(火) 09:34:06.19ID:KJdVms1h
すみません
>>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい
がよくわからないんですが、つまりどういうことでしょうか?
>>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい
がよくわからないんですが、つまりどういうことでしょうか?
2013/04/23(火) 16:25:17.11ID:EGsKWz2v
流れとしては
1. VMが例えばイメージファイルfoo.img上で動いている
2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする
3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる
4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す
5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す
ということ。
昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。
1. VMが例えばイメージファイルfoo.img上で動いている
2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする
3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる
4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す
5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す
ということ。
昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。
2013/04/23(火) 20:26:42.05ID:6kq/oZZ+
Rawってスナップショットとれるん?
Qcow2だけかと思ってた。
LVMでスナップショットとるのが良いような気がする。
Qcow2だけかと思ってた。
LVMでスナップショットとるのが良いような気がする。
2013/04/23(火) 22:33:26.30ID:EGsKWz2v
そりゃゲストOSかホストOSの中でそういう操作ができるのなら、
アプリのスナップショット機能使う理由はあんまりない。
アプリのスナップショット機能使う理由はあんまりない。
2013/04/25(木) 00:54:12.31ID:ll+bCTSm
ありがとうございます
rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです)
スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね
マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね
rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです)
スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね
マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね
2013/04/28(日) 21:48:57.77ID:TIPSb/v1
長文失礼します。
当方KVMでiscsiを使って共有ストレージを組もうとしています。
多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、
ストレージはiscsiターゲット、KVM2台はイニシエータとします。
OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。
1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、
マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、
ゲストがIOエラーを吐きます。
iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。
(それなのに、なんでマイグレーションが完走するのか謎)
iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。
現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、
中々上手いこといかずに悩んでおります。
当方KVMでiscsiを使って共有ストレージを組もうとしています。
多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、
ストレージはiscsiターゲット、KVM2台はイニシエータとします。
OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。
1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、
マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、
ゲストがIOエラーを吐きます。
iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。
(それなのに、なんでマイグレーションが完走するのか謎)
iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。
現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、
中々上手いこといかずに悩んでおります。
2013/04/28(日) 23:43:13.33ID:g0SfUFFc
2013/04/29(月) 06:21:39.09ID:huGBYEKF
エスパーありがとうございます。
その辺りの手順をきちんと書いてなくてすみませんでした。
ターゲットホスト上でscsiターゲットの設定
↓
イニシエータからターゲットを参照
↓
イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り)
↓
イニシエータホスト上で、認識したブロックデバイスをフォーマット
例:mkfs -t ext4 /dev/sda1
↓
イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる)
例:mount /dev/sda1 /mnt
↓
virt-managerを使ってローカルディレクトリとしてプールに追加
という手順で行っていました。
今度はブロックデバイスでそのままプールに追加という手順でやってみます。
また結果報告しますmm
その辺りの手順をきちんと書いてなくてすみませんでした。
ターゲットホスト上でscsiターゲットの設定
↓
イニシエータからターゲットを参照
↓
イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り)
↓
イニシエータホスト上で、認識したブロックデバイスをフォーマット
例:mkfs -t ext4 /dev/sda1
↓
イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる)
例:mount /dev/sda1 /mnt
↓
virt-managerを使ってローカルディレクトリとしてプールに追加
という手順で行っていました。
今度はブロックデバイスでそのままプールに追加という手順でやってみます。
また結果報告しますmm
2013/04/29(月) 11:19:03.02ID:QbAX9dsD
ホスト2台から同じiSCSIボリュームをマウントして使うってことよね
iSCSIのボリュームを複数台から共有する場合は、ext4じゃなくて共有に
対応したGFS2みたいなファイルシステム使わないとダメなはず。
ttp://aikotobaha.blogspot.jp/2011/07/rhel61-resilient-storagegfs2.html
同じ事やってファイルシステムぶっ壊したのでiSCSIペンディングしてるw
iSCSIのボリュームを複数台から共有する場合は、ext4じゃなくて共有に
対応したGFS2みたいなファイルシステム使わないとダメなはず。
ttp://aikotobaha.blogspot.jp/2011/07/rhel61-resilient-storagegfs2.html
同じ事やってファイルシステムぶっ壊したのでiSCSIペンディングしてるw
2013/04/29(月) 11:57:13.04ID:huGBYEKF
こんにちは、542です。
>> 543
> ブロックデバイスそのままつかいな。
これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、
そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。
/etc/tgt/targets.confの内容を書くと、
<target iqn.2013-04.com.iscsi-tgt:tgt>
backing-store /mnt/test.img
backing-store /mnt/foo.img
backing-store /mnt/hoge.img
・・・
・・
・
write-cache off
</target>
というように、新しいVMを作るたびに書き連ねて行くと。
なんかかなり面倒な感じですが、誤解してますか?
>> 543
> ブロックデバイスそのままつかいな。
これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、
そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。
/etc/tgt/targets.confの内容を書くと、
<target iqn.2013-04.com.iscsi-tgt:tgt>
backing-store /mnt/test.img
backing-store /mnt/foo.img
backing-store /mnt/hoge.img
・・・
・・
・
write-cache off
</target>
というように、新しいVMを作るたびに書き連ねて行くと。
なんかかなり面倒な感じですが、誤解してますか?
2013/04/29(月) 12:05:45.08ID:huGBYEKF
>> 545
アドバイスありがとうございます。
取り合えず上のやり方でイメージを作って、
それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、
新しいVMのイメージ追加なんかが上手くいかない状態です。
(これはiscsiの使い方判ってないだけだと思います)
VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。
どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、
VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。
ここら辺はスレチですが。
なんか、かなり斜め上いってる予感。
アドバイスありがとうございます。
取り合えず上のやり方でイメージを作って、
それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、
新しいVMのイメージ追加なんかが上手くいかない状態です。
(これはiscsiの使い方判ってないだけだと思います)
VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。
どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、
VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。
ここら辺はスレチですが。
なんか、かなり斜め上いってる予感。
2013/04/29(月) 21:59:33.10ID:huGBYEKF
こんばんは、542です。
なんとか形になった(?)ので、ご報告いたします。
まずiSCSIターゲット(ストレージ)での作業
/mntにゲスト用イメージ作成
# dd if=/dev/zero of=test0.img bs=1M count=10000
/etc/tgt/targets.confに以下を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
# /etc/init.d/tgtd start
次にイニシエータ(KVMホスト)での作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0
virt-managerからiscsiストレージをプールに追加
ターゲットパス:/dev/disk/by-path
ホスト:ターゲットのIPアドレス
ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0
これで追加が完了するはず。
なんとか形になった(?)ので、ご報告いたします。
まずiSCSIターゲット(ストレージ)での作業
/mntにゲスト用イメージ作成
# dd if=/dev/zero of=test0.img bs=1M count=10000
/etc/tgt/targets.confに以下を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
# /etc/init.d/tgtd start
次にイニシエータ(KVMホスト)での作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0
virt-managerからiscsiストレージをプールに追加
ターゲットパス:/dev/disk/by-path
ホスト:ターゲットのIPアドレス
ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0
これで追加が完了するはず。
2013/04/29(月) 22:04:24.97ID:huGBYEKF
続いてゲストイメージの追加方法。
ターゲットで新しいイメージファイルを作る。
# dd if=/dev/zero of=test1.img bs=1M count=10000
/etc/tgt/targets.confに新しいターゲット分を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
<target iqn.2013-04.com.iscsi-tgt:lun-1>
backing-store /mnt/test1.img
write-cache off
</target>
confのアップデート
# tgt-admin -update ALL
イニシエータでの作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1
上と同じ要領で、virt-managerからiscsiをストレージプールに追加。
こんな結論に至ったんですが、もっと良い方法ないですか・・・。
ターゲットで新しいイメージファイルを作る。
# dd if=/dev/zero of=test1.img bs=1M count=10000
/etc/tgt/targets.confに新しいターゲット分を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
<target iqn.2013-04.com.iscsi-tgt:lun-1>
backing-store /mnt/test1.img
write-cache off
</target>
confのアップデート
# tgt-admin -update ALL
イニシエータでの作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1
上と同じ要領で、virt-managerからiscsiをストレージプールに追加。
こんな結論に至ったんですが、もっと良い方法ないですか・・・。
2013/04/30(火) 01:17:07.34ID:Ls3ntxnl
どうしてもiSCSIにこだわるならclvm使うかな
でもNFSのが楽だよ
でもNFSのが楽だよ
2013/04/30(火) 08:09:39.48ID:lMty1lR3
おはようございます。542です。
ゲストのディスクIOの帯域制限をしたくて、
cgroup→iscsiと行き着いたんです。
NFSだと、ホストから見るとネットワークIO扱いですよね。
ゲストのディスクIOの帯域制限をしたくて、
cgroup→iscsiと行き着いたんです。
NFSだと、ホストから見るとネットワークIO扱いですよね。
2013/04/30(火) 09:49:11.09ID:K8i5YuLi
>>549
ターゲットも LVM 使ったほうがいいよ。
ターゲットも LVM 使ったほうがいいよ。
2013/04/30(火) 10:41:37.16ID:lMty1lR3
こんにちは、542です。
>>552
ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。
LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?
自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?
/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>
↓
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00 <-- 論理ボリューム
write-cache off
</target>
みたいな書き方になると。
>>552
ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。
LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?
自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?
/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>
↓
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00 <-- 論理ボリューム
write-cache off
</target>
みたいな書き方になると。
2013/04/30(火) 10:54:30.56ID:K8i5YuLi
>>553
それで、OK
それで、OK
2013/04/30(火) 11:41:49.19ID:lMty1lR3
2013/05/04(土) 23:21:46.12ID:jGMt74IN
kvm上にXP入れてqxlドライバ入れてspiceで動かしてみたがやっぱ
windows使うならvmwareの方がいいな
windows使うならvmwareの方がいいな
2013/05/05(日) 09:35:10.63ID:2fREtWNb
WindowsならRDP使えばいいじゃん
VMwareでも普通そうするだろ
VMwareでも普通そうするだろ
2013/05/06(月) 03:11:04.66ID:YM4l0zXI
KVMでVMwareのvCenter Server+Clientみたいに、複数のKVMホストをまとめて管理できるツールはまだないの?
OpenStackとかCloudStackは違うっぽいし・・・。
oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。
できればUbuntuで動作するもの。
OpenStackとかCloudStackは違うっぽいし・・・。
oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。
できればUbuntuで動作するもの。
2013/05/06(月) 09:46:32.79ID:xn6mUUYh
>>558
virsh
virsh
2013/05/06(月) 11:12:31.93ID:Sm68VQ/P
2013/05/06(月) 13:43:07.44ID:YM4l0zXI
2013/05/06(月) 16:28:51.54ID:I0TfZVDW
探すと結構あるから色々試して自分に合ったの使うといいよ
2013/05/06(月) 17:28:37.32ID:5DS/UBKc
>>557
SPICEはGNOME?向けかな
SPICEはGNOME?向けかな
2013/05/06(月) 19:53:14.64ID:M8Arsomv
Xでドライバ持ってるからGNOME関係ないんじゃ
2013/05/06(月) 23:46:02.22ID:5DS/UBKc
ん!どういうこと?
2013/05/07(火) 19:49:10.05ID:VCDV4BQZ
>>565
http://www.linux-kvm.org/page/SPICE
http://spice-space.org/
SPICEは従来の仮想デスクトッププロトコルと違って、マルチモニタとか動画再生支援・リモートUSB対応とかWindowsゲストでもいろいろ便利
http://www.linux-kvm.org/page/SPICE
http://spice-space.org/
SPICEは従来の仮想デスクトッププロトコルと違って、マルチモニタとか動画再生支援・リモートUSB対応とかWindowsゲストでもいろいろ便利
2013/05/08(水) 10:14:54.72ID:VM9WDrCF
えーっと、RDP……
568login:Penguin
2013/05/09(木) 15:04:13.10ID:t1+IozcG >>558
ProxmoxVE
ProxmoxVE
2013/05/13(月) 09:01:46.97ID:P1qbqJQM
こんばんは、542です。
おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。
ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、
そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。
やっていることはこうです。
/dev/sda4からLVを切り出します。
仮に/dev/test/drbdとします。
で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。
仮に/dev/drbd0とします。
さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。
ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、
セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。
/dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね?
ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか?
おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。
ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、
そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。
やっていることはこうです。
/dev/sda4からLVを切り出します。
仮に/dev/test/drbdとします。
で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。
仮に/dev/drbd0とします。
さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。
ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、
セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。
/dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね?
ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 石破首相「政治家が国民に受けること言い始めると国は滅びる」 [少考さん★]
- 元フジ・中井美穂アナ 不妊治療断念 夫・古田敦也の子を残せず 「役割を果たしてないなという申し訳なさ、引け目は今でも」 [冬月記者★]
- 【フジ】中居正広氏の代理人弁護士が第三者委員会報告に反論「性暴力の実態は確認できず」★18 [Ailuropoda melanoleuca★]
- 【野球】セ・リーグ C 5x-4 G [5/12] カープ延長12回モンテロがサヨナラタイムリー!岡本プロ初勝利 巨人 [鉄チーズ烏★]
- 日産赤字、6708億円 ★2 [首都圏の虎★]
- 【東京新聞】あだ名は「うんこさん」 望月衣塑子記者のランドセルはひとりだけ茶色だった 「何を選ぼうと差別されないこと」 [nita★]
- とうふさんのお🏡
- イタリップ「日本人の見分け方見つけたw」 [875588627]
- 高市早苗「法律を作ろうとする度、“日本国憲法”による制約と誓約に苦しんできた」 [511633375]
- GLAYやミスチルを馬鹿にするけど20年後にもAdoや米津やYOASOBIが残ってると思うか? [153490809]
- 神「5000万円あげるけど3ヶ月以内に使い切れ」 ←どうする?
- お前らがこのウサギにしたいこと