X



トップページLinux
1002コメント334KB
KVM(Kernel based Virtual Machine)を語れ 2
■ このスレッドは過去ログ倉庫に格納されています
0500login:Penguin
垢版 |
2013/02/22(金) 19:37:40.04ID:2+V5LRUA
>>498-499
なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.

とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや.
0501login:Penguin
垢版 |
2013/02/22(金) 23:15:16.12ID:wscWw5WI
KVMでvirtualbox用のかそーディスクの.OVAを
インポートして使えたりできないんですかね?
0503login:Penguin
垢版 |
2013/02/22(金) 23:59:52.44ID:2+V5LRUA
>>502
え,だめだった?
NFS 共有できない Windows マシンとかもあるから SAMBA で
公開したいんだけど.あとユーザ認証したいし.
0504login:Penguin
垢版 |
2013/02/23(土) 00:01:52.48ID:H0h2xM9L
sambaで共有したいけど、ホストにsamba入れたくないならそれでおkなような
0505503
垢版 |
2013/02/23(土) 01:34:08.38ID:VIKqv7zQ
ちょっと考えなおして,
ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画
のほうがいいかと思い始めた.

で,ちょっと聞きたいんだけど,
SAMBA 公開するゲストが起動したタイミングで,
自動的にホストに smbmount させることってできるかな?
ゲストからホストの操作って可能?
0506login:Penguin
垢版 |
2013/02/23(土) 02:03:49.17ID:K/wRctdB
>>505
そうそう

ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX

これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。
0507login:Penguin
垢版 |
2013/02/23(土) 02:34:17.03ID:VIKqv7zQ
>>506
うむ,やっぱり ssh か.まあそれが楽か.

ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの?
0508login:Penguin
垢版 |
2013/02/23(土) 02:39:18.19ID:K/wRctdB
mountオプションにnoautoでいけるんじゃないかな
0509login:Penguin
垢版 |
2013/02/23(土) 02:51:04.94ID:VIKqv7zQ
>>508
おー,なるほどー.そんなオプションがあったのか.
ごめんなさい,mount のオプション多すぎてよく覚えとらん.
アドバイスありがとう.その方針でやってみます.
0510login:Penguin
垢版 |
2013/02/23(土) 14:06:52.17ID:ZRdOiKVb
ここにあんま書かれないけど、KVMもかなり新機能出てきてるっぽいね。
0511login:Penguin
垢版 |
2013/02/23(土) 15:38:53.21ID:VbcJVGPt
>>510
例えば?
それにしても、企業がqemu-KVMなんて使うとは思えない。
0512login:Penguin
垢版 |
2013/02/23(土) 15:50:29.21ID:YSd8r4L6
無知を自慢されても困りますぅ
0516511
垢版 |
2013/02/24(日) 13:04:25.61ID:TrfgiyV9
さくらVPSってのは、qemuっぽいみたいですね。失礼いたしました。
0517login:Penguin
垢版 |
2013/02/24(日) 13:17:29.57ID:VH5HcKPu
いやいや、思うのは勝手だからいいですよ
だたあんま偉そうにすんな
0518login:Penguin
垢版 |
2013/03/08(金) 23:23:58.14ID:AeeaW3/j
一台のサーバーにkvmでホストOSとしてdebianとWindowsServerを入れて、 両方Webサーバを動かそうとしてるんだけど
2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる?
ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど
サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・
0520login:Penguin
垢版 |
2013/03/09(土) 00:21:39.14ID:1EKqgfpG
きっとマルチブート環境
0521login:Penguin
垢版 |
2013/03/09(土) 00:49:32.66ID:0yK7mC13
kvmなんか使わなくても、iisでよくね?
なんで1台のwebサーバで2サイトやりたくないのか解らんけど、
ホストヘッダー設定したら目的は達成できるでしょ。
全然問題ないからやってみ。
0522login:Penguin
垢版 |
2013/03/09(土) 02:29:55.08ID:g5Zjov3F
2つのゲストOSの間違いだったしにたい。
素直にiisでやります。
0523login:Penguin
垢版 |
2013/03/11(月) 23:24:25.85ID:G6kbvRfs
qemu-kvmを-no-kvmオプションでVBOX上のCentOS6で動かしたいのですが可能ですか?
virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。
長いオプションを指定して起動するしか方法がないでしょうか?
0524login:Penguin
垢版 |
2013/03/13(水) 20:28:30.25ID:ddqrRsai
vmのネストをやりたいんだと思うけど、
条件をぶった切って、
ホスト機→vmware player→fedora17以上→kvm
なら実現できるはず。
バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk
Cent6でもネストは可能だけど、マンドクセので勧めません
上記はできるはずってだけで、自分もこれから実施予定
0525login:Penguin
垢版 |
2013/03/13(水) 20:38:54.33ID:SHSmxLbV
ごめん、ボケてました。

ホスト機→VMWwarePlayer→Cent6→KVM

これでOKだね。

VMWwarePlayerなら仮想化支援引き継げます。
0526login:Penguin
垢版 |
2013/03/14(木) 01:35:34.78ID:1pgF5NI7
>>525
VMPlayerでできました。ありがとうございます。
0527login:Penguin
垢版 |
2013/03/28(木) 11:24:35.73ID:0oUKlWo6
CentOS6.3 x86_64にyumでKVM入れたんだけど
qemu-nbdはどこにあるんでしょ?
リポジトリあれば教えてください
0528login:Penguin
垢版 |
2013/03/28(木) 21:51:20.93ID:LU0XAv6w
"qemu-nbd centos"はぐぐってみたの?
0529login:Penguin
垢版 |
2013/03/29(金) 12:03:55.21ID:xPDMNO1O
ググっても出てこないですねぇ
# yum list | grep qemu
gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3
qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
EPELにもないみたいです
0530login:Penguin
垢版 |
2013/03/29(金) 16:22:31.03ID:xPDMNO1O
qemu-nbdなさそうなのでソースからコンパイルしました
お騒がせしました
0532login:Penguin
垢版 |
2013/03/30(土) 13:05:23.09ID:ee0pZ3h1
>>529
パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ

Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64
0533login:Penguin
垢版 |
2013/04/06(土) 08:09:27.87ID:oUfXD2kP
ググって単語さえヒットすれば存在するという・・・
なんというかとてもメルヘンで幻想的な・・・
0534login:Penguin
垢版 |
2013/04/06(土) 22:34:54.25ID:5/9SBv43
つか
普通に RPM Search で検索したら
10秒で見つかるじゃねーかw
0535login:Penguin
垢版 |
2013/04/23(火) 02:01:30.43ID:KJdVms1h
すんません質問です
KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが
普通にcpしても壊れますよね
LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか?
もし他に方法があれば教えてください
0536login:Penguin
垢版 |
2013/04/23(火) 08:43:00.41ID:EGsKWz2v
VMレベルでIOをサスペンドして、スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいいよ。

理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。
0537login:Penguin
垢版 |
2013/04/23(火) 09:34:06.19ID:KJdVms1h
すみません

>>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい

がよくわからないんですが、つまりどういうことでしょうか?
0538login:Penguin
垢版 |
2013/04/23(火) 16:25:17.11ID:EGsKWz2v
流れとしては

1. VMが例えばイメージファイルfoo.img上で動いている
2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする
3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる
4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す
5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す

ということ。

昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。
0539login:Penguin
垢版 |
2013/04/23(火) 20:26:42.05ID:6kq/oZZ+
Rawってスナップショットとれるん?
Qcow2だけかと思ってた。

LVMでスナップショットとるのが良いような気がする。
0540login:Penguin
垢版 |
2013/04/23(火) 22:33:26.30ID:EGsKWz2v
そりゃゲストOSかホストOSの中でそういう操作ができるのなら、
アプリのスナップショット機能使う理由はあんまりない。
0541login:Penguin
垢版 |
2013/04/25(木) 00:54:12.31ID:ll+bCTSm
ありがとうございます
rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです)
スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね
マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね
0542login:Penguin
垢版 |
2013/04/28(日) 21:48:57.77ID:TIPSb/v1
長文失礼します。
当方KVMでiscsiを使って共有ストレージを組もうとしています。
多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、
ストレージはiscsiターゲット、KVM2台はイニシエータとします。
OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。

1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、
マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、
ゲストがIOエラーを吐きます。
iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。

原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。
(それなのに、なんでマイグレーションが完走するのか謎)
iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。

現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、
中々上手いこといかずに悩んでおります。
0543login:Penguin
垢版 |
2013/04/28(日) 23:43:13.33ID:g0SfUFFc
>>542
> iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。

こわれるのあたりまえ。
ブロックデバイスそのままつかいな。
0544login:Penguin
垢版 |
2013/04/29(月) 06:21:39.09ID:huGBYEKF
エスパーありがとうございます。
その辺りの手順をきちんと書いてなくてすみませんでした。

ターゲットホスト上でscsiターゲットの設定

イニシエータからターゲットを参照

イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り)

イニシエータホスト上で、認識したブロックデバイスをフォーマット
例:mkfs -t ext4 /dev/sda1

イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる)
例:mount /dev/sda1 /mnt

virt-managerを使ってローカルディレクトリとしてプールに追加

という手順で行っていました。
今度はブロックデバイスでそのままプールに追加という手順でやってみます。
また結果報告しますmm
0545login:Penguin
垢版 |
2013/04/29(月) 11:19:03.02ID:QbAX9dsD
ホスト2台から同じiSCSIボリュームをマウントして使うってことよね

iSCSIのボリュームを複数台から共有する場合は、ext4じゃなくて共有に
対応したGFS2みたいなファイルシステム使わないとダメなはず。
ttp://aikotobaha.blogspot.jp/2011/07/rhel61-resilient-storagegfs2.html

同じ事やってファイルシステムぶっ壊したのでiSCSIペンディングしてるw
0546login:Penguin
垢版 |
2013/04/29(月) 11:57:13.04ID:huGBYEKF
こんにちは、542です。

>> 543
> ブロックデバイスそのままつかいな。
これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、
そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。

/etc/tgt/targets.confの内容を書くと、

<target iqn.2013-04.com.iscsi-tgt:tgt>
backing-store /mnt/test.img
backing-store /mnt/foo.img
backing-store /mnt/hoge.img
・・・
・・

write-cache off
</target>

というように、新しいVMを作るたびに書き連ねて行くと。
なんかかなり面倒な感じですが、誤解してますか?
0547login:Penguin
垢版 |
2013/04/29(月) 12:05:45.08ID:huGBYEKF
>> 545
アドバイスありがとうございます。

取り合えず上のやり方でイメージを作って、
それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、
新しいVMのイメージ追加なんかが上手くいかない状態です。
(これはiscsiの使い方判ってないだけだと思います)

VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。

どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、
VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。
ここら辺はスレチですが。

なんか、かなり斜め上いってる予感。
0548login:Penguin
垢版 |
2013/04/29(月) 21:59:33.10ID:huGBYEKF
こんばんは、542です。
なんとか形になった(?)ので、ご報告いたします。

まずiSCSIターゲット(ストレージ)での作業
/mntにゲスト用イメージ作成
# dd if=/dev/zero of=test0.img bs=1M count=10000

/etc/tgt/targets.confに以下を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>

# /etc/init.d/tgtd start

次にイニシエータ(KVMホスト)での作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0

virt-managerからiscsiストレージをプールに追加
ターゲットパス:/dev/disk/by-path
ホスト:ターゲットのIPアドレス
ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0

これで追加が完了するはず。
0549login:Penguin
垢版 |
2013/04/29(月) 22:04:24.97ID:huGBYEKF
続いてゲストイメージの追加方法。

ターゲットで新しいイメージファイルを作る。
# dd if=/dev/zero of=test1.img bs=1M count=10000

/etc/tgt/targets.confに新しいターゲット分を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
<target iqn.2013-04.com.iscsi-tgt:lun-1>
backing-store /mnt/test1.img
write-cache off
</target>

confのアップデート
# tgt-admin -update ALL

イニシエータでの作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1

上と同じ要領で、virt-managerからiscsiをストレージプールに追加。
こんな結論に至ったんですが、もっと良い方法ないですか・・・。
0550login:Penguin
垢版 |
2013/04/30(火) 01:17:07.34ID:Ls3ntxnl
どうしてもiSCSIにこだわるならclvm使うかな
でもNFSのが楽だよ
0551login:Penguin
垢版 |
2013/04/30(火) 08:09:39.48ID:lMty1lR3
おはようございます。542です。

ゲストのディスクIOの帯域制限をしたくて、
cgroup→iscsiと行き着いたんです。
NFSだと、ホストから見るとネットワークIO扱いですよね。
0552login:Penguin
垢版 |
2013/04/30(火) 09:49:11.09ID:K8i5YuLi
>>549
ターゲットも LVM 使ったほうがいいよ。
0553login:Penguin
垢版 |
2013/04/30(火) 10:41:37.16ID:lMty1lR3
こんにちは、542です。

>>552
ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。

LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?

自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?

/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img    <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>

<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00   <-- 論理ボリューム
write-cache off
</target>

みたいな書き方になると。
0555login:Penguin
垢版 |
2013/04/30(火) 11:41:49.19ID:lMty1lR3
>>554
大きなヒントをありがとうございます。
リトライして、また結果報告しますmm
0556login:Penguin
垢版 |
2013/05/04(土) 23:21:46.12ID:jGMt74IN
kvm上にXP入れてqxlドライバ入れてspiceで動かしてみたがやっぱ
windows使うならvmwareの方がいいな
0557login:Penguin
垢版 |
2013/05/05(日) 09:35:10.63ID:2fREtWNb
WindowsならRDP使えばいいじゃん
VMwareでも普通そうするだろ
0558login:Penguin
垢版 |
2013/05/06(月) 03:11:04.66ID:YM4l0zXI
KVMでVMwareのvCenter Server+Clientみたいに、複数のKVMホストをまとめて管理できるツールはまだないの?
OpenStackとかCloudStackは違うっぽいし・・・。
oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。
できればUbuntuで動作するもの。
0561login:Penguin
垢版 |
2013/05/06(月) 13:43:07.44ID:YM4l0zXI
558です。
>>559 >>560 ありがとう。

皆詳しいな。VMwareのスレとは雰囲気が違う。
0562login:Penguin
垢版 |
2013/05/06(月) 16:28:51.54ID:I0TfZVDW
探すと結構あるから色々試して自分に合ったの使うといいよ
0564login:Penguin
垢版 |
2013/05/06(月) 19:53:14.64ID:M8Arsomv
Xでドライバ持ってるからGNOME関係ないんじゃ
0565login:Penguin
垢版 |
2013/05/06(月) 23:46:02.22ID:5DS/UBKc
ん!どういうこと?
0567login:Penguin
垢版 |
2013/05/08(水) 10:14:54.72ID:VM9WDrCF
えーっと、RDP……
0568login:Penguin
垢版 |
2013/05/09(木) 15:04:13.10ID:t1+IozcG
>>558
ProxmoxVE
0569login:Penguin
垢版 |
2013/05/13(月) 09:01:46.97ID:P1qbqJQM
こんばんは、542です。

おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。

ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、
そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。

やっていることはこうです。
/dev/sda4からLVを切り出します。
仮に/dev/test/drbdとします。
で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。
仮に/dev/drbd0とします。
さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。

ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、
セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。

/dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね?
ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか?
0570login:Penguin
垢版 |
2013/05/16(木) 16:14:30.78ID:PhyXXppx
kvmホストをCentOSから入れ替えようと思うんだが
ubuntu serverとfedoraどっちがいいかな。
0571login:Penguin
垢版 |
2013/05/16(木) 18:57:17.90ID:+H2FmqS6
CentOSになんか不満があるの?
0572login:Penguin
垢版 |
2013/05/16(木) 19:04:54.82ID:PhyXXppx
>>571
Kernelを入れ替えないと、Intel nestedが使えないのと、
Openvswitchが標準でないところが不満。
0574login:Penguin
垢版 |
2013/05/25(土) 00:37:13.16ID:XbYcB/9E
>>569
セカンダリでそれやるには、プライマリとセカンダリの接続を切らねばならない。
プライマリでやっとけ。
0575login:Penguin
垢版 |
2013/05/25(土) 02:47:29.87ID:jBR2M8yZ
>>568
ありがとう。vSphere Web Clientっぽいですね。試してみます。
0576login:Penguin
垢版 |
2013/06/02(日) 21:28:34.99ID:/QpfH3F2
KVMでwin2003やwin xp を動かすと、
Win側で何もしてなくても(通信やデスクトップ表示)、
ホストのCPU使用率がかなり上がってしまうんですが、
これってゲストOSの問題なんですかね?
CentOS6やUbuntu12を動かしてもこういう現象は起きません。
0577login:Penguin
垢版 |
2013/06/04(火) 03:45:44.85ID:3XWHXsTr
ブリッジ(物理NIC無し)に2ノード以上の仮想マシン追加すると
うまくルーティングできなくなるのですが原因解る人いますかね。

br0(eth0) ----+---- br1(eth1)
           .|
        +---br2----+
        |          .|
tap0(VMA)     tap1(VMB)

こんな感じで br0(eth1)をWANと想定してしてbr0/br2からのトラフィックをSNATしようとしてるのですが、
br0->br1 は問題無くとも tap0/1 -> br1 をルーティングする場合に iptables でログを取ると PHYSOUT=tap0/1
になってしまいパケットがSNATされずにbr1(eth1)に出ていってしまうという状況です。

ちなみにVMA/VMB何れかをシャットダウンすると PHYSOUT=br1 となり想定した通りにルーティング
されるようになります、br0->br1 については問題ありません。
(br0にも何台かVMをぶら下げていますが、こちらはbr2の様な挙動をする事はありませんでした)

KVMではなく物理NICの有り・無しに起因するブリッジの問題だと思うのですけど質問させてください。
0578login:Penguin
垢版 |
2013/06/04(火) 10:43:47.14ID:DxL9xcFl
KVMのVGAパススルー、苦労したけど動いたぜ。
苦労したのはVT-dが動くハードの調達だけだったがな。
0580login:Penguin
垢版 |
2013/06/04(火) 12:18:42.36ID:njnMhcQm
HWとSWの構成も書き記してくれると嬉しいんだよ
0581login:Penguin
垢版 |
2013/06/04(火) 19:35:31.72ID:v6juovnj
kvmスレッド、盛り上がってきたな
ユーザーがだんだん増えてきたのかな
0582login:Penguin
垢版 |
2013/06/05(水) 15:53:04.75ID:ZwfxmbMA
VGAパススルーならML110 G7(C204)+XeonE3(1235)+HD7750でWin8動いたぞ
HD5850は駄目だった拡張ROM読めんのが原因っぽいXもWinもダメ
0583login:Penguin
垢版 |
2013/06/05(水) 22:32:37.13ID:fAYkCvl2
578はML110 G6 + Core i7 870 + HD5450 + Win7
全部古いな。
0584login:Penguin
垢版 |
2013/06/21(金) 09:31:15.30ID:i1WVXxHC
H87のマザボにPCIブリッジがついていて、vt-dを有効にすると、dmesgにこんなん出るんだけど、なんですかね?

[ 0.336527] PCI-DMA: Intel(R) Virtualization Technology for Directed I/O
[ 0.336563] ------------[ cut here ]------------
[ 0.336569] WARNING: at /build/buildd/linux-3.8.0/drivers/pci/search.c:46 pci_find_upstream_pcie_bridge+0x55/0x80()
[ 0.336572] Hardware name: To Be Filled By O.E.M.
[ 0.336573] Modules linked in:
[ 0.336576] Pid: 1, comm: swapper/0 Not tainted 3.8.0-25-generic #37-Ubuntu
[ 0.336578] Call Trace:
[ 0.336582] [<ffffffff810587ef>] warn_slowpath_common+0x7f/0xc0
[ 0.336584] [<ffffffff8105884a>] warn_slowpath_null+0x1a/0x20
[ 0.336587] [<ffffffff8137c345>] pci_find_upstream_pcie_bridge+0x55/0x80
[ 0.336592] [<ffffffff815a25eb>] intel_iommu_add_device+0x4b/0x1f0
[ 0.336594] [<ffffffff81599ff0>] ? bus_set_iommu+0x60/0x60
[ 0.336596] [<ffffffff8159a023>] add_iommu_group+0x33/0x60
[ 0.336600] [<ffffffff8145403d>] bus_for_each_dev+0x5d/0xa0
[ 0.336602] [<ffffffff81599fdb>] bus_set_iommu+0x4b/0x60
[ 0.336606] [<ffffffff81d474b5>] intel_iommu_init+0x34f/0x41d
[ 0.336610] [<ffffffff81d0e3f3>] ? memblock_find_dma_reserve+0x13d/0x13d
[ 0.336613] [<ffffffff81d0e405>] pci_iommu_init+0x12/0x3c
[ 0.336616] [<ffffffff8100215a>] do_one_initcall+0x12a/0x180
[ 0.336619] [<ffffffff81d05d32>] kernel_init_freeable+0x13e/0x1c6
[ 0.336621] [<ffffffff81d05582>] ? loglevel+0x31/0x31
[ 0.336625] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80
[ 0.336627] [<ffffffff816a9cce>] kernel_init+0xe/0xf0
[ 0.336631] [<ffffffff816d3fac>] ret_from_fork+0x7c/0xb0
[ 0.336634] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80
[ 0.336638] ---[ end trace 34a1982ad5ee97a4 ]---
0585login:Penguin
垢版 |
2013/06/21(金) 09:33:55.38ID:i1WVXxHC
> 584

vt-dを有効にした状態でPCIデバイス(FXSボード)のドライバをホストで読み込むと、こんなエラーが出力して、使えないのです。。

dahdi: Version: 2.7.0
dahdi: Telephony Interface Registered on major 196
dmar: DRHD: handling fault status reg 3
dmar: DMAR:[DMA Read] Request device [04:00.0] fault addr ffffe000
DMAR:[fault reason 06] PTE Read access is not set

ちなみに、vt-dを有効にしなければ問題なく使えます。

OSはUbuntu 13.04 x86_64です。
0586login:Penguin
垢版 |
2013/06/21(金) 10:37:38.53ID:uYkvb73k
pci_find_upstream_pcie_bridge なんて関数名での失敗はPCIツリーが正しく認識できていないような気がするけど
lspci -vv の結果をpastebin辺りに貼っておけば解る人が居るかもしれない(俺はたぶん解らん)

後H87はIntel公式にはVT-dサポートしてないみたいだけどそこの所どうなん?
Z/Qシリーズかサーバ向けのCシリーズ以外は基本VT-dを提供しないがIntel公式発表だったよーな

http://ark.intel.com/ja/products/75004/Intel-DH82H87-PCH

VT系のデータシート見てるとVT-d自体はCPU側のみ有効化出荷されている事が重要で
マザーでのFW対応次第にも見えるけどね
0587login:Penguin
垢版 |
2013/06/21(金) 13:59:38.25ID:i1WVXxHC
>> 586

lspci -vv貼り付けました。

http://pastebin.com/pXCTEY5d

PCIツリーは、lspci -tvでツリーをみる限り、認識してそうなのですが。。

# lspci -tv
-[0000:00]-+-00.0 Intel Corporation Haswell DRAM Controller
+-01.0-[01]----00.0 Device 188b:5220
+-02.0 Intel Corporation Haswell Integrated Graphics Controller
+-16.0 Intel Corporation Lynx Point MEI Controller #1
+-19.0 Intel Corporation Ethernet Connection I217-V
+-1a.0 Intel Corporation Lynx Point USB Enhanced Host Controller #2
+-1c.0-[02]--
+-1c.3-[03-04]----00.0-[04]--+-00.0 Digium, Inc. Wildcard TDM410 4-port analog card
| \-01.0 Intel Corporation 82545GM Gigabit Ethernet Controller
+-1d.0 Intel Corporation Lynx Point USB Enhanced Host Controller #1
+-1f.0 Intel Corporation Lynx Point LPC Controller
+-1f.2 Intel Corporation Lynx Point 6-port SATA Controller 1 [AHCI mode]
\-1f.3 Intel Corporation Lynx Point SMBus Controller

VT-dサポートは、
http://wiki.xen.org/wiki/VTd_HowTo
をみて、AsrockのH87なのですが対応してそうだったので試したみてるとこです。
0588login:Penguin
垢版 |
2013/06/21(金) 14:01:47.14ID:i1WVXxHC
問題のデバイスは、これです。

04:00.0 Ethernet controller: Digium, Inc. Wildcard TDM410 4-port analog card (rev 11)

ちなみに、xenのDom0でやってみたら、問題なく使えました。。
同じカーネルオプションなんですけどね。
0589login:Penguin
垢版 |
2013/06/21(金) 23:47:15.62ID:v4KutgWh
intel_iommu=onとか?
0590login:Penguin
垢版 |
2013/06/24(月) 06:07:05.36ID:IxMYVUF7
ASM1083ならXonerDSXってカードの先のAV66で
ホストでもゲストのパススルー動作でも問題なかった

つか吹っ飛び不浄test
0591login:Penguin
垢版 |
2013/06/24(月) 09:37:59.91ID:da2O6Lp4
588 です。

ACPI無効でとりあえず、dmesgにエラーはなくなった。
ACPIを無効にすると、電源管理(バッテリーとかシャットダウンとか)の問題くらいですかね?自宅サーバだったら、いらない?

ちなみに、現在のKernelパラメータです。

/boot/vmlinuz-3.8.0-25-generic root=UUID=d2910c49-1af4-483c-914c-f25ff64a02fc ro intel_iommu=on apparmor=0 mtrr_gran_size=2M mtrr_chunk_size=256M acpi=off
0592login:Penguin
垢版 |
2013/06/24(月) 09:43:41.33ID:da2O6Lp4
>>591

書き忘れた。

デバイスも問題なく使えた。
0593login:Penguin
垢版 |
2013/06/24(月) 10:01:47.35ID:da2O6Lp4
>>591

vt-dが使えなくなった。。
0595login:Penguin
垢版 |
2013/06/24(月) 13:04:31.41ID:IxMYVUF7
VT-dのDMAリマッピングレポートレジスタのアドレスががAPCI情報に乗ってくるとかどーのこーのと

参考
Intel&#174; Virtualization Technology for Directed I/O 8.1 DMA Remapping Reporting Structure
0596login:Penguin
垢版 |
2013/06/26(水) 08:25:26.64ID:etyBsEKx
vgaパススルーしようとするとブルースクリーンorz
0597login:Penguin
垢版 |
2013/06/26(水) 08:57:29.89ID:yxR4e8XR
VGAパススルーはなかなか成功しないよな。
2〜3年すれば普通に使えるようになるかも、と期待しつつ、あきらめてる。
0598login:Penguin
垢版 |
2013/06/26(水) 20:32:21.79ID:nnXtplIi
そのうち、VGAとかもSR-IOVできるようになるんだろうか
0599login:Penguin
垢版 |
2013/06/28(金) 23:40:47.87ID:SnvfdTJt
GPGPU向けではSR-IOVが来るかもっていうか、すでに出てた気もするけど、
表示用はどうかねぇ。。。
そのうちってレベルでは来ない気がする。
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況