KVM(Kernel based Virtual Machine)を語れ 2
■ このスレッドは過去ログ倉庫に格納されています
>>498-499
なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.
とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや. KVMでvirtualbox用のかそーディスクの.OVAを
インポートして使えたりできないんですかね? >>502
え,だめだった?
NFS 共有できない Windows マシンとかもあるから SAMBA で
公開したいんだけど.あとユーザ認証したいし. sambaで共有したいけど、ホストにsamba入れたくないならそれでおkなような ちょっと考えなおして,
ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画
のほうがいいかと思い始めた.
で,ちょっと聞きたいんだけど,
SAMBA 公開するゲストが起動したタイミングで,
自動的にホストに smbmount させることってできるかな?
ゲストからホストの操作って可能? >>505
そうそう
ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX
これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。 >>506
うむ,やっぱり ssh か.まあそれが楽か.
ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの? mountオプションにnoautoでいけるんじゃないかな >>508
おー,なるほどー.そんなオプションがあったのか.
ごめんなさい,mount のオプション多すぎてよく覚えとらん.
アドバイスありがとう.その方針でやってみます. ここにあんま書かれないけど、KVMもかなり新機能出てきてるっぽいね。 >>510
例えば?
それにしても、企業がqemu-KVMなんて使うとは思えない。 よっこら
性能を改善したオープンソースのエミュレータ「QEMU 1.4」が公開 - SourceForge.JP Magazine : オープンソースの話題満載
http://sourceforge.jp/magazine/13/02/19/006211 さくらVPSってのは、qemuっぽいみたいですね。失礼いたしました。 いやいや、思うのは勝手だからいいですよ
だたあんま偉そうにすんな 一台のサーバーにkvmでホストOSとしてdebianとWindowsServerを入れて、 両方Webサーバを動かそうとしてるんだけど
2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる?
ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど
サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・ kvmなんか使わなくても、iisでよくね?
なんで1台のwebサーバで2サイトやりたくないのか解らんけど、
ホストヘッダー設定したら目的は達成できるでしょ。
全然問題ないからやってみ。 2つのゲストOSの間違いだったしにたい。
素直にiisでやります。 qemu-kvmを-no-kvmオプションでVBOX上のCentOS6で動かしたいのですが可能ですか?
virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。
長いオプションを指定して起動するしか方法がないでしょうか? vmのネストをやりたいんだと思うけど、
条件をぶった切って、
ホスト機→vmware player→fedora17以上→kvm
なら実現できるはず。
バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk
Cent6でもネストは可能だけど、マンドクセので勧めません
上記はできるはずってだけで、自分もこれから実施予定 ごめん、ボケてました。
ホスト機→VMWwarePlayer→Cent6→KVM
これでOKだね。
VMWwarePlayerなら仮想化支援引き継げます。 >>525
VMPlayerでできました。ありがとうございます。 CentOS6.3 x86_64にyumでKVM入れたんだけど
qemu-nbdはどこにあるんでしょ?
リポジトリあれば教えてください "qemu-nbd centos"はぐぐってみたの? ググっても出てこないですねぇ
# yum list | grep qemu
gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3
qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
EPELにもないみたいです qemu-nbdなさそうなのでソースからコンパイルしました
お騒がせしました >>529
パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ
Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64 ググって単語さえヒットすれば存在するという・・・
なんというかとてもメルヘンで幻想的な・・・ つか
普通に RPM Search で検索したら
10秒で見つかるじゃねーかw すんません質問です
KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが
普通にcpしても壊れますよね
LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか?
もし他に方法があれば教えてください VMレベルでIOをサスペンドして、スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいいよ。
理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。 すみません
>>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい
がよくわからないんですが、つまりどういうことでしょうか? 流れとしては
1. VMが例えばイメージファイルfoo.img上で動いている
2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする
3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる
4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す
5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す
ということ。
昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。 Rawってスナップショットとれるん?
Qcow2だけかと思ってた。
LVMでスナップショットとるのが良いような気がする。 そりゃゲストOSかホストOSの中でそういう操作ができるのなら、
アプリのスナップショット機能使う理由はあんまりない。 ありがとうございます
rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです)
スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね
マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね 長文失礼します。
当方KVMでiscsiを使って共有ストレージを組もうとしています。
多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、
ストレージはiscsiターゲット、KVM2台はイニシエータとします。
OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。
1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、
マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、
ゲストがIOエラーを吐きます。
iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。
(それなのに、なんでマイグレーションが完走するのか謎)
iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。
現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、
中々上手いこといかずに悩んでおります。 >>542
> iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
こわれるのあたりまえ。
ブロックデバイスそのままつかいな。 エスパーありがとうございます。
その辺りの手順をきちんと書いてなくてすみませんでした。
ターゲットホスト上でscsiターゲットの設定
↓
イニシエータからターゲットを参照
↓
イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り)
↓
イニシエータホスト上で、認識したブロックデバイスをフォーマット
例:mkfs -t ext4 /dev/sda1
↓
イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる)
例:mount /dev/sda1 /mnt
↓
virt-managerを使ってローカルディレクトリとしてプールに追加
という手順で行っていました。
今度はブロックデバイスでそのままプールに追加という手順でやってみます。
また結果報告しますmm ホスト2台から同じiSCSIボリュームをマウントして使うってことよね
iSCSIのボリュームを複数台から共有する場合は、ext4じゃなくて共有に
対応したGFS2みたいなファイルシステム使わないとダメなはず。
ttp://aikotobaha.blogspot.jp/2011/07/rhel61-resilient-storagegfs2.html
同じ事やってファイルシステムぶっ壊したのでiSCSIペンディングしてるw こんにちは、542です。
>> 543
> ブロックデバイスそのままつかいな。
これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、
そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。
/etc/tgt/targets.confの内容を書くと、
<target iqn.2013-04.com.iscsi-tgt:tgt>
backing-store /mnt/test.img
backing-store /mnt/foo.img
backing-store /mnt/hoge.img
・・・
・・
・
write-cache off
</target>
というように、新しいVMを作るたびに書き連ねて行くと。
なんかかなり面倒な感じですが、誤解してますか? >> 545
アドバイスありがとうございます。
取り合えず上のやり方でイメージを作って、
それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、
新しいVMのイメージ追加なんかが上手くいかない状態です。
(これはiscsiの使い方判ってないだけだと思います)
VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。
どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、
VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。
ここら辺はスレチですが。
なんか、かなり斜め上いってる予感。 こんばんは、542です。
なんとか形になった(?)ので、ご報告いたします。
まずiSCSIターゲット(ストレージ)での作業
/mntにゲスト用イメージ作成
# dd if=/dev/zero of=test0.img bs=1M count=10000
/etc/tgt/targets.confに以下を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
# /etc/init.d/tgtd start
次にイニシエータ(KVMホスト)での作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0
virt-managerからiscsiストレージをプールに追加
ターゲットパス:/dev/disk/by-path
ホスト:ターゲットのIPアドレス
ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0
これで追加が完了するはず。 続いてゲストイメージの追加方法。
ターゲットで新しいイメージファイルを作る。
# dd if=/dev/zero of=test1.img bs=1M count=10000
/etc/tgt/targets.confに新しいターゲット分を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
<target iqn.2013-04.com.iscsi-tgt:lun-1>
backing-store /mnt/test1.img
write-cache off
</target>
confのアップデート
# tgt-admin -update ALL
イニシエータでの作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1
上と同じ要領で、virt-managerからiscsiをストレージプールに追加。
こんな結論に至ったんですが、もっと良い方法ないですか・・・。 どうしてもiSCSIにこだわるならclvm使うかな
でもNFSのが楽だよ おはようございます。542です。
ゲストのディスクIOの帯域制限をしたくて、
cgroup→iscsiと行き着いたんです。
NFSだと、ホストから見るとネットワークIO扱いですよね。 >>549
ターゲットも LVM 使ったほうがいいよ。 こんにちは、542です。
>>552
ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。
LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?
自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?
/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>
↓
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00 <-- 論理ボリューム
write-cache off
</target>
みたいな書き方になると。 >>554
大きなヒントをありがとうございます。
リトライして、また結果報告しますmm kvm上にXP入れてqxlドライバ入れてspiceで動かしてみたがやっぱ
windows使うならvmwareの方がいいな WindowsならRDP使えばいいじゃん
VMwareでも普通そうするだろ KVMでVMwareのvCenter Server+Clientみたいに、複数のKVMホストをまとめて管理できるツールはまだないの?
OpenStackとかCloudStackは違うっぽいし・・・。
oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。
できればUbuntuで動作するもの。 558です。
>>559 >>560 ありがとう。
皆詳しいな。VMwareのスレとは雰囲気が違う。 探すと結構あるから色々試して自分に合ったの使うといいよ >>565
http://www.linux-kvm.org/page/SPICE
http://spice-space.org/
SPICEは従来の仮想デスクトッププロトコルと違って、マルチモニタとか動画再生支援・リモートUSB対応とかWindowsゲストでもいろいろ便利 こんばんは、542です。
おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。
ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、
そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。
やっていることはこうです。
/dev/sda4からLVを切り出します。
仮に/dev/test/drbdとします。
で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。
仮に/dev/drbd0とします。
さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。
ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、
セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。
/dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね?
ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか? kvmホストをCentOSから入れ替えようと思うんだが
ubuntu serverとfedoraどっちがいいかな。 >>571
Kernelを入れ替えないと、Intel nestedが使えないのと、
Openvswitchが標準でないところが不満。 >>569
セカンダリでそれやるには、プライマリとセカンダリの接続を切らねばならない。
プライマリでやっとけ。 >>568
ありがとう。vSphere Web Clientっぽいですね。試してみます。 KVMでwin2003やwin xp を動かすと、
Win側で何もしてなくても(通信やデスクトップ表示)、
ホストのCPU使用率がかなり上がってしまうんですが、
これってゲストOSの問題なんですかね?
CentOS6やUbuntu12を動かしてもこういう現象は起きません。 ブリッジ(物理NIC無し)に2ノード以上の仮想マシン追加すると
うまくルーティングできなくなるのですが原因解る人いますかね。
br0(eth0) ----+---- br1(eth1)
.|
+---br2----+
| .|
tap0(VMA) tap1(VMB)
こんな感じで br0(eth1)をWANと想定してしてbr0/br2からのトラフィックをSNATしようとしてるのですが、
br0->br1 は問題無くとも tap0/1 -> br1 をルーティングする場合に iptables でログを取ると PHYSOUT=tap0/1
になってしまいパケットがSNATされずにbr1(eth1)に出ていってしまうという状況です。
ちなみにVMA/VMB何れかをシャットダウンすると PHYSOUT=br1 となり想定した通りにルーティング
されるようになります、br0->br1 については問題ありません。
(br0にも何台かVMをぶら下げていますが、こちらはbr2の様な挙動をする事はありませんでした)
KVMではなく物理NICの有り・無しに起因するブリッジの問題だと思うのですけど質問させてください。 KVMのVGAパススルー、苦労したけど動いたぜ。
苦労したのはVT-dが動くハードの調達だけだったがな。 kvmスレッド、盛り上がってきたな
ユーザーがだんだん増えてきたのかな VGAパススルーならML110 G7(C204)+XeonE3(1235)+HD7750でWin8動いたぞ
HD5850は駄目だった拡張ROM読めんのが原因っぽいXもWinもダメ 578はML110 G6 + Core i7 870 + HD5450 + Win7
全部古いな。 H87のマザボにPCIブリッジがついていて、vt-dを有効にすると、dmesgにこんなん出るんだけど、なんですかね?
[ 0.336527] PCI-DMA: Intel(R) Virtualization Technology for Directed I/O
[ 0.336563] ------------[ cut here ]------------
[ 0.336569] WARNING: at /build/buildd/linux-3.8.0/drivers/pci/search.c:46 pci_find_upstream_pcie_bridge+0x55/0x80()
[ 0.336572] Hardware name: To Be Filled By O.E.M.
[ 0.336573] Modules linked in:
[ 0.336576] Pid: 1, comm: swapper/0 Not tainted 3.8.0-25-generic #37-Ubuntu
[ 0.336578] Call Trace:
[ 0.336582] [<ffffffff810587ef>] warn_slowpath_common+0x7f/0xc0
[ 0.336584] [<ffffffff8105884a>] warn_slowpath_null+0x1a/0x20
[ 0.336587] [<ffffffff8137c345>] pci_find_upstream_pcie_bridge+0x55/0x80
[ 0.336592] [<ffffffff815a25eb>] intel_iommu_add_device+0x4b/0x1f0
[ 0.336594] [<ffffffff81599ff0>] ? bus_set_iommu+0x60/0x60
[ 0.336596] [<ffffffff8159a023>] add_iommu_group+0x33/0x60
[ 0.336600] [<ffffffff8145403d>] bus_for_each_dev+0x5d/0xa0
[ 0.336602] [<ffffffff81599fdb>] bus_set_iommu+0x4b/0x60
[ 0.336606] [<ffffffff81d474b5>] intel_iommu_init+0x34f/0x41d
[ 0.336610] [<ffffffff81d0e3f3>] ? memblock_find_dma_reserve+0x13d/0x13d
[ 0.336613] [<ffffffff81d0e405>] pci_iommu_init+0x12/0x3c
[ 0.336616] [<ffffffff8100215a>] do_one_initcall+0x12a/0x180
[ 0.336619] [<ffffffff81d05d32>] kernel_init_freeable+0x13e/0x1c6
[ 0.336621] [<ffffffff81d05582>] ? loglevel+0x31/0x31
[ 0.336625] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80
[ 0.336627] [<ffffffff816a9cce>] kernel_init+0xe/0xf0
[ 0.336631] [<ffffffff816d3fac>] ret_from_fork+0x7c/0xb0
[ 0.336634] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80
[ 0.336638] ---[ end trace 34a1982ad5ee97a4 ]--- > 584
vt-dを有効にした状態でPCIデバイス(FXSボード)のドライバをホストで読み込むと、こんなエラーが出力して、使えないのです。。
dahdi: Version: 2.7.0
dahdi: Telephony Interface Registered on major 196
dmar: DRHD: handling fault status reg 3
dmar: DMAR:[DMA Read] Request device [04:00.0] fault addr ffffe000
DMAR:[fault reason 06] PTE Read access is not set
ちなみに、vt-dを有効にしなければ問題なく使えます。
OSはUbuntu 13.04 x86_64です。 pci_find_upstream_pcie_bridge なんて関数名での失敗はPCIツリーが正しく認識できていないような気がするけど
lspci -vv の結果をpastebin辺りに貼っておけば解る人が居るかもしれない(俺はたぶん解らん)
後H87はIntel公式にはVT-dサポートしてないみたいだけどそこの所どうなん?
Z/Qシリーズかサーバ向けのCシリーズ以外は基本VT-dを提供しないがIntel公式発表だったよーな
http://ark.intel.com/ja/products/75004/Intel-DH82H87-PCH
VT系のデータシート見てるとVT-d自体はCPU側のみ有効化出荷されている事が重要で
マザーでのFW対応次第にも見えるけどね >> 586
lspci -vv貼り付けました。
http://pastebin.com/pXCTEY5d
PCIツリーは、lspci -tvでツリーをみる限り、認識してそうなのですが。。
# lspci -tv
-[0000:00]-+-00.0 Intel Corporation Haswell DRAM Controller
+-01.0-[01]----00.0 Device 188b:5220
+-02.0 Intel Corporation Haswell Integrated Graphics Controller
+-16.0 Intel Corporation Lynx Point MEI Controller #1
+-19.0 Intel Corporation Ethernet Connection I217-V
+-1a.0 Intel Corporation Lynx Point USB Enhanced Host Controller #2
+-1c.0-[02]--
+-1c.3-[03-04]----00.0-[04]--+-00.0 Digium, Inc. Wildcard TDM410 4-port analog card
| \-01.0 Intel Corporation 82545GM Gigabit Ethernet Controller
+-1d.0 Intel Corporation Lynx Point USB Enhanced Host Controller #1
+-1f.0 Intel Corporation Lynx Point LPC Controller
+-1f.2 Intel Corporation Lynx Point 6-port SATA Controller 1 [AHCI mode]
\-1f.3 Intel Corporation Lynx Point SMBus Controller
VT-dサポートは、
http://wiki.xen.org/wiki/VTd_HowTo
をみて、AsrockのH87なのですが対応してそうだったので試したみてるとこです。 問題のデバイスは、これです。
04:00.0 Ethernet controller: Digium, Inc. Wildcard TDM410 4-port analog card (rev 11)
ちなみに、xenのDom0でやってみたら、問題なく使えました。。
同じカーネルオプションなんですけどね。 ASM1083ならXonerDSXってカードの先のAV66で
ホストでもゲストのパススルー動作でも問題なかった
つか吹っ飛び不浄test 588 です。
ACPI無効でとりあえず、dmesgにエラーはなくなった。
ACPIを無効にすると、電源管理(バッテリーとかシャットダウンとか)の問題くらいですかね?自宅サーバだったら、いらない?
ちなみに、現在のKernelパラメータです。
/boot/vmlinuz-3.8.0-25-generic root=UUID=d2910c49-1af4-483c-914c-f25ff64a02fc ro intel_iommu=on apparmor=0 mtrr_gran_size=2M mtrr_chunk_size=256M acpi=off >>591
書き忘れた。
デバイスも問題なく使えた。 VT-dのDMAリマッピングレポートレジスタのアドレスががAPCI情報に乗ってくるとかどーのこーのと
参考
Intel® Virtualization Technology for Directed I/O 8.1 DMA Remapping Reporting Structure vgaパススルーしようとするとブルースクリーンorz VGAパススルーはなかなか成功しないよな。
2〜3年すれば普通に使えるようになるかも、と期待しつつ、あきらめてる。 そのうち、VGAとかもSR-IOVできるようになるんだろうか GPGPU向けではSR-IOVが来るかもっていうか、すでに出てた気もするけど、
表示用はどうかねぇ。。。
そのうちってレベルでは来ない気がする。 ■ このスレッドは過去ログ倉庫に格納されています