X



トップページLinux
1002コメント334KB
KVM(Kernel based Virtual Machine)を語れ 2
■ このスレッドは過去ログ倉庫に格納されています
0399login:Penguin
垢版 |
2012/12/18(火) 23:26:58.84ID:lv7xhfZk
KVMなんて使うからこんな残念なことになるんだよ。
あほだろ
0400login:Penguin
垢版 |
2012/12/19(水) 00:17:22.63ID:innaWHo7
あほには使いこなせないことが証明された
0401login:Penguin
垢版 |
2012/12/19(水) 16:42:51.08ID:SanA93m2
俺でも使えるんだからアホでも使える筈
0402login:Penguin
垢版 |
2012/12/19(水) 23:50:42.11ID:AHLXHMNf
>>401
俺はお前ができる子だってわかってるぞ
0403login:Penguin
垢版 |
2012/12/20(木) 20:34:20.49ID:NP4MdNyh
CentOS5から6に乗り換えたのを契機にvirshを使うようにしたんだけど、
ゲストのCPU定義の仕方がよくわからん…。

qemu-kvm直接実行の時の-cpu=hostは、virshのXMLではどう書けばいい?
Windows8 32bit版のインストールDVDが起動できなくて困っている…。
0405login:Penguin
垢版 |
2012/12/21(金) 00:25:14.33ID:HMqQZGze
>>404
<cpu mode='host-passthrough'/> にしたら、-cpu hostで起動できた!
けど、起動できないのは相変わらず…。64bit版のインストールDVDは起動できるからさらに謎。
0407login:Penguin
垢版 |
2012/12/22(土) 10:00:34.83ID:UN5rYgv9
よくわからん…。
困っている…。
相変わらず…。
さらに謎。

>>404,406
お前ら、優しいなw
0408login:Penguin
垢版 |
2012/12/22(土) 10:28:27.23ID:AElEyaZ9
>>407
KVMは意味不明なバグがまだ数千以上
存在するから使うの辞めたほうがいいよ
開発者自身もわかってないし
0410login:Penguin
垢版 |
2012/12/22(土) 20:20:06.52ID:afsOO5WS
ビデオドライバによって、画面の描写の一部分が変になるんだけど
(ゲストOSがWindowsなんだけど、チェックボックスで設定を変更するタイプの
メニューがうまく表示されない。一部のアプリケーションのメニューの操作が出来ない)
これは自分のPC構成による相性の問題なのかな。それともKVM自体の設定でどうにかできる
ものなんですかね?ドライバ形式を変えたらなくなるけど、重くなったりするからな。
0411login:Penguin
垢版 |
2012/12/22(土) 21:39:56.42ID:VmoVw93N
ゲストのwindowsのドライバがちゃんと当たってないとか?
0412login:Penguin
垢版 |
2012/12/24(月) 12:29:06.26ID:5d5T+TpU
KVMの深刻なバグなだけかと
0413login:Penguin
垢版 |
2012/12/25(火) 00:49:37.15ID:WmQAXySb
画面の描写はKVMと関係ないんじゃ?
VNCやspiceなんかの仕事でしょ
0414login:Penguin
垢版 |
2012/12/25(火) 01:31:35.26ID:4/Ls2NuA
んな部分にKVMが関係あってたまるか
0415login:Penguin
垢版 |
2012/12/25(火) 01:54:26.46ID:ff1HIYlW
居着いちゃったんだろ、スルーしとけ
0416分割 (1/2)
垢版 |
2013/01/05(土) 22:12:19.40ID:rDGd+NmS
PCIパススルーについて質問です。

B75チップセットのマザーで、libvirtを使ったPT1&PT2のパススルーがうまくいきません。
PT2の一枚だけPCに挿した状態であれば virsh start hostname で問題なく起動できるのですが
PT1とPT2の二枚を挿した状態で同じことをしようとすると、以下のようにエラーで起動できません。
# virsh start hostname
エラー: ドメイン hostname の起動に失敗しました
エラー: 内部エラー PCI デバイス 0000:06:01.0 をリセットできません: 内部エラー 0000:06:02.0 を持つバス上のアクティブな 0000:06:01.0 デバイス、バスのリセットをしていません

事前に nondev-dettach をすれば起動できるのですが、ゲストPC(Win7)上でパススルーされたデバイスを
使おうとするとデバイスマネージャー上で認識されているにも関わらず、オープンに失敗します。
# virsh nodedev-dettach pci_0000_06_01_0
# virsh nodedev-dettach pci_0000_06_02_0
# virsh start hostname
ドメイン hostname が起動されました
0417分割 (2/2)
垢版 |
2013/01/05(土) 22:14:14.15ID:rDGd+NmS
ホストはCentOS 6.3で、公式リポジトリに登録されているlibvirt 0.9.10以外にも
本家最新版の1.0.1ソースからコンパイルた物も試してみましたが、変わりませんでした。

libvirtを使わず、qemu-kvmのオプション指定で直接起動した場合はPT1&PT2の二枚構成でも
問題なく起動できているので、構成的にはクリアできていると思います。
# /usr/libexec/qemu-kvm -version
QEMU PC emulator version 0.12.1 (qemu-kvm-0.12.1.2), Copyright (c) 2003-2008 Fabrice Bellard

# lspci
00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev a4)
06:01.0 Multimedia controller: Xilinx Corporation Device 211a (rev 01)
06:02.0 Multimedia controller: Xilinx Corporation Device 222a (rev 01)

# lspci -t
-[0000:00]-+-00.0
       +-1e.0-[06]--+-01.0
                \-02.0

どうにかしてlibvirtで管理したいのですが、この問題を解決する方法はありますでしょうか?
libvirtでPT1やPT2の二枚挿しを正常に起動できているという方もいらっしゃいましたら教えてください。
0418login:Penguin
垢版 |
2013/01/08(火) 17:01:32.63ID:gQsMjpok
B75ってVT-d使えないんじゃなかったっけ
CPUもK付きやi3以下は使えない筈だし下手したら全取っ替えかな?
0419login:Penguin
垢版 |
2013/01/08(火) 17:36:21.80ID:Fx/IzK4b
ASRockのマザーではB75でVT-d使えてるよ
0420login:Penguin
垢版 |
2013/01/08(火) 21:21:06.02ID:wxN+x4rv
VT-dはノースブリッジの機能だからCPUに内蔵された現在はチップセットは関係ない
CPUとBIOSが対応してるかどうかだけが問題になる

Intelのサイトを見るとQ77以外はVT-d ×とか書いてあって混乱させられるけどな
0421login:Penguin
垢版 |
2013/01/08(火) 21:27:52.92ID:gQsMjpok
>>420
PCIなんかはサウス管轄になってるからチップセットにも関係してくる
しかもBIOSによっては両方対応してないとどっちも使えないとかが
あるからかなりややこしい
0422login:Penguin
垢版 |
2013/01/08(火) 21:36:53.66ID:Qn3iiCLi
>421
いずれにせよB75チップセットで問題になることはない。Q77マザー並に安牌。
0423login:Penguin
垢版 |
2013/01/08(火) 21:44:43.85ID:wxN+x4rv
>>420
その辺のレジスタもデータシートを見ればわかるけど、ノースブリッジ側にあるよ
が、デバイス自体にも対応が必要らしいんで若干不正確だった

Intel(R) 7 Series / C216 Chipset Family Platform Controller Hub (PCH) Datasheetより
> 5.29.2 Intel(R) VT-d Features Supported
> ・ The following devices and functions support FLR in the PCH:
> - High Definition Audio (Device 27: Function 0)
> - SATA Host Controller 1 (Device 31: Function 2)
> - SATA Host Controller 2 (Device 31: Function 5)
> - USB2 (EHCI) Host Controller 1 (Device 29: Function 0)
> - USB2 (EHCI) Host Controller 2 (Device 26: Function 0)
> - GbE Lan Host Controller (Device 25: Function 0)
> ・ Interrupt virtualization support for IOxAPIC
> ・ Virtualization support for HPETs

SKUごとの差異があるとは記述されてないのでどちらにしろどれでも問題はないようだ
0424login:Penguin
垢版 |
2013/01/09(水) 07:03:33.04ID:lfVB9LK0
若干どころかPCIバスの向こう側にも対応が必要だったらノースブリッジだけが
対応すればいいなんて到底言えないと思うんだが
0425416
垢版 |
2013/01/09(水) 08:04:41.56ID:KRvPAtXZ
>>416-417にも書いてますが、今回ハマってる組み合わせ(PTx二枚挿し+libvirt)以外では
パススルーも普通に使えています。
0426login:Penguin
垢版 |
2013/01/09(水) 11:04:52.99ID:nFTME/1e
ということは
PT1枚+libvirt や PT2枚 libvirtなし だと動いてる?
0427login:Penguin
垢版 |
2013/01/09(水) 11:47:12.76ID:7AzDV/7F
ここの人はvt-dでPCI透過させて、ゲストOSでTV見たりしてるの?
すごいね
0428416
垢版 |
2013/01/09(水) 11:53:59.52ID:KRvPAtXZ
>>426
そういうことになります。
PTxとは書いていますが、PT2+PT3+libvirtの組み合わせであれば
パススルーでゲストが認識できるところまでは確認しています。
またPT1&PT2が挿さっていると、libvirtで片方だけアタッチして起動しようとしても同じく失敗します。

以上のことから思うに、レガシーPCI配下に複数デバイスがぶら下がってると
libvirtがそれらのデバイスの割り当てに失敗するようです。
0429416
垢版 |
2013/01/14(月) 21:53:37.59ID:6+s7zXaj
新しいカーネルならもしや、と思ってUbuntu 12.10で試してみたけどダメだった・・・

# uname -a
Linux hostname 3.5.0-17-generic #28-Ubuntu SMP Tue Oct 9 19:32:08 UTC 2012 i686 i686 i686 GNU/Linux
# kvm --version
QEMU emulator version 1.2.0 (qemu-kvm-1.2.0+noroms-0ubuntu2, Debian), Copyright (c) 2003-2008 Fabrice Bellard
# virsh --version
0.9.13

皆さんレガシーPCIに二枚以上デバイスぶら下げて、あまつさえlibvirt使ってみたりしないんですか???
0430login:Penguin
垢版 |
2013/01/14(月) 22:32:18.32ID:nQuTdK11
3.5.0は新しいカーネルと言えるのか
0431login:Penguin
垢版 |
2013/01/15(火) 02:16:48.04ID:ncKcda7k
libvirtにレガシーPCI1枚なら使ってる
0432login:Penguin
垢版 |
2013/01/15(火) 07:05:07.05ID:cfAabvAh
win7 が2枚挿しに対応してなかったらウケる
0433login:Penguin
垢版 |
2013/01/15(火) 13:59:13.10ID:n5dIQ8vV
libvirtが同一デバイスを上手くハンドルできないんじゃ疑惑
0434login:Penguin
垢版 |
2013/01/15(火) 19:54:03.21ID:cfAabvAh
でした
libvirt が起動している qemu のコマンドライン引数と
素でうまくいくときの qemu のコマンドライン引数を
くらべてみたいお
0435416
垢版 |
2013/01/16(水) 01:04:31.44ID:qAaJHAuV
>>433
PT2+SAA7130キャプチャボード+libvirtという組み合わせも試してみてダメだったので、PT1やPT2がというより
レガシーPCIに複数のデバイスがぶら下がってること自体が原因のような気がします(PCIeと違って共有バスだから?)。
本当に上記が理由だとしたら比較的簡単に再現できると思います。しかしその割に、他で報告を聞かないのも変な気はしますが・・

私は最初PCIe→PCIブリッジチップを介しているのがいけないのかと思って、H67からB75に乗り換えたのですが
再現の仕方が同じなので、問題はそこではなさそうです。他にはZ68でも同じ状況でした。

残念ながらソースは読めない人なので、qemuに直接渡す場合とlibvirtで実行する場合とで
設定晒してみます。流石にUUIDとゲストの名前は(厨二過ぎる設定な為)書き換えてますが、ご容赦ください。

qemu-kvmを直接起動する場合
ttp://www1.axfc.net/uploader/so/2756620.txt

libvirt経由で実行する場合
ttp://www1.axfc.net/uploader/so/2756615.txt
0436login:Penguin
垢版 |
2013/01/17(木) 00:37:48.86ID:9/jodcOu
>>435
/var/log/ の下に libvirt のログない?
debian なら /var/log/libvirt/qemu/<仮想マシン名>.log とかなんだけど...
0437login:Penguin
垢版 |
2013/01/17(木) 22:24:59.25ID:XtFnxcvM
>>435
お前さ、何故libvirtdのデバッグログをうpしないの?
何で初心者ですみたいに、ソース読めない人なので
なんでも聞いていいですよね?解決してくださいって
調子に乗ってるの?

お前ってさ、qemu:commandlineに利用しているなら、直接引数
渡せば起動できるのわかってて、嫌がらせとか本当に
たちの悪い糞野郎だよな。
0438login:Penguin
垢版 |
2013/01/24(木) 16:59:24.47ID:KfPzxJNa
spice-guest-tools-0.3.exe
来てた
0439login:Penguin
垢版 |
2013/01/27(日) 01:34:05.11ID:2ob6N5kY
kvm のホストマシンで ZFS on Linux を使って作った zpool に,
kvm のゲストマシンからアクセスすることってできる?
0440login:Penguin
垢版 |
2013/01/27(日) 09:45:08.51ID:Pq3gHEzO
そもそもzpoolって、他のホストがアクセスできるような代物じゃないと
おもうんですが、違うの?
0441login:Penguin
垢版 |
2013/01/27(日) 10:27:27.84ID:2ob6N5kY
ホストで /dev/sdb を zpool に追加して,/dev/sdb をゲストに接続しておいて,
ゲスト上で
$ mount -t zfs /dev/sdb1 /mnt
みたいないことできないかなと思って質問しました.
(ほんとはゲスト上では /dev/sdb1 っていう名前じゃなくて違う名前だと思うけど便宜上こう書いてます)
0442login:Penguin
垢版 |
2013/01/27(日) 16:22:35.71ID:Pq3gHEzO
ZFSはFreeBSDで使ってて、ZFS on Linuxは使ってないけど・・・

zpoolは、一つか複数のディスクを一つのpoolにまとめる。
zpoolに参加してるディスクをダイレクトにいじろうとするのは
そもそもZFSの使い方としておかしいんじゃないかと。

例えば、ホスト上でtankというプールを作ってみる。
zpool create tank /dev/sdb ←tankというpoolを作ってsdbを参加させる

こんなふうにやった後は、/tankにディスクがマウントされている。
この後に/dev/sdbへ直接アクセスするような真似をしたら、
KVMとか関係なく、ZFSを壊すだけでは。
ブロックアクセスしたいならzvolを作るべきだと思う。
0443login:Penguin
垢版 |
2013/01/27(日) 21:37:34.50ID:2ob6N5kY
>>442
なるほど,zvol でブロックデバイスが作れるんだ.いいこと聞いた.

実は試しに,ゲストマシンに ZFS on Linux を導入してみた.
インストールは簡単にできて zpool も作れた.しかし
ホストとか他のゲストと共有するために sharenfs とか sharesmb を
使おうとしたら,未実装らしい.これだと ZFS on Linux を入れたあんま意味ない気もする.

ホストに導入するのが自分の用途によさそうだが,あんまりホストの
機能が肥大化するのも好きじゃない.悩ましいな.
0444login:Penguin
垢版 |
2013/01/28(月) 02:01:42.39ID:zF/H5QPk
KVMを本運用で使ってる所ってあるの?
安定度が気になる
0445login:Penguin
垢版 |
2013/01/28(月) 08:16:31.73ID:nzeHuQ//
山ほどあると思うが。
まあチューニングはガンガンにしてるだろうけどね。
0446login:Penguin
垢版 |
2013/01/28(月) 12:08:44.22ID:+AsPXpx1
使ってるけど、運用がキツい。俺しかいじれない
0447login:Penguin
垢版 |
2013/01/31(木) 02:56:52.02ID:cczNNa9Z
チューニング、ガンガンですか
そのあたりのおすすめ本とかありますか
0448login:Penguin
垢版 |
2013/02/01(金) 14:22:21.05ID:xi34RPkr
運用が厳しいということは、大規模ってことかね。
うちは殆ど吊るしで使ってるけど、チューニングって例えば何がある?
0449login:Penguin
垢版 |
2013/02/01(金) 17:47:02.24ID:6Lum/gKZ
そんなノウハウ企業秘密に決まってんだろバカか
0450446
垢版 |
2013/02/01(金) 18:44:24.42ID:1UY1399o
うちもほぼ吊るしだよ。
VMイメージをNFS上に置いてるけど、ちょっとそろそろ限界。
ホストもNFSサーバもNIC帯域も余裕なんだけど、
1つのVMが使えるNFS帯域に何かボトルネックがあるらしく
ゲストのうち、アクセスの多いWebサーバの動作が滞りだした。
もうこの環境は厳しいからiSCSIかなんかで立て直して移行する
0451login:Penguin
垢版 |
2013/02/01(金) 22:59:21.03ID:xi34RPkr
>1つのVMが使えるNFS帯域に何かボトルネックがあるらしく
自分の環境では1Gbpsまではちゃんと出たので、NFS帯域のボトルネックなんて無いと思うんです。
先にHDDの限界がくるんじゃないかな。

1台のストレージに何台本番が乗ってるの?
単純にHDDのシークタイムがオーバーヘッドになってるように思うのですが。
0452446
垢版 |
2013/02/02(土) 09:22:03.00ID:OWeSb/8E
>>451
KVMホストは5台、ゲストは20台ぐらい。
ある1ゲストだけ飛び抜けて高負荷なんだけど、
いずれにしてもそんなにストレージへのアクセスが頻繁なものではなくて、
そのゲストが高負荷な時でもNFSサーバ自体の負荷は余裕、
他ゲストからのNFSパフォーマンスも落ちない(常時70MB/s程度)。
ので、KVMonNFSそのものがもうキツいのかな…と思ったんだけど、
確かに載せすぎでシークタイムが厳しいのかも。
NFSサーバーは7本のRAID6。
0453login:Penguin
垢版 |
2013/02/02(土) 11:42:17.62ID:MLdeUHoW
その構成にゲスト20台ならストレージやNFS自体はまだ余裕あるはず。
ゲスト達がどんな動きしてるか解らんので妄想入ってますが。

最初に思いつくのは、そのゲストに当ててるCPUやメモリが足りないとか、
それ以外のDBとかが足引っ張ってる可能性もあるとおもふ。
そのゲストがWindowsの場合はCPU使用率とかメモリ利用率を見て、足りないなら足せばいいいし、
Linuxの場合はロードアベレージは当てにならんから、CPU使用率を見てCPU負荷が高いのか、
IOウェイトが発生してるのかを見れば、原因がどこにあるかが判るはず。

あとは、ストレージのネットワーク速度すかね。
0454login:Penguin
垢版 |
2013/02/02(土) 12:04:05.27ID:M7wDuqSH
>>452
NFSサーバが余裕なのは、本当に処理負荷がひくいからなのかな。
NFSサーバがリソースを使いきれるようにチューニングされていなくて、NFSクライアントを待たせながらのんびり動いてからかもよ。
0455login:Penguin
垢版 |
2013/02/02(土) 12:06:56.75ID:MLdeUHoW
>>454
それだとKVMホストのロードアベレージがやたら上がるはずなのよね。
0456login:Penguin
垢版 |
2013/02/02(土) 12:19:52.49ID:M7wDuqSH
>>455
あがらないだろ。
ioとかnfsのqueueが長くなるだけだから。
nfs しばらく使ってないのではずしてると思うが、概念的にはworkerが足りないときとは処理要求は多いのにcpuの負荷は低くなると思うが、そんなケースがないかと想像してる。
0457login:Penguin
垢版 |
2013/02/02(土) 12:28:00.61ID:MLdeUHoW
>456
ううん、NSFサーバがNFSクライアントを待たせると、
クライアント側ではCPUのウェイトのパーセンテージが上がって、
それでロードアベレージがあがるんですよ。

クライアントはデータの読み書きをサーバに依頼するけど、
サーバがモタモタしてると、クライアントは自分のHDDの処理が遅いような認識になって、
ロードアベレージがあがるんです。

ロードアベレージって実行待ちプロセスの平均値でしょ、だからそうなるの。
0458login:Penguin
垢版 |
2013/02/02(土) 12:44:33.71ID:wmtiBWeW
その「1台だけ高負荷なKVMゲスト」の
何の負荷が高いのかから調査して行かないと厳しそうでは。
0459446
垢版 |
2013/02/02(土) 13:21:45.53ID:OWeSb/8E
・その高負荷ゲスト(Linux)では、とあるWebグループウェアが稼働。DBも同居。ゲストは8CPU/32GB
・高負荷なので臨時にホストをそのゲスト1台で占有使用させてる。ホストは12コア36GB
・高負荷時、ゲスト上でiowait30〜50、ロードアベレージ7程度
・高負荷時、ホスト上でiowait20〜40、ロードアベレージ4〜6程度
・高負荷時でも、他のノードからNFS転送速度を計測すると普通に80MB/sとか出る(無負荷時で90MB/s程度)し、
 他ゲストのパフォーマンスにはさほどの低下がみられない
・各物理危機はL2機器で直結
・NFSサーバーはほぼ吊るし設定。CPUもIOもtopで見る限りまったく余裕

こんな状態です。
0460login:Penguin
垢版 |
2013/02/02(土) 14:13:22.25ID:MLdeUHoW
NFSのマウントオプションはどうなってる?
syncかasyncでかなり違う。
NFSのバージョンも気になるけど、v3以降ならパフォーマンス面の不安はほとんど無いはず。

NFSってかなりオプションあるけど、いくつか押さえておけば基本的に吊るしでおk。

NFSクライアントで
nfsstat -m

NFSサーバで
exportfs -v

だったと思う、ステータスが確認できるお。
0461login:Penguin
垢版 |
2013/02/02(土) 16:52:24.68ID:wmtiBWeW
高負荷な時の、そのゲストに使用してるNFS転送速度ってのは
調べられないのかな。
0462login:Penguin
垢版 |
2013/02/02(土) 17:18:03.98ID:GmTgwL/U
そのゲスト上で
dstat -fd

入ってなければyumかrpmで
許可要るだろうけど、あると便利ですよ
0463login:Penguin
垢版 |
2013/02/04(月) 00:02:16.54ID:vfNYlBcm
Xeon E3-1270v2 で CentOS 6.3 の KVM で FreeBSD 9.1 amd64 のインストール
をしようとすると、カネールのロードのところでフリーズしてしまうのだが、
何が原因だろう…?

別メーカーの Xeon E3-1270v2 でも FreeBSD はダメ
Xeon E5-2670 では FreeBSD OK
E3-1270v2 でも Linux 系は問題無くブートする。。
0464456
垢版 |
2013/02/04(月) 01:48:38.64ID:AYy/M0Gd
>>459
すまん。テキトウなこと書いてしまった。ただ、load averageはなんか起きてるってのがわかるくらいで、原因の特定にはならないのでほかの指標見た方がよいですよ。
0465login:Penguin
垢版 |
2013/02/05(火) 01:37:12.13ID:ok1ZznSG
>>463
ゲストに見せるCPUの設定変えてみてもダメなのかな。ゲストのxmlの<model>xxx</model>のとことか
0466login:Penguin
垢版 |
2013/02/05(火) 09:57:39.94ID:ZH9FB+ON
>>465
Xeon E5 はデフォルトの cpu64-rhel6 でも SandyBridge でもどっちでもいけるんだけど、
Xeon E3 はどっちもダメです。
0467login:Penguin
垢版 |
2013/02/05(火) 19:51:00.76ID:8w4Y5+pZ
>>466
GPUまわりかな。いずれにしてもFreeBSD側でカーネルデバッグをしてみるといいだろう。
0468login:Penguin
垢版 |
2013/02/05(火) 23:59:12.79ID:ZH9FB+ON
>>467
Xeon E3-1270v2 なので、GPU 無しです。
Host で top とか sar でみると、CPU を 100% くってるので、どこかでループしてそうな感じです。
0469login:Penguin
垢版 |
2013/02/06(水) 20:36:09.06ID:aB8u49PF
何が原因か分からんね。物理に直接インストールしてみたり、仮想デバイス変えてみたりして地道に切り分けて行くしかないのかな
0470login:Penguin
垢版 |
2013/02/06(水) 20:56:38.01ID:44A2GJXi
>>469
物理だと問題無いんですよね。あと、KVM 無しの QEMU でも問題無かったです。
Xeon E3-1200v2 の仮想化支援機能に何か問題があるんじゃないかなーと思ってます。。
ひとまず、E5 を使うことで切り抜けたのですが、
他の方々は E3 で問題無く、FreeBSD 9.1 amd64 disk1 の起動できます?
0471login:Penguin
垢版 |
2013/02/07(木) 18:39:36.28ID:2mak0S6u
>>470
BIOSで何らかのオプションが無効になってるとか?
vなしのE3-1245にSL6.3の環境ですが
怪しい感じも無くインストール、ログインまでいけましたよ
0473446
垢版 |
2013/02/08(金) 09:29:49.76ID:s+XsNCZ6
ちょっとなかなか高負荷にならず、間空いちゃってすいません。
>>460
rw,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=56,retrans=2,sec=sys,
mountaddr=**,mountvers=3,mountport=58074,mountproto=udp,local_lock=none,addr=**
asyncは指定してません。デフォなのでおそらくsyncですね。

>>461
ddで100MBのファイルを5回書き込み、1MBのファイルを500回書き込みとやってみましたが
いずれもキャッシュに載ってしまって200MB/sとかです。
それ以上のサイズは、本稼働中なんでちょっと厳しいw

>>462
readが0〜8000kで平均1000k、writeが0〜5000kで平均1500kといった感じでした。
0474login:Penguin
垢版 |
2013/02/08(金) 09:58:47.24ID:sq66tPlr
>473
乙です。

NFSの引数はあまりわかってないですが、
今のところ、見せてもらった情報からは、
NFSがボトルネックのような内容見えてない気がします。
iowaitは気になりますが、コア8つでロードアベレージが
7ってことは、コア単位で言えば、待ちは1つ以下になるし。

使ってるグループウェアの仕様上のボトルネックみたいな
ものはないんでしょうか。同時接続数がいくつまで・・とか、
無駄にiowaitを生じさせるような動作をしてるとか・・・
0475login:Penguin
垢版 |
2013/02/08(金) 10:21:13.30ID:EJKL/a7r
>>473
NFSのオプションにいくつかイケてない内容があるです

それはクライアント側のマウントオプションだけど、

rsize=8192,wsize=8192 これもっと大きい数字にできる。
うちはrsize=1048576,wsize=1048576

mountproto=udp これ事故る元。
tcpに変えた方がいいです。

syncかasyncかはサーバ側で exportfs -v しないと解らないです。
そこに必ず表記が出ます。
0476474
垢版 |
2013/02/08(金) 10:26:33.85ID:sq66tPlr
NFSの引数について判らなかったために
随分適当なことを言ってしまったみたいですね、
すみません。

rsize, wsizeは昔は8192にするのは定石だったと思いますが、
今はもっとずっと大きいんですね・・・
0477login:Penguin
垢版 |
2013/02/08(金) 10:42:02.04ID:EJKL/a7r
NFSは枯れててあまり最新のネタって無いですからね、仕方ないと思います。
適当でも普通に動いちゃうし。

dstatの結果を見る限り、かなりディスクに負荷かかってるんじゃないかと思います。
ランダムアクセスで常時Read/Writeが1〜2MB/sって、そこそこリソース食ってると思う。

ストレージの無負荷のDiskMark値がないとなんとも言えんけど、
HDD2台のRAID1構成のNFSサーバに、KVMゲストからDiskMarkしたときは、
4kランダムで1〜4MB/sくらいでした。
RAID6遅いし、使ってるディスクの仕様が解らんけど、ストレージもある程度酷使されてると予想。
0478login:Penguin
垢版 |
2013/02/08(金) 10:46:20.85ID:onEADul2
>>475
proto=でなくmountproto=だからあまり問題ないんでは?
0479446
垢版 |
2013/02/08(金) 10:57:16.80ID:s+XsNCZ6
何度もありがとう、参考になります。

>>474
メーカーにさんざん調べさせた結果、もうどう叩いてもこちら側の問題ではなく
サーバー側ディスクIOパフォーマンスの問題である、というのが最終回答でした。
実際、仮想化物理ホストのローカルHDDに載せてしまえば、現スペックでも
こんな程度のユーザー数、アクセス数は余裕で裁ける程度なんですよね。

>>475
なるほど、rwsizeは拡大方向で、計測しながら変更してみます。
mountprotoは無指定なのでデフォ値ですね。これもtcpに変えたら
どれくらいパフォーマンスが落ちるかを計測しつつ検討してみます。
ちなみにfstabのマウントオプションは rsize=8192,wsize=8192,timeo=56,hard,nointr です。

で、nfsサーバー側でexportfs -v をしたところ、asyncでした。
<world>(rw,async,wdelay,insecure,no_root_squash,no_subtree_check)
実際nfsサーバー側で見てる限り、iowaitなんか全くないし
その他負荷もさっぱりなんですよね。
深夜の無負荷時にhdparmでも実行してみます。
0480login:Penguin
垢版 |
2013/02/08(金) 10:59:43.83ID:EJKL/a7r
これは確かにネタが少なくて調べるの大変なんですが、

NFS マウントオプション tcp

これでぐぐったら出てくるよ。(修行中とか言われてリンク貼れなかったorz)

この辺りに書いてあるです。
0481login:Penguin
垢版 |
2013/02/10(日) 01:50:32.82ID:LJwjzQu7
さくらとかの、VPSってKVMつかっているんでしょ
仮想マシンイメージファイルのダウンロード、バックアップって、許可されていないんだろうか
0482login:Penguin
垢版 |
2013/02/10(日) 22:37:49.70ID:UUWVgmws
自分でバックアップとったのをダウンロードして
手元のkvmで動かしたけど、許可必要だったのかー
0483login:Penguin
垢版 |
2013/02/10(日) 23:26:32.03ID:LJwjzQu7
>>482
仮想マシンイメージファイルのレベルで、ダウンロードできるんだ?
0484login:Penguin
垢版 |
2013/02/10(日) 23:44:05.39ID:V8FzsEi4
仮想マシンイメージのダウンロード、アップロード機能提供したら、
-ちょっとでも価格の安い事業者へユーザーが引っ越しちゃう
-繁忙期以外にも無駄に契約させておく事が出来なくなる
なので、余程自信のあるところ以外はやらないでしょ
一応、Amazonが(Xenだけど)提供してたはず。他は聞いたこと無い
0485login:Penguin
垢版 |
2013/02/11(月) 00:31:05.13ID:Cpvy0uGk
さくらのクラウドは対応してるよ。
0486login:Penguin
垢版 |
2013/02/11(月) 14:07:29.26ID:3/TB2HI+
>>485
じゃ、自宅のKVMで仮想マシンをつくったのを、
さくらVPSでそのままアップロードしてつかえるのかな?
0488login:Penguin
垢版 |
2013/02/11(月) 19:36:49.11ID:3/TB2HI+
○さくらのクラウド
×さくらのVPS

同じものだと思っていました。
ちがうってことですね?
0489login:Penguin
垢版 |
2013/02/11(月) 19:37:53.74ID:3/TB2HI+
クラウドの定義ってあるんですか
VPSのことがクラウドだと思っていた
0490login:Penguin
垢版 |
2013/02/11(月) 19:41:52.54ID:u2cb6J4c
ぐぐればすぐわかることをいちいち聞くキチガイは
死んだほうがいいと思うよ。
0492login:Penguin
垢版 |
2013/02/16(土) 00:39:37.80ID:dPtclbyw
KVM使ってて、たまにVirtual Machine Manager越しに

This usually means that QEMU or KVM is not installed on your machine, or the KVM kernel modules are not loaded.

って出て新規ゲストが作れなかったり、マイグレーション出来なくなることってない?
調べてもわかんねーんだが。
ログにもたいした内容出てないし。
0493login:Penguin
垢版 |
2013/02/22(金) 14:23:41.62ID:2+V5LRUA
ホストとゲストに同じディスクの同じパーティションをマウントしてます.
片方でそのパーティションを変更しても,もう片方ではその変更が
同期されないんですけど,同期させるにはなにかオプションとか
必要ですか?
0494login:Penguin
垢版 |
2013/02/22(金) 16:52:21.66ID:Zu99WWbz
何がどうなってんのか詳しく書かないと解らんです。

どうやってマウントしてるのか、ゲストのOSは何なのか、
何をマウントしてるのか。
0495login:Penguin
垢版 |
2013/02/22(金) 17:04:47.58ID:2+V5LRUA
>>494
どうも,詳しく書かせてもらいます.

OSはホスト,ゲスト共に Debian squeeze です.
「ホストの /dev/sdf というディスクをホスト,ゲスト両方で使いたい」というのが目的です.
/dev/sdf は3TBのHDDでパーティションは1つのみ,ファイルシステムはext4でフォーマットしてます.
ホストでは普通に
host# mount /dev/sdf1 /mnt
でマウントしていて,中身がきちんと見れます.

ゲストの方は,libvirt で /dev/sdf を disk device として接続しており,
ゲストでは /dev/vdd として認識されています.これで
guest# mount /dev/vdd1 /mnt
とやると普通にマウントができて,最初にマウントした時は両者とも
/mnt 内のファイルは一致していました.

しかし,片方で新しいファイルを作ったり削除しても,もう片方のほうでは
それが反映されません.というのが問題点です.

mount のオプションかなー,とおもって どちらのマウントも sync にして見ましたが,
結果変わらずでした.なにかご意見お願いします.
0496login:Penguin
垢版 |
2013/02/22(金) 17:15:57.85ID:2+V5LRUA
また,/dev/sdf のディスク以外もゲストに接続しているので,
そのディスクでもホスト,ゲスト両方でマウントして,
同様に内容を編集してみましたが,やはり内容の編集は
反映されませんでした.特定のディスクの問題という
わけではないようです.

今までは各ディスクはゲストのみで使うようにしていて,
ゲスト,ホスト両方で使う用途がなかったので気づきませんでした.
0497login:Penguin
垢版 |
2013/02/22(金) 17:20:25.80ID:2+V5LRUA
連レスすいません.
詳しいバージョンを書いておきます.
デフォルトの sueeze の kvm と libvirt が古かったので,
backports の新しいものをインストールしています.

カーネル: 2.6.32-5-amd64
kvm: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-5~bpo60+1, Debian)
libvirt: 0.9.12
0498login:Penguin
垢版 |
2013/02/22(金) 18:27:41.60ID:Xu/vRH7T
共有想定してないファイルシステムを複数箇所からマウントすると壊れないか?
0499login:Penguin
垢版 |
2013/02/22(金) 19:10:09.21ID:4MroaQFK
クラスタファイルシステム使わないとダメかと。でもNFS使った方がお手軽かも
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況