KVM(Kernel based Virtual Machine)を語れ 2
■ このスレッドは過去ログ倉庫に格納されています
keymapがおかしくなるのは仮想マシン?それとも virt-manager自身? 仮想マシンのkeymapがおかしくなるのは、keymapを 定義してないからではないでしょうか。 自分もMacからSSH越しでvirt-managerを使っているけど keymapで困ったことはないです。 「mac xサーバ virt-manager」とかでググるといろんなサイトで.Xmodmapいじれって書いてあるけど 画面共有の方法を教えてください。 下記環境で使っていた時は、サーバの仮想PCの画面と クライアント側UltraVNCで同時に同じ画面を表示されることができてました。 サーバ:centos6.2でKVM クライアント:Win7 + UltraVNC このサーバにCentOS6.3をクリーンインストールしてKVM環境を構築すると、 サーバで仮想マシンの画面を開いている時はクライアントVNCが接続できず、 サーバの仮想マシンの画面を閉じている時のみクライアントVNCが接続できる様な具合になってしまいました。 これを以前の環境(centos6.2)と同じように、2つのPC間で同時に同じ画面を表示させたいのです。 複数ホスト運用時、 /etc/libvirt/qemu 以下のXMLファイルってどうしてる? できれば同期的に最新状態にしておきたいんだけど、 cronで定期的にrsyncで回すとかで問題ないもんかな…? リアルマシンの台数を削減するためKVM(ホストはCentOS6を予定)上に集約させようと思うのですが、 現在運用している環境を再構築するのは面倒なので今のリアルDiskイメージから仮想イメージが作れれば比較的簡単に移行出来るのではないかと考えています、 その様な方法は可能なのでしょうか? 可能であればリアルディスクイメージを仮想ディスクへ変換するツールなどあるのでしょうか? なお動かしているシステムは特別なハードに依存していないのでKVMの仮想ハードでも問題なく動くと考えていますがどうでしょうか? >>176 CentOS6.3のvirt-p2vパッケージの中にISOイメージ入ってる >>176 ごめん。ドキュメントのURL貼り忘れた。 ttps://access.redhat.com/knowledge/docs/en-US/Red_Hat_Enterprise_Linux/6/html/V2V_Guide/chap-V2V_Guide-P2V_Migration_Converting_Physical_Machines_to_Virtual_Machines.html HDDを適当なLinuxマシンに接続して、後は dd コマンドで丸ごとイメージ持ってくればいいだけ違うの? ご存知の方がいれば教えて下さい。 KVMのVNCサーバってホストOSにXが無いと動かないでしょうか? ホストOS(Gentoo)にゲストOS(Gentoo)を作成し、 クライアントPC(Windows)からゲストOSへ、 UltraVNCでアクセスしようしています。 ネットワーク設定はブリッジ接続で行っており、 レイヤ3レベルの疎通性は取れているのですが、 tcpdumpしてみるとポインタの位置情報のやり取りを、 ゲストOSのVNCからバチっと切っているようでして、 ひょっとしたらホストOS側にXが必要なんではないかと。 ホストOSがGentooという事でスレ違いでしたらすみません。 >>180 listenがループバックになってんじゃないの? >>181 さん レスありがとうございます。 deamonizeで動かしている状態で、netstat -l -tしてみました所、 tcp 0 0 *:5900 *:* LISTEN となっていました。 なのでlistenループバックは多分大丈夫です。 理解が間違ってたらすみません。 libvirt つかってるけど、qemu.conf にこんな設定がある。 なんかの参考になれば... # VNC is configured to listen on 127.0.0.1 by default. # To make it listen on all public interfaces, uncomment # this next option. # # NB, strong recommendation to enable TLS + x509 certificate # verification when allowing public access # # vnc_listen = "0.0.0.0" >>183 さん レスありがとうございます。 ひょっとしたら省略可能とは聞くものの、 -vnc :0で端折ってるのがいけないのかな。。。 今までqemu-kvmコマンド直打ちで試していたのですが、 一度virtshでの設定と運用を試してみたいと思います。 kvmでゲストOSを起動する際にドメインIDを固定にさせたいんですけどそういう方法ってありますか? 調べてみたけど <domain type='kvm' id='3'> これだとvirsh editで編集しても元に戻っちゃうから書き方が間違っていると思うんですが・・・ >185 virsh domid で id 取得するんじゃダメなの? >>186 管理NoとドメインIDを統一したいんです。(わざわざ管理Noが書かれた別ファイルを開きたくない) libvirtd起動時にドメインIDがランダムに割り振られちゃうので指定できればと思ったんです。 xmlで設定できれば良いんですがラッパープログラム書かないと難しそうですね。 >>187 listで出てくる数字とuuidを統一したいとか? 根本から考え違いしてないか? そこはいい加減決めよう! Q1. デバイスパススルー使いますか? Q2. ディスクI/Oは多い方ですか? Q3. Linuxは好きですか? Yesが多ければKVM、Noが多ければESXiくらいの感じで。 >>188 listで出てくる数字(ドメインiD)とサーバの管理番号(Excelに記載しているサーバの管理No)を一緒にしたいってことです。 uuidとかはまったく関係がなく単純にドメインIDを指定した番号に固定出来ればいいだけです。 KVMってWindowsがゲストの場合にモタつく感じがするんですが ESXiだとサクサクになるんでしょうか? >>191 単にドメイン名をその管理番号?にすればいいのに。 ドメインIDは「起動中の」ゲストを特定するIDでlibvirtが付与するもんだから、 Excelというか構成管理側で管理する値じゃない。 http://libvirt.org/drvqemu.html#xmlconfig http://libvirt.org/formatdomain.html#elements >>193 ドメイン名はゲストのhostnameで使うんですよね・・・。 virsh dumpxmlで出た値(id='xx')はやっぱり固定に出来ないようですね。 おとなしくwrapper書く事にします。 ありがとうございました。 >>192 使った事ないけど知り合い曰くkvmよりもはましらしい。 (windowsメインならおとなしくHyper-V) linuxメインならこれ使ってみるとか。 ttp://www.linux-kvm.org/page/WindowsGuestDrivers/Download_Drivers >>194 KVMよりマシなら試してみる価値ありそうです、 Hyper-Vも検討してみます。 >>192 両方使ってるけど、 ESXiの方が若干軽い感じがする。>Windowsゲスト つーか、ESXiはハードウェアの好き嫌いがかなりあるからなぁ。 手持ちのマシンで何も考えずにお手軽に仮想環境が作りたいなら KVMの方がいいかもしれん。 >>192 ディスクイメージを SSD に置けば気にならなくなるかも 以前の virt-manager って表示を 「稼働中のVM」とか「停止中のVM」って 切り替えられた思うんだけど、 最近(手元には0.9.0と0.9.4)ではなくなった? 縦に一杯並んじゃって見にくい。 一つのVMに9個以上のPCIデバイスを割り当てようとするとエラーになるんだが、 どこの設定を弄ればいいんだろう MAX_DEV_ASSIGN_CMDLINE(8)で思いっきりハードコーディングされてるのか… ダメじゃん…OTL なんでこんな制限設けてるんだ ハードコーディング=弄れる設定ではないってことです。 ちょっと事情があって自前でビルドできないので。 ダメ元で提供元に依頼をしてみる。 エミュレートしているBIOS/PCIブリッジの仕様だったりはしない? 最近KVMに興味出てきたんだけど ESXi上でKVMて動く? 仮想化支援引き継ぐように設定されてれば条件満たすけど? nested(入れ子)VMに対応したCPUなら出来る NestedVMって概念を初めて知った。 メインフレームとかその手の技術かと思ったら Intel VT 詰んだその辺のマシンとVMWareでも出来るんだな、、、 便利に成ったもんだなー ESXi上でESXi動いたけどその環境ならESXi上でKVMも動かせるって事か >>207 intelVTだけじゃ動くかどうか判らないよ >211 実機じゃなくてもハイパーバイザーの検証ができるとか >>211 仮想環境ごと仮想化できるメリットを理解できないとかw >>212 はわかるけど >>213 はわからん >>212 以外の必要性ってあるのかよ わかんない人は関係ない人だから聞いてもわかんないよ、どうせ。 でもわかんない人の関係のない世界では、多重の仮想化はもはや欠かせない 技術になっている。できないと崩壊するくらいに必須。 ポンコツな「パーソナルコンピュータ」しか触ったことのない人って見ててかわいそうだよね 仮想の多重化て実験以外の必要性が思い浮かばないのだが いったいどんな時に必要になるんだ? >>215 を可能な限り好意的に解釈してみると 仮想ホストを乗っかってるゲストごとライブミグラチオンするとか 仮想ホストを乗っかってるゲストごとFT鯖化するとか メーカーも機種も異なる屑鯖の山でハードウェアリソースをプールして仮想ホスト&ゲストを乗っけるとか 実験にしか使えんな メインフレームとかPowerPCやItaniumみたいな非x86_64積んだのや VMwareESXなんかの複数台をまとめて1仮想ホストで使える環境でなら、 仮想環境上にx86_64linuxなりを入れて更にxenやらKVM使うことはあるよ。 メリットは管理運用上や、ゲストOS・中間ホストOSで発生する各種上限の回避じゃないかな マジでそんなアホな案件通す会社があるのか? 仮想化使う保守管理費用がすげー事になりそうだが >>226 メインフレームのリプレースやサーバー数百台以上の統合レベルの案件だったら十分あるでしょ。 すでにハードウェアの保守管理費用がすげー事になってたはずだし、移行費用とランニングコスト次第じゃないかね。 ゲストOS/中間ホストOSで発生する各種上限の回避ってのが、 例えばESXiサーバの上にKVM用のLinuxを立てたとして、そのLinuxは ESXiの制限に縛られるものなんじゃないの? 逆もまた然りで。 けっこうぬるい仕事しかしてない奴がほとんどなんだな。 VM on VMの利点すら考えつかないなんて、そうとうに楽して 稼いでいる感じ。 >>230 データセンタで監視のお仕事ご苦労様です。 明日も出勤頑張ってくださいね。 >>234 1:Windows 7上のXPモードが使える 2:ハイパーバイザのデバッグ(=開発)が簡単になる 3:組み込みハイパーバイザでも柔軟性が高まる 一般ユーザだとせいぜい1ぐらいしかメリット無くないか? それも製品版XP持ってたらメリット無いしLinuxメインだと全然関係無いね まぁ全く意味ないと言う事ではないが必死に必要性を力説する程じゃないな 商用の仮想アプライアンスはESXiで動く前提のものが多いから、 KVM上でESXiを動かせば多少はメリットがあるかな。 ただ、オーバーヘッドは気になる。 そう考えるとVMonVMというよりはESXionVMって感じか お前らは VMware 商用クラウドのVM上で XenDesktop 動かしたいとか言い出す変態SIerをパートナーに持ってないだけ幸せだよ まあうちのクラウドサービスではネスト許可してないんだけどな 中古のPCでも目の前にドンて置いてやって「好きなだけ動かしな!(ペッ」って言ってやれ >>239 お前がさくらだったら愚痴言いたい そろそろ使えるようにしないと更新時期に出てきますよ… でてって VM on VM 可能な VPS なんて CPU 貧弱であろう Core Cloud VPS 位か… Phenom 9550 の 4 Core 中 1 Core じゃなぁ… 上位プランまだすk 遅レス。スレタイ100回音読してた >>240 力関係がSIer>>>>>>インフラ屋だったから。「こんなのいつもやってますよ当たり前ですよ」だって 客まで洗脳されて「何でダメなの」って言い出すんだぜ。何なのこれ 案の定空中分解してSIer自身も失注したけど >>241 違います。さくらは安すぎて怖いよねー。個人的にも使いたくないね >>242 突っ込みどころは「KVMじゃないからスレ違い」だろ? >>243 自分語りで目立ちたかったからじゃないの? というわけで以下KVMの話題↓ スマン 興味本位で聞くんだけど多段ネストって出来るの? やったこと有る人は最高何段? >246 実機で動いているVMの上で、VMを動かしてOSを動かしている状態? つまり3段重ねって事でしょうか? ベンチじゃなくて雑感としてで ケッコウですが、処理速度は実機の何割くらいの感触になるんですか? >>247 うん 処理速度的にはネイティブの2割〜3割位かな 色々パススルー駆使しまくってもね あと思ってる以上に安定性悪いよ、10年以上前のvmware使ってるような感じ >248 情報有難う御座います。 思ったよりパフォーマンス高いですね。 ハードによるサポートのお陰かな。 安定性が低いのはどうしてなんだろう? 仮想化がちゃんと行われて いるのなら子プロセスで行われる作業も孫プロセスでの処理も変らない筈、、、 オーバーヘッドが大きくて処理待ちしている間に、親の方でエラー扱いに してしまっている、、とかかな 「ネイティブの2割〜3割位」ってことは 1/3〜1/5倍速って感じだよね それで「思ったよりパフォーマンス高い」のかw WANとLANを繋ぐルーターを仮想マシン上に委譲しようと思う。 生回線と比べてどんだけ性能低下するんだ? >>250 ここは日本語の勉強をするスレではありませんよ。 日本語が理解できるようになってから来てくださいね。 >>250 の言ってることは何も間違ってないと思うのは俺だけか? 2割〜3割位 20% 〜 30% 1/3〜1/5倍速 33.3..% 〜 20% >>250 その速度だとホスト型の方が速そうだw >>251 元々のルータが一般に市販されてるルータだとしたら ホストの処理能力によるけど普通に市販ルータよりはスループット高いと思う >>255 すいません。元はLinuxルーターです。 >>251 GbE-[VM NAPT]-GbE, 他の負荷無し, NAPT 1session でiperf計測900Mbpsぐらい BGPでフルルート食わせても、10GbEで8Gbpsくらい出てるよ。 >>259 ホストマシン上で直接ってのはやってないのでわかんない。 環境としては、 A)iperf送信側 Dell PowerEdge R210II / Xeon E3-1270 3.40GHz / 16GB CentOS 6.2(64) 2.6.32-220.7.1.el6.x86_64 #1 SMP VM qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64 / 1vcpu / 2GB CentOS 6.2(64) 2.6.32-220.13.1.el6.x86_64 #1 SMP iperf 2.0.4 (7 Apr 2008) pthreads 仮想ブリッジは Open vSwitch 1.4 B)iperf受信側 Dell PowerEdge2950 / Xeon E5405 2.00GHz / 2GB CentOS 5.7(32) k 2.6.18-274.12.1.el5 #1 SMP iperf 2.0.4 (7 Apr 2008) pthreads C)vyatta HP DL120 G7 / Xeon E3-1240 3.30GHz / 16GB CentOS 6.2(64) 2.6.32-220.7.1.el6.x86_64 #1 SMP VM qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64 仮想ブリッジは Open vSwitch 1.4 vyatta-livecd-virt_VC6.3-2011.07.21_i386.iso 1 cpu / 512MB 割り当て A -> C 直接 941Mbps (ovs で tag/untag処理入り) A -> B -> C 870〜941Mpbs 平均で930Mbpsぐらい (ovs で tag/untag処理入り) vyattaでやってるのは192.168アドレスからグローバルアドレスへのNAPT処理のみ iperfのデータしか流してない低負荷状態なのでピーク性能でこんなもんって目安になれば。 KVMは使いものにならないゴミだから 調べる価値もないよ。 マイグレーションはESXいの10倍かかるし HAすらできないゴミだし。 >>265 >>266 > KVMは実際にゴミ > 大手は絶対に使わない。 じゃないか?大規模商業ベースで使うにはいまいち信頼できないな。 個人で遊ぶには丁度いいと思うが。 http://www-03.ibm.com/systems/virtualization/infrastructure/open/offerings.html > We use KVM to provide the underlying hypervisor for this IBM public cloud ほい ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる