【PVE】Proxmox VE【KVM, OpenVZ】
■ このスレッドは過去ログ倉庫に格納されています
Debianベースのアプライアンス、Proxmox VEを語りましょう!
公式サイト
http://www.proxmox.com/
proxmox wiki(日本語)
http://ja.wikipedia.org/wiki/Proxmox_VE_(%E4%BB%AE%E6%83%B3%E5%8C%96%E3%83%97%E3%83%A9%E3%83%83%E3%83%88%E3%83%95%E3%82%A9%E3%83%BC%E3%83%A0)
proxmox wiki
http://pve.proxmox.com/wiki/Main_Page
公式から無料でisoを落としてきて、CDに焼いて CD bootしたら
インストーラが起動してグラフィカルに簡単インストール。
インストール完了後すぐに他のマシンからhttpでWebアクセスして
使える。Web管理画面は日本語対応。
内部ではKVMやOpenVZが仮想化基盤として使われている。
VMware ESXiのような感じに使えると思うので、乗り換えの方もぜひ。 >>749
だから人それぞれ
個人利用でそれだけのスペックが必要な人がどれだけいるんだか
スペック自慢なんてただのオナニー
そんな事よりもしっかりしたクラスタ組んで
動かすべきものと守るべきものをちゃんとプライオリティ付けて選定して
最小限のバックアップをこまめにちゃんと取ることを考える方がまとも
ちゃんと動かせるようになってから
ちゃんとした物を動かして
必要になったらスペックアップする事を考えればいいと思う
スペックとか最初から他人の真似する必要性は一切無いよ N100を4台より、その4台分でRyzen1台のがワッパも良いけどなあ 低クロックの多コアサーバCPUより
高クロックのコンシューマCPUのほうが
体感は全然速いしな
用途に合わせたもの選ぶが吉 一台はハイスペ、一台はロースペ みたいにしてもいいんじゃない
オレはそう proxmoxの枠内でやってるならcephとかでは? クラスタ組む時って、ストレージどうしてる?
小さいサイズだと、SATAが少なくていつも悩んでる。 内臓はSSDでNASにNFSとかsambaいれてるよ NASにするのでもなければ2TB*3ノードで足りちゃうからな >>756
物理の片側を落としたい時に、もう片側へ全ての仮想を一時的に退避させるとか。 趣味の範囲なら金持ってて羨ましい
小遣いでは稼働機1台維持するのでカツカツやで 718です
忙しくてスレ見れなかったごめん
うちの自宅サーバはいわゆるサーバ機器です。PCをサーバにしているわけではありません。
中古品を組み合わせたもので、本体3万くらい、CPU7万くらい、メモリ覚えてないけどそんなでもない価格(408GBで24スロット全部埋まるような構成なんで8GB〜32GBまで様々)
たくさんのVMを同時に動かすためだけに使ってるので電源切ってることもあります。
↓こんなのです
https://imgur.com/a/lKQuW0N 連投ごめん
ストレージは400GB SSDx3 RAID0、450GB HDDx5 RAID5とショボイです。
2TB SSDx3とかにしたいけど高くて・・・ 常時起動じゃないのね
それなら170Wで気にしないのも納得 >>766
2699V4*2
いつかやりたいと思っていたけど今からだともう絶対やりたくない構成w Eypc7551pで256GBしか積んでないけど平時113wくらいで済んでるよ 知り合いからGenoaのサーバーが格安で手に入るけどいらないかと言われアホみたいなスペックのサーバーを買ってしまった.. >>759
サンキュー HDD無しで済んでいるの、良いね ネットワークの設定で設定後
apply configlation押すべきところをもっと上位のところのREBOOTを押してしまったことで
デフォルトゲートウェイの設定が狂ったのか、WEBコンソールにログインできなくなってしまったのですが
仮想マシンのデータはもちろん再利用するとして、本体インストールからやり直しでしょうか、、。 >>768
電力メーターよく見て
POST時は跳ね上がるけどいつも190W行ったことない
>>769
718で書いたPCの方の133Wはスイッチとかスマホ充電とかいろんな機器のACアダプタ込みでした
切れるだけ切っても75Wに落とすのが限界でした・・・
電気代高いけどずっとそうだから気にしていません
>>770
ですよね
このサーバいつ頃買ったのか覚えてないけど去年マザーボードを不注意で壊したけど6000円以下でM/Bだけ買えたのでそういう扱いですね コンソールにログインできなくなって再インストールしたのですが、
以前の仮想マシンが入ったデータディスクを認識させることができず、どなたかお力借りられませんでしょうか。 DISKSでは認識してるのにデータセンター、ストレージADDでnodesに選択肢は出ない、directoryに
ノード-DISKのdeviceにあるアドレスを指定したら既にあるといわれ
ノード-DISKーLVMーcreateを選択すると、no disk unused とでる。
仮想マシンの入ったディスクを異物として認識してくれない。
なぜなのか。ESXIなら、何もしなくても認識してくれるのに。 UUIDそろえたのか?blkid | grep sda1 | grep UUID=確認しろってかいてあるだろ >>780
困った時のお言葉大変ありがたく思います
何をした時に出る警告でしょうか
そのUUDIはどこに出るべき項目になりますでしょうか
ノードのUUIDのようなものがあるのかあくまでパーティションの話なのかもいくら調べても理解できず blkid | /dev/nvme1n1 | grep UUID
blkid | /dev/nvme1n1p1 | grep UUID
shellでこれを打ってみると
permission dinied /dev/nvme1n1p1: UUID="28a7aabf-8bac-4cb8-b166-e99f0db2f4bf" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="61c95a91-e010-45fe-b74a-f43a13dde761"
こうでたので ADD DIRECTRYのIDに28a7aabf-8bac-4cb8-b166-e99f0db2f4bf
と入れましたが拒否されました
多分頓珍漢なことしてるのでしょうね 仮想マシンのディスクが認識できなくなるって絶対に起きてはならないことのはずなんですが
あまりに軽いトリガーで食らって放心してます
もう再インストールは解決ではなく、ここから復帰できないようでは、別の使うしかなく。
仮想マシンデータとのつながりが安定してるのはどれなんでしょうか。
ひどい目にあってます。 あーやっちまったのかw
LVMに組み込まれてないとかか? つーかスキル的に再インストール時に初期化してそうだな
仮想マシン入ってるのをw >>785
webコンソールじゃないコンソールってあるんですか?
PC本体の画面から入れるような
>>787
さすがにディスクは外してますが、その後の認識作業で何やっちまったかは謎 >>786
試しに新しいディスクを増設したらLVMから簡単に増設できたので、旧データディスクを新システムディスクが認識しないという状態なのはわかりました 今試せないけど、ProxmoxをインストールしたPCにモニターとキーボードを繋げておけば、起動後に画面からCUIでログインできなかったっけ。 PVE再インストールやったことないけどそんなメンドイのか
UUID見つけてマウントするだけかとオモタ >>792
ホスト名+login
と画面に出てますがこれに何を入れても、入れた後に出てくるパスワード要求の再文字が入力できずエラーとなります
>>794
そう聞くとできそうな気がするんですけどねw
公式フォーラムでも質問スルーされててあれ? GPT
Proxmox VEを再インストールする際、以前のインストールで作成されたLVMボリュームグループは自動的には参照されません。これは、新しいインストールでは新たなLVM構成が作成され、以前の構成は上書きされるか無視されるためです。ただし、以前のLVMボリュームグループがディスク上に残っていれば、手動でそれらを再度参照することが可能です。
再インストール後に以前のLVMディスクを参照するには、以下の手順を行います:
物理ボリュームの確認:
pvs コマンドを使用して、以前のインストールで作成された物理ボリュームがシステムに認識されているか確認します。
ここでこけました
lsblkの出力から、nvme1n1ディスクにはパーティションnvme1n1p1が存在していることがわかります。しかし、このパーティションがLVMの物理ボリュームとして設定されていないようです ベースにベタスキャンしてLVMを物理デバイスから探し出すコマンドがあったような。
自分の認識ではエクスポート的な処理があるはずなのでそれ無しでディスクを持ってきたら自動では取り込まれないんじゃ無いかな疑惑。
現行システムの管理下に入って無ければリストアップされないけど取り込みコマンドからなら見えるとか、そんなオチだったりしない? >>797
GPT先生もわからないようでそういったコマンドは見つからないです
ちょっと旧環境のESXIの継続も視野に入れつつ >>795
ESXiは自動認識してくれるから賢いよな >>801
esxiは右シフト効かない事あるからクソ >800のコマンドで無事storageが認識できたとしても/etc/pve/のバックアップは無いだろうからVMの復旧までもう一手間かかるかな。
NFSやPBSにVMをバックアップしていれば簡単だけど。 >>775~
LVMだとして、PROXMOX新規インストール
Datacentor -> Storage -> add -> LVM
Volume group: [ 旧ストレージのLVM名を選択 ]
ID: [Volume groupと同じにするか適当な名前を入力]
Addを押して追加(これで普通に仮想マシンの仮想ディスクが見れるようになる)
あとはCreate VMで元の設定と同様の仮想マシンをディスク無しで作成
シェルから
# qm set 100 -scsi0 Storage-Name:VM-Disk-Name
# qm set 100 -boot order=scsi0 nvme2n1 259:0 0 465.8G 0 disk
nvme0n1 259:1 0 465.8G 0 disk
省略
nvme1n1 259:2 0 1.8T 0 disk
└─nvme1n1p1 259:6 0 1.8T 0 part
これが問題のディスク >>805は>>804を実行した結果どうだったのか気になる・・・ >>804
投稿できてなかったみたいです
Volume group: [ 旧ストレージのLVM名を選択 ]
は
PVE一択
システムディスクにLVMが作られる結果に >775
質問主は復旧したいディスク(ドライブ)をどの管理方法で初期化したのかを明確化してほしい
PROXMOXの場合、{ LVM,LVM-Thin,ext4,xfs,ZFS }辺りはWebコンソールで扱える
今までの質問の文脈から LVM or LVM-Thin 辺りと推論してるが、そのあたりが間違えてると手順の説明も異なってくる
例えばLVMやLVM-Thinで扱ってた場合でシェルから [ # lsblk ]を実行すると以下のように表示されると思う
sdbがLVM、sdcがLVM-Thinで管理されてるディスク(ドライブ)
sdb 8:16 0 10G 0 disk
├─d2-vm--101--disk--0 252:0 0 1G 0 lvm
└─d2-vm--100--disk--1 252:2 0 1G 0 lvm
sdc 8:32 0 10G 0 disk
├─d3-d3_tmeta 252:3 0 1G 0 lvm
│ └─d3-d3-tpool 252:5 0 7.9G 0 lvm
│ ├─d3-d3 252:6 0 7.9G 1 lvm
│ ├─d3-vm--101--disk--0 252:7 0 1G 0 lvm
│ └─d3-vm--100--disk--0 252:8 0 1G 0 lvm
└─d3-d3_tdata 252:4 0 7.9G 0 lvm
└─d3-d3-tpool 252:5 0 7.9G 0 lvm
├─d3-d3 252:6 0 7.9G 1 lvm
├─d3-vm--101--disk--0 252:7 0 1G 0 lvm
└─d3-vm--100--disk--0 252:8 0 1G 0 lvm
もし>>805の回答ならext4やxfsで初期化の可能性が高くなる・・・ >>807
シェルから [ # fdisk -l ]を入力してnvme1n1の項目を見た時に
Typeの項目が Linux filesystem で表示される?
WebコンソールのDisksの項目を見た時に該当ディスクの nvme1n1p1 の Usage項目が ext4 or xfs って表示じゃないだろうか? # lsblk ]を実行すると
/dev/nvme1n1p1 2048 3907029134 3907027087 1.8T Linux filesystem
DISKS の項目は
DISKS USAGE
nvme1n1 partitions
nvme1n1p1 ext4
になりました >>810
一時的に読み出す手順として(自分は正式なインポート手順は把握してない)
シェルから
# mkdir /mnt/pve/mount-name (mount-nameは好きな名前で(pve以外のディレクトリでも問題ないはず))
# mount /dev/nvme1n1p1 /mnt/pve/mount-name
※エラーが出なければ問題なくマウントされてるはず
Webコンソールから Datacenter -> Storage -> Add -> Directory
ID: [適当な名前]
Directory: [ /mnt/pve/mount-name ] (シェルで指定したパス)
Content:[必要な項目を適切に選択]
[Add]押す
これでWebGUIで見えるようになる
再起動後にも自動でマウントする必要が有るなら[ /etc/fstab ]を編集
まずはここまで問題なく出来るか試してみて?
>>811
アク禁の場合5chのcookieを削除すると回避できる場合がある redをマウントネームにして
# mkdir /mnt/pve/red
としたら
mkdir: cannot create directory ‘/mnt/pve/red’: No such file or directory
こうなってしまいました # mount /dev/nvme1n1p1 /mnt/pve/red
としたら
mount: /mnt/pve/red: mount point does not exist.
こう帰ってきました mkdirでエラー出てるだろ
スキルないなら辞めとけよ
無理だわお前にはwwwwww >>813
新規インストール後だと、/mnt/pveが存在しないのかも
# mkdir -p /mnt/pve/red
[ -p ]のオプションで上位(親)のディレクトリごと作成されるはず
>>814
先にmkdirのコマンド成功しないとmountは出来ない! proxmoxはLinuxを扱えるのが前提だから
Linuxの基本すら解らん奴には無理
自覚無いだろうけど
人に聞かないと何も出来ないのは
周囲に迷惑かけてるだけだから自重しろ >>816
>>先にmkdirのコマンド成功しないとmountは出来ない!
前提条件はわかってはおりましたが自信がないので全方位でのレスをさせていただきました
# mkdir -p /mnt/pve/red
と812によって
red 2テラのSSDを認識させることができました
最大の山場は越えた感じです
次は仮想マシンの作成ですが
# qm set 100 -scsi0 Storage-Name:VM-Disk-Name
strage のIDがred
仮想マシンディスクが
vm-102-disk-2.qcow2
なので
qm set 100 -scsi0 red:vm-102-disk-2
としましたが
e to parse directory volume name 'vm-102-disk-2'
と帰ってきてしまいました まあVMwareがあんなだし、PVEのサポートをする国内業者も増えてくるんじゃないすかね >>816
現状
ストレージ
ID 種別 内容 パス
RED ディレクトリ ディスクイメージ /mnt/pve/red
red
VMディスク
〈100と101は重要ではないので〉
vm102-disk-0.qcow2
vm102-disk-1.raw
vm102-disk-2.qcow2
となっております インストールディスクなしで仮想マシンを作って何度か失敗しながら
qm set 104 -scsi0 red:104/vm-104-disk-1.qcow2
こんな感じのコマンドで復帰できました
ESXI難民として大変助かりました。ありがとうございます。 >>818
恐らく以下のコマンドで強制割り当てできると思う
# qm set 100 -scsi0 red:102/vm-102-disk-2.qcow2
100や102やファイル名は環境に応じて修正してね
割り当て出来たら後はWebコンソール画面からディスクイメージを他のストレージに移動したり
他の仮想マシンに移動したりできるようになるはず 複数あるLAN回線のコントローラーをe1000とVIRTLOで混ぜてしまったらウィンドウズが起動中に止まってしまって、シャットダウンもハードオフも効かなくなってしまったので
再起動
そうしたら
TASK ERROR: volume 'red:104/vm-104-disk-1.qcow2' does not exist
となって起動できなくなっていました
上のストレージ 'red
VMディスク
が空っぽ
こ、これは 812に/etc/fstabについて書いてるので見直してきます
すいません nano /etc/fstab
で
/dev/nvme1n1p1 /mnt/pve/red ext4 defaults 0 2
を加えて最初は起動失敗みたいな画面に行きましたが再度起動したら
起動時に認識してくれました。
しかし、これからもどんな地獄が見れるのかと思うとちょっと怖いです。
ESXI難民に幸いあれ
ESXIの個人使用をし続けるのも怖いのでノリで決めます。
# mkdir -p /mnt/pve/red
これがネットでもGPTでも全くたどり着けなかったので大変助かりました >>826
過去には>>242のような悲劇があった
バックアップは大事 結局何が原因だったの?マウントできてなかった感じ? 認識されねーっていってたドライブがLVMじゃなくてext4でフォーマットされてた。
それをLVMで認識させようと頑張ってた。 一つ起動できたので、そのマシンをクローンしてハードディスクだけ乗せようとしたら
最初にできたマシンのディスクが大量にクローンされてしまい
その新しくできたディスクを消そうとしたらこれまた自然に、本来のディスクが消えてしまいました。
数個の仮想マシンのデータを自ら破壊。
ネットワークなど複数あり、BIOS等設定項目多いので面倒ですけどイチから仮想マシン作ったほうが安全なんですかね
ちょっとわき道にそれた時にくる不可抗力の不可抗力のペナルティーに変わらず苦戦
>>829
lvm-thin
で最初登録したはずなんですけどね >>829
lvm-thin
で最初登録したはずなので、なぜext4だったのか
過去いったいどんな変なことをすればそうなるのか
初代はlvm-thinで教科書通りに登録した記憶ですので、初代構築時どんな余計なことをしてしまったかわかればすっきりするのですけど、
その辺がはっきりしないと初心者お断りなもやが晴れないです
ESXI8.0のライセンス済みインストールディスクは保険として持っておいてとりあえずはPROXを使っていきたいと思います
旧ESXIの18コアXEONが重くて引っ越そうとしたので自分は一人初心者で苦戦した感じで、ESXIのマシンを多くの人が新調するタイミングで
PROXMOXに苦戦する初心者の数はにわかに増えるんじゃないかなと思ってます(7950は1コア2スレッドで十分快適です)
自分はタイミング的に最悪でした
もう半年前にマシン新調してたらまだESXIでした >>830
[ /dev/nvme1n1p1 ]は微妙な状態で運用してるので(Webコンソールの本来のDirectoryに表示されてなくWebから管理できない)
(この状態の適切な対応方法を自分はしならい)
ほかのストレージを用意して強制割り当てしたディスクイメージをすべて移動(バックアップも)して動作確認してから
[ /dev/nvme1n1p1 ]を初期化して再度登録して運用した方が良いと思う
※移動することでファイル名がPROXMOX法則の物に更新され適切に管理できる状態になる
どちらにしてもext4で運用するのは信頼性の面から回避した方が良いと思う
理想はZFSのMirrorやRAIDZが良いと思う(究極はCephか?)
妥協してもLVM or LVM-ThinでゲストがLinux系ならゲストのファイルシステムもext4は避けてxfsかzfs辺りが無難 ディレクトリの切り方も知らんやつが信頼性とか大草原 >>832
念の為、/dev/nvme1n1p1を初期化したあと、再登録する前に、
/etc/systemd/system/mnt-pve-red.mount のサービス停止と削除
/etc/fstabの初期化(mountはsystemdで管理されている)
しておくのが無難かな >>832
まずこの段階から出申し訳ないですが
妥協してもLVM or LVM-ThinでゲストがLinux系ならゲストのファイルシステムもext4は避けてxfsかzfs辺りが無難
[ディスク]の[LVM-Thin]から[作成:Thinpool]を選択し、ディスクを選択し(今回は/dev/sda)、名前を付けてから[作成]で登録できる。作業が完了すると、左側の一覧に作成したボリュームが追加されるはずだ。
https://internet.watch.impress.co.jp/docs/column/shimizu/1551702.html
これ見ながらやった感じでext4、xfs、zfsの選択を問われた記憶がなくext4選んだ記憶もないので何が起きたのかまだ理解しきれてない自分がいます。
xfsかzfsでフォーマットするようにshellするのでしょうか >>836
誤解させてしまうような説明で申し訳ない
ホスト(PROXOMOX)で仮想ディスクを管理する方法が{ LVM , LVM-Thin , ZFS-Mirror , ZFS-RAIDZ ) }辺りが無難
SSDはHDDに比べて故障の可能性は減ったけど、突然死ぬリスクはあるのでZFS-MirrorやZFS-RAIDZで冗長化したほうが無難
冗長化しないで故障時にバックアップから復旧で問題無ければLVMやLVM-Thinで運用で問題ないはず
ゲスト(PROXOMOXなかで動かす仮想環境)がLinux系のOSならxfsやzfsの方が信頼性が高い
zfsはメモリ食うのでxfs辺りが適当かな?って思ってる
https://i.imgur.com/9AcNnVq.png (ゲストのubuntuをxfsに変更)
ホスト、ゲスト共に
ext4は予期せぬシャットダウンや切断でファイルが破損するリスクがあるので極力利用を避けたい
テスト等で変更するほどでもない場合のみext4使ってる
>>これ見ながらやった感じでext4、xfs、zfsの選択を問われた記憶がなくext4選んだ記憶もないので何が起きたのかまだ理解しきれてない自分がいます。
事実として[ nvme1n1p1 ]はext4で初期化されてたので、新規ディスク追加時にWebコンソールのDirectoryからCreate:Directoryを押して作ったはず
PROXOMOX不具合でディスクの管理方法が変わるとは思えない(もし不具合なら超超超大事だよ!)
事実はかわらないので、後は事実を受け入れるしかない(その当時、状況の確認不足のまま進めたのだろう・・・) 色々書いたけど今まで自分の環境でSSDの故障やext4のファイル破損を経験した事ない・・・ 導入初期にデータドライブのSSDが吹っ飛んだけどメインストレージは
HBAを丸ごと渡した仮想マシンからもらってたから致命傷にほど遠かった。
バックアップ先とか速度の要らない仮想マシンとかはクッソ古いNASのNFSをマウントして使ってるし
ESXi運用してたときから直接ローカルで認識するストレージは使わないようにしてるから
仮想ホストが吹き飛んでも平然と復旧してた。 >>837
たびたびありがとうございます
今動いてるので小康状態を取りたいですが
2TSSDを2つ用意してRAIDに挑戦してみようとは思います。(やろうとしてデータ消さないといいですが)
(ext4、xfs、zfs)について
認識させる前のフォーマットの時にファイルシステムを選んでるという理解でいいのですね
GPT参照
PROXMOXでディスクを認識させる際に、ext4、xfs、zfsなどのファイルシステムのフォーマットを選択するタイミングは、主に以下の二つの場合があります。
新しいストレージの追加時: 新しいハードドライブやSSDをPROXMOXサーバーに追加するとき、そのディスクを使うためにはファイルシステムをフォーマットする必要があります。PROXMOXのストレージ管理画面から新しいストレージを追加する際に、どのファイルシステムを使用するかを選択することになります。 >>840
小康状態なら今のうちに新規VMへPVEをインストールして、
仮想ディスクで色々試してみればいいと思うよ。
特にホストを再インストールしたときの復旧方法について。 >>840
PROXMOXで動かしてるVMの利用目的がわからないと優先順位が曖昧だけど
先にバックアップ環境を整えた方が良いと思う
RAID(Mirror等)は障害対策には向いてるがバックアップとしての目的には向かない
(※オペレーションミスでデータを損失する可能性も高く、ストレージ故障時の復旧手順の手違いで初期化する可能性も高い)
PROXMOXでzfs(MirrorやRAIDZ)を扱う場合、プールの作成はWebコンソールで出来るが、障害時の対応はシェルからコマンドで操作する必要があるはず
zfs以外の手段でもMirrorを作成する事は出来るが、PROXMOXでの扱いが微妙なのでzfsでの作成になると思う
RAID関係を扱うためには事前に十分な知識と経験が無いとその利点を十分に活かせない
>>(ext4、xfs、zfs)について
PROXMOXに初期化済みのディスク(ドライブ)を接続してDisksの下の項目で
LVM -> Create:Volume Group (LVMのストレージが作成される)
LVM-Thin -> Create:Thinpool (LVM-Thinのストレージが作成される)
Directory -> Create:Directory (ext4やxfsのストレージが作成される)
ZFS -> Create:ZFS (ZFSのストレージが作成される)
(まあ、そのまんまなんだけど・・・・)
PROXMOXで仮想マシンの仮想ハードディスクを扱う際
ZFS、LVM、およびLVM-Thinはボリュームとして管理され、これらのボリュームは直接仮想ディスクとして割り当てられてるはず
一方、ext4やxfsを使用する場合は、これらはファイルシステムベースでファイルとして管理され、間接的に仮想ディスクとして割り当てられてるはず 国内でもProxmoxの勉強会なんて開催されるんだ
このスレ見てても思うけどVMwareのおかげ?でユーザ増えてるんだなあ
https://jpmoxs.connpass.com/event/312769/ バックアップネタやってくれ
調べてる暇がない。強者を自任する方、よろしく
回線が細いのでネットワーク経由ではなく、ローカルで良いから別ディスクに一世代だけ、保存したい
通常のVM⇒ZFS
バックアップ⇒ext4/lvmで良い >>845
WebGUIの「データセンター」から「バックアップ」を選択して「追加」ボタンをクリック
全般ダブで対象VM/CTやタイミング、バックアップ先ストレージ等を選択
Retentionタブで世代管理(最後を保持)
バックアップ先ストレージはLVMでもディレクトリでもお好きなもので
仮想マシンにPBSを入れてローカルディスクをパススルーする方法もある
強者ではないけどネタになりそうにないから一応コメントしてみる いろんな人がいろんな事情で仮想環境を使うけど、ext4をLVMだと思って弄ってた人は
Windows/LinuxにVMware Workstationを入れて使うことが向いているんじゃないかと思った。
ESXiでも主にShellを使ってたからpveは普通のLinux Shellでめっちゃ便利になって嬉しいと思う俺ガイル Workstationもこの先どうなるのか不透明感しかない 皆様ありがとうございます。
おいおい追いついてまいります。
ただ、再インストール後WEBコンソールでLVMのようにext4で認識させるという選択肢がない中最初に選べてしまう構造は罠だったのではないかなーと思う次第でありますw
>>847
ホスト型だからちょっと重い感じでしょうか
マシンパワーが上がってきたのでホスト型が個人向けサポートされてるならそれもありなのかもですね 流行りのミニPC数台で、小さなデータセンターwを作ってみようと計画した。
CPUですが、
N100クラス
RYZEN 5700U クラス
RYZEN 7735hs クラス
RYZEN 7840hs クラス
だと、どれがおすすめとかありますか?
あと、本題ではないのですが、Intel の PコアとEコアのCPU,Proxmoxではどんなふうにコアを割り振られるんですか?
もしかして、負荷に応じて流動的に変化するとか?
教えて偉い人 ■ このスレッドは過去ログ倉庫に格納されています