RAID総合スレッド No.5
レス数が950を超えています。1000を超えると書き込みができなくなります。
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう
スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/
Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/
Linux EVMS 一般
ttp://evms.sourceforge.net/
Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。 >>889
それでした。ありがとうございます。
でもリブートしたら戻っちゃうんですね。
ここに初期値を与えてるのはどこなんでしょう?
>>890
/etc/udev/ の udev.conf はコメントだけ、rules.d/ には NIC の設定しか無かったです。
といった感じでまだ解決できてませんが、ヒントを貰えましたのでがんばってみます。
ひとまずありがとうございました。 linux勉強中の身です。ご教授頂けたら幸いです。
debianの8.1.0をインストール時にソフトRAID1を組みました。
起動後、sdbを外すと起動せず、
画面上に
---------
ALERT! /dev/disk/by-uuid/long-UUID-here does not exist.
Dropping to a shell!
modprobe: module ehci-orion not found in modules.dep
BusyBox v1.22.1 (Debian 1:1.22.0-9+deb8u1) built-in shell (ash)
Enter 'help' for a list of built-in commands.
/bin/sh: can't access tty; job control turned off
(initramfs)
---------------
と表示されました。
sdbを取り付け、sdaを外しても同じでした。
grubはどちらのhddにもインストールし、update-grubもしたんですが。。。
grubは1.2で、ext4にしました。
よろしければ博識の方お教え下さい。お願い致します。 >>894
ご教授ありがとうございます。
Cent7で同じことしてみたらできました。
なぜdebianでできないのか初心者の私にはわかりません。
色々勉強してから再度挑戦したいと思います。
ありがとうございました。 すでにdebian機を運用してるんだけど、途中からraid1に組むことは可能?
システムファイル系はssdでhome領域をハードディスクで構成してるんだけど、home領域のみraid組みたい 新しく追加する方のHDDでRAID1を縮退モードで作って
元のHDDの内容をその新しい縮退モードのアレイにコピーして
元のHDDをアレイにaddすればいんじゃねっけ ちょっと教えてほしい
mdraidでデータ領域用2TBx3のraid5があり、現状問題なく動いているんだが
事情があってそのうちの一本を交換したい
ちなみに電源落として抜き差しとかはOKだが、その場合はできれば作業は半日以内に抑えたい
入れ替えてリビルドもできれば避けたい
指定した物理ディスクのスペアを作成しておいて再起動で認識させて終了が望ましい
ぱっと思いついたのは電源落として別のPCにてddで丸コピーだが
もっといい方法が有ったら教えてほしい だいたい、なんでリビルド避けたいの。
パフォーマンスが、とか却下な。理由になんねぇ。
他のディスクが道連れに・・・なんてなら、
んなもん、3本新品買って、別に作って、データコピーだろ。
RAID組んで運用してるストレージで、そんなに
危ない橋を渡りたい訳? >>898
dd でいいんじゃね?
クローン機能が付いたHDDスタンドとかあるけど、多分 PC で dd した方が速いと思う。 >>900
ありがと
mdadmのmanみてもそれらしい機能が無かったがやっぱddか
同じロットの別のディスクがraid1の方でこけたから
今日明日なら半日止めれるからraid5の方を別ロットのスペアと入れ替えて
万が一問題の有ったロットがまたこけても復旧の楽なraid1にまわす予定なんだ
ddして再起動、動作確認なら最悪スペアがアウトでも戻せるしね >>901を読んでもリビルドを避けたい理由がよく分からなかった。 >>902
リビルド中はパフォーマンス落ちるから、使わない時に予防交換したい、でも時間は半日しかない、ってだけの話なんじゃない?
それほど難しいこと言ってるようには思えないけど。
んまあスペア云々の手順はよくわからんが。
PC止めてる間に黙って複製したディスクに入れ換えりゃそれだけで交換完了な気がするが、ここで言ってるスペアってのは RAID で言うところのスペアではないのかな。 いわゆる都市伝説を信じてる人間だってのは分かったな HP ProLiant Microserver N54L に
Ubuntu Server をインストールして、
ファイルサーバにするつもりです。
システムはマザボに直挿ししたUSBメモリにインストールし、
HDDは4TBを4台積むつもりです。
Linux用のソフトウェアRAIDは、
mdadmというパッケージを使うらしいことまでは解りました。
RAIDについて完全に無知なのですが、
まずはここから勉強しろ!っていう
アドバイスを頂けませんでしょうか。 ミニタワーで増やせるなら6にしとけば拡張が楽だけど
Microserverは4台までで基本増やせないから5以外なら10でも6でもいいな
と言うかそもそも>>905は冗長性が要るのかどうかって所からのような気も Microserver で mdadm RAID5 な俺涙目。 >>905
md 使ったNAS製品のひとつに ReadyNAS があるけど、これが唱ってる X-RAID2 ってのを参考にしておくとディスク追加や大容量ディスクへの換装での柔軟性が出てくる。
まあ md と LVM とオンラインリサイズが可能なファイルシステムを組み合わせただけなんだけど、便利だよ。 4台の場合、RAID6とRAID5+1hotspareではどちらがベター?
2台同時故障想定するならRAID6しかないとは思うが、パフォーマンス的にも
6でいいの? Raid5は欠陥
ホットスペアがあろうがディスク障害時にリビルドにかかる時間は変わらないから何もかわらない >>911
パフォーマンスで言えば、書き込み時はパリティ2種類も計算しないといけない RAID6 は部が悪い。
読み取り時はパリティ関係無いから理屈で言えば RAID5 も 6 も変わらないか、データが 1台多くに分散された RAID6 の方が有利かもしれない。
1台故障時は理屈から言えば RAID5 も 6 も変わらない。
信頼性で言えば、RAID5 + スペアはデグレ時のディスク交換を自動にしただけで、RAID5 のリスクを何も解決してない。
どうせ 1台余計に電源入れておくなら寝かせとくよりパリティに使う方が有意義じゃね? 普通に OpenFiler、FreeNas、Nas4Free、OpenMediaVault とか使えば?
ただし、大容量ディスクに対して、半端なメモリ積んで zfs のデダップつかうのだけはやめとけ。 でもMicroserverにRAID6は荷が重いんでは
RAID10かメモリたくさん積むならRAIDZがいいような 今時、パリティの計算の負荷なんてたいしたこと無いよ >>916
ただの Raidz にメモリなんてほぼいらない。デダップするなら搭載するディスク容量抑えなきゃ最大メモリ容量までましても全然足りない。(全域にかけなきゃ問題ない どうでもいいけどdedupって読み方はデダップなの?デデュープだと思ってたんだけど。最後にeがないからデダップになるのかな RAID5でも6でも、
後からHDDを追加できますよね?
OSはLinuxなんですが。 何でRAID組んでるかによるんじゃないすか
たいていできると思うけど 大抵出来ないと思う
raidにraidでストライプとかはできるけど md だったらできるよ
ディスク足してボリューム容量増やした後でファイルスシテムの拡大を行えばいい だね
addしてgrowしてresizeすればいいだけ
これができるから最初から容量計算とかしないで適当にやってる個人運用なんかはmdraidが使い勝手が良い
流行りのzfsでRAID-Z2のストレージプールとかだと
新たにもう一つRAID-Z2デバイスを作ってそれを『プールに追加して』プールそのものの容量増やすとかはできるけど
そのプールを構成している『RAID-Z2デバイス自体にHDDを追加して』4本のZ2→5本のZ2みたいに
デバイスそのものの容量を増やす事はできない >>925
RAID-ZはなんでHDD追加で容量うpを実装しないんだろうな?
特許がらみでできないのかと思ってみたいるするが、
ZFS on Linuxで独自実装とかしないかなぁ。 RAID の構成ディスク減らせるようにしてくれないかな。
小さいディスク多数から大きいディスク少数に移行できると便利だと思う。
drobo はそれできるけど、特殊過ぎて使いたくない。
あと md の RAID6 をディスク 3本から構成できるようにしてくれないかな。
もちろん後で本数は増やす前提だけど、とりあえず二重冗長の最小構成で初期化できればいいのに。 >>926
もともとエンタープライズ用だからそんな貧乏くさいことはしないんだろ >>926
1Stripe = 1RecordにZFSはならないからなぁ。
一般的なRAIDなら、ストリッピング単位で詰めるなりして、
パリティ再計算で済むけど、
ZFSでは、そういう訳にはいかないからな。
恐らく、機構的にZFSのマイグレーションは無理だと思うわ。 >>928
そう言っちゃうと身もふたもないが、オープンソースでやっていたんだし、
なんだかんだで実装してくれそうな気もするんだがw
>>929
技術的に厳しいのか(´・ω・`)
しかし、特許とかではないんだったら、きっと誰かが... >>930
やりよう有るんかなぁ・・・
http://blog.delphix.com/matt/2014/06/06/zfs-stripe-width/
ここにもあるように、RAID-Zの場合、
Z1で組んでたとしても、1Stripに複数のパリティブロックやら、
パディングブロックやらが出来るからなぁ。
読み込みは旧構成、書き込みは新構成って区分けを
VDEV単位に出来るようにした上で、
全データDisk to Diskのコピーやるぐらいしか、思いつかない。
ただ、単純に此やった場合、フラグメントがえらいことに
なりそうな悪寒。
複数のVDEV纏めてpool作ってたりすると、さらに
ややこしい話に・・・ Linux mdのRAID0,5,6あたりでディスク追加してreshapeが途中で電源落ちるなどで失敗した場合って、
backup-filesを指定してればなんの問題もないのかな? mdでRAID5にするかRAID-Zにするか迷ってるんだけどどっちが良いかな?
mdだとHDD追加して簡単に容量増やせること、
RAID-Zだとサイレントクラッシュが無いことがお互いに対する利点だと
思うんだけど他にあるかな? >>934
raidzというかzfsはLinuxでいうとlvm+mdraid
設定自体はzfsの方が使いやすい
あとL2ARCやらZILやら重複排他が使える
それと残容量が少なくなると極端にパフォーマンス落ちる(10%以下くらい?)
100%使い切るとメモリが少ないと最悪どうにもできなくなる mdの方がユーザーが多いだろうし問題も出尽くして枯れてるだろうから、トラブったときの対処はmdの方が簡単そうな気がするけど、ZFS使い込んでるわけじゃないのでなんとも言えない。
RAID-Zはブラックボックスっぽいような気が 計画して構築してるなら何も困らないが、無計画に使うとあとですごい辛いことになるのが Raidz。
md は枯れてるから特に言うことはない。サイレントクラッシュくらいか? 100% 使い切っても救えるように、ESXi とかのメモリのオーバーコミット使える仮想上で動かすと幸せになれる。 quotaで制限かけられるけどね
既に書かれてるように容量増やしたいときにディスクを追加できないのと
増やすなら全ディスクを更新しないといけないから
メモリの件もあるし金かけられないならやめといたほうがいいんじゃないの 容量の拡張は可能。
出来ないのは既存VDEVへのHDD追加。
同一構成のVDEVを追加して行く分には、何の問題も無い。
というか、そうやって増やせと言われてる。
1本単位とかケチな事いうから、面倒な話になるだけ。 Ubuntu16.04をraid1にインストールして縮退させると起動しないんだけどなんなの
initramfsになって調べるとraid0扱いされてる RAID5にしたいんだけどHDDマザボに繋いでbiosで設定すればいいのかそれとも何かフリーソフトダウンロードしてそれで設定するのとどっちがいいんや? 君は普通にHDD複数使ってバックアップしてたほうが幸せになれるよ RAID組むときどうやってHDD調達してる?
同時に購入した同一型番のHDDを2台で構成してたRAIDでprimary,secondaryがほぼ同時に逝ってしまった。
同一ロット回避とかって大事なのかね? せっかくRAIDで正しいデータを持ってこれるんだから、「リードエラーが出たセクタには一度書き込んでみる」
こんな仕組みをmdraidが持ってたりしないかな
今時のHDDってさ、多少の不良セクタが出来ても、そこに書き込もうとする時に自動的に代替処理が行われて
何か書き込んだらそれ以降は何もなかったかのように読み書き出来るでしょ?
だから、いわゆるゼロフィルで復活して見えるHDDも多いし、実際それをまた普通に使えたりするわけで
でさ、RAIDで読み込みエラーがあったディスクは、当然何度もリトライして結果失敗だから
dmesgとかで見るとエラーがたくさん出ているんだけど
こういうディスクも、ゼロフィルしたり、場合によってはさらに全読みしたりして復活出来る場合も多い
mdadmだと、一度除外してddで埋めて、そのあとaddするとちゃんとrecoveryが正常に終了したり
てことはさ、要は、一度そのエラーっぽいセクタに書き込みさえすれば復活する可能性が十分あるわけで
HDDの不良セクタ代替ツール、例えばhdat2なんかは、そうやって自動的な代替処理を促している
で、そこに書き込みべきデータってのは、誰にもわからないから、ゼロだったりするし、
ゼロで埋めたら、使っている場所ならばデータやファイルシステムに異常が出てしまって危険もある
けれど、RAIDだったら、「正しいデータ」は別のところから持ってこれるわけで
それを一度書き込めば、本当にそれこそ何もなかったかのようにシステム全体が安定を保てるかもしれない
用途にもよるけど、リードエラーが出たディスクをfailとして外してしまうより、
周辺のデータごと一度書き込むことで、自動的に代替処理させてそのまま使い続けられる方が、ありがたいケースもあるはず これを自動で(failにすることなく)やってほしい、と
不良セクタのあるRAIDディスクの修復
http://hs-it-notes.blogspot.jp/2013/06/raid.html mdadmでRAID組んでるんだけど、HDD容量を大幅に増やすためにもう一個RAID組もうと思うんだが、
名前何にしてる?
md0ならmd1とか? 昔、勝手にmd127とかわけのわからん番号が振られたことがあったな RAIDアレイのサイズを変更しようとしてたのだけど、mdadmのバグ?仕様?にはまった
元々各ディスクの使用サイズが4866861248kBのRAID5を縮めようとしていたのだけれども、まず、4866861248の数字を指定してサイズ変更必要なしと出てくることを確認したくて
同じ数字を--sizeに入れた
# mdadm /dev/md1 --grow --size=4866861248
mdadm: component size of /dev/md1 has been set to 571893952K
unfreeze
4866861248kを指定したのに571893952Kになってアレイが想定外に小さくなって(RAID superblock)が壊れた
4866861248 - 571893952 = 4294967296 なんで、uint32以上の数字を入れてはいけないみたい
これを例えば4752794Mとか指定すると大丈夫みたいなんで、kB単位で正確に4TB以上を指定しようとするとダメみたい
OSはCentOS7(x86_64)
RAID superblockのバックアップをとっておくか、もう一度createしなおせば戻せたんだけど(一度それで戻してる)、--growで大きめの数字入れて戻せば大丈夫だろうと浅い考えで--growし直して
reshapeが走って壊してしまった
デカい数字をコマンドラインで入れるのは注意が必要だね >>951のバグはmdadm 3.3.2で起きてたけど、githubのリポジトリ見てたら2014/10/31ぐらいに修正されてるっぽいので、
mdadm 3.3.3以降を使えば大丈夫みたい。
ループバックデバイスでテストしただけだけどgithubの最新のものではとりあえず-z 4294967297Kが1Kに扱われることはなかった 先生、SATAのHDD2(〜3)つをRAID1で、できるだけ全部のファイルを同期させたいと思ってます
mdで作れるRAIDの理解ってこれで合ってますでしょうか
・あくまで物理ディスクのパーティション単位でRAIDが組まれる
・物理ディスク自体が見えてるから普通にSMART見れる
・swap領域をRAIDの内側に作る必要はない
・2本をRAID1にして両方とも起動可能にしたけりゃgrubはRAID関係ないところで両方に入れなきゃいけない
・grubはRAIDを認識してくれるから/etcがRAIDの中にあっても大丈夫(mdadm.confなくても動くのはむしろそのため?
・(RAIDごとに固有なIDも含めて?)構成情報がパーティションのケツに入ってるから
RAID構成丸ごとを他のPCに追加してもmountできて中身見れたりする
・というかKnoppixとかでも中身見れたりする
・ディスク入れ替えるときはまずfdiskでパーティション切ってあげないといけない(あと必要ならブートローダとかも)
・パーティション切れてまともに動いてるならM/B下のSATAでもPCIe下のSATAでもUSBとかでも任意の組み合わせでRAID組める
・とりあえずRAID1なら片肺死んでもOS落ちたりしない(?)
・シェルとかアプリからは普通にmountされたただのディスクとして使える
・別の場所にコピーした/dev/urandomとかもちゃんと同期してくれる >>953
行数が多いので箇条書き修正ですまん
・パーティション単位もしくはディスク単位で作れる、正確にはブロックデバイス単位で作れる(ループバックデバイスとかでもOK)
・物理ディスク自体が見えてるから普通にSMART見れる
・swap領域をRAIDの内側に作る必要はないが、ディスクが壊れたときにシステムが止まらないという意味ではswapをRAID1にするのはあり
・2本をRAID1にして両方とも起動可能にしたけりゃgrubはRAID関係ないところで両方に入れなきゃいけない
・grubがRAIDを認識してくれるから、/bootがRAIDの中にあっても大丈夫。/etc/mdadm.confの情報はinitrdの中に書かれていて、initrdは/bootに入っている。mdadm.confを書き換えたらinitrdの再作成が必要
・(最近のLinux mdでは)構成情報が入ってるのはパーティションの「頭」
・Knoppixとかでも中身見れたりする
・ディスク入れ替えるときはまずfdiskでパーティション切ってあげないといけない(あと必要ならブートローダとかも)
・パーティション切れてまともに動いてるならM/B下のSATAでもPCIe下のSATAでもUSBとかでも任意の組み合わせでRAID組める
・とりあえずRAID1なら片肺死んでもOS落ちたりしない
・シェルとかアプリからは普通にmountされたただのディスクとして使える
・/dev/urandomはディスクに実体があるわけじゃないのでRAIDは関係ない >>954
先生ありがとうございます!
ブロックデバイスとかinitrdとか正直「あーアレねアレアレ」状態なんで勉強してきます
デバイスファイルは /dev/random からコピーした /var/named/chroot/dev/random はどうなるんだろうとか考えてました
そもそもsymlinkなのか特別などこかに記録されてるか知らないのであわせて勉強してきます >>955
デバイスファイルについては、コピーと言うか、devfsという特殊なファイルシステムがマウントされるんだと思う
デバイスに応じてファイルが勝手にできたりするやつね。/dev/以下は本質的にはメジャー番号、マイナー番号で識別するIOに名前がついてるだけだと思う(あんまりよくわかってない)
/dev/randomならmajor=1 minor=8 /dev/sdaならmajor=8 minor=0 /dev/md0ならmajor=9 minor=0みたいな
mknodで指定する番号もこれだよね >>956
先生あざっす!
デバイスファイルのコピー(新規生成)はcpのRオプション使ってましたがmknod見ると確かに仰るとおり
コピー元とコピー先を見てみるとメジャー/マイナー番号まで全く同一でした
linux kernelのドキュメント読んでみてもさっぱり状態でしたが
この際なので後でRAID組んだときに実地で確認しようと思います btrfsがmdの代わりになるのかと思ってたらRAID1の三面ミラーはサポートしてないのね ZFSでRAID-Z組んだんですけど、後から容量の異なるHDD又は同じ容量のHDDは増設出来ないですか?
FreeNAS使ってマス。 誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
FK07YHDEDH RAID5または6で運用中に不良セクタを検出した時
他のディスクからデータを計算して一度そのセクタへの書き込みを試み
ディスクの自動的な内部代替処理をさせることで、
アレイから外さないまま0フィルで復旧したのと同様になる機能
いずれ実装されますように 僕の知り合いの知り合いができた副業情報ドットコム
関心がある人だけ見てください。
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
Y2FW7 Some Linux Users Are Reporting Software RAID Issues With ASRock Motherboards
https://www.phoronix.com/scan.php?page=news_item&px=Linux-Software-RAID-ASRock 勝手にディスクのメタデータ修正しようとして失敗するとかマジfuckでfuckでfuckな話だな RAID1をBIOS設定していた場合、CMOS電池は交換出来ないとは本当ですか?
データが消えてしまう可能性があるという記述を見かけました。
データ復旧の専門家と思われる複数のサイトで確認したので、
まったくあり得ない話ではないと思いますが、一般人が質問に答える
掲示板のようなサイトでは、BIOSを再設定すれば問題ないと言っている人もいます。
消える可能性もあるけど、そんなに可能性は高くはないって事かな?
で、専門家は責任問題になりかねないので、慎重に最悪を想定した解答をしていると。
最悪を想定するとやっぱりCMOS電池は交換しない方がいいとなるけど、
何もしなくても4〜5年で電池切れの可能性がありますよね。
ノートパソコンなら切れてないバッテリーを外さなければCMOS電池は消費しないから
そこだけ気を付けてれば何とかなるかな。デスクトップパソコンはシャットダウンしなければ、
スリープモードとか休止モードならCMOS電池は消費しないんですかね。
そうだとすれば、シャットダウンしなけれ電池も長持ちしそう。
いずれにしても5〜6年以上も使えば電池切れのリスクは上がっていきそう。
その場合は電池切れになる前にデータのバックアップを取ってCMOS電池交換。
BIOS再設定でも起動出来なかったら、OS再インストール。というのが最善かな?
5〜6年で電池切れになるという説が強いから、余裕を見るなら3〜4年ごとに
この作業を繰り返すと。どーせ3〜4年も使うとゴミが溜まってOSの動作が
不安定になってくるし、再インストールした方が得策。
と、この方策で問題ないと思いますか。それとももっといい対策法がありますか? シャットダウンだろうがハイバネートだろうがスタンバイだろうがコンセント繋がってんなら変わらねえよ 今のRAID板はもしかすっとHOSが入ってるのかも。
削除しても再起動してもまだ動く! (パトレイバー) >>969
その論理だと接続したデバイス片っ端から破壊するんですが debian上でraid1を3つLVMで1つにまとめて使用していました。
/dev/sdaがハードウェアraid
/dev/sdbと/dev/sdcを/dev/md1、/dev/sddと/dev/sdeを/dev/md2のソフトウェアraid
という構成です。起動ディスクは/dev/sdfを使用していました。
起動ディスクが破損してしまい、ディスクを交換してdebianを新規インストールしたのですが、再構成に失敗した挙句、迷走してmd1をmdadm --createで上書きしてしまいました。
sdbをhexdumpすると以前のuuidが残っているようなのでリカバリ可能なのかもしれませんが、どうしたらよいでしょうか。
あと、md1が修復不可能だったとして、sdaやmd2に入っていたデータを救出する方法はあるでしょうか。 >>972
superblockのバージョンが同じならデータ部分には変更がないはず
同じパラメーターで作り直せばmdのuuidが異なるだけで同じ大きさのブロックデバイスになるからそれで認識できるようにならんかな
mdとlvmの構成情報というか/etcとhistoryはこれ以上ヤバくなる前に保存しといた方がいい >>973
ありがとうございます。
結果としては、md1を復旧させることはできませんでした。
かなりのデータが消えたものの、重要なデータは(多分)無事な模様です。
消えてしまったものは、幸いにも復旧可能なものか、削除してもそれほど問題ないものでした。
バックアップの重要性を再認識したのと、LVMでまとめるのは便利だけど、私のような未熟者が扱うにはちょっと怖いというのが実感です。 設定弄っている途中だが、興味がある人向けに情報提供
構成:AMD Ryzen9 3900X + ASRock X570 TAICHI
CentOS7.6で mdadmを使用した SATA SDD 960GB×8 RAID6 を組んでみたところ、
READ 3300MiB位
WRITE 450MiB位
出ている。(dd で /dev/md? に対する測定)
readは満足だが、write が遅い原因を調査中。
参考までに、上記構成で Windows10 で crystaldiskmark を 1台に対して8GBでテストを8台同時の場合(次々に実行しただけなのであまり正確ではない)
READ 1台あたり525MiB位 (8台で 4200MiB位)
WRITE 1台あたり 450MiB位 (8台で 3600MiB位)
出ていた。
消費電力が大きい&価格が高いと不評な X570だが、追加ハード無しでソフトウェアRAIDやらせるにはいいチップセットになる予感。
SATA 12ch以上あるマザーが安く出て欲しいところ。 megasrでraid1組んでたHDDをasm1061につなげたらmdadmがアレイ組んでresync始めた… RAIDにしてればバックアップしなくていい、などという運用をしていると、
いつか泣くからな。覚悟しておけ。 結局espはmdadmのmetadata<=1.0でmirrorすればいいのか? 質問させて下さい。
オンボードのソフトウェアRAIDを有効にし、A,B,C3台のHDDでAを単独RAID0(システム)とし、B,CをRIAD1(データ)としてVistaで稼働させていました。
このPCのオンボードRAIDを無効にしてAにインストールしたVistaを通常起動させたいのですが、これは根本的に不可能な事なのでしょうか?
RAIDユーティリティ(RAID BIOS)にてアレイのコンフィグをクリアし、マザボ上のジャンパーピンをRAID不使用の位置に戻してOSを通常起動すると途中でSTOPエラー7Bが出てしまいます。
無論起動ディスクの設定はやり直しています。
オンボードRAIDを有効にした状態で記憶域コントローラーにあるRAIDドライバを削除したりもしましたがSTOPエラーとは関係ない様でした。
もうオンボードRAIDを使用する事はありませんので不可逆的な手段で構いません。
アドバイス宜しくお願いします。
ちなみにWin10をインストールしてデュアルブート環境を作りたく、まずはVistaが非RAIDで起動する状態にしたいのです。
時々Vistaにインストールされている古いソフト(ハードウェア)を使う必要がある為です。 >>980
RAIDを組んでる時点で単独RAID0だとしても通常パーティションとはレイアウトが違って、読むのに失敗しているんじゃないかな。
無効にした状態でUSBディスクなどからなんかのOSで起動して、システムパーティションを読むことはできる?
できないのなら、AOMEI BackupperみたいなツールでRAID0有効状態から一旦別の場所にパーティションのイメージを作って、
RAID無効状態にして書き戻してMBRの設定をやりなおしたら動くかもしれない >>981
ありがとうございます。
RAID0のHDDを別のPCで開いてみましたが、通常通り読み書きは可能な状態でした。
RAIDの設定方法情報は沢山見つかるのですが、解除についての情報は殆ど見当たりませんのでアドバイスいただけて助かります。
ちょっとした事で起動するのではという淡い期待を抱いておりますが… すみません、用事があり急いて読んでアドバイスの趣旨を勘違いしていたかもしれません。
後程また読み直させていただきます。 980です。
>>984
ありがとうございます。
ストップエラーを頼りに多数のサイトを参考に同様の修正を試しましたが起動には至りませんでした。
発想を転換して通常インストールしたOSに再インストール無しでRAIDドライバを適用する方法を検索したところ下記サイトをみつけました。
ttps://nishy-software.com/ja/dev-sw/dev-sw-win/enable-intel-raid-without-reinstall/
当方が目的とするOSの再インストール無しでRAIDドライバを外す事についても言及されていますが、環境が全く異なる自環境でどう試せば良いのか読み換えで頓挫しています。 デスクトップPCのデータドライブをRAID1にしたいのですが、おすすめのHDDはありますか? read が 1台目に偏るコントローラなら、1台目は高速ドライブ、2台目はSMRの安いやつ。
SMRは瓦の書き戻しとreadの混在でパフォーマンス低下が大きいが、readが他方に行きほとんどwriteしか来なくなるなら悪くない。
極端な大量writeが多い用途ならCMRが無難だろうが。 >>987
CMRだとなにかおすすめあります?
WDのpurpleってRAID組んで大丈夫なのでしょうか システムディスクのraid1ならWindows10pro標準とirstどっちのraidがおすすめですか?
是非理由も教えていただきたいです レス数が950を超えています。1000を超えると書き込みができなくなります。