RAID総合スレッド No.5
レス数が900を超えています。1000を超えると表示できなくなるよ。
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう
スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/
Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/
Linux EVMS 一般
ttp://evms.sourceforge.net/
Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。 >>801
Eのが先に販売開始で たしか38K位で販売開始
その後円安が一気にすすんでからHが発売
ドルベースではHの方が安いけど
円高時に輸入したものと円がさがったから輸入したHで
逆転しているだけかと
Eも40K台に値上がりが始まったんで先月購入した俺は
そう思ってる。 >>802
EもHBAとして使用出来るよね?
あと、Eはフラッシュモジュールコネクタが付いてるけどHには無い
(フラッシュモジュールはRAID用だからHには付いてない)
HよりEを買ったほうがましって事かな? mdadmのRAID1だけど、HDD交換って結構めんどいね。 >>804
慣れたら、ハードウェアに依存せず同じやり方がどこでも通用するから楽だよ。
新しい環境でも、事前の復旧手順の確認とかテストがいらない。 >>805
でもさ、取り外しと新規受け入れと、
自動コマンドの1つ2つに簡略化できることだと思うんだ。 >>806
必要だと思ったら
そういうスクリプトを書けば済むから
そんなもの誰も作らないんだよ >>807
そのスクリプトを同梱してほしいってことだろう? MDで悩むのは故障したディスクに対応するスロットが一体どれなんだ、というあたりだな。間違ったの抜くと死ねるしな。 HDDのよく見える位置にシリアル下4桁くらい書いたテープ貼ってる ラベルには必ず書いてあるだろうし、奥側(端子の反対側)にシールが張ってある機種も多いと思うんだけど
両方、取り付けちゃうと見えないんだよね。
書いてあって欲しいのは、端子側とその右側面端子寄りなのに。 >>807
引数ドライブに対して -f して -r して -a だからな。
悩みようがない
>>809-811
ほぼ全台ホットスワップベイに入れたので、
「とりあえず引き抜いてシリアルを見る」が
可能になった。 >>812
おれは、ホットスワップに対応してても「とりあえず引きぬく」は無理だ。
挿し直したらいきなりリビルドが始まったりしたことがあるので、
正常なものは極力触りたくない。
あとは、 2台で RAID1 してるとか、RAID5とかの場合に1台壊れて交換する場合は、
その方法取れないしね。
1Uサーバとかの場合は、1スロット毎にLED があるので、dd して生きてるディスクを
確認してから引き抜けるけどタワーとかだと厳しいから、ラベリングするしかないか。
mdasm のコマンドに関しては、大いに賛成。
これ以上まとめる必要性を感じない。 個別のアクセスランプ付きのHDDケージを使っていると
異常がおきているHDDがどれかわかりやすくていいな。
常に判別できるというわけでは無いかもしれないけど
最近では、低速病に陥ったHDDがあることが
アクセスランプの様子から判別できた。
一旦RAIDメンバーから外して、ddで管理情報抹消して
改めて、0xfdパーティションを作って戻した。
以降数ヶ月、低速病の再発は確認されていない。 >>809
SATA の場合、/dev/sdX で指定すると割り当てがコロコロ変わっちゃうから
ドライブは /dev/disk/by-path 以下のリンクで指定するのが俺的常識。
これだと接続インターフェイスでの指定だからリムーバブルフレームとか使ってても問題なし。 by-uuid使ってるけど、いずれにしても事前マーキングしてないと抜くスロットで悩むのは同じ。OSから見えてる情報と物理的なスロット構成の対応が機材で違うからなー。 smart情報でとれるhddのシリアルが、hddに貼られているものと一緒だからそれを見た方が確実だとおもわれ。 そのシリアルがHDDはずさないと見えない配置になってることが多いからメモって見えるところに貼っておくって話でしょ SES2やGPIO対応のenclosure使えば良いんだろうけど、
高いしなぁ。 スロット毎にLCDかなんかがついていて、表示内容を設定できればいいのに・・・
そして何十人月の苦心の後、ついに日本は全面電子ペーパのサーバを開発した。
一方ロシアは鉛筆(とラベルシール)を使った。 既出かもしれませんが教えて下さい
ICH10RのRapidraidは
usb接続のhddでraidを組むことが出来るかご存知の方いらっしゃいますか? >>822
早速レスありがとうございます
諦めますw なんでそんな実用性無視のネタみたいなことをやろうとするのか知らんが、mdraidでやれ。
フロッピーディスクでもRAID組める。 sda1とsdb1をmdraidでRAID1組んでて(/割り当て)
それやめてsdaの方でもbの方でもいいから
そのまま再インスコとか無しでシングルディスク環境に戻す手順てどっかにある? 縮退運転のまま使い続けりゃいいじゃん
今はメタデータがデバイス先頭だしめんどくせーよ >>826
片方をremoveしてからzero-superblockしてmkfsして/をコピー。 それが妥当だけど
GRUB2とかのインストールの手順を、おれは把握していない。
GRUBの頃は、何度かレスキューディスクからインストールしたんだけどね。
あと、Ubuntu系はパーティション(ボリューム)の指定に
デバイス名やLABELでは無く、UUIDを使っていたりする。
UUIDはblkidコマンドで確認できるけど
GRUB2を把握していないと、苦戦するね。
/etc/fstabの書き換えは面倒くさいだけだけど。 >>828
結局は「通常のファイルシステムを作って丸コピー」しなきゃならんのですね
回答感謝です degrade状態で運用したほうが、あとで気が変わった時にディスク追加もしやすいのでお勧め。 degradeで運用って、私がOS設計者だったらdegrade状態だと同期書き込み
とか安全側に振る設計をすると思うな。パフォーマンスが落ちてないか
検証や、そういうコードが入ってないか調査した方が良いよ。 ブロックデバイスレイヤーで非同期書き込みという阿保発想 得意先のためにDellからサーバを注文したんだけど、
Linuxでソフトraidを試そうとraid controllerを注文から外したのに
Dellから電話掛かってきて、raid controllerを薦められた
もちろん使うOSはLinuxだと聞いたうえで・・・
それでraid controller追加注文して、Centosを入れようとしてもHDDが認識されない!
ググったらこの PERC S300 は Linux 非対応だって・・・なんてこと!
しかもケーブルを繋ぎ直さないとLinuxでは決して使えないみたいで・・
サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど なんかだらだら書いてあってよくわからんけど
>>834
> サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど
質問はここでいいのかな? ハードウェア保守マニュアルも無いサーバーなんかごめんだぜ >>834
S300だったか覚えてないが、Linuxで認識出来ないRAID カードを
買ってしまったと相談受けた事がある。さらにタチが悪い事にSAS
だったのでオンボードSATAに挿せないというオチまでついてた。
その後どうなったか聞いてないが、結局、、自腹切ってRAIDカード
買ったんじゃないかなって感じだった。 ワロタ
そんなのdellにクレーム入れて
対応品に交換させればいいだけのこと。
うろたえる意味がわからん。 得意先の機材に関する疑問点を
こーゆーとこで尋ねるってのは IntelマザーのFakeRAIDにて3TBをRAID1で使用したいのですがどうしても746GBに引っかかってしまいます
OSに対応したドライバが無い場合は大人しくソフトウェアか対応してるハードウェアでやるしかないのでしょうか? >>840
デバイスドライバを書くという手も無しにあらず。。。
一度LANカードで困った事があって、ソース追いかけたら
修正できた事があるよ。
とりあえずソースを読んでみたら。 RAID Option ROMが腐ってんだから頑張るだけ無駄 標準カーネルで未対応なだけで、ベンダドライバは普通あるだよ。
標準カーネルに入っていないということの苦しさはたっぷり味わえるだろうけど、
サーバ系機材なら使えないということはまずありえない。 CentOS4.*の頃、ベンダードライバーで導入したけどyum updateで
kernelの更新エラーが出るので、CentOS4のマイナーバージョン番号が
上がってもkernelが更新出来なくて、変なエラーがいっぱい出る状態で
運用してた事があったな。ベンダードライバも更新がなかなかなくて、
結局kernel標準のSoftware raidドライバに変更して再インスコしたな。 mdadm について教えて下さい。
現在、Terastation の4玉中3玉(RAID5)からの復旧をしています。
mdadm --misc --detail /dev/md0 の結果は以下のような感じです。
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 22 1 active sync /dev/sdb6
2 8 70 2 active sync /dev/sde6
3 0 0 3 removed
0 8 38 - spare /dev/sdc6
/dev/sdc6 を組み込み混めば、/dev/md0 が使えるようになると思うのですが
どのオプションを使用すれば良いでしょうか?
removed に -f を指定できれば、自動で組みまれるような気がするのですが
-f はデバイスしか指定できない感じです。 >>846
ホットスペアでしょ?自動で組み込まれるはずだけどそうじゃないみたいだしもう無理じゃね
同時に2台HDD逝ったんか? mdraidなんて別に物理的損傷が0でも
何かの拍子にHDDが一瞬見えなくなったら即failureじゃん コメントありがとうございます。
お察しの通り2玉逝ったのですが、そのうち1玉(/dev/sdc6)は
Checksum が correct なので、データ部は無事のようです。
なんとか手動で組み込めないでしょうか。 >>850
>>454からの流れが参考になりそう
あとraidzap使って解決した事例が前スレ>>64以降にあるけど
>>455によると最近のsuperblockには対応してないっぽい
ちょっと状況は異なるが俺もRAID5を2台飛ばしたことあるけど運良く復旧できた
今回のケースも割と勝算ありそうに見える
焦らず冷静にいった方がいい >>851
ありがとうございます。
やっぱり superblock の修正になりますか。
raidzap 作者さんのサイトとソースも見てました。
create はイチかバチかですね。肝が据わったらやってみます。 >>851
重ね重ねありがとうございます。ホント参考になりました。
wiki mdadm の、Recovering from a loss of RAID superblock あたりにも
記載がありました。
http://en.wikipedia.org/wiki/Mdadm
最終覚悟が出来たらやってみます。(ヘタレなので、たぶん来週) 一番運が良ければ
--run --force 付きのassembleで崩壊状態から復旧できた気がする >>854
米ありがとうございます。
以下の事例では、--run --force 付きの assemble で復旧しているようですが
3玉とも Active の必要があるのではないかと思います。
http://wimax.blog64.fc2.com/blog-entry-153.html >>856
リビルド中に2個追加で壊れた状況からの復旧で、
サルベージ出来てるのはリビルドが完了していた部分だけ 結果報告です。
create で、どうにか残りの1玉を RAID に組み込めたのですが
FileSystem が認識出来ない状態でした。
xfs_repair でも復旧せず、Windows で復旧天使XFS RAID対応版 (NAS製品)も
試したのですが、全くファイルを見つけられない状態でした。
3TB で構成していたのも敗因ですかね・・・
残念ながら諦めることにします。
アドバイスありがとうございました。 >>858
すでに手遅れ感満載だけど・・・
1.何が起こったのかを確認する。2台以上逝った場合は逝った順番は重要
2.全ドライブのクローンを作る
3.サルベージ作業開始
逝ったRAIDセットを復旧させたいならこのくらいの慎重さが要るのでは
RAIDアレイに追加する順番を間違えて余計壊したオチのような気もする
#以前にNASの構築で知人のSEに相談したらRAID5は止めておけと言われた
#理由は逝ったときに詰むからだそうだ。素直にRAID10にしておけとアドバイスされた RAID10なんてごちゃごちゃしたのはやめとけ。
RAIDなしでもかまわんから、サーバ二台で相互ミラーしろ。
crontabで自動でな。
金があったらRAID1で相互ミラーだ。
RAIDはバックアップの代わりにはならん。 トラブル起こしたときは、RAID5もRAID10も大して変わらないような。
最悪の時に単体でもデータが拾い出せるRAID1が安心だよ。
もちろん別にリモートバックアップも必須。 週に一回、RAID1でバックアップ取ってる。
同期用ビットマップ有効にしておけば差分書き出すだけで取れるから高速。 すんまそん
質問です
3ware 9650seって2TB以上のHDD対応してますか?
(最新ファームで) >>863
対応してる。
↓のDrive Compatibility List参照
ttp://mycusthelp.info/LSI/_cs/AnswerDetail.aspx?inc=7475 mdの話。USB外付け16台でRAID6組んでるんだけど時々USBが見えなくなって
failureになる時があり、その場合はmdadm -A -fで復活出来ていた。
今日、久しぶりに発症したがいつもの手順でもpossibly out of dateで
assembleできない。困っていたら、アップデートでmdadmがver3.3に
なっているのに気付き3.2.6をmakeしそっちで-A -fしたら無事スタート。
3.3でより安全に寄せたということなのかもしれないが心臓に悪かった。 lvmで困っていて助言いただきたいことがあります.
lvmのスレが見つからなかったのですがスレチなら大変申し訳ありません.
○ 状況
4つの3TB-HDDで12TBのLVを組んでいた(各HDDにPVが1つずつ,4PV→1VG→1LV).
HDDの1つが物理障害で認識しなくなった.
残り3つのHDDに入っているデータを救出したい.
○ 解決方法: 次のやり方であっていますか?
* 物理障害HDDをはずして,代わりに空の1つのPVを作ったHDDを指す
* 当VGから,物理障害HDDのPVをVGメンバーからはずす(vgreduce)
* 当VGに,空のPVを追加する(vgextend)
* ここでマウントしてファイルを読めるか試す
なお,正常HDD3つだけで活性化(vgchange -ay --partial)したものは,FSが壊
れててマウントできないと言われました. >>868
> ○ 解決方法: 次のやり方であっていますか?
いいえ。空のHDDを追加してもファイルシステム的には何の意味もないです。
> なお,正常HDD3つだけで活性化(vgchange -ay --partial)したものは,FSが壊
> れててマウントできないと言われました.
その状態でfsckするしかないです。
ファイルシステムがXFSの場合、物理メモリ沢山無いとダメかも >>869
ご親切にどうもありがとうございました!
物理障害のHDDの復旧見込みがなければfsckをかけて
取り出せるものだけでも取り出してみます.
ファイルシステムはext4です. mdの定期rsync中にディスクの1本で failed command: READ FPDMA QUEUED とか
エラーが出たんだけど、rsync自体は正常に終わった。
これってファイルシステム的にはパリティのおかげでまだ正常ってことで
いいのかな。
さっさと替えのディスク買ってこないと…。 mdadmを使ってソフトウェアraid5を組んでるんですが、今のmd0をそのまま別サーバに移行ってできるんでしょうか?
例:
/dev/sda ←/とか/varとか/usrとか
/dev/md0 ←/home
となっているサーバAから/dev/md0のHDDをそっくりそのまま抜いてきて、同じような構成の別サーバBに移行したいのです。
ソフトウェアraid、サーバ移行とかの単語で探したのですがヒットしませんでした。
ここ読め!とかでも良いので教えて頂きたく。 サーバBのfstabにマウント情報書いて
mdadm.confにUUID書いときゃいいんじゃないの たぶん>>874でOKだけど、もう少しだけ詳しく書く
OS再インストールは何回かやってるので。大した事はやってませんが。
コマンドはすべて例。
1.OS再インストール作業
2.md0の再構成
# mdadm --assemble --run /dev/md0 /dev/sd[bcde]1
3.md0の再構成確認
# mdadm --detail /dev/md0
# more /proc/mdstat
4.md0の設定保存
# mdadm --detail --scan >> /etc/mdadm.conf
5.fstab編集してマウント
raidが縮退運転している時にマウントしてうっかりファイルとか保存するとリビルドするはめになるので、
最初からfstab書いてマウントするのは避けてる。
(ただ、OS起動時にraidが縮退運転していた時はread-onlyかもしれん。詳しくは知らない) ・HDDを後から追加して1つのボリュームに見せかけたい
・ディスクの冗長性は確保したい
って場合は
Linux+mdadmのほかに何があるでしょうか? >>874,875
なるほど。情報ありがとうございます。
検討段階だったので頂いた内容でちょっとやってみます! 2,3年前に廃棄したGentooのデータドライブRAID内データが
久しぶりに必要になり、しかし当時起動してたOSはもう残ってないので
手元にあったUSBのGentooで起動しなんとかmdadmで見える状態まで持ってきた、
んだけど、パーティションが全部吹き飛んでた。
旧OSのetcバックアップから復旧したmdadm.confで起動してて、UUIDは間違いない。
mdadm --detailで見ると正常かつクリーン、Creation Timeもたぶん合ってて特に異常は見られない。
fdiskやgdiskでも見えないし、当然pvscan(LVM2で使ってた)でも何も見えず。
こんなことって起こり得ます…?
testdiskとかやっても何も出てこず途方に暮れてるんですが、
何か良い復旧方法はないでしょうか。 /etc/lvm/backupにあるバックアップファイルの日付が古くて
なんでバックアップないのかな…と思いながらtestdiskであれこれやってたんですが、
パーティションテーブルタイプをGPTでもMBRでもなくNoneにしたら
ext4パーティションが検出されました。
LVMで使ってたのは昔の話で、最終的には/dev/md0に直接ext4で
書いてたんだった…ような気がする。
testdiskでは中身のファイルも見えてるので問題なさそうです。
お騒がせしました。
しかし何せNoneを選んでるので、testdiskでパーティションテーブルの書き込みができない。
これ開始終了の数値メモってGPTとMBR両方で書いてみて使えた方でOKですよね。
頭ではわかってるけど怖くて踏ん切りがつかないw MBRもGPTもまったく跡形もなく消えてる意味がわからず
さらにtestdiskでは何の問題もなく中身が見えるという点をよくよく考えてみて
思い出しました。
/dev/md0を直接ext4でフォーマットして使ってたんだった。
直マウントで中身見えた。
ほんとお騒がせしました。 Serial ATA HDD で、linux md で RAID1 なり 6 なりでアレイを構成して、
激しく書き込んでる途中で、ディスク引き抜いたりして遊んだことあるやついる?
あるいは、md の RAID ボリュームにそれなに激しいアクセスを伴う運用中に、
メンバディスクが死んじゃったとか、食らったやついる?
そんときに、
「ファイルシステムがコテンパンにブッこわれた。」とか、
「カーネルがハングしたけど、リブート後に fsck してまぁ、大きな問題はなかった。」とか、
「システムは生きてたけど、ファイルシステムにアクセスすると固まる、
アレイにアクセス中のプロセスが固まってた。」 とか、
「数秒のストールがあったようだが、そのまま運用が続いたようだ。」とか、
「アレイにアクセス中のプロセスになんの影響もなかった。」とか、
そのへんどうだった?
まぁ、ファイルシステムがこわれるのは、md だけじゃなくて、ファイルシステムの種類と
マウントオプションにもよるだろうけど、データが保護されるのは、ある意味当たり前で、
俺的に重要なのは、システム稼動が問題なく継続されるかどうかなのです。
root filesystem を置いているボリュームが md の アレイ上か否かによっても、システム稼動の
結果がかわると思うし、そのへんの状況もふくめて教えてくれるとたすかるます。
とくに知りたいのは、データが保護されるのは当たり前で、「システム稼動が
継続されたか?」です。「何の影響も、遅延もなく、データベースエンジンが動き続けた、
ログが記録され続けた」とか、「30秒くらい固まった」とか、そのへんです。
まぁ、チップセットや、ディスクコントローラが違えば、その状況もちがうんだろうけどね。
でも参考にしたい。
今、上記のようなことを実験しようとして、古い予備用 SATA HDD 10本 ダンボールから
あさってきたんだが、全部死んでて、だめぽい。Maxtor の SATA HDD 。
で、とりあえず、諦めた。おまいらなら知ってるはずだ。よろしくね。 886 なんだけど、今新品の WD Red 3TB を 2本おろして、20回くらいためしたわ。
1: RAID1 で、xfs デフォルトでファイルシステムつくっった。
2: 0.01 秒間隔でデータを unbuf で書きながら、その前後で gettimeofday して、
その差を記録するコード書いた。
3: コードを実行している途中で、ディスクをぶっこぬいた。
4: 遅延ログを確認した。
5: ミラーをリビルドして、3: に戻る。
遅延の最小が 0.03 秒で、最大が 8.6秒くらいだわ。
そのあいだで結構ばらけてるわ。
100回くらいためそうとおもったんだけど、HDD が逝った。
予備の新品ディスクはまだ 5本くらいあるけど、まぁこんくらいでいいわ。 debian8 に apt で mdadm を入れました。
別のPCの mdadm で作った RAID のディスクアレイ(HDD 3台の RAID)を USB で繋いだところ、自動的に認識され、mdデバイスが構成されました。
このような、繋いだだけで勝手にmdデバイス化する動作を止めたいのですが、どう設定すればいいでしょうか。
自分で明示的に mdadm -A したいです。
あと mdadm -A した時は自動的に read-only モードになるのですが、デフォルトで ro にするこの設定はどこにあるのでしょうか。 /sys/module/md_mod/parameters/start_ro >>889
それでした。ありがとうございます。
でもリブートしたら戻っちゃうんですね。
ここに初期値を与えてるのはどこなんでしょう?
>>890
/etc/udev/ の udev.conf はコメントだけ、rules.d/ には NIC の設定しか無かったです。
といった感じでまだ解決できてませんが、ヒントを貰えましたのでがんばってみます。
ひとまずありがとうございました。 linux勉強中の身です。ご教授頂けたら幸いです。
debianの8.1.0をインストール時にソフトRAID1を組みました。
起動後、sdbを外すと起動せず、
画面上に
---------
ALERT! /dev/disk/by-uuid/long-UUID-here does not exist.
Dropping to a shell!
modprobe: module ehci-orion not found in modules.dep
BusyBox v1.22.1 (Debian 1:1.22.0-9+deb8u1) built-in shell (ash)
Enter 'help' for a list of built-in commands.
/bin/sh: can't access tty; job control turned off
(initramfs)
---------------
と表示されました。
sdbを取り付け、sdaを外しても同じでした。
grubはどちらのhddにもインストールし、update-grubもしたんですが。。。
grubは1.2で、ext4にしました。
よろしければ博識の方お教え下さい。お願い致します。 >>894
ご教授ありがとうございます。
Cent7で同じことしてみたらできました。
なぜdebianでできないのか初心者の私にはわかりません。
色々勉強してから再度挑戦したいと思います。
ありがとうございました。 すでにdebian機を運用してるんだけど、途中からraid1に組むことは可能?
システムファイル系はssdでhome領域をハードディスクで構成してるんだけど、home領域のみraid組みたい 新しく追加する方のHDDでRAID1を縮退モードで作って
元のHDDの内容をその新しい縮退モードのアレイにコピーして
元のHDDをアレイにaddすればいんじゃねっけ ちょっと教えてほしい
mdraidでデータ領域用2TBx3のraid5があり、現状問題なく動いているんだが
事情があってそのうちの一本を交換したい
ちなみに電源落として抜き差しとかはOKだが、その場合はできれば作業は半日以内に抑えたい
入れ替えてリビルドもできれば避けたい
指定した物理ディスクのスペアを作成しておいて再起動で認識させて終了が望ましい
ぱっと思いついたのは電源落として別のPCにてddで丸コピーだが
もっといい方法が有ったら教えてほしい だいたい、なんでリビルド避けたいの。
パフォーマンスが、とか却下な。理由になんねぇ。
他のディスクが道連れに・・・なんてなら、
んなもん、3本新品買って、別に作って、データコピーだろ。
RAID組んで運用してるストレージで、そんなに
危ない橋を渡りたい訳? >>898
dd でいいんじゃね?
クローン機能が付いたHDDスタンドとかあるけど、多分 PC で dd した方が速いと思う。 >>900
ありがと
mdadmのmanみてもそれらしい機能が無かったがやっぱddか
同じロットの別のディスクがraid1の方でこけたから
今日明日なら半日止めれるからraid5の方を別ロットのスペアと入れ替えて
万が一問題の有ったロットがまたこけても復旧の楽なraid1にまわす予定なんだ
ddして再起動、動作確認なら最悪スペアがアウトでも戻せるしね >>901を読んでもリビルドを避けたい理由がよく分からなかった。 レス数が900を超えています。1000を超えると表示できなくなるよ。