RAID総合スレッド No.5
■ このスレッドは過去ログ倉庫に格納されています
Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/ スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.com/ja-JP/_common/os_support/linux/ Linux EVMS 一般 ttp://evms.sourceforge.net/ Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。 ... あと続けてくらさい。 ●縮退運転した後、通常起動する手順2 アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 フラッシュメモリ(/dev/sdm)抜く フラッシュメモリ(/dev/sdm)挿す アレイがフラッシュメモリだけで起動するので停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 縮退運転で起動 # mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2 mdadm: /dev/md8 has been started with 2 drives (out of 3). アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 通常起動する # mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2 mdadm: /dev/md8 has been started with 3 drives. 連投失礼。 結論:良く分からんw >>743 のケースは●縮退運転した後、通常起動する手順1 に近い気がするが、 経験上は一度縮退運転しちゃうと、縮退運転でしか起動しなくなるんだよな。。。 おそらくだけど、RAID関係のモジュールがOS起動時に読み込まれないように すれば良いです。後からinsmodで差し込むスクリプトを書けばいいです。 但しOSが入っている部分はRAID使ってない事が前提だけどね。 initrd関係を細工すれば良いだけだけど、OSの起動プロセスをいじるので この説明だけでわからなければやめときな。 そいやぁ、いにしえの時代、一部のブートセレクターが使っていたMBRに書いてあるファイルシステムのタイプにダミーの 値を書いておいて、自動認識させないって技があるな。 今でも使えるかどうかはしらないが。 まぁ、これも、この説明だけでわからなければやめときな。 >>748 試してないから想像だけど >フラッシュメモリ(/dev/sdm)抜く この時点で/dev/sdmがfail扱いでまだアレイに残ってるとか? 一回removeしてみたらどうかな >>751 まあ起動後に書き込み発生したらその時点でアウトだろうし 書き込みしなければ(マウントしなければ)resync 不要だったような 4KBセクタの2TBのHDDx4でmdadm使ってRAID5組んでいるところに、 mdadm --growで512Bセクタの2TB HDDを1台足したいと思ってるんだけど、 RAIDの玉の中で4KBセクタと512Bセクタが混在するのって問題ありますか? AFTでLinuxからの論理ブロックサイズが512Bに見えてるなら 混在しても動かないとか障害が起きやすいとかは特になさそう。 アライメント揃える話もパーティション切る段階の問題で、MDとしてはv1.0かv1.2で構成してあるならMD部分でケアすることはない。 論理ブロックサイズが違うデバイスをミックスしたらどうなるのかは実験で苛めてみたら面白そう。どこかにうっかりバグとか入ってて踏めるかも? ややスレ違いになりますが、既存RAIDを構成しているAFTなはずのHDDも、dmesgなpartedからは 512B/セクタと認識されてますね。OSはCentOS5.8なんですが、カーネルが古いせい? なので、MDのメタデータもVer0.9で作られてます。1.0以上にしないとまずいんでしょうか…。 既存HDDは1HDD1パーティションで切っていて、64セクタ目を開始セクタにしてあるので、この点は問題ないかと思っているのですが。 MD v0.9はうろ覚えだから省略したけど、これも末尾にメタデータ置いたと思うのでアライメント問題は起こさないはず。 AFTなのに512B/sectorと認識されるのは「なのに」じゃなくて正しい仕様。ただ、OSによってはAFTであることを検出して、書き込み手順を最適化するらしい。 まあアライメントがずれててもバッファリングありの書き込みだとたいして影響しない。 データベースとかでO_SYNC/O_DIRECTな書き込みばかりしてるなら気になるだろうけど。 レイヤが違うと理解できれば心配することなんてないんだけどな。 >>759 >まあアライメントがずれててもバッファリングありの書き込みだとたいして影響しない。 えーと、大量のシーケンシャル書き込みでも、両端の1セクタはパーシャルライトになります。 で、その部分では、普通であれば1/2回転である「平均回転待ち時間」が3倍になるわけです。 単純に計算して、5400rpmのHDDだと平均5.5msの回転待ちが 平均16.5msになり、一箇所の書き込み毎に平均11ms余分に待たされるわけですね。 (ただし、RAID環境だと元々が平均1/2周待ちではないので、確かに影響は少な目と言えるかも) まあ11msで読み書きできる量なんて、せいぜい1MBとか1.5MBとかその程度なので 毎回その程度の量を余分に書き込みしている程度の差でしかありませんが。 ちなみにRAID5だと、「パーシャル」になるサイズが (構成台数やチャンクサイズにもよりますが)かなり大きくなりますね。 OSがこのサイズを意識してバッファリングしてるかは知りませんが。 で、パーシャルでの書き込み時は、パリティ構成セットの全台の同期待ちがあるので そもそもの「回転待ち時間」が平均1/2周よりも平均1周に近くなり その上でもう1周かけて全台に書き込みを行うので 書き込みの回転待ちは単純に4倍近いと考えてよいかと思います。 RAID6はさらに倍ですね。(パリティセットの構成セクタが両パリティで大きく異なると思われるので) これが「RAID5の書き込みの遅さ」の正体なので 以前から時々みかける「昔はCPUパワーが云々」というのは的外れかと思います。 なんとなく言ってることはわかるんだけど、 全部ライトキャッシュで吸収できるとしか思えないんだが そういうもんでもないの? ありがとうございます。 一応、追加する512BセクタのHDDの開始セクタも、既存4KBセクタのHDDに あわせて64セクタ目にして(意味ない?)、いま mdadm --growを始めました。 6TBから8TBにするのに丸3日かかるらしい…。 うちにある3T x 2 のRAID1はresyncに10時間かかるなぁ。 HDDの大容量化にHDDの速度がついてきてないね。 RAID5のgrowは何回もやってるので、うちの環境の場合(おおよそ) 6TB(1.5TB×5)→7.5TB(1.5TB×6) 1日半 7.5TB(1.5TB×6)→9TB(1.5TB×7) 2日弱 10TB(2TB×6)→12TB(2TB×7) 2日 12TB(3TB×5)→15TB(3TB×6) 2日 HDDはほとんどWDの緑。CPUはCeleron420。 マザーにSATAUとかついているが、SATA4P-PCIにHDD4台とか平気で繋げる。 NAS専用機なので他に仕事はやらせてない。 深く考えた事もないが、growのボトルネックって単純にHDDの書き込みか? mdadm --grow中に、なぜか既存のHDDがfailしてgrow動作が停止orz smartctlでチェックしても特にエラーは見つからないので、このHDDを再度アレイに突っ込みたいんだけど、大丈夫かな…。 HDDの異常が無いなら、コントローラーの方は大丈夫なの? かなりの高負荷になっているはずだけど。 HDDは全てオンボードのICH9Rに繋がってるんだが…。 オンボードだろうがなんだろうが 壊れるときは壊れるw >>766 俺も昔raid5でそれやってヒヤッとしたわ データ死んだと思ったが運良く縮退運転でリスタートできた デグレード3T7400回転x3に3T5600回転足したところ、 リビルドに8時間ほどかかったな。 >>766-770 ビットマップでどの範囲まで書き換えたかの状態を持ってるはず。 degradedではあるもののRAIDは生きてたので、エラーを起こしたHDDを remove後 --zero-superblock したあと再びaddしました。 そしたらresyncが走って(これは数時間程度で終了)stateはcleanになったけど、 mdadm --detail で Delta Devices : 1, (4->5) になったまま、当初数日間かかると 思われたリビルド動作は再開されず…。--grow /dev/md1 --size=max したら アレイのサイズは大きくなったけど、やっぱりリビルドは始まらず。 というわけでgrowが中途半端なままアレイ領域が拡張されて、stateは cleanというものすごく中途半端な状態になってしまいました。 --examine で各構成HDDをみると、Reshape pos'n というところに どこまでreshapeが完了したのかの記録は残ってるんですが…。 たびたびでホントすいません。アドバイスお願いします(泣 エラー起こしたHDD戻したのか とりあえず今すぐ新しいHDD買って来てバックアップ RAIDばバックアップの代わりにならないとあれほど言ったのに (こころの中でな) 問題はエラー起こしたHDDを戻したことではなく、reshapeが終わってないうちに アレイのサイズを大きくしちゃったことのようです (大きくしたのはアレイだけで ファイルシステムはまだだったのに)。 いったんmdadm -Sで止めて、--assembleで再開させたら、reshapeが 続きから再開されました。アレイを大きくする前にはじめからこうしておけばよかったorz バックアップ用のストレージをRAIDで組むとええんや さらにそのストレージのスナップショットを地理的に離れたデータセンターにだな・・・ まぁバックアップは別のPCに取るべきだな。 本来なら遠隔地にバックアップPCを置くべきだが コストとネットワーク帯域的にむりぽ。 AWSのアレ使えば日本じゃないところにバックアップを取るのも難しくはない 自分でRAID組むよりお手軽で安全ではあるが、帯域・転送量重量課金の問題は消せないな 質問なんですが、半端な容量のhdd複数をまとめてそれに対してRAID1をやりたいのですが、スパンとRAID1の両方に対応してる製品で可能でしょうか? 製品つか このスレで聞いたら mdraid でやればいいんでね? という話になると思うが 俺は半端な容量のヤツを全部捨てて 大きいのを二つ買ってきた方がいいと思う 専ブラの検索結果からきたのでlinux板とはつゆ知らず。失礼しました。 Chunkサイズの最適値がいまいち判らん 参考になるサイトを教えて、エロい人 前試したことあるけどうちの環境だと128kがベストだったよ WD緑2TBの6台くらいのRAID5、ファイルシステムはext4で 試したチャンクサイズは64k/128k/256k/512k でかい動画ファイル数個と、細かいファイル多数を用意して それぞれ実際にコピーにかかる時間を計測した 具体的な数値は割愛するけど、 チャンクサイズが大きいとでかいファイルの書き込みがわずかに早くなったが それも誤差といっていいレベルで、代わりに読み込み速度が著しく低下した 結局一番バランスが良かったのが128k ただこのアレイの使途がsambaファイル鯖だったんで、 計測は実際の使用状況に近い状態(ネットワーク経由)で行ったため、 厳密なベンチとしてはやや不正確かもしれない まあ参考までに >>787 横からだが、こういう情報はありがたい。 うち WD 緑キャビア 2TB 4台の RAID5 だから環境近いなーと思って mdstat 確認してみたら……512k だった orz. 実害無いけど、今度組む時は気をつけようと思った。 >> 787 3TBx7、RAID5、XFSでベンチ取ったけど複数回の平均でないせいか、いまいち安定しないんだよね dd if=/dev/zero of=/srv/32GB.img bs=1M count=32768 dd if=/srv/32GB.img of=/dev/null bs=1M count=32768 bonnie++ -d /srv -u root ■Chunk 4K 34359738368 バイト (34 GB) コピーされました、 48.4232 秒、 710 MB/秒 34359738368 バイト (34 GB) コピーされました、 58.3853 秒、 588 MB/秒 1.96,1.96,B75M,1,1359660716,31976M,,1645,92,673629,36,184346,23,3614,90,810132,68,381.1,13,16,,,,,1930,4,+++++,+++,2936,6,1493,3,+++++,+++,2077,4,4718us,39590us,211ms,16259us,100ms,191ms,36571us,103us,132us,151us,37us,4993ms ■Chunk 8K 34359738368 バイト (34 GB) コピーされました、 56.4166 秒、 609 MB/秒 34359738368 バイト (34 GB) コピーされました、 52.2211 秒、 658 MB/秒 1.96,1.96,B75M,1,1359662863,31976M,,1657,93,513626,27,187980,19,3518,88,912221,55,552.0,18,16,,,,,1852,4,+++++,+++,4805,10,3000,7,+++++,+++,4656,10,4637us,32371us,188ms,25171us,99881us,63085us,16483us,106us,164us,128us,76us,2915ms ■Chunk 16K 34359738368 バイト (34 GB) コピーされました、 57.9357 秒、 593 MB/秒 34359738368 バイト (34 GB) コピーされました、 48.7993 秒、 704 MB/秒 1.96,1.96,B75M,1,1359673482,31976M,,1657,94,485183,26,181746,16,3481,86,980625,46,533.1,17,16,,,,,3027,7,+++++,+++,9270,20,5068,11,+++++,+++,6055,14,5285us,35016us,180ms,44198us,100ms,116ms,16531us,124us,132us,221us,62us,1192ms ■Chunk 32K 34359738368 バイト (34 GB) コピーされました、 101.545 秒、 338 MB/秒 34359738368 バイト (34 GB) コピーされました、 76.322 秒、 450 MB/秒 1.96,1.96,B75M,1,1359674495,31976M,,313,35,300159,19,182774,14,5003,97,641331,21,1736,53,16,,,,,3856,3,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,9372us,156ms,166ms,10635us,19026us,8914us,11857us,514us,1063us,378us,30us,1032us ■Chunk 64K 34359738368 バイト (34 GB) コピーされました、 69.354 秒、 495 MB/秒 34359738368 バイト (34 GB) コピーされました、 44.3628 秒、 775 MB/秒 1.96,1.96,B75M,1,1359671414,31976M,,1660,93,469444,25,195754,14,3153,78,920928,28,540.4,17,16,,,,,3581,8,+++++,+++,20406,44,12794,29,+++++,+++,18666,42,4734us,31388us,223ms,10643us,46512us,72471us,14313us,113us,131us,127us,74us,72us ■Chunk 128K 34359738368 バイト (34 GB) コピーされました、 102.281 秒、 336 MB/秒 34359738368 バイト (34 GB) コピーされました、 77.3459 秒、 444 MB/秒 1.96,1.96,B75M,1,1359670105,31976M,,353,40,301179,20,181007,14,4970,97,640319,21,1743,54,16,,,,,4025,4,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,9350us,160ms,179ms,12648us,18613us,8668us,10107us,507us,1071us,378us,23us,1101us ■Chunk 256K 34359738368 バイト (34 GB) コピーされました、 76.2661 秒、 451 MB/秒 34359738368 バイト (34 GB) コピーされました、 44.8381 秒、 766 MB/秒 1.96,1.96,B75M,1,1359665523,31976M,,1645,92,348592,18,185896,13,3311,84,1020281,28,558.1,17,16,,,,,11249,25,+++++,+++,18695,41,12323,28,+++++,+++,17883,40,4635us,19945us,202ms,27348us,44991us,51579us,13328us,118us,129us,222us,27us,67us マシンのスペックは Celeron G550 RAM 16GB M/B Asrock B75M です。 mdでraid1組んでて、縮退状態でgrowすることってできないんですかね? 500GB x 2でそれぞれ運用していたんだけど片方のディスクをOS以外で使ってない 状態だったので、データが入ってるディスクとRAID1を組みたかったのですが データ側のディスクは退避場所がないのでインストール時に8GBのUSBメモリと 500GBのHDDでRAID1を組んで、その後片肺にしてgrowで広げてデータをコピー、 そのあと元データ用ディスクとRAIDを組もうと思ったのですが。。。 片肺で領域を拡張しようと # mdadm --grow /dev/md1 -z max mdadm: component size of /dev/md1 unchanged at 7564288K とか言われて拡張してくれません。 どなたかヒントをいただければとおもいます。 アレイ構築するときに最初から一つmissingにして500GB確保してみたら? やったことないからできるのかしらんけど 俺の名はジェフ。 人力RAID1を運用している。 ハードウェア障害でデータを失ったこと一度としてない。 俺の名はサンチェス。 人力RAID0の運用を試みたが、無意味だった。 わはははは。 俺の名はサンチェス。 気づかずにageていた。 わはははは。 色々とテストしましたが、結局シーケンシャルは4Kが速かった Adaptecの HBA 71605H と RAID 71605E の違いは簡易RAIDの違いだけなのかな? http://www.adaptec.com/ja-jp/products/ Eのほうが機能面で優れてるのに、 なぜか市場では、Eのほうが安いんだけど。 なぜ? Adaptecの HBA 71605H と RAID 71605E の違いは簡易RAIDの違いだけなのかな? http://www.adaptec.com/ja-jp/products/ Eのほうが機能面で優れてるのに、 なぜか市場では、Eのほうが安いんだけど。 なぜ? >>801 Eのが先に販売開始で たしか38K位で販売開始 その後円安が一気にすすんでからHが発売 ドルベースではHの方が安いけど 円高時に輸入したものと円がさがったから輸入したHで 逆転しているだけかと Eも40K台に値上がりが始まったんで先月購入した俺は そう思ってる。 >>802 EもHBAとして使用出来るよね? あと、Eはフラッシュモジュールコネクタが付いてるけどHには無い (フラッシュモジュールはRAID用だからHには付いてない) HよりEを買ったほうがましって事かな? mdadmのRAID1だけど、HDD交換って結構めんどいね。 >>804 慣れたら、ハードウェアに依存せず同じやり方がどこでも通用するから楽だよ。 新しい環境でも、事前の復旧手順の確認とかテストがいらない。 >>805 でもさ、取り外しと新規受け入れと、 自動コマンドの1つ2つに簡略化できることだと思うんだ。 >>806 必要だと思ったら そういうスクリプトを書けば済むから そんなもの誰も作らないんだよ >>807 そのスクリプトを同梱してほしいってことだろう? MDで悩むのは故障したディスクに対応するスロットが一体どれなんだ、というあたりだな。間違ったの抜くと死ねるしな。 HDDのよく見える位置にシリアル下4桁くらい書いたテープ貼ってる ラベルには必ず書いてあるだろうし、奥側(端子の反対側)にシールが張ってある機種も多いと思うんだけど 両方、取り付けちゃうと見えないんだよね。 書いてあって欲しいのは、端子側とその右側面端子寄りなのに。 >>807 引数ドライブに対して -f して -r して -a だからな。 悩みようがない >>809-811 ほぼ全台ホットスワップベイに入れたので、 「とりあえず引き抜いてシリアルを見る」が 可能になった。 >>812 おれは、ホットスワップに対応してても「とりあえず引きぬく」は無理だ。 挿し直したらいきなりリビルドが始まったりしたことがあるので、 正常なものは極力触りたくない。 あとは、 2台で RAID1 してるとか、RAID5とかの場合に1台壊れて交換する場合は、 その方法取れないしね。 1Uサーバとかの場合は、1スロット毎にLED があるので、dd して生きてるディスクを 確認してから引き抜けるけどタワーとかだと厳しいから、ラベリングするしかないか。 mdasm のコマンドに関しては、大いに賛成。 これ以上まとめる必要性を感じない。 個別のアクセスランプ付きのHDDケージを使っていると 異常がおきているHDDがどれかわかりやすくていいな。 常に判別できるというわけでは無いかもしれないけど 最近では、低速病に陥ったHDDがあることが アクセスランプの様子から判別できた。 一旦RAIDメンバーから外して、ddで管理情報抹消して 改めて、0xfdパーティションを作って戻した。 以降数ヶ月、低速病の再発は確認されていない。 >>809 SATA の場合、/dev/sdX で指定すると割り当てがコロコロ変わっちゃうから ドライブは /dev/disk/by-path 以下のリンクで指定するのが俺的常識。 これだと接続インターフェイスでの指定だからリムーバブルフレームとか使ってても問題なし。 by-uuid使ってるけど、いずれにしても事前マーキングしてないと抜くスロットで悩むのは同じ。OSから見えてる情報と物理的なスロット構成の対応が機材で違うからなー。 smart情報でとれるhddのシリアルが、hddに貼られているものと一緒だからそれを見た方が確実だとおもわれ。 そのシリアルがHDDはずさないと見えない配置になってることが多いからメモって見えるところに貼っておくって話でしょ SES2やGPIO対応のenclosure使えば良いんだろうけど、 高いしなぁ。 スロット毎にLCDかなんかがついていて、表示内容を設定できればいいのに・・・ そして何十人月の苦心の後、ついに日本は全面電子ペーパのサーバを開発した。 一方ロシアは鉛筆(とラベルシール)を使った。 既出かもしれませんが教えて下さい ICH10RのRapidraidは usb接続のhddでraidを組むことが出来るかご存知の方いらっしゃいますか? >>822 早速レスありがとうございます 諦めますw なんでそんな実用性無視のネタみたいなことをやろうとするのか知らんが、mdraidでやれ。 フロッピーディスクでもRAID組める。 sda1とsdb1をmdraidでRAID1組んでて(/割り当て) それやめてsdaの方でもbの方でもいいから そのまま再インスコとか無しでシングルディスク環境に戻す手順てどっかにある? 縮退運転のまま使い続けりゃいいじゃん 今はメタデータがデバイス先頭だしめんどくせーよ >>826 片方をremoveしてからzero-superblockしてmkfsして/をコピー。 それが妥当だけど GRUB2とかのインストールの手順を、おれは把握していない。 GRUBの頃は、何度かレスキューディスクからインストールしたんだけどね。 あと、Ubuntu系はパーティション(ボリューム)の指定に デバイス名やLABELでは無く、UUIDを使っていたりする。 UUIDはblkidコマンドで確認できるけど GRUB2を把握していないと、苦戦するね。 /etc/fstabの書き換えは面倒くさいだけだけど。 >>828 結局は「通常のファイルシステムを作って丸コピー」しなきゃならんのですね 回答感謝です degrade状態で運用したほうが、あとで気が変わった時にディスク追加もしやすいのでお勧め。 degradeで運用って、私がOS設計者だったらdegrade状態だと同期書き込み とか安全側に振る設計をすると思うな。パフォーマンスが落ちてないか 検証や、そういうコードが入ってないか調査した方が良いよ。 ブロックデバイスレイヤーで非同期書き込みという阿保発想 得意先のためにDellからサーバを注文したんだけど、 Linuxでソフトraidを試そうとraid controllerを注文から外したのに Dellから電話掛かってきて、raid controllerを薦められた もちろん使うOSはLinuxだと聞いたうえで・・・ それでraid controller追加注文して、Centosを入れようとしてもHDDが認識されない! ググったらこの PERC S300 は Linux 非対応だって・・・なんてこと! しかもケーブルを繋ぎ直さないとLinuxでは決して使えないみたいで・・ サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど なんかだらだら書いてあってよくわからんけど >>834 > サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど 質問はここでいいのかな? ハードウェア保守マニュアルも無いサーバーなんかごめんだぜ >>834 S300だったか覚えてないが、Linuxで認識出来ないRAID カードを 買ってしまったと相談受けた事がある。さらにタチが悪い事にSAS だったのでオンボードSATAに挿せないというオチまでついてた。 その後どうなったか聞いてないが、結局、、自腹切ってRAIDカード 買ったんじゃないかなって感じだった。 ワロタ そんなのdellにクレーム入れて 対応品に交換させればいいだけのこと。 うろたえる意味がわからん。 得意先の機材に関する疑問点を こーゆーとこで尋ねるってのは IntelマザーのFakeRAIDにて3TBをRAID1で使用したいのですがどうしても746GBに引っかかってしまいます OSに対応したドライバが無い場合は大人しくソフトウェアか対応してるハードウェアでやるしかないのでしょうか? >>840 デバイスドライバを書くという手も無しにあらず。。。 一度LANカードで困った事があって、ソース追いかけたら 修正できた事があるよ。 とりあえずソースを読んでみたら。 RAID Option ROMが腐ってんだから頑張るだけ無駄 標準カーネルで未対応なだけで、ベンダドライバは普通あるだよ。 標準カーネルに入っていないということの苦しさはたっぷり味わえるだろうけど、 サーバ系機材なら使えないということはまずありえない。 CentOS4.*の頃、ベンダードライバーで導入したけどyum updateで kernelの更新エラーが出るので、CentOS4のマイナーバージョン番号が 上がってもkernelが更新出来なくて、変なエラーがいっぱい出る状態で 運用してた事があったな。ベンダードライバも更新がなかなかなくて、 結局kernel標準のSoftware raidドライバに変更して再インスコしたな。 mdadm について教えて下さい。 現在、Terastation の4玉中3玉(RAID5)からの復旧をしています。 mdadm --misc --detail /dev/md0 の結果は以下のような感じです。 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 22 1 active sync /dev/sdb6 2 8 70 2 active sync /dev/sde6 3 0 0 3 removed 0 8 38 - spare /dev/sdc6 /dev/sdc6 を組み込み混めば、/dev/md0 が使えるようになると思うのですが どのオプションを使用すれば良いでしょうか? removed に -f を指定できれば、自動で組みまれるような気がするのですが -f はデバイスしか指定できない感じです。 >>846 ホットスペアでしょ?自動で組み込まれるはずだけどそうじゃないみたいだしもう無理じゃね 同時に2台HDD逝ったんか? mdraidなんて別に物理的損傷が0でも 何かの拍子にHDDが一瞬見えなくなったら即failureじゃん コメントありがとうございます。 お察しの通り2玉逝ったのですが、そのうち1玉(/dev/sdc6)は Checksum が correct なので、データ部は無事のようです。 なんとか手動で組み込めないでしょうか。 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる