X



トップページLinux
1002コメント413KB

RAID総合スレッド No.5

レス数が950を超えています。1000を超えると書き込みができなくなります。
0001login:Penguin
垢版 |
2009/09/16(水) 23:34:35ID:JK/kMdkU
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/

Linux EVMS 一般
ttp://evms.sourceforge.net/

Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。
0895login:Penguin
垢版 |
2015/06/22(月) 20:18:12.63ID:5AZiVbyG
>>894
ご教授ありがとうございます。
Cent7で同じことしてみたらできました。
なぜdebianでできないのか初心者の私にはわかりません。
色々勉強してから再度挑戦したいと思います。
ありがとうございました。
0896login:Penguin
垢版 |
2015/07/18(土) 18:09:51.85ID:Lxtp7iMB
すでにdebian機を運用してるんだけど、途中からraid1に組むことは可能?
システムファイル系はssdでhome領域をハードディスクで構成してるんだけど、home領域のみraid組みたい
0897login:Penguin
垢版 |
2015/07/19(日) 07:55:20.67ID:AI1bRQAf
新しく追加する方のHDDでRAID1を縮退モードで作って
元のHDDの内容をその新しい縮退モードのアレイにコピーして
元のHDDをアレイにaddすればいんじゃねっけ
0898sage
垢版 |
2015/08/15(土) 00:40:42.79ID:wIWYGOHk
ちょっと教えてほしい
mdraidでデータ領域用2TBx3のraid5があり、現状問題なく動いているんだが
事情があってそのうちの一本を交換したい
ちなみに電源落として抜き差しとかはOKだが、その場合はできれば作業は半日以内に抑えたい
入れ替えてリビルドもできれば避けたい
指定した物理ディスクのスペアを作成しておいて再起動で認識させて終了が望ましい
ぱっと思いついたのは電源落として別のPCにてddで丸コピーだが
もっといい方法が有ったら教えてほしい
0899login:Penguin
垢版 |
2015/08/15(土) 00:49:35.87ID:ek28CQrG
だいたい、なんでリビルド避けたいの。
パフォーマンスが、とか却下な。理由になんねぇ。
他のディスクが道連れに・・・なんてなら、
んなもん、3本新品買って、別に作って、データコピーだろ。

RAID組んで運用してるストレージで、そんなに
危ない橋を渡りたい訳?
0900login:Penguin
垢版 |
2015/08/15(土) 03:44:00.93ID:X5vWbdCE
>>898
dd でいいんじゃね?
クローン機能が付いたHDDスタンドとかあるけど、多分 PC で dd した方が速いと思う。
0901sage
垢版 |
2015/08/15(土) 04:43:51.18ID:wIWYGOHk
>>900
ありがと
mdadmのmanみてもそれらしい機能が無かったがやっぱddか
同じロットの別のディスクがraid1の方でこけたから
今日明日なら半日止めれるからraid5の方を別ロットのスペアと入れ替えて
万が一問題の有ったロットがまたこけても復旧の楽なraid1にまわす予定なんだ
ddして再起動、動作確認なら最悪スペアがアウトでも戻せるしね
0902login:Penguin
垢版 |
2015/08/15(土) 07:23:57.64ID:pyOU0v8J
>>901を読んでもリビルドを避けたい理由がよく分からなかった。
0903login:Penguin
垢版 |
2015/08/15(土) 08:55:41.52ID:X5vWbdCE
>>902
リビルド中はパフォーマンス落ちるから、使わない時に予防交換したい、でも時間は半日しかない、ってだけの話なんじゃない?
それほど難しいこと言ってるようには思えないけど。

んまあスペア云々の手順はよくわからんが。
PC止めてる間に黙って複製したディスクに入れ換えりゃそれだけで交換完了な気がするが、ここで言ってるスペアってのは RAID で言うところのスペアではないのかな。
0904login:Penguin
垢版 |
2015/08/15(土) 14:42:44.37ID:0uh43RUl
いわゆる都市伝説を信じてる人間だってのは分かったな
0905login:Penguin
垢版 |
2015/08/29(土) 11:20:36.13ID:J50Jrhrw
HP ProLiant Microserver N54L に
Ubuntu Server をインストールして、
ファイルサーバにするつもりです。
システムはマザボに直挿ししたUSBメモリにインストールし、
HDDは4TBを4台積むつもりです。
Linux用のソフトウェアRAIDは、
mdadmというパッケージを使うらしいことまでは解りました。
RAIDについて完全に無知なのですが、
まずはここから勉強しろ!っていう
アドバイスを頂けませんでしょうか。
0906login:Penguin
垢版 |
2015/08/29(土) 11:34:01.33ID:VLNUqLsb
RAID5は使うな
RAID10にしておけ
0908login:Penguin
垢版 |
2015/08/29(土) 16:48:13.97ID:DM5GPTlO
ミニタワーで増やせるなら6にしとけば拡張が楽だけど
Microserverは4台までで基本増やせないから5以外なら10でも6でもいいな

と言うかそもそも>>905は冗長性が要るのかどうかって所からのような気も
0909login:Penguin
垢版 |
2015/08/29(土) 17:06:49.47ID:xqS9JtHE
Microserver で mdadm RAID5 な俺涙目。
0910login:Penguin
垢版 |
2015/08/29(土) 17:29:05.33ID:2w3LsRXM
>>905
md 使ったNAS製品のひとつに ReadyNAS があるけど、これが唱ってる X-RAID2 ってのを参考にしておくとディスク追加や大容量ディスクへの換装での柔軟性が出てくる。
まあ md と LVM とオンラインリサイズが可能なファイルシステムを組み合わせただけなんだけど、便利だよ。
0911login:Penguin
垢版 |
2015/08/29(土) 23:50:19.26ID:7JoFRoi4
4台の場合、RAID6とRAID5+1hotspareではどちらがベター?
2台同時故障想定するならRAID6しかないとは思うが、パフォーマンス的にも
6でいいの?
0912login:Penguin
垢版 |
2015/08/29(土) 23:56:05.82ID:GHA+ikyn
Raid5は欠陥
ホットスペアがあろうがディスク障害時にリビルドにかかる時間は変わらないから何もかわらない
0913login:Penguin
垢版 |
2015/08/30(日) 00:34:41.33ID:1a/4IFJ+
>>911
パフォーマンスで言えば、書き込み時はパリティ2種類も計算しないといけない RAID6 は部が悪い。
読み取り時はパリティ関係無いから理屈で言えば RAID5 も 6 も変わらないか、データが 1台多くに分散された RAID6 の方が有利かもしれない。
1台故障時は理屈から言えば RAID5 も 6 も変わらない。

信頼性で言えば、RAID5 + スペアはデグレ時のディスク交換を自動にしただけで、RAID5 のリスクを何も解決してない。
どうせ 1台余計に電源入れておくなら寝かせとくよりパリティに使う方が有意義じゃね?
0914login:Penguin
垢版 |
2015/08/30(日) 23:15:30.48ID:WOYK8c1F
普通に OpenFiler、FreeNas、Nas4Free、OpenMediaVault とか使えば?
ただし、大容量ディスクに対して、半端なメモリ積んで zfs のデダップつかうのだけはやめとけ。
0915login:Penguin
垢版 |
2015/08/31(月) 22:48:37.24ID:BCaOBWlD
>>913の最後の1行にはなんか納得した
0916login:Penguin
垢版 |
2015/08/31(月) 23:11:08.11ID:i38UiTCe
でもMicroserverにRAID6は荷が重いんでは
RAID10かメモリたくさん積むならRAIDZがいいような
0917login:Penguin
垢版 |
2015/08/31(月) 23:25:19.17ID:8viju9LA
今時、パリティの計算の負荷なんてたいしたこと無いよ
0918login:Penguin
垢版 |
2015/09/03(木) 21:56:42.65ID:lb++qTB4
>>916
ただの Raidz にメモリなんてほぼいらない。デダップするなら搭載するディスク容量抑えなきゃ最大メモリ容量までましても全然足りない。(全域にかけなきゃ問題ない
0919login:Penguin
垢版 |
2015/09/04(金) 03:58:26.22ID:m+vT9yLx
どうでもいいけどdedupって読み方はデダップなの?デデュープだと思ってたんだけど。最後にeがないからデダップになるのかな
0920login:Penguin
垢版 |
2015/09/04(金) 07:27:09.58ID:fJfmSR6/
デデュープの方が普通
0921login:Penguin
垢版 |
2015/09/14(月) 12:13:30.95ID:bRiIt4to
RAID5でも6でも、
後からHDDを追加できますよね?
OSはLinuxなんですが。
0922login:Penguin
垢版 |
2015/09/14(月) 13:51:47.91ID:mXm50jDF
何でRAID組んでるかによるんじゃないすか
たいていできると思うけど
0923login:Penguin
垢版 |
2015/09/14(月) 23:53:11.66ID:JtN791v/
大抵出来ないと思う
raidにraidでストライプとかはできるけど
0924login:Penguin
垢版 |
2015/09/15(火) 01:06:46.17ID:b2pu4c1r
md だったらできるよ
ディスク足してボリューム容量増やした後でファイルスシテムの拡大を行えばいい
0925login:Penguin
垢版 |
2015/09/16(水) 05:03:55.27ID:YBELeZPw
だね
addしてgrowしてresizeすればいいだけ
これができるから最初から容量計算とかしないで適当にやってる個人運用なんかはmdraidが使い勝手が良い

流行りのzfsでRAID-Z2のストレージプールとかだと
新たにもう一つRAID-Z2デバイスを作ってそれを『プールに追加して』プールそのものの容量増やすとかはできるけど
そのプールを構成している『RAID-Z2デバイス自体にHDDを追加して』4本のZ2→5本のZ2みたいに
デバイスそのものの容量を増やす事はできない
0926login:Penguin
垢版 |
2015/09/16(水) 07:31:29.84ID:deOQbRKP
>>925
RAID-ZはなんでHDD追加で容量うpを実装しないんだろうな?
特許がらみでできないのかと思ってみたいるするが、
ZFS on Linuxで独自実装とかしないかなぁ。
0927login:Penguin
垢版 |
2015/09/16(水) 07:59:48.13ID:y7jlhJdA
RAID の構成ディスク減らせるようにしてくれないかな。
小さいディスク多数から大きいディスク少数に移行できると便利だと思う。
drobo はそれできるけど、特殊過ぎて使いたくない。

あと md の RAID6 をディスク 3本から構成できるようにしてくれないかな。
もちろん後で本数は増やす前提だけど、とりあえず二重冗長の最小構成で初期化できればいいのに。
0928login:Penguin
垢版 |
2015/09/16(水) 09:52:02.18ID:AQ/6rXG3
>>926
もともとエンタープライズ用だからそんな貧乏くさいことはしないんだろ
0929login:Penguin
垢版 |
2015/09/16(水) 12:03:40.37ID:sDO9e2Qi
>>926
1Stripe = 1RecordにZFSはならないからなぁ。

一般的なRAIDなら、ストリッピング単位で詰めるなりして、
パリティ再計算で済むけど、
ZFSでは、そういう訳にはいかないからな。

恐らく、機構的にZFSのマイグレーションは無理だと思うわ。
0930login:Penguin
垢版 |
2015/09/16(水) 18:22:04.69ID:deOQbRKP
>>928
そう言っちゃうと身もふたもないが、オープンソースでやっていたんだし、
なんだかんだで実装してくれそうな気もするんだがw

>>929
技術的に厳しいのか(´・ω・`)
しかし、特許とかではないんだったら、きっと誰かが...
0931login:Penguin
垢版 |
2015/09/16(水) 20:57:46.88ID:sDO9e2Qi
>>930
やりよう有るんかなぁ・・・

http://blog.delphix.com/matt/2014/06/06/zfs-stripe-width/
ここにもあるように、RAID-Zの場合、
Z1で組んでたとしても、1Stripに複数のパリティブロックやら、
パディングブロックやらが出来るからなぁ。

読み込みは旧構成、書き込みは新構成って区分けを
VDEV単位に出来るようにした上で、
全データDisk to Diskのコピーやるぐらいしか、思いつかない。
ただ、単純に此やった場合、フラグメントがえらいことに
なりそうな悪寒。

複数のVDEV纏めてpool作ってたりすると、さらに
ややこしい話に・・・
0932login:Penguin
垢版 |
2015/10/27(火) 15:41:00.85ID:8wadZpx7
できるようになってほしいですおね(´・ω・`)
0933login:Penguin
垢版 |
2015/10/28(水) 20:24:03.45ID:geRsrFHR
Linux mdのRAID0,5,6あたりでディスク追加してreshapeが途中で電源落ちるなどで失敗した場合って、
backup-filesを指定してればなんの問題もないのかな?
0934login:Penguin
垢版 |
2015/10/29(木) 15:29:42.07ID:HDYb4/56
mdでRAID5にするかRAID-Zにするか迷ってるんだけどどっちが良いかな?
mdだとHDD追加して簡単に容量増やせること、
RAID-Zだとサイレントクラッシュが無いことがお互いに対する利点だと
思うんだけど他にあるかな?
0935login:Penguin
垢版 |
2015/10/29(木) 15:54:19.06ID:6h6xLaWN
>>934
raidzというかzfsはLinuxでいうとlvm+mdraid
設定自体はzfsの方が使いやすい
あとL2ARCやらZILやら重複排他が使える
それと残容量が少なくなると極端にパフォーマンス落ちる(10%以下くらい?)
100%使い切るとメモリが少ないと最悪どうにもできなくなる
0936login:Penguin
垢版 |
2015/10/29(木) 15:55:05.08ID:GQVHoBxw
mdの方がユーザーが多いだろうし問題も出尽くして枯れてるだろうから、トラブったときの対処はmdの方が簡単そうな気がするけど、ZFS使い込んでるわけじゃないのでなんとも言えない。
RAID-Zはブラックボックスっぽいような気が
0937login:Penguin
垢版 |
2015/10/30(金) 00:38:20.09ID:8BFDFAdG
計画して構築してるなら何も困らないが、無計画に使うとあとですごい辛いことになるのが Raidz。
md は枯れてるから特に言うことはない。サイレントクラッシュくらいか?
0938login:Penguin
垢版 |
2015/10/30(金) 00:40:14.36ID:8BFDFAdG
100% 使い切っても救えるように、ESXi とかのメモリのオーバーコミット使える仮想上で動かすと幸せになれる。
0939login:Penguin
垢版 |
2015/10/30(金) 03:02:10.35ID:SWgCXTbH
quotaで制限かけられるけどね
既に書かれてるように容量増やしたいときにディスクを追加できないのと
増やすなら全ディスクを更新しないといけないから
メモリの件もあるし金かけられないならやめといたほうがいいんじゃないの
0940login:Penguin
垢版 |
2015/11/04(水) 16:40:31.72ID:i/XZ7rvj
容量の拡張は可能。
出来ないのは既存VDEVへのHDD追加。
同一構成のVDEVを追加して行く分には、何の問題も無い。
というか、そうやって増やせと言われてる。

1本単位とかケチな事いうから、面倒な話になるだけ。
0941login:Penguin
垢版 |
2016/06/17(金) 18:47:19.28ID:xFd1czyy
Ubuntu16.04をraid1にインストールして縮退させると起動しないんだけどなんなの
initramfsになって調べるとraid0扱いされてる
0942login:Penguin
垢版 |
2016/09/29(木) 15:22:43.87ID:l8qd7TRT
RAID5にしたいんだけどHDDマザボに繋いでbiosで設定すればいいのかそれとも何かフリーソフトダウンロードしてそれで設定するのとどっちがいいんや?
0943login:Penguin
垢版 |
2016/09/29(木) 15:28:22.99ID:nTuJMoZi
君は普通にHDD複数使ってバックアップしてたほうが幸せになれるよ
0944login:Penguin
垢版 |
2016/12/20(火) 23:55:52.96ID:rglzPsHb
RAID組むときどうやってHDD調達してる?
同時に購入した同一型番のHDDを2台で構成してたRAIDでprimary,secondaryがほぼ同時に逝ってしまった。
同一ロット回避とかって大事なのかね?
0946login:Penguin
垢版 |
2017/03/05(日) 09:31:15.10ID:J7fo8PtK
せっかくRAIDで正しいデータを持ってこれるんだから、「リードエラーが出たセクタには一度書き込んでみる」
こんな仕組みをmdraidが持ってたりしないかな


今時のHDDってさ、多少の不良セクタが出来ても、そこに書き込もうとする時に自動的に代替処理が行われて
何か書き込んだらそれ以降は何もなかったかのように読み書き出来るでしょ?
だから、いわゆるゼロフィルで復活して見えるHDDも多いし、実際それをまた普通に使えたりするわけで

でさ、RAIDで読み込みエラーがあったディスクは、当然何度もリトライして結果失敗だから
dmesgとかで見るとエラーがたくさん出ているんだけど
こういうディスクも、ゼロフィルしたり、場合によってはさらに全読みしたりして復活出来る場合も多い
mdadmだと、一度除外してddで埋めて、そのあとaddするとちゃんとrecoveryが正常に終了したり


てことはさ、要は、一度そのエラーっぽいセクタに書き込みさえすれば復活する可能性が十分あるわけで

HDDの不良セクタ代替ツール、例えばhdat2なんかは、そうやって自動的な代替処理を促している
で、そこに書き込みべきデータってのは、誰にもわからないから、ゼロだったりするし、
ゼロで埋めたら、使っている場所ならばデータやファイルシステムに異常が出てしまって危険もある

けれど、RAIDだったら、「正しいデータ」は別のところから持ってこれるわけで
それを一度書き込めば、本当にそれこそ何もなかったかのようにシステム全体が安定を保てるかもしれない
用途にもよるけど、リードエラーが出たディスクをfailとして外してしまうより、
周辺のデータごと一度書き込むことで、自動的に代替処理させてそのまま使い続けられる方が、ありがたいケースもあるはず
0948login:Penguin
垢版 |
2017/03/09(木) 21:57:17.96ID:JmuRsazB
mdadmでRAID組んでるんだけど、HDD容量を大幅に増やすためにもう一個RAID組もうと思うんだが、
名前何にしてる?
md0ならmd1とか?
0950login:Penguin
垢版 |
2017/03/09(木) 23:45:51.58ID:8sL0mHJs
昔、勝手にmd127とかわけのわからん番号が振られたことがあったな
0951login:Penguin
垢版 |
2017/03/27(月) 00:32:33.11ID:FK5wGF+P
RAIDアレイのサイズを変更しようとしてたのだけど、mdadmのバグ?仕様?にはまった

元々各ディスクの使用サイズが4866861248kBのRAID5を縮めようとしていたのだけれども、まず、4866861248の数字を指定してサイズ変更必要なしと出てくることを確認したくて
同じ数字を--sizeに入れた

# mdadm /dev/md1 --grow --size=4866861248
mdadm: component size of /dev/md1 has been set to 571893952K
unfreeze

4866861248kを指定したのに571893952Kになってアレイが想定外に小さくなって(RAID superblock)が壊れた
4866861248 - 571893952 = 4294967296 なんで、uint32以上の数字を入れてはいけないみたい
これを例えば4752794Mとか指定すると大丈夫みたいなんで、kB単位で正確に4TB以上を指定しようとするとダメみたい

OSはCentOS7(x86_64)

RAID superblockのバックアップをとっておくか、もう一度createしなおせば戻せたんだけど(一度それで戻してる)、--growで大きめの数字入れて戻せば大丈夫だろうと浅い考えで--growし直して
reshapeが走って壊してしまった

デカい数字をコマンドラインで入れるのは注意が必要だね
0952login:Penguin
垢版 |
2017/03/31(金) 20:44:49.74ID:zCpOau61
>>951のバグはmdadm 3.3.2で起きてたけど、githubのリポジトリ見てたら2014/10/31ぐらいに修正されてるっぽいので、
mdadm 3.3.3以降を使えば大丈夫みたい。
ループバックデバイスでテストしただけだけどgithubの最新のものではとりあえず-z 4294967297Kが1Kに扱われることはなかった
0953login:Penguin
垢版 |
2017/04/02(日) 23:39:53.33ID:RnYlUaFX
先生、SATAのHDD2(〜3)つをRAID1で、できるだけ全部のファイルを同期させたいと思ってます
mdで作れるRAIDの理解ってこれで合ってますでしょうか

・あくまで物理ディスクのパーティション単位でRAIDが組まれる
・物理ディスク自体が見えてるから普通にSMART見れる
・swap領域をRAIDの内側に作る必要はない

・2本をRAID1にして両方とも起動可能にしたけりゃgrubはRAID関係ないところで両方に入れなきゃいけない
・grubはRAIDを認識してくれるから/etcがRAIDの中にあっても大丈夫(mdadm.confなくても動くのはむしろそのため?
・(RAIDごとに固有なIDも含めて?)構成情報がパーティションのケツに入ってるから
  RAID構成丸ごとを他のPCに追加してもmountできて中身見れたりする
・というかKnoppixとかでも中身見れたりする

・ディスク入れ替えるときはまずfdiskでパーティション切ってあげないといけない(あと必要ならブートローダとかも)
・パーティション切れてまともに動いてるならM/B下のSATAでもPCIe下のSATAでもUSBとかでも任意の組み合わせでRAID組める
・とりあえずRAID1なら片肺死んでもOS落ちたりしない(?)

・シェルとかアプリからは普通にmountされたただのディスクとして使える
・別の場所にコピーした/dev/urandomとかもちゃんと同期してくれる
0954login:Penguin
垢版 |
2017/04/03(月) 18:24:37.90ID:daGGDCcL
>>953
行数が多いので箇条書き修正ですまん

・パーティション単位もしくはディスク単位で作れる、正確にはブロックデバイス単位で作れる(ループバックデバイスとかでもOK)
・物理ディスク自体が見えてるから普通にSMART見れる
・swap領域をRAIDの内側に作る必要はないが、ディスクが壊れたときにシステムが止まらないという意味ではswapをRAID1にするのはあり

・2本をRAID1にして両方とも起動可能にしたけりゃgrubはRAID関係ないところで両方に入れなきゃいけない
・grubがRAIDを認識してくれるから、/bootがRAIDの中にあっても大丈夫。/etc/mdadm.confの情報はinitrdの中に書かれていて、initrdは/bootに入っている。mdadm.confを書き換えたらinitrdの再作成が必要
・(最近のLinux mdでは)構成情報が入ってるのはパーティションの「頭」
・Knoppixとかでも中身見れたりする

・ディスク入れ替えるときはまずfdiskでパーティション切ってあげないといけない(あと必要ならブートローダとかも)
・パーティション切れてまともに動いてるならM/B下のSATAでもPCIe下のSATAでもUSBとかでも任意の組み合わせでRAID組める
・とりあえずRAID1なら片肺死んでもOS落ちたりしない

・シェルとかアプリからは普通にmountされたただのディスクとして使える
・/dev/urandomはディスクに実体があるわけじゃないのでRAIDは関係ない
0955login:Penguin
垢版 |
2017/04/04(火) 20:45:17.73ID:VCtA/mOH
>>954
先生ありがとうございます!
ブロックデバイスとかinitrdとか正直「あーアレねアレアレ」状態なんで勉強してきます

デバイスファイルは /dev/random からコピーした /var/named/chroot/dev/random はどうなるんだろうとか考えてました
そもそもsymlinkなのか特別などこかに記録されてるか知らないのであわせて勉強してきます
0956login:Penguin
垢版 |
2017/04/05(水) 01:29:57.20ID:By9DfOzE
>>955
デバイスファイルについては、コピーと言うか、devfsという特殊なファイルシステムがマウントされるんだと思う
デバイスに応じてファイルが勝手にできたりするやつね。/dev/以下は本質的にはメジャー番号、マイナー番号で識別するIOに名前がついてるだけだと思う(あんまりよくわかってない)
/dev/randomならmajor=1 minor=8 /dev/sdaならmajor=8 minor=0 /dev/md0ならmajor=9 minor=0みたいな
mknodで指定する番号もこれだよね
0957login:Penguin
垢版 |
2017/04/08(土) 15:23:44.08ID:Vmnum/8T
>>956
先生あざっす!
デバイスファイルのコピー(新規生成)はcpのRオプション使ってましたがmknod見ると確かに仰るとおり
コピー元とコピー先を見てみるとメジャー/マイナー番号まで全く同一でした

linux kernelのドキュメント読んでみてもさっぱり状態でしたが
この際なので後でRAID組んだときに実地で確認しようと思います
0958login:Penguin
垢版 |
2017/04/27(木) 21:54:53.22ID:lFCWhwR6
btrfsがmdの代わりになるのかと思ってたらRAID1の三面ミラーはサポートしてないのね
0959login:Penguin
垢版 |
2017/08/08(火) 14:56:21.55ID:odyWg+jK
ZFSでRAID-Z組んだんですけど、後から容量の異なるHDD又は同じ容量のHDDは増設出来ないですか?
FreeNAS使ってマス。
0960login:Penguin
垢版 |
2017/12/29(金) 14:17:42.21ID:S/CsVkMC
誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。

グーグル検索⇒『宮本のゴウリエセレレ』

FK07YHDEDH
0961login:Penguin
垢版 |
2018/01/01(月) 04:31:44.78ID:iONo9f0F
RAID5または6で運用中に不良セクタを検出した時
他のディスクからデータを計算して一度そのセクタへの書き込みを試み
ディスクの自動的な内部代替処理をさせることで、
アレイから外さないまま0フィルで復旧したのと同様になる機能
いずれ実装されますように
0962login:Penguin
垢版 |
2018/05/22(火) 08:27:54.66ID:Czl6p0FW
僕の知り合いの知り合いができた副業情報ドットコム
関心がある人だけ見てください。
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』

Y2FW7
0964login:Penguin
垢版 |
2019/01/05(土) 07:19:13.64ID:W/ep4H5P
勝手にディスクのメタデータ修正しようとして失敗するとかマジfuckでfuckでfuckな話だな
0965login:Penguin
垢版 |
2019/01/13(日) 14:31:37.89ID:7zHss5MH
結局RAID@が最強らしいね。
0966login:Penguin
垢版 |
2019/01/13(日) 17:48:16.28ID:aCoqYr0u
手動RSYNCが実は一番いい ボソッ
0967login:Penguin
垢版 |
2019/01/20(日) 11:59:50.17ID:fVFDHHET
RAID1をBIOS設定していた場合、CMOS電池は交換出来ないとは本当ですか?
データが消えてしまう可能性があるという記述を見かけました。
データ復旧の専門家と思われる複数のサイトで確認したので、
まったくあり得ない話ではないと思いますが、一般人が質問に答える
掲示板のようなサイトでは、BIOSを再設定すれば問題ないと言っている人もいます。
消える可能性もあるけど、そんなに可能性は高くはないって事かな?
で、専門家は責任問題になりかねないので、慎重に最悪を想定した解答をしていると。

最悪を想定するとやっぱりCMOS電池は交換しない方がいいとなるけど、
何もしなくても4〜5年で電池切れの可能性がありますよね。
ノートパソコンなら切れてないバッテリーを外さなければCMOS電池は消費しないから
そこだけ気を付けてれば何とかなるかな。デスクトップパソコンはシャットダウンしなければ、
スリープモードとか休止モードならCMOS電池は消費しないんですかね。
そうだとすれば、シャットダウンしなけれ電池も長持ちしそう。

いずれにしても5〜6年以上も使えば電池切れのリスクは上がっていきそう。
その場合は電池切れになる前にデータのバックアップを取ってCMOS電池交換。
BIOS再設定でも起動出来なかったら、OS再インストール。というのが最善かな?
5〜6年で電池切れになるという説が強いから、余裕を見るなら3〜4年ごとに
この作業を繰り返すと。どーせ3〜4年も使うとゴミが溜まってOSの動作が
不安定になってくるし、再インストールした方が得策。

と、この方策で問題ないと思いますか。それとももっといい対策法がありますか?
0968login:Penguin
垢版 |
2019/01/30(水) 13:45:52.72ID:HRiYgPvn
シャットダウンだろうがハイバネートだろうがスタンバイだろうがコンセント繋がってんなら変わらねえよ
0969login:Penguin
垢版 |
2019/01/30(水) 16:35:41.69ID:v5iOWCNB
今のRAID板はもしかすっとHOSが入ってるのかも。

削除しても再起動してもまだ動く! (パトレイバー)
0970login:Penguin
垢版 |
2019/02/02(土) 20:59:46.67ID:JUgSFGHX
>>969
その論理だと接続したデバイス片っ端から破壊するんですが
0972login:Penguin
垢版 |
2019/02/05(火) 08:27:23.11ID:OkurSNI4
debian上でraid1を3つLVMで1つにまとめて使用していました。
/dev/sdaがハードウェアraid
/dev/sdbと/dev/sdcを/dev/md1、/dev/sddと/dev/sdeを/dev/md2のソフトウェアraid
という構成です。起動ディスクは/dev/sdfを使用していました。

起動ディスクが破損してしまい、ディスクを交換してdebianを新規インストールしたのですが、再構成に失敗した挙句、迷走してmd1をmdadm --createで上書きしてしまいました。
sdbをhexdumpすると以前のuuidが残っているようなのでリカバリ可能なのかもしれませんが、どうしたらよいでしょうか。

あと、md1が修復不可能だったとして、sdaやmd2に入っていたデータを救出する方法はあるでしょうか。
0973login:Penguin
垢版 |
2019/02/06(水) 06:28:38.29ID:DyXQTFH9
>>972
superblockのバージョンが同じならデータ部分には変更がないはず
同じパラメーターで作り直せばmdのuuidが異なるだけで同じ大きさのブロックデバイスになるからそれで認識できるようにならんかな
mdとlvmの構成情報というか/etcとhistoryはこれ以上ヤバくなる前に保存しといた方がいい
0974login:Penguin
垢版 |
2019/02/06(水) 12:40:59.29ID:lV0hRsfb
>>973
ありがとうございます。

結果としては、md1を復旧させることはできませんでした。
かなりのデータが消えたものの、重要なデータは(多分)無事な模様です。
消えてしまったものは、幸いにも復旧可能なものか、削除してもそれほど問題ないものでした。

バックアップの重要性を再認識したのと、LVMでまとめるのは便利だけど、私のような未熟者が扱うにはちょっと怖いというのが実感です。
0975login:Penguin
垢版 |
2019/06/09(日) 23:24:45.20ID:AQ1E44Ma
あげる
0976login:Penguin
垢版 |
2019/07/15(月) 12:17:15.76ID:Ki0aajfS
設定弄っている途中だが、興味がある人向けに情報提供

構成:AMD Ryzen9 3900X + ASRock X570 TAICHI
CentOS7.6で mdadmを使用した SATA SDD 960GB×8 RAID6 を組んでみたところ、

READ 3300MiB位
WRITE 450MiB位

出ている。(dd で /dev/md? に対する測定)
readは満足だが、write が遅い原因を調査中。

参考までに、上記構成で Windows10 で crystaldiskmark を 1台に対して8GBでテストを8台同時の場合(次々に実行しただけなのであまり正確ではない)
READ 1台あたり525MiB位 (8台で 4200MiB位)
WRITE 1台あたり 450MiB位 (8台で 3600MiB位)
出ていた。

消費電力が大きい&価格が高いと不評な X570だが、追加ハード無しでソフトウェアRAIDやらせるにはいいチップセットになる予感。
SATA 12ch以上あるマザーが安く出て欲しいところ。
0977login:Penguin
垢版 |
2019/08/11(日) 21:37:39.83ID:aM+RKpE0
megasrでraid1組んでたHDDをasm1061につなげたらmdadmがアレイ組んでresync始めた…
0978login:Penguin
垢版 |
2019/08/25(日) 02:59:12.92ID:bA5u9fMA
RAIDにしてればバックアップしなくていい、などという運用をしていると、
いつか泣くからな。覚悟しておけ。
0979login:Penguin
垢版 |
2019/08/25(日) 22:11:29.49ID:Z27Expoe
結局espはmdadmのmetadata<=1.0でmirrorすればいいのか?
0980login:Penguin
垢版 |
2019/09/24(火) 22:22:56.94ID:UMotR1HR
質問させて下さい。
オンボードのソフトウェアRAIDを有効にし、A,B,C3台のHDDでAを単独RAID0(システム)とし、B,CをRIAD1(データ)としてVistaで稼働させていました。
このPCのオンボードRAIDを無効にしてAにインストールしたVistaを通常起動させたいのですが、これは根本的に不可能な事なのでしょうか?
RAIDユーティリティ(RAID BIOS)にてアレイのコンフィグをクリアし、マザボ上のジャンパーピンをRAID不使用の位置に戻してOSを通常起動すると途中でSTOPエラー7Bが出てしまいます。
無論起動ディスクの設定はやり直しています。
オンボードRAIDを有効にした状態で記憶域コントローラーにあるRAIDドライバを削除したりもしましたがSTOPエラーとは関係ない様でした。
もうオンボードRAIDを使用する事はありませんので不可逆的な手段で構いません。
アドバイス宜しくお願いします。
ちなみにWin10をインストールしてデュアルブート環境を作りたく、まずはVistaが非RAIDで起動する状態にしたいのです。
時々Vistaにインストールされている古いソフト(ハードウェア)を使う必要がある為です。
0981login:Penguin
垢版 |
2019/09/24(火) 22:40:36.89ID:k1eJ4sB7
>>980
RAIDを組んでる時点で単独RAID0だとしても通常パーティションとはレイアウトが違って、読むのに失敗しているんじゃないかな。

無効にした状態でUSBディスクなどからなんかのOSで起動して、システムパーティションを読むことはできる?

できないのなら、AOMEI BackupperみたいなツールでRAID0有効状態から一旦別の場所にパーティションのイメージを作って、
RAID無効状態にして書き戻してMBRの設定をやりなおしたら動くかもしれない
0982login:Penguin
垢版 |
2019/09/24(火) 22:52:57.02ID:UMotR1HR
>>981
ありがとうございます。
RAID0のHDDを別のPCで開いてみましたが、通常通り読み書きは可能な状態でした。
RAIDの設定方法情報は沢山見つかるのですが、解除についての情報は殆ど見当たりませんのでアドバイスいただけて助かります。
ちょっとした事で起動するのではという淡い期待を抱いておりますが…
0983login:Penguin
垢版 |
2019/09/24(火) 22:55:42.68ID:UMotR1HR
すみません、用事があり急いて読んでアドバイスの趣旨を勘違いしていたかもしれません。
後程また読み直させていただきます。
0985login:Penguin
垢版 |
2019/10/02(水) 11:58:59.99ID:dCNI3+aj
980です。
>>984
ありがとうございます。
ストップエラーを頼りに多数のサイトを参考に同様の修正を試しましたが起動には至りませんでした。

発想を転換して通常インストールしたOSに再インストール無しでRAIDドライバを適用する方法を検索したところ下記サイトをみつけました。
ttps://nishy-software.com/ja/dev-sw/dev-sw-win/enable-intel-raid-without-reinstall/

当方が目的とするOSの再インストール無しでRAIDドライバを外す事についても言及されていますが、環境が全く異なる自環境でどう試せば良いのか読み換えで頓挫しています。
0986login:Penguin
垢版 |
2019/11/12(火) 21:53:07.98ID:/wdIzndT
デスクトップPCのデータドライブをRAID1にしたいのですが、おすすめのHDDはありますか?
0987login:Penguin
垢版 |
2019/11/14(木) 00:03:35.13ID:Kag2RLNw
read が 1台目に偏るコントローラなら、1台目は高速ドライブ、2台目はSMRの安いやつ。
SMRは瓦の書き戻しとreadの混在でパフォーマンス低下が大きいが、readが他方に行きほとんどwriteしか来なくなるなら悪くない。
極端な大量writeが多い用途ならCMRが無難だろうが。
0988login:Penguin
垢版 |
2019/11/14(木) 22:24:53.79ID:g0SJiIRO
>>987
CMRだとなにかおすすめあります?
WDのpurpleってRAID組んで大丈夫なのでしょうか
0989login:Penguin
垢版 |
2019/12/12(木) 21:46:36.76ID:wZa++7VD
システムディスクのraid1ならWindows10pro標準とirstどっちのraidがおすすめですか?
是非理由も教えていただきたいです
0990login:Penguin
垢版 |
2019/12/12(木) 22:31:30.52ID:uokVUydy
ダイナミックディスクはもうメンテすらされてないっぽいから論外
0991login:Penguin
垢版 |
2019/12/13(金) 02:42:23.41ID:CXGWJlJH
>>990
知りませんでした!
貴重なご意見ありがとうございます!
0992login:Penguin
垢版 |
2019/12/13(金) 11:49:52.49ID:HuWVeZ8/
>>989
ためしにWindows10でベーシックからダイナミックディスクに変換したら、スタートメニュー→エクスプローラでエラーが出るようになった
やっぱり起動ドライブをダイナミックディスクにするのはおすすめしないね
0994login:Penguin
垢版 |
2019/12/13(金) 21:11:37.07ID:o5Hn6BRk
>>989
前も書いたけどwinのソフトRAID1解除したら
中身見えないよ
レス数が950を超えています。1000を超えると書き込みができなくなります。

ニューススポーツなんでも実況