【NAS】 FreeNAS/NAS4Free総合 【FreeBSD】 Part2
■ このスレッドは過去ログ倉庫に格納されています
FreeNAS : Open Source Storage
http://www.freenas.org/
NAF4Free : The Free Network Attached Storage Project
http://www.nas4free.org/
PCをNAS化するFreeBSDベースのディストリビューション
バックアップや物置にマターリ語りましょう
何かエラーのことを質問するなら、まずログを確認
そこには重要なキーワードが書かれているはずですよ
前スレ
【NAS】 FreeNAS/NAS4Free総合 【FreeBSD】
http://mao.2ch.net/test/read.cgi/mysv/1446904490/ いまメモリの価格が落ちてるから、ECCの大容量を思い切って買ってしまいなよ
経験的に、適切なインフラの投資をしておくと、
あとが凄い楽になるよ。 >>637
>>639
岩舘電気wwwwwwwwww >>640
まだ底値の倍有るから見送りやな。
1T辺り必要なのは5GB?うち位なら64あれば十分かな。
興味深い使い方だから、その内移行するけど、今すぐ必要という訳じゃないな。 >>641
岩手では誰でも知ってるコマーシャルの会社だ。 岩手のひかり 岩舘電気〜
みんな幸せ 幸せ岩舘電気〜
明るい明るいラララランララ〜
岩舘で・ん・き〜
ほー、高給取りのSAPを蹴ってまで来たくなるような魅力ある会社なんだな〜。 >>627
>15TBに12GBで運用してるけど空き容量が危険域になったから大量削除やデータセットの破壊を実行したら
>メモリを食いつぶし始めて操作を受け付けなくなってそのまま二日放置する羽目になった
この辺は重複排除「あり」の話なの?「無し」の話なのそれで
運用は全然違うと思うんだが? 森山直太朗と秦基博と平井堅その他がライブで岩舘のCMソング歌うんですか… >>651
1TBあたり1GBというのはdedupの話だっけ?
Cache に SSDを使うと速度が劇的に変わるが
チューニングの仕方まではよくわからん。 >>653
ディスクそのものの見積もりは
https://wintelguy.com/zfs-calc.pl
この辺にあるみたいだけど必要メモリは無いね。
しかしよく考えたら15TBで丸2日消費はメモリ関係なしに妥当な気がするね。
中でHDDのリバランスするだろうし。自分は3TBx3のHDDで1つ物理破損して
リカバリするのに6〜8時間かかった経験があるし、そんなもんじゃね? >>651
あるが他の板の分野になっちゃう
数行で伝えられるようなもんじゃない >>656
この投稿、定期的に見るね。
ていうかなんで dedup が有効になったんだ。 押すなよ!絶対に押すなよ!って自分に言い聞かせて自分で押したのか。バカス。 ZFSにメモリの代わりにSSD喰わせるのも実は悪手。
なんでかっつーと、ZILはメモリの量を基準に使用量が制限されて、L2ARCはそれ自体の運用にメモリを食うから。
だからSSD突っこむ前にメモリを最低64GB載せろっていわれてる。 >>661
以前テストしたときは、メモリそんなに載せてない NAS4FreeにSSD突っ込んだら何倍もコピー速度が上がったよ。
たしか余ってた32GBのSSDだった気がする。 dedupはデフォルトONじゃなかったけ?
明示的にOFFにして配下に継承させた希ガス。 >>662
USBメモリのインストールの時からずっと思ってたけどこの板は
何で全く反対のノウハウをさも当然の様に書き込む奴がいるの??
物理的に動いている物なんだから、試せば1つの結論しか出ないよね?
正反対の事を書いているなら、どっちがが嘘つきか低能バカって事になるんだけど。 メモリ32GにNVMe400GB全部L2ARCに振ってるけど別に重くなってないぞ >>665
SSDをキャッシュにしたらパフォーマンスの改善がされました、ということに何が不満なんですかね。 >>664
そのあたりは運用方法次第じゃない?
たかがNASとして使うかされどNASとして使うか?みたいな
うちの場合NAS4Freeをストレージ鯖としてすべてのファイルを一元管理してるので一番重要になってる >>657
このリンクの計算方法正しいの?
ZFS圧縮掛ける場合は1block=128kBがデフォルトレコードサイズな気がする。
512バイトは圧縮使わない場合とかどっかで聞いたような?
だから「ざっくり64k」じゃなくて「固定で128k」で計算すれば
1TB=5G。
結構、現実的な数字じゃね?
てか、不満なら最初の設計で1ブロックを248KBとかにすれば良いんであって。 >>670
>dedupなら2TBで10GBとかでしょ。
あ、ごめんそう書いてるね。
何にしてもメモリと兼合いを検討するなら、ブロックサイズ調整すれば良いかなと。
究極の分散FSであるグーグルFSは1ブロック64MBらしいし。 ZFSの開発者はメモリ64GB未満の環境ではL2ARCを使うことを推奨していない
L2ARCは意外とメモリ消費が激しくARCに使える量が減ってしまうので >>662
以前テストしたときはECCの為にメモリを半分に減らしたマシンにSSD64GB+200GB搭載しても全く速度に寄与しなかったよ。
そもそもL2ARCはARCから溢れた物を表に影響出ない程度の速度で充填していくだけの物だから書き込みには一切寄与しない。
ZILは同期書き込みの時だけ此奴がログを引き受けるもんだから桁違いに速くないと此奴のせいで逆に遅くなる。
>>664
たかが、の基準が何処に有るかわからんけど、そういえる程度のNASにZFSを使う方が冗談でしょって話ではないかな。
サンが健在だった頃からZFSの運用はまずメモリ、性能上げる方法もメモリって言われるくらいメモリ第一よ。 そもそもエンタプライズ向けのファイルシステムなんだからたかが
NASと言われたらたかが64GB、な話。 今となってはその通りだが、zfsでた当時は
メモリ64MBとかそんなもんだった気が。
2TBのインメモリDBが出たときはすげえと思ったが、
それも確か7年前くらいか。 >>674
何時の時代のエンタープライズなんだよ?
サンが健在だったころのエンタープライズなら当時はxeonの結構
良い奴でもMAX32GBが多かったみたいだけど?
>以前テストしたときはECCの為にメモリを半分に減らしたマシンにSSD64GB+200GB搭載しても全く速度に寄与しなかったよ。
どっちかの実験が間違ってたとしか言いようがなくね?
速くなったと言った方が勘違いなのか、何も変わらないと言っている方の
実験方法が正しくなかったのか。 少なくともネットワークが1Gbps LANのままならば、ネットワークがボトルネックになって大量のメモリやSSD cache の効果はでてこない。 両方とも正しいという答えもある。そもそも比較するのが間違っているという答えも。
何せ測定環境も測定方法をそろえてない話だ。どっちが間違いとか以前の問題。 でもまあ普通に考えれば、SSD をキャッシュにしたら
HDDの速度は上がるんでね。 l2arcでセカンダリにキャッシュされるデータがメタデータだけになってましたー
とかいうオチじゃないだろうね・・。 >>679
SSD cache はランダムアクセスを効率化するとガイドにある。 >>679
同じデータを2回読まなければ上がらんだろ。 >>675
zfs出たの2004年よ。Win2003で64GB。64MBとか95年に一般でも64MBでしょ。
Sun ZFS Storage 7120の24GBで大量にファイル消して大変だったのを体感した時代があったけど、そこから考えれば64GBとか安く手に入るのはいい時代だよね。 出たのは頃のはそんなもんだけど、さらにメモリを要求する
dedupが入ったのが10年頃。
この辺出たサーバSunT4-1だけど最大メモリ512GBだから時代に合わせて
増し増ししていったんじゃ >>684
ちょっと悪いけどZFS語るときにdedupは除外して話してもらえないか?
あっちは、リンクで完全に必要なサイズが見積もれるんだからどうでも良いじゃん。
http://d.hatena.ne.jp/flageo/touch/20120318/p1
(必要なデータ量nTB) / (ブロックサイズ(デフォ128kB)) * ハッシュ(320byte)
重複排除使いたい人は、見込のデータ量からブロックサイズ決めれば、
自動的にこの機能に必要なメモリサイズは決定する。
使わない人はその分のメモリは必要ない。
で、それを除外しても、ZFSはメモリ食いなファイルシステムなの??
そら、圧縮がほぼ外せない機能だから、普通のRAID5に比べれば要るのはしょうがない。
じゃあ、何GBなのさ?って話なんだが?8GBで運用してる人もいるんでしょ? >>685
その説明ってZFSの仕組みから始めることになる板違いも良いところだけど
端的に言ってメタデータの操作が非常にコストが重いのでディスクに読みに行かないようにメモリ上に留めようとすると
実際に使用されているブロックとして1TBあたり1GBは必要って事になってるだけよ。
必要量に満たなくても特にトラブルにならないのは実際に使用されているブロック数をそのまま操作対象とする状況が発生してないからで
そのような操作は非常に大量の削除やデータセットの破棄に顕著だから日常的には問題にならない。 >>690
横槍やけど
自宅サーバースレって言うことを忘れないでほしい
何でもかんでもMaximumの状況を考える必要もない
必要な人はそうしたらいいだけで、他の人を罵るなんて人間性がおかしい こうじゃなきゃいけない!って言う感覚が強いのかな?
環境はひとそれぞれなんだけどね >>690
いやいや、
> 実際に使用されているブロックとして1TBあたり1GBは必要って事になってるだけよ。
この程度だったら別にいいよ。8TBの容量で8GBメモリ?
十分実用的じゃん。何でもかんでも64GBメモリ積め、ってのとはエラい違いだ。 メモリ搭載量もそうだし、SSDはメモリ積まないとなんの意味もないっていうのも、直感的にもホントかよって思う。 Dedup やるとして、メタデータをSSDに配置できるならまあまあ速いのでは。 >>696
NVMe SSDなら、パフォーマンス的にメモリと張り合えるかもしれんね。
でも、そんな都合の良いオプションは在るの?? キャッシュされっぱなしのが速いてだけだから、遅くていいならどうでもいいって言われてるじゃない。
まともに使うならメモリがあればあるだけいいってのに対してなにが不満か一切わからん。 >>698
>自宅サーバースレって言うことを忘れないでほしい
って言われてるじゃん。 自宅サーバーて言われてたら搭載するメモリに制限がかかんの?
なければなけれで制限を受けて、あればあるだけ恩恵を受けるてのに対して自宅だからって言うのがどこにかかんの? まあ、自宅だから妥協できる/自宅でも妥協したくなきゃメモリ積むてことにはなるだろうね。 >まともに使うならメモリがあればあるだけいいってのに対してなにが不満か一切わからん。
寧ろ、NASにメモリ在るだけ積まなきゃまともに動かないよ、って言い分に
何で納得できるのが良く判らん。そんなに糞コスト掛けて良いなら、
市販のNASサーバーかった方がマシじゃん。
仮に大量のメモリ積むことによってHDDでRAIDを構成しながらRAMDISKとは言わない
までもSATASSD並みの書き込み速度を実現する、とかなら分からんでもない。
そんな事は無いんでしょ?
だったらソコソコのメモリサイズでソコソコのパフォーマンスを実現してくれれば
それで良いよ。
重複排除に関してはバックアップ用途で使用するなら、凄いパフォーマンスを発揮する
事は理解したら、その点でメモリ消費するのは納得だ。 >そんなに糞コスト掛けて良いなら、市販のNASサーバーかった方がマシじゃん。
結論出たじゃん。 >>703
>>478,494,499,506,510,516,542,619,620
お前、この辺のどれかだろ?
相変わらず問題解決能力ゼロだねw 職場にFreeNAS持ちこんだ結果問題が起きてココに頼りに来たのが705 第一今問題なのは適切なメモリサイズの見積もり方法であって
>問題が起きてココに頼りに来たの...
とかいう解決策ではない。お前、話題がなんなのかさえ分かってないだろ?w
だから揚げ足取りしかできないw >>705
ブーメラン刺さってるぞ。解決結果書いてみろ >>710
タスクの進捗が全然読めてないのねw
freenasのインストールにUSBメモリを使用するか否か?
結論: >>556
freenasに必要なメモリ、その@
結論: >>685
freenasに必要なメモリ、そのA
>>じゃあ、何GBなのさ?って話なんだが?8GBで運用してる人もいるんでしょ?
↑ 今の問題はここ。
これが終われば、見積もりに関してはほぼOK。後はパフォーマンスチューニング。
思い切り進んでるじゃん。で、お前ら(>>710,709,706)は問題の解決の何の役に立ったの?
揚げ足とってるだけだけどww
バカはおとなしく俺に感謝しとけよw。 >>711
強いて言えば>>694が本当かどうかって根拠の検証だね。
それに対して、>>703みたいに、糞みたいなレス返す奴がいるけど。
ホント役立たずだよ。 自分で問題解決しろよ。問題解決もできねーのか?無能。 >>713
揚げ足取りばっかの無能はおまえだろ?
大概にしろよ糞野郎w
お前もう此処に来んな。
まともな回答出来ないROMるか、出て行けよ糞タコ野郎w
能無しのお前と違って、俺はある程度ちゃんと回答をしてる。 >>702
出典忘れたのでソース出せなくて悪いが
どこかのサイトで検証した時にHDD-RAIDZ2+IB20Gbps構成で
シーケンシャル書き込みで800MB/sとかいうの見たことある
そのサイトの検証はストレージの検証じゃなくネットワークの検証だったので
1Gbpsと20Gbpsでの比較で当然だけど1GbpsNICでは100MB程度しか出てなかったけど
俺個人の環境だとUSB2で接続してる外付けHDDへの書き込みで100MB/sてのはあったな >>715
https://fefcc.net/archives/453
この辺り?20gbeじゃないけど。
まあ、額面通り評価して良いかは何とも言えんね。
diskmarkって事は同じデータを読み書きで計測したんだろうし。
そうなるとarcであれl2arcであれキャッシュが使われるだろうし。 ZFSをiSCIでマウントしてOSを入れるのであれ、単なる事務データを保存するのであれ、
「全く同じデータ」を何度も読み書きする事は、そうは無い。
例えばZFSニコニコ動画が採用してるらしいけど、ああ言った、Write Once Read Many
なサービスなら確かに威力を発揮する。
が、その方式が普通の家に入れるNASにマッチするかというと別の話。
だから額面通りは受け取れない、という極めて真っ当な感想を述べたら、それに対する
最初のレスが、>>718とか、もう、コイツに脳味噌は本当についてるのかと…。 >>716
そのサイトじゃなかったけど
そもそもの論点が大量のメモリが必要かどうか?なので
キャッシュが有効な状況で良くない?
キャッシュが効かない状況ではメモリ不要なんだし >>720
結局必要かどうかは運用方法次第としか言えんと思うのだが
このスレに限らないけど大抵極端な環境前提に論点がずれていくからな・・・
ZFSを有効に使うためには大量のメモリがあったほうが良いてだけでしょ
そこまでZFSの能力を使わなくても良い運用なら別にそこまでメモリ積まなくてもいいだけで
まぁ積まなくて良い運用ならZFSの必要性あるの?と話もあるけど
それこそ自宅鯖なんだし趣味や好みあるだろうから別にいいじゃんて話でしょ もうメモリネタ出すのやめませんか?変なのがいつきますので。 >>724
全然違うじゃん。
タブとスペースは本来のゴールとは一切関係ない好みの問題だけど、
メモリの問題は実務的な問題だ。
「無条件でZFSだから64GBないとまともに運用できないよ」と
「○□△の理由で8Gでも十分運用可能だよ」
は段違いだろ?やっぱレベルが………。 >>725
10年前は結局何を争ったの?そしてどういう結論に達したの?
そこで、まともな結論がでたのなら、
「無条件でZFSだから64GBないとまともに運用できないよ」と
「○□△の理由で8Gでも十分運用可能だよ」の
どっちかは居なくなってる筈だけど、何で今も争ってるの?
そもそも10年前と今じゃメモリ取り巻く状況が全然違うと思うんだが?
(10年前のコンシューマ用マザボはMAXでも大体16GB、今は64GBでも余裕)
何故同じ話題が継続するのかと…。 お互いがお互いを尊重し認めればいいだけなんだけど
俺が正義だ何も間違っていない、お前は馬鹿かって罵るやつが居るからおかしくなる >>722
だったら、そういう書き方をしろよ、よって話で。
俺の場合はこうだった、って経験則で書くのは全然構わないけど
思い切り間違った結論を、さも当然、ZFSなら当たり前の様に
書いてくる奴は一体なんなの? SQLと同じでメモリに一回のったデータを消さないんでしょ。他で使われることがあるときに追い出されるからあればあるだけキャッシュにアクセスするし、なければディスクから読むだけで。
L2ARCあっても云々はメタデータがメモリ上にあるからメタデータのないデータがL2ARCにあっても使われないし意味ないよね。てことで。 >>733
全然そんなやり取りになってないじゃん。
その程度だったら何で>>672見たいな書き方するのさ?
それに対して>>662とか>>666とか、明らかに違う結果を
報告してるのにそれはスルーw
>L2ARCあっても云々はメタデータがメモリ上にあるからメタデータのないデータがL2ARCにあっても使われないし意味ないよね。てことで。
悪いけどそういう解説するときは1次ソース付けてくれない?
FreeNASでもOracleのZFSでも良いよ。 そこそこわかりやすい解説
https://people.allbsd.org/~hrs/sato-FBSDS20161129.pdf あとはiXsystemかOracleにでも問い合わせるといいと思う >>737
そう、俺もこれは読んだ。で、
知っておこう(2):
Q:L2ARCを単純にデカくすればヒット率は改善するんじゃないの?
A:L2ARCを増やすと、耐えられないくらいメモリ消費量が増える
つまりL2ARCの容量 x 2.92%のメモリを消費!
? <朗報>10.3, 11.0 以降は 1.59% の消費に減りました
これなら、一般的な家庭用で小さいSSD追加すれば>>662見たいな結論
になるのは良く判る。で、>>661とか、>>672見たいな結論はどっから出てくるのかと。 ■ このスレッドは過去ログ倉庫に格納されています