X



トップページ自宅サーバ
1002コメント333KB
【NAS】 FreeNAS/NAS4Free総合 【FreeBSD】 Part2
■ このスレッドは過去ログ倉庫に格納されています
0001DNS未登録さん
垢版 |
2017/12/26(火) 12:26:16.68ID:???
FreeNAS : Open Source Storage
http://www.freenas.org/

NAF4Free : The Free Network Attached Storage Project
http://www.nas4free.org/

PCをNAS化するFreeBSDベースのディストリビューション
バックアップや物置にマターリ語りましょう

何かエラーのことを質問するなら、まずログを確認
そこには重要なキーワードが書かれているはずですよ


前スレ
【NAS】 FreeNAS/NAS4Free総合 【FreeBSD】
http://mao.2ch.net/test/read.cgi/mysv/1446904490/
0003DNS未登録さん
垢版 |
2017/12/26(火) 12:33:15.15ID:???
質問テンプレ

【質問】

【FreeNASのバージョン】 (例: FreeNAS-8.3.1-RELEASE-p2-x64 (r12686+b770da6_dirty))

【導入しているモジュール、プラグインとそのバージョン】

【OSやモジュールが吐いたログ】 (/var/log/[messages, samba]の内容など)

【ハードウェア構成。マシン型番、パーツ型番:】 (例: Express5800 GT110a +  ST1000DX001 * 8)

【ZFSであればプールの構成、zpool statusの値など】 (例: raidz1 (ST1000DX001 * 8))

【smartの値、一覧、エラーなど】

【その他気になるログ、変更点など】
0004DNS未登録さん
垢版 |
2018/01/03(水) 15:44:07.57ID:???
■派生元の過去スレ:スレタイ略記【NAS】FreeNAS PartXX【FreeBSD】
Part12 http://hayabusa6.2ch.net/test/read.cgi/mysv/1393718948/
Part11 http://maguro.2ch.net/test/read.cgi/mysv/1378023626/
Part10 http://engawa.2ch.net/test/read.cgi/mysv/1354629819/
Part9 http://engawa.2ch.net/test/read.cgi/mysv/1345955193/
Part8 http://engawa.2ch.net/test/read.cgi/mysv/1322046205/
Part7 http://hibari.2ch.net/test/read.cgi/mysv/1307523097/
Part6 http://hibari.2ch.net/test/read.cgi/mysv/1289831922/
Part5 http://hibari.2ch.net/test/read.cgi/mysv/1267690171/
Part4 http://pc11.2ch.net/test/read.cgi/mysv/1257578498/
Part3 http://pc11.2ch.net/test/read.cgi/mysv/1240191427/
Part2 http://pc11.2ch.net/test/read.cgi/mysv/1225898630/
(Part1) http://pc11.2ch.net/test/read.cgi/mysv/1140129793/
0006DNS未登録さん
垢版 |
2018/01/04(木) 00:12:57.62ID:???
それNGワードだから控えたほうがいいよ、気をつけて
0007DNS未登録さん
垢版 |
2018/01/04(木) 07:16:36.57ID:???
NAS4Freeを使っています。
Pool から一つHDDを取りたいのですが、
どのようにしたら良いのでしょうか。
4T の HDD が2つ pool に入っているのですが、
不要なデータを取り除いたので容量的には
一台で足りそうなため、一台を別のプールに
回そうと思っています。
0008DNS未登録さん
垢版 |
2018/01/04(木) 08:01:53.40ID:???
ミラー構成ならオフラインにしてデタッチすれば良いんじゃ無かったっけ。
それ以外なら出来ないから無理。
0009DNS未登録さん
垢版 |
2018/01/04(木) 14:05:22.95ID:???
>>8
そうすると、pool に突っ込んだら小さなHDDでも
外せないということになりますかね‥
0010DNS未登録さん
垢版 |
2018/01/04(木) 16:15:12.50ID:???
>>9
冗長性があるならより大きなディスクへの交換は出来るしそうやって
アレイに所属するディスクを全部より大きなディスクに順次交換することでアレイサイズを大きくすることは出来る
出来ないのはアレイの構成を変更することと所属するディスクをそのディスクより小さなディスクに交換すること

あるいはアレイがデグレートしてもかまわないというならミラーの数やパリティの数分のディスクは引っこ抜ける
ストライプなら諦めてアレイを構成し直すしかない
0011DNS未登録さん
垢版 |
2018/01/05(金) 11:07:49.48ID:???
>>10
4TB2つで8TBにしているので、
いくらZFSと言えども外すのは無理そうですね。
別の方法を考えることにします。
0012DNS未登録さん
垢版 |
2018/01/05(金) 17:33:33.65ID:???
>>11
プール再構築してバックアップからリカバリで良いんじゃないの?
0013DNS未登録さん
垢版 |
2018/01/06(土) 08:20:39.27ID:???
>>12
Dedup を使っていて50GBくらいデータがあるので、
Exportする先が無いんですよ‥
Export するとすると、新規にHDDを買ってUSBで
接続になるので、なんか微妙です。
0014DNS未登録さん
垢版 |
2018/01/06(土) 09:02:07.89ID:???
>>13
その別のプールにデータセットをsend/recvでフルコピーすれば問題なく移動できないか?

ファイルコピーなら論外だけどsend/recvならデータストリームを直接送るから
重複排除でも圧縮でもそのまま複製できたと思うのだが。
0015DNS未登録さん
垢版 |
2018/01/06(土) 15:04:30.02ID:???
メモリを馬鹿喰いすると脅されるZFSのDeDupe使うなんて凄い
0016DNS未登録さん
垢版 |
2018/01/06(土) 16:23:14.99ID:???
馬鹿食いすると言っても占有容量単位だから大したことはない
0017DNS未登録さん
垢版 |
2018/01/06(土) 18:13:41.34ID:???
MicroServerで動かしてるけどメモリは4GB
0018DNS未登録さん
垢版 |
2018/01/06(土) 18:23:25.76ID:???
>>14
私の理解がまちがってるかもですけど、
別のプールを作るのにHDDを追加する必要が
ありますよね?
一台買ってUSB経由で繋いでそこにexport したのち
既存の2台は destroyする、の手順だと考えてました。
0019DNS未登録さん
垢版 |
2018/01/06(土) 21:24:37.86ID:???
消えたら困るファイルをバックアップもなしに運用してる訳か・・・
もう好きにしたら?としか思えない
0021DNS未登録さん
垢版 |
2018/01/06(土) 22:05:27.28ID:???
>>19
そもそも、二次バックアップデータなんですよ。
0022DNS未登録さん
垢版 |
2018/01/06(土) 22:30:14.81ID:???
>>21
じゃぁプール再構築してオリジナルから再バックアップでよくね?
50GBぐらいたいして時間かからんだろ
0023DNS未登録さん
垢版 |
2018/01/06(土) 23:33:29.22ID:???
>>22
ありゃ、ごめんなさい、50TBの間違いです。
50GBじゃ相談内容が伝わらないですね。
0025DNS未登録さん
垢版 |
2018/01/07(日) 00:22:14.29ID:???
すみません。私としたことがなんで間違ったんだか。
0026DNS未登録さん
垢版 |
2018/01/07(日) 02:48:12.84ID:???
情報小出し野郎に甘い顔してやる必要はない
0027DNS未登録さん
垢版 |
2018/01/07(日) 09:52:15.63ID:???
50TBのリカバリは流石に面倒だな
まぁ時間かけるか金かけるかの取捨選択しかないな
0028DNS未登録さん
垢版 |
2018/01/07(日) 11:39:10.86ID:???
ですよね、まあ急ぎでは無いので、ゆっくり考えます。
0029DNS未登録さん
垢版 |
2018/01/07(日) 13:49:43.37ID:???
20T越えるとバックアップ方法に悩むというが50になるともうAWSにでもした方が
0030DNS未登録さん
垢版 |
2018/01/07(日) 15:25:45.81ID:???
50TBというと、安く上げるなら
12TBx6 raidz2 / 64GB memory 位?
0031DNS未登録さん
垢版 |
2018/01/07(日) 17:52:08.33ID:???
dedupまえのバックアップデータの総量が50TBなのだろう
重複が10倍以上ってのはなかなか良い使い方してる
0032DNS未登録さん
垢版 |
2018/01/07(日) 21:17:17.08ID:???
上でも少し書いてあったけど
重複排除で圧縮されてるプールのフルバックアップてどれぐらい時間かかるんだ?
上の例だと50TBが重複排除で5TBになってるとして
そのプールのスナップショットをフルストリームでsend/recvしたら5TBコピーの時間ですむんだろうか?
0033DNS未登録さん
垢版 |
2018/01/08(月) 11:00:09.51ID:???
Dedup の圧縮率は約45倍ですが、
恐らくdedup 用の hash tabel のサイズが
容量を食ってるのだと思います。
今はWindows server のスナップショットと
Windows server の dfs 、
そしてDedup によるフルバックアップの
三段構成での運用にしています。
Dedup はメモリ食いですが、バックアップ用途には
適した技術かと。
0034DNS未登録さん
垢版 |
2018/01/08(月) 12:13:11.76ID:???
バックアップというかコールドデータの一次受けか…
dedupのブロックハッシュはオンメモリだったと記憶してたけど、違ったっけ?

10年ほど前だが、ある大学のシンクライアント端末はクライアント3台にzfs dedupを効かせた1ストレージサーバ構成だったな
クライアント側にもディスクキャッシュソフトウェア入れて、パフォーマンスは十分、ネットワーク帯域も最小限で運用しやすそうだった
0035DNS未登録さん
垢版 |
2018/01/08(月) 12:51:56.52ID:???
オンメモリだね
ブロックサイズがデフォのままならストレージ占有1TBにつき約5GBほど食ってるはず
それにブロックは食わなくてもファイル管理領域はファイル数に応じて増えるから45倍も取れてるなら相当肥大化してるだろう
0037DNS未登録さん
垢版 |
2018/01/08(月) 17:11:51.77ID:???
たしかブロックサイズは4kのチェックをつけてたはず。
いま確認しようとしたらGUIからは設定が
見つからず‥
かわりに software 4k wrapper なんてのがありますが
これをチェックしていいんですかね
0038DNS未登録さん
垢版 |
2018/01/09(火) 00:00:36.97ID:???
それ4k alignmentの設定じゃないの?
zfsのブロックサイズは、デフォルトでは512Bから128KBで可変
0039DNS未登録さん
垢版 |
2018/01/09(火) 01:42:49.81ID:???
>>38
Nas4free では、むかし block size を 4k にする
チェックボックスありませんでしたっけ?
最近の firmware では見当たらないですが‥
0040DNS未登録さん
垢版 |
2018/01/09(火) 09:07:56.97ID:???
>>39
あったよ
今のはデフォで4Kだよ
どころか4Kじゃないとステータスみたらネイティブブロックサイズじゃないぞゴルァて言われる
0041DNS未登録さん
垢版 |
2018/01/09(火) 11:19:58.84ID:???
>>40
てことは software 4k wrapper は普通ならばチェック不要ですよね。
ゴルァ言われた時はチェックしたほうが良さそうですけど。
Dedup のときは状況によって最適なブロックサイズが
違うでしょうけど、現実的に最適化を図る方法は
無さそうですね。
0044DNS未登録さん
垢版 |
2018/02/19(月) 21:16:50.49ID:???
☆ 日本の、改憲を行いましょう。現在、衆議員と参議院の
両院で、改憲議員が3分の2を超えております。
『憲法改正国民投票法』、でググってみてください。国会の発議は
すでに可能です。平和は勝ち取るものです。お願い致します。☆☆
0045DNS未登録さん
垢版 |
2018/04/02(月) 17:02:12.23ID:???
質問させて下さい。
転送速度についてです。
FreeNAS 11.1を使用しています。

現在raidz-2にて構成しています。

1GbEのネットワーク越しにsamba共有で使っています。

転送速度についてなのですが、大きなデータ転送3TB程を行う場合
転送速度が極端に低下してしまうのですが、そう言う者なのでしょうか?

転送時、最初は120mb/sくらいでます。
その後、徐々に低下し40mb/sくらいまで下がります。

もちろん数十ギガくらいでしたら120mb/s〜90mb/sくらいの間に収まるのですが
シーケンシャルライトで120mb/sぐらいずっと出続けるものだと思っていました。

構成
マザー:P7P55D-E Deluxe
LAN:Realtek1GbE
CPU:i7 860
メモリ:DDR3 32GB
HDD:1TBx10 raidz-2
L2ARC:SSD256GB
ZIL:無し

ライト時はメモリキャッシュが効いているので速く、L2ARCはリード速度に効果があるのは
仕組み的に理解しているつもりですが、ワイヤースピードも維持できないとは思いませんでした。
書き込み時にCPUも殆ど使っていませんし
ボトルネックになっている部分があるのか、
そもそもZFSではraidz-2くらいではこれくらいの速度が普通なのか知りたいのです。

アドバイス頂けないでしょうか?
何卒宜しくお願い申し上げます。
0046DNS未登録さん
垢版 |
2018/04/02(月) 18:09:13.74ID:???
3TBのリードで100MB/sオーバーをコンスタントに出すっていうと、転送元はディスクアレイ?それともTBサイズのSSD?
どんなデータを転送してます?
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況