【NAS】Openfiler【Linux】
■ このスレッドは過去ログ倉庫に格納されています
乙です. で,FreeNASとはどう違うのカナカナ んでは、Openfilerをちょっと触ってみた感想でも 普段はFreeNASを使っています OpenfilerはVMware ESXi上に立てて少し使ってみました FreeNASに対して、Openfilerの利点 ・RAID6対応 ・LDAPサーバ機能あり ・quota機能あり ・サポートしているハードウェアが多い 逆にFreeNASの方が優れてる点 ・設定が簡単 ・さまざまな(特に家庭用)サービスが充実(AFP、UPnP、iTunes等) ・OS用のディスクがいらない(OpenfilerもUSB起動も出来なくはないみたいですが)から、 システムが壊れる心配がない ・日本語表示対応(一部怪しいけど) こんなところでしょうか。 1乙 追加 ・snapshotとれる(んじゃなかったっけ? だれかレポ) ・BSDよりLinux人口が多いので細かい作業や魔改造、トラブル時に潰しが効く ・速度はsambaなのでおしなべて大差なし >>1 乙 来年度会社でNAS導入予定なので参考にさせてもらうわ。 >>4 基本的にはLVMのsnampshot機能と考えていいんだと思う どのような項目を試してみましょうか? スナップショットを取る際に、オリジナルとの差分領域をあらかじめ確保するんですが、 そこの容量を超えた差が発生すると、snapshotが破綻するようです。 コマンドのバージョンなんかを見ると、CentOS 4.x系がベースのようです。 CentOSベースとはいえ、パッケージ管理にyumやrpmは使えないみたいです その辺りはrPath由来なんでしょうか。 一応、他のマシンでコンパイルしたバイナリは動きました。 実機ではなくVMwareなのでディスクI/Oが遅いためあえてベンチはしません。 ただ、ファイルコピー等してるときの負荷がFreeNASより高めと感じました。 LVMでソフトウェアRAIDだからでしょうか。あまり古いハードだと厳しいかもしれません。 ちょっと使ってみたけど、FreeNASに慣れてるとかなり使いにくいな。 て言うか、アレイは組めたものの外から見えなかったりして未だに使えてないんだな。 そもそもユーザーネームすら変えられんし… >>7 外から見えないのは、おそらくネットワークを定義してないからだと思います Systemタブの一番下 Network Access Configuration から、LANとして認識するサブネットを定義します ex. name Network/host Netmask Type inside 192.168.1.0 255.255.255.0 Share その上でSharesの共有のプロパティの一番下にHost access configurationが出てきます こちらでSMB/CIFSなどを許可します。 ユーザ名というのは、管理画面ログインのですか? freenasのsnapshotは8GBで3分とかの換算だったと思うので事実上使えない。 ただし予め領域確保する必要は無いな。 NTFSのsnaphotが1TBで5秒ほどなので、この辺りと比較してもらえると助かる>openfiler しかし領域確保が必要ってのはなんだか微妙だな・・・サイズでかなり迷いそうだ。 パフォーマンス的に別ドライブを丸ごとつかえという方向だろうか。 >>9 ちとVMでディスク容量が少ないけど、2GBのボリュームグループに 1GBのボリュームを作成して試してみた。 1MBのファイルを900個と、80MBくらいのファイルを1つ作っておいた。 そのボリュームをスナップ取る際、追加ボリュームをどのくらい取ろうが、 10秒程度でスナップショットは終わる(最小32MBと最高990MBで試行)。 実際にはデータのコピーは行われていないようだ。 ちなみにこの後、80MBのファイルを消すのみでは何も起こらないが、 消した後で80MBのファイルを作り直すと32MBのsnapshotの方は、 "Snapshot full. Please delete." という表示になり、アクセスができなくなる。 990MBの方のsnapshotは約80MBの容量が消費され、アクセスができた。 スケジューリングsnapshotをすることができるので、一定期間に増減する 容量がある程度分かる場合は、ユーザの誤操作にファイル削除等を救う 事ができるかもしれない。 誤消去対策なら、わざわざスナップショットなんか使うより ゴミ箱で充分なんじゃね? 初期設定が載ってるので初挑戦したい人は見るといいかも ttp://blog.livedoor.jp/shingo555jp/archives/944994.html FreeNASみたいにローカルユーザー作れないの? >>11 なんでスナップショットが誤消去目的にしか使えないのかわけが分からないw >>13 作れるが、LDAPの知識がないと難しいと思う >>11 >>14 FreeNASでは共有にゴミ箱を作る設定があるけど、Openfilerにはないっぽい シェルで入ってコンフィグいじればいいんだろうけど 削除じゃなくても、例えば違う内容で上書きしちゃうケースなんかもあると思うんで、 そういう意味ではゴミ箱機能だけでは十分ではないと思うし、snapshotなら救える 他には、ある瞬間のバックアップが欲しい(バックアップ中のファイル改変による不整合がイヤ)、 というニーズにはこたえられるかもしれない スナップショットを取得して、すぐ全体を他のサーバやボリュームにバックアップするとか オリジナルと一定以上の差異が生じたときに壊れてしまったり、ある時点のsnapshotと 同じ状態に戻したりする事が(少なくともUI上では)できないんで、やはり用途は限られる。 マザーが対応してれば、USBメモリにインストールしてそれを起動ディスクにできる? >>16 素のままだとUSBメモリにインストールできない。 インストールすれば使えるけど、手順は結構面倒。 古いバージョン用: ttp://blog.connexeon.com/sysadmin/linux/install-openfiler-on-usb-stick/ ↑を最新のバージョンに適用する際の変更点: ttp://noppatech.wordpress.com/2008/01/08/openfiler-on-usb-stick/ ぐふっ スナップショットの容量制限厳しいな win2k3最強とか言いそうになった ままままけないぞ これ使ってる人少ないのかな。 解説サイトとかあまりないね。 FreeNASと比べて手軽に試し難そうってイメージがあるなぁ なんでもかんでもFreeNASと比べるの良くないとは思うけども FreeNASと比べるとスナップショットぐらいしか優位点がないからな。 これで普通のメル鯖とかになるなら、もっと需要があるかも知れないが。 FreeNASのメリットは、CD-ROMかUSBでシステムが運用できて、HDDは丸ごとデータ用に 組めるから、RAIDを組むファイルサーバには都合がいいってのがあるからね。このメリットに 対して、かかる手間を考えれば確かにスナップショット位じゃちょっと物足りない。 そのスナップショットもFreeNASもZFSが入れば実現しそうだし…。 >>22 システムがHDDに入っているしsendmailでローカル配送はしてるぽいから、 sendmail.cfをちゃんと書いてpopなりimapなり入れればメールサーバとして 使えると思う(ソースからビルド必要だけど) LDAPで認証するようにしたりする用にビルドするのが大変そうですけども スナップショットとれるのはけっこうなメリットだと思うんだけどなあ。 システム用のHDDは余ってるの使えばいいだろうし。 でもRAIDとかでHDDたくさん積みたい人には邪魔になるか。 バックアップ用途なのでスナップショット必須だった・・・ のでWinにしてしまったんだが、早まったなぁw ただ、普通のLinuxにsmaba入れたものとどう違うのか、ってことになるんで、 自動バックアップとかクラスタとか、nasに特化した性能を期待したいね。 FreeNASのスナップショットもちょっと遅いらしいし、まだ十分とは言えないんだよな。 FreeNASのZFSはまともに動いてるのかな? UFSは致命的なくらい遅いので使い物にならんと思う。 Nightly BuildのCDで試したんだけど、ZFSのpool作るところでエラーになった まだWebUIからは使えないのかも? | ┌┐ |〆ソv | / |Д゚) ダレモイナイ… |⊂ オドルナライマノウチナス! | ┌┐ んvヘゝ ♪ ♪ i i γ(゚Д゚) ナスナス♪ `/ (ノ |⊃ | | ・、___ノ⊃ ∪ ┌┐ ♪ 〆vヘゝ ♪ / ヽ ナスナス (゚Д゚)ヽ ⊂| υ"| | | ⊂ヾ__ノ ┌┐ `∪ イvヘゝ γ ヽ |(゚Д゚) オイシイナス! ⊂| |⊃ | | ヾ__ノ し`J FreeNASと比べて、iSCSI Targetのスループットが良いね。 パラメータも細かく設定できるし。 >>32 そうそう、実際に動いてるデーモンはIETだね。 デフォルトオプションではblockioになってて、その状態ではFreeNASのiSCSIターゲットと同じくらい。 fileioにするとWindowsクライアントからMicorosoftのイニシエーターで接続してCrystalDiskmark 取ると、2倍くらい差がつく。 アクセス方法によっては違うかもね。 OS用のディスクが必要って、パーティションを切ってそこにOSだけインスコもできないってこと? >>36 サンクス でも別ドライブで作ったほうが気持ちいいよね コンソールで入って設定ファイルを直接編集するのって普通? Webインターフェースだけだと不十分なような・・・ Linux遣いじゃないからか、イマイチ思想がわからん。 FreeNASと比較した上でこっちを常用し始めちゃってるけど。 Linux的には普通だろうがOpenfiler的には異常。 スムーズにアップデートできない可能性が高まる。 で、アップデート機能を捨てて使い続けるとなると レポジトリの貧弱さがネックになる。 普通のディストリで同じ構成を構築したほうがいいよ。 んーそうなのか。 IPアドレスを固定にするのに直接いじっちゃった。 あとsmartdが、(多分非対応な環境なのが理由で)コケるから起動しないようにしておきたいんだよな。 スケジュールスナップショットが動かないのも引っかかり中。 でも確かに、Openfilerで生成したやつだから勝手に触んなボケって先頭に書いてあるファイルもあった。 RAIDとLVM関係が扱いやすいしiSCSI Targetもちゃんと認証付きでそのへん好みなんだけど、 汎用ディストリを基にガシガシ環境構築ができないドザにとっては、 もうちょっと痒いところに手が届くと最高なのになーと思っちゃう。 教えてくれそうな気配が。 ttps://forums.openfiler.com/viewtopic.php?id=2835 Active Directory/NTドメインなんて無いのでLDAPと格闘すること数時間。 こんな感じ↓にしたらグループとユーザーを作成できるようになった。 [V] Use LDAP Local LDAP server: [V] Use Local LDAP Server LDAP Security: □ Use TLS Server: [127.0.0.1] Base DN: [dc=openfiler,dc=nas] Root bind DN: [cn=Manager,dc=openfiler,dc=nas] Root bind password: [●●●●●●●●] SMB LDAP Configuration: [V] Login SMB server to root DN User password policy: □ Allow user to change password ワークグループ環境でもSMB/CIFSのNASとして普通に使えるよ! と言いたいところなんですが、ブロードキャストでの名前解決はされないみたい。 # ブラウジングの方は使わないからいいや。 正直わけわかってないのでツッコミと追試をお願いします。 うっわごめん。 System Updateかけたら、ブロードキャストでの名前解決もブラウジングも機能するようになった。 ワークグループ環境でもSMB/CIFSのNASとして普通に使えるよ! Base DN, Root bind DN, Root bind password, SMB LDAP Configurationの意味がまだあやしいけど・・・ WebDAVのサービスを動かしてみたんだけど、クライアントからアクセスするURLがわからない。 http:// サーバIP/webdav/ じゃ駄目だった。 あ、わかった。 http:// サーバIP/共有ディレクトリでOKだった。 大容量(数GB)のファイルをローカルからコピーするとエラーを吐いて 止まってしまいます。。。細かいファイルはOKなんですが。 これ、どなたか原因分かりますでしょうか。 2.3 x86 32bitの非PAE版ISOはないのかとあきらめかけてたら、 rPathのサイトに置いてあるのがそうだった・・・ ファイル名全く同じだし気づくかそんなもんヽ(`Д´)ノ ハマりまくってなんとか普通に運用できる状態に持ち込んで これ以上問題を切り分ける気力がなくなったところで正確性無保証メモ 現時点でSystem UpdateはNothing to be updatedな状態。 ・VG名に"-"(ハイフン、マイナス)を入れると、そのVG内のLVのスナップショットが存在してもWebGUIに一覧が表示されない。 ttps://forums.openfiler.com/viewtopic.php?id=2811 また、LV作成時にサイズを指定するスライダーが正常に表示されない。 ・parted 1.6.22-4.1.5-1がFDD無し環境で存在しないfd0にアクセスにいって、 WebGUIのVolumesとQuotaのページが表示されるのが死ぬほど遅い。10分ぐらいかかる。 BIOSでFDDを殺すと治る。 1.6.22-4.1.4-1では問題なくて上記Ver.にUpdateして発生。 ・Network Sharesの作成でShare descriptionを空欄にするとWebGUI上の共有フォルダ選択のリンクがなくなって再編集できなくなる。 ・自動生成されるsmb.confに netbios name = HOGEHOGE netbios name = というふうに同項目が2行作られて下のが空白。 それが原因でしばしば認証エラー。ダイアログが表示されるが正しいユーザー名とパスワード入れても意味無し。 ローカルLDAP鯖を使ってるときだけかも。近々修正版が出そう。 ttps://project.openfiler.com/tracker/ticket/903 余計な下側の行を手動で消し、chattr +i smb.conf で無理矢理変更不可にしてみたら治まった。 Samba絡みの設定を変えるときは元に戻すのを忘れずに。 ・VMWare版だとWebGUIからネットワークインターフェースの設定ができない。 あと、スレで出てない情報とか。 適当にスナップショットを設定してみたら、SMB/CIFS共有内のファイルとフォルダのプロパティに「以前のバージョン」タブが 出現してちょっと感動。クライアント向けの「共有フォルダのシャドウ・コピー」とかいうやつらしい。 パーティションレベルで柔軟にRAIDを組めてHDDのサイズがバラバラでも無駄にならないのはイイ。 OSが入ってるところも冗長化できて安心。ま、第1以外のHDDからの片肺起動にはgrubを手動で追加しとかないといけないけど。 高機能なのに致命的なバグが残ってたり挫折ポイント大杉なのが残念・・・ もっとユーザーが増えて日本語の情報が充実するといいなぁ。誰かブログとかでまとめといてw スケジューリングしたスナップショットが"Snapshot full. Please delete."になると スケジュール諸共消せなくなる現象も追加。 大半はWebGUIの不備だから動作としては大丈夫なんだけど、ボタン一発のはずなのに LVMのコマンド叩いたりsnapshots.xmlを編集したりしてると悲しくなってくる。 微妙に過疎?ちょいとお聞きしたいのですが、 ・2つのHDDでRAID化 ・もう1個でバックアップ みたいな構成って可能でしょうか? >>23 USBメモリとかにインスコは無理? ガバっとアップデートきてますね。 問題解消されてるといいんだけど、ChangeLog的な情報はどこかにまとまってないのかな? >>52 もうちょい詳しく書かないとレスつかなさそう。 > USBメモリとかにインスコは無理? これの答えもスレ内にあるし。 ほんとだUSB化は>>17 にあったね・・・ もっと簡単にさしただけで即動くようになればいいのになー。最近のLinux(ubuntu)みたいに >>53 例えば、HDD2つでRAID1?で冗長化しておいて、 不安なのでもう1個のHDDはそれを定期バックアップしたいという、構成です。 USBメモリに入れるメリットってそんなにあるかな。しょっちゅうインスコ作業するわけでもないし。 バックアップ云々は、 単に同時に2台のHDDが壊れるのが心配なら、「2台でRAID1+ホットスペア1台」か、3台でRAID1。 誤消去、論理障害も心配なら、冗長化したアレイ上でスナップショットをスケジューリング。 どっちにしても、定期バックアップをスクリプトで走らせるとかよりスマートで、 HDD容量の利用効率と冗長性のバランスをとりやすいと思う。 USBメモリ起動はHDD全量をデータ領域として使えるので無駄がない。 イメージを吸い上げておけば、トラブっても迅速に交換できて便利。 ただし安物USBメモリはすぐ壊れる。長期間運用するなら 書き込みを全て停止するか、tmpfsで起動する小細工が必要。 その点、FreeNASなら最初から小細工済み。 ちなみにOpenfilerのRAID0は、エラー検知できない。 データ化けに気が付かずコンペアもせず続行してしまうし、 バックアップにも化けたデータをコピーしてしまうだろう。 このRAID0が有効なのは致命的なハードエラーが検知された時か、HDD丸ごと飛んだときだけ。 そんな状態では大抵データ化けも併発しているので、データ保護の意味がない。 その点、FreeNAS0.7のZFSなら全ブロックチェックサムでデータ化けを検知し、 エラーが見つかればもう片割れから正常なデータを読んで自動修復してくれるので、いくらか安全です。 以上、FreeNASの宣伝でした☆ USBメモリに入れられると、 ・HDDを一台減らせれる ・HDD一台分のベイやSATAのポートが空く ・NAS領域用にHDDを増やせれる のでおれはいいと思う。 >>56 , >>57 OS専用にドライブが必要だと思ってない? うちでは2つのドライブの先頭数GBを切り出したRAID1にOS入れてる。その2台の残りの領域と もう2台の丸ごとを組み合わせてデータ用。 >>56 根本的なところだけど、RAID0じゃなくて1だよね? それはいいとしても、デグレードしたときは大抵既にデータが化けた後だから意味なし、って そこまで言っちゃたらRAID全否定じゃないかw もちろんありえないわけじゃないから、チェックサムつきでRAID機能も内包したファイルシステムに 意味があるのは間違いない。 ただ、ZFSとなると結構マシンパワーが必要になってくるので 古いPCでは苦しいかもしれない。 エロ動画置き場にZFSは役不足ってもんだ。 そう? メモリだけアホみたいに食いまくるけどCPUはそれほどでもない気がする。 x64鯖が1万ちょっとで買えるんで、古いPC使う意味がなんぼのものか。 FUSE使えばLinuxでもZFS使えるみたいね。Openfilerで取り込んでくれないかしら。 >59 RAID5の弱点は突然の電源断とかで起きうるwrite holeを抱えてることだから、マシンは古くて良くても、 UPS等の補助がないと怖すぎるって問題があるからね。ZFSはメモリ喰いではあるが、CPUパワーは実のところ 大食いという訳じゃないから、メモリさえ確保できるなら古めのマシンにはむしろ向いていると思われ。 まぁ、パワー不足に一番無難なのは素直にRAID1ってことなんだろうけど。 Openfilerスレで続けるのも微妙だけど、よく比較されるFreeNASで手軽に使えるらしいZFSの特長として強調される write hole問題について聞きたい。 突然の電源断が怖いというのは、RAID5とかRAID6は必ずライトバックキャッシュ的なものを介しているということなの? だとしてもRAIDレベルでトランザクション処理をすれば、書き込んだはずのデータが実は正常に 書き込まれていないことなんて有り得ない気がしてしまう。 逆にパリティの不整合が有り得るなら、RAID1だろうがドライブ単体だろうが同じようにデータが壊れるような・・・? 電源が落ちた瞬間に、「データは書き込まれたけど、まだパリティが書き終わっていない」 状態が起こり得る。 そうなると、データは正しく書き込まれたのにパリティが更新されていないものだから、 チェックしたときに不整合と判断される。(そのブロックだけ) >62 の言うトランザクション的なものをファイルシステムレベルで実現するのが、ZFSなどの近頃FS ZFSでなぜライトホールが解消できていると言えるのか。 その理由はいくらググっても、確たる根拠が示されていない。 推測すると、以下の組み合わせと思われる。 ・可変ストライプ幅により未確定状態での待機が最小 ・ブロック単位でのチェックサム(により、データ破損が明確化できる) ・Copy on Writeによるロールバック 正直RAID5の実装を詳しく知らないんですけど、 RAID5では書き込み命令があるとラウンドロビン的にディスクに順次書き込み、 規定量に達した時点でパリティ計算し結果を保存する。 パリティ保存前に電源断等で中途半端に書き込みが終了すると、読み出し時、 RAID5ではデータ破損を検知できずにXORが0になる適当なデータを 捏造して返してしまうことになると思われる。 (そもそもどれがパリティなのか、判断できるフラグを持っていないのでは?) 一方ZFSの場合、可変ストライプ幅なので 書き込み命令が一定量に満ちるまで待機する必要がなく 電源断の影響を最小化できるものと思われる。 また、全ブロックチェックサムによりエラーが発生したブロックは自動破棄され、 他ディスクのデータからも元データを復旧できない場合は Copy on Writeにより変更発生前のファイル抽出を試みる。 これにより、ファイルが復旧不可能だった場合には書き込み発生前の状態に 水面下でロールバックされる。 という理解なんだけど。間違ってるかしら。 CoWとすることで、 ・更新前の整合性のとれたデータ/パリティである ・更新後で整合性のとれたデータ/パリティである。 のいずれかの状態で、データは更新後、パリティは更新前みたいなwrite holeは 起きないというロジックだと思われ。 >>63-65 ほぼ理解した、d。実際のところどうなのかの判断はできないけど、間違った推測にはみえない。 ジャーナリングファイルシステムの下のレイヤーでは、処理が中途半端に中断される可能性があるにもかかわらず 実装としてトランザクションになってないのか。ど素人考えだがなんか間抜けだな。事実だとしても納得いかない。 安全性がRAID1と同等になるように、パリティを算出してから3(以上)台に同時に書き込むとかできないものか。 というか、本当にそういう実装が存在しないのか? 非ジャーナリングファイルシステムのファイルシステムレベルでの不整合の危険性 >> RAIDレベルでのデータ化けの危険性 ということか。 OpenfilerつまりLinuxのソフトウェアRAIDのRAID5で、write holeが原因らしき壊れ方をした事例ってあるのかな。 >66 > OpenfilerつまりLinuxのソフトウェアRAIDのRAID5で、write holeが原因らしき壊れ方をした事例ってあるのかな。 write holeの障害は結構深刻だから、まともなRAIDカードならバッテリーがなければwrite cacheが オフになってるし。 OpenFilerってか、mdadmでソフトウェアRAID 5組んでたのが障害が起きて、kernelがパニくって 死亡みたいな話は珍しいって訳じゃないから当然あってもおかしくない。 スナップショットとそのスケジュールが消せなくなる場合があるのは相変わらずだけど、 smb.confに余計な行が生成されてSMB/CIFSの認証エラーになるのはアップデートで解消されて、 やっと変な対処をせずに普通に使えるレベルにはなった、かな。 RAIDが保証できるのはブロック単位の整合性。 ファイルの中身の整合性なんて、ファイルシステムレベルでないと知りようがない。 ファイルシステムにRAIDが内包されてるZFSなら ファイルの中身の整合性を取りつつRAIDできるので安心ですね、と。 HDD一台でbootからswapから全部まかなおうと思っています。 shareフォルダ作ろうと思ってますが、ボリュームの追加が出来ません。 何が間違っていますか >71 zfsはmdadm+LVM+fs(ext3,xfs,etc...)+(自動)/etc/fstab+dump/restore+ファイル毎のmd5sumみたいな代物だからなぁ。 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる