ファイルシステム総合スレ その18
■ このスレッドは過去ログ倉庫に格納されています
EROFSがLinux5.4でメインライン入りするらしい リードオンリーファイルシステムだから使いどころは限られるが すでにスマホで動いているので実績はある huawaiのスマホのsystemパーティションでEROFS使われてるのか androidのsystemは元々リードオンリーでマウントされてたから有用だろうな くだらない質問で恐縮なのだが、 既存の、RW可能なファイルシステムで作成したボリュームをROでマウントするのはわかる。 しかしリードオンリーのファイルシステムとなると、 マウントするボリュームは、一体どのような手段で作成されるのだろうか? 卵が先か、鶏が先か… >>750 .iso (ISO9660 ファイルシステム、DVD-ROM 等に使われるリードオンリーのファイルシステム) ファイル作ったことないですかそうですか >>750 別のファイルシステムから変換するのでは? 少なくともISO9660はそういう感じだよね。 原理的に、仕様がわかっていて、どういう風にファイルを用意したいか決まっていれば、 ビット列は生成可能なのだから、鶏が先か、卵が先かという問題ではないような気がするけど。 erofs-utilsに入っているmkfs.erofsで作るらしい ttps://git.kernel.org/pub/scm/linux/kernel/git/xiang/erofs-utils.git/tree/README >>750 いや、roなファイルシステムも使用時にroでマウントしてるだけで 作成時はイメージファイル上にFSを作ってrwマウントしてファイルコピーするだけ >>753 圧縮の有無に違いはあるけど、使い方はSquashFSみたいな感じらしい >>754 なるほど,まあ当然っちゃ当然そうだよな。 >>754 isofsはwrite()が実装されてないらしいし、rwマウントしてコピーってのはちょっと違うのでは? fuseとかでrwマウント出来るようにした物はあるだろうけど、最初からrwでマウント出来たらroファイルシステムじゃないだろw mkfsが「XXバイト目にマジックナンバー書き込んでYYバイト目にはこのフラグの値書き込んで」みたいにやってる時に一緒にファイルも書き込むだけ これでZFSの重複排除が実用的になるだろうか? まともに使えそうなら革命的だが https://www.phoronix.com/scan.php?page=news_item& ;px=OpenZFS-Better-Dedup 重複排除なんてバックグラウンドでやればいいだけじゃないの? 今時のバックアップソフトや専用NASはリアルタイムに重複排除出来る >>762 重複するデータが既にストレージ上に存在するのなら後続の書き込みは行われないのが理想 >>764 コピーするときだけで十分だろ どうせ上書きしたら内容は変わるんだし 重複データは書き込み時に判定というのは実際どう判定するのか 書き込み前に一度ファイルを舐めて双方のハッシュでも比較するのか、すごい手間だな そんなものシステムワイドでファイル作成時や最終書き込みの時にハッシュ引いてファイルの属性データの方に持たせておけばいいのに それでもハッシュの衝突とか無いとも限らないしな…どうやって検出すればいいんだ …などと考え始めると眠れなくなる うん、だからバックアップでやればいいんじゃねーのって思ってる 最終的にはファームウェア側で実装するのもありかもね >>766 ファイルレベルでハッシュ比較しても駄目だよ。 少しデータが変わっただけの巨大なファイルで重複排除ができなくなる。 でもまあそういう例って仮想イメージのスナップショットぐらいしか無いんだよねw んで、仮想イメージは仮想マシン側がスナップショットを差分で保存してくれるから関係ない ファイルレベルならバックグラウンドでファイル検索して ファイルサイズが同じ→中身を比較→全部一緒ならハードリンクにする これだけで十分だろう ログファイルとか重複排除すると効果大きいんだけどな 一般家庭の用途だとストレージのほとんどがメディアファイルで埋まるから効果薄いよね >>769 なんで同じ内容のログファイルが 大量にできるんだ? 圧縮ならまだしも何の意味もないだろ Windowsは95の時代からドライブの圧縮機能があって 昔はお世話になったもんだが、他のファイルシステムには そういう機能あるのかな? >>770 そもそもファイル単位という前提が間違ってる >>772 ブロック単位とか言いたいんだろうが、何単位であっても ログファイルなんて同じ内容にはまずならんだろうが 1バイト違っていたりアドレスがずれてるだけでも だけでも違うものと判断されるんだからさ ZFS とか重複排除はかなりメモリ食うらしいね NTFS は指定日数経過後のファイルに対してだけ実行するとか バックグラウンドで実行/高負荷時には実行しないとか 使用メモリ制限とか色々オプションがあるみたい モードも一般/VDI/バックアップと用途向けに用意されてる 中小規模、ホームユースで考えると NTFS の方式はわかりやすくて かつ優秀だと思う 確かNTFSの重複排除は対象ディスク領域1TiBあたり1GiBのメモリを確保することが推奨されていて、 これはZFSでの重複排除使用時の推奨値と変わらないはずですよ。 重複排除での処理単位のブロックサイズが同じ程度なら、 管理情報のオーバーヘッドはそれほど変わらんでしょう。 あ、推奨値じゃなくてこれぐらい消費しますよの目安だったかも。 >>775 メモリ使いすぎないオプションもあるよって書いたんだが... NTFSって複雑奇怪な仕様のくせにムダに安定してるよな NTFSの重複除去処理って理想的な実装じゃね? https://www.gmo.jp/report/single/?art_id=234 > 重複除去機能はWindows Server2012ですでに搭載されていましたが、 > 最新のWindows Server 2019の重複除去では、重複除去率とパフォーマンスが改善されており、 > ファイル単位ではなくバイナリのデータ単位で重複を検出して除去するため、 > 大幅に重複除去率が向上しています。 > 重複除去は一度設定すればボリューム内のすべてのファイルが対象となり、定期的に実行されます。 > 書き込みごとに圧縮される場合、継続的なパフォーマンスの懸念がありますが、 > 重複除去はスケジュール設定が可能なため、慢性的なパフォーマンスへの影響を回避することができます。 NTFSは本当に優秀だ NT3.1の頃から業務で使っているが、FS起因でのトラブルには一度も遭遇したことがない さすが天才カトラーが設計しただけある 優秀つっても Isilon や NetApp とかの後追いじゃないか? OneFS, WAFL, NTFS 以外は完全において行かれた感がある。 zfs や btrfs はそれなりに資金力ある企業傘下だったが残念だ。 昔との互換性を重視して、仕様は謎みたいな話もあったけどNTFSは問題ないのか? Ubuntu 19.10でZFSをルートファイルシステム利用やっとかよ ZFSの優秀さはメモリと引き換えなのでパソコンクラスのメモリ量だとあまり使えない パソコンクラスってよく分からない表現だな 今のサーバーはほとんどPCサーバーになってきてるのに ZFS出た2005年当時のメモリなんてどれだけだったと思ってるんだ うちのパソコンはメモリ512GBだけど足りないかな? OpenZFSはメモリ要件が改善されたらしくはあるけど キャッシュヒットが環境によって変わるとはいえメモリの必要量が明確に分からないのは正直つらい L2ARCの追加もメモリ消費するらしいから安易にできないし でもZILとかスナップショットとか透過圧縮とか使いたい NASでZFSのdedup onで使ってるけど2TBでメモリ10Gも使わない メモリ512GB積んでおけば100TBぐらいまでは対応できそうだから個人だとこれで十分そうだ 重複排除設定で使用済みブロックが2TBも使ってるなら相当ゴツいシステムだな 重複排除ってサイズが1バイトずれてるだけのやつも 排除してくれるの? あんまり排除できなくないか? 同じファイル見つけたらハードリンクに 置き換えるツールで十分そうw そうだよ、専ら仮想鯖みたいな同じユーザランドが無数に作られる様な用途を想定してるんだろう 一日1万枚ぐらいエロ画像を漁ってると20%ぐらいはかつて落としたエロ画像だったりするから 重複排除は容量の20%ぐらい浮く計算になる >>802 そういうのって重複ファイル削除ツール使えばいいだけなんじゃない? 重複させておく必要ないでしょ? 重複排除はリアルタイムである必要はないわな ZFSが採用しているようなリアルタイムでの重複排除はメモリを食うし デスクトップ用途ではデメリットの方が大きい。 XFSの重複排除はパフォーマンスに影響しないし実際に使っているけど便利だよ。 後で重複を排除するとなると重複かどうかがわからないから結局一度書き込みに行く事になる zfsはデスクトップ用途だとアレだけどサーバ用途だと理に適ってはいる あと画像だと今や同じ画像が違うファイル形式であちこちに散乱してたり 同じJPEGでも品質が違ってたりするからあんまし意味ないんじゃ? でも書き込むたびに、これ重複してるかな?って 確認してたら、書き込みが遅くなるじゃん それを高速化する為にメモリ内にハッシュの類を持ってるんだろうに でも書き込むごとに、データのハッシュ値を計算してるんですよね? >>807 非同期書き込みなら書き込み遅いのは気にならないが同期書き込みについては 遅くなるのは致命的だよな 同期・非同期で重複排除をバックグラウンドでやるかリアルタイムでやるか決め られるだろうけど仮想環境用途の仮想ディスクとかはその上の同期・非同期って NAS側まで伝わるのかね >>808 ZFSの場合はハッシュの計算以外にもRAIDの計算もしているが、それをいうなら 商用NASハードはそれで百本越えのHDDとか面倒みながら処理してるわけで ハッシュ計算はそんなに負担ではないのでは? >>800 重複排除はファイル単位ではなくブロック単位 もしファイル単位ならそりゃハードリンクと同じだ それをファイルレヴェルでやってたらでかいファイルの一部が変更されただけで ハッシュの類を再度算出しなおさなきゃいけなくなる >>812 世代でバックアップとってるファイルとかゲストOSのイメージとか ファイル単位の重複排除もあるらしい。 更新されなくなったファイルを圧縮するついでにやる?だったかな。 他にもウイルススキャンとかも定期的に走らせるとかあるからハッシュの 再計算を何かのついでにすることで負担は減らせそうだね。 >>814 そういうのって仮想マシンソフト側が対応してますよね? ファイル単位でやるにしてもどうしても大きさに制限ができる COWの事を考えるとどうせブロック単位に回帰する >>816 横から失礼 同じ仮想マシンイメージのPCを移動ユーザープロファイルで利用する ならわかるが、サーバだと初期イメージから離れていくだけだから 差分に対しては仮想マシンソフト側での吸収は難しいと思うが >>817 データベースの表領域を考えるとそうだけど、それ故最近アクセスしていない ファイルに限定してるんじゃないかな そうなると話は変わって逆に大きさがわかる/ファイルサイズがわかるのは 寧ろメリットになってしまう ブロック単位に回帰する理由を挙げるならスナップショットやシンプロ ビジョニング、ブロック単位のレプリケーションなど併用すると効率的な 機能要件挙げるべきかな 自宅のCDデータ倉庫で排除率のシミュレーション'(zdb -S)したけど1%も無くてがっかりだった やっぱZFSの重複排除は仮想化とセットなんかな バックアップは取得時だけソフトで差分の処理するほうが安くできそうだし >>819 zfsは仰る通りだと思う。 コピーオンライトのお陰でスナップショットが高速・少容量な感じに仕上がってる。 重複排除に夢を見ないほうがいいよ 元から圧縮をはじめとする各方面で無駄を無くす努力がなされている現状で 小手先の策は効果がない そうか?今日保存したエロ画像は以前見てHDDのどこかに保存したような気がするんだが 同じ画像に見えてもバイナリ的に同一じゃない要素があってなぁ というかそういう画像を探すための同一画像判定をしてくれるアプリがあったな 画像はまだいいけど同一の動画を判定するのは難しそうだなあ できるソフトあるのだろうか? >>826 年々規制が厳しくなるからいつか後悔するぞ 仮想マシンのイメージのように重複排除が効果的なものはあるけど そういうのは個別に専用の仕組みで対応したほうが早い 例えば掲示板の画像なら重複を探してハードリンクを貼るスクリプトを定期的に回すだけで事足りる 一応btrfsは重複ブロックを探して共有するプログラムが用意されている さまざまなリスクと制約を負ってでもリアルタイムにファイルシステムでやる必要性が少ない >>830 いやそれだったら画像を保存するだけのプール作ってそこだけdupすればいいだけ https://www.phoronix.com/scan.php?page=news_item& ;px=Linux-5.4-Released > Linux 5.4 Kernel Released With exFAT Support, Faster Radeon Graphics, New Hardware exFATキタ━━━━(゚∀゚)━━━━!! でもジャーナリングファイルシステムじゃないからなぁ そう言えばRaiserさんはFS開発に戻らないんだろうか そもそもSDXCカードの標準に採用されてるのに読み書きできない方がおかしい fatは先頭からデータ埋めてくだけだったけどexfatはそのへんどうなの? スパースファイルのことなら対応してない アロケーションのことなら実装次第でFATと変わらんだろう メタデータの一部がファイル化してるが位置がころころ変わるものじゃないから断片化には影響しない https://www.phoronix.com/scan.php?page=news_item& ;px=Reiser5-Development > Reiser5 File-System In Development - Adds Local Volumes With Parallel Scaling Out > Hans is still serving his fifteen year sentence until 2023 for > murdering his wife but can see parole eligibility as soon as next month (January 2020). Hans Reiser仮釈放でReiser5爆誕 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる