ファイルシステム総合スレ その18
レス数が1000を超えています。これ以上書き込みはできません。
jfsって使ってる人どれくらい残ってるんだろう
これに新しいReiserfsにRedhatが新しく作ると言われてる奴が加わると思うと、胸が熱くなる UX4800で主流だったvxfsってどうなったんだろ olacleのzfsアプライアンスのボリュームをwindows10からsmbアクセスしたとき、大文字小文字の違いしかないファイルペアがあると、それらが8文字の長さの別のファイル名に見えるのはどういう機能なのでしょうか。
NFSでCentOSでマウントして、"hello.txt"と"Hello.txt"を作成すると、Windowsでは
HE~B3GZT.TXT
HE~C3GZT.TXT
という2つのファイルに見えます。 >>345
Windowsはケースセンシティブじゃないから… ext4で大文字小文字の区別をしないモードが開発されているらしい ケースセンシティブでなきゃ死ぬ環境にも問題がありそうな気がする 昔、別の板でだけど
FAT32の外付けディスクにWin2000で大文字小文字だけの違うファイルを作って
それをWin98で読んだらどうなるかってのの話題があったな
FATの特性(エントリべた書き)もあるだろうけど
dirで表示されるファイルとエディタで開くファイルが違うとか、
移動させようとすると別な方が移動されるけど残った方が読めるようになるとか
いろいろ挙動不審だったらしい >>345
FS側じゃなくてsambaのname manglingじゃねえの
Windowsで使えない文字とかもSamba経由だとそうなる md-raid 6上の6TBのbtrfsボリュームが怪しくなった
> BTRFS error (device sdb): parent transid verify failed on 222893 34353920 wanted 631557 found 632032
そして消せないサブボリュームがある
# ls -l /mnt/BtrfsTank
ls: /mnt/BtrfsTank/encoding にアクセスできません: 入力/出力エラーです
合計 0
drwxrwsr-x. 1 root video 636 3月 10 13:13 datastorage
d?????????? ? ? ? ? ? encoding
この?の並びが激しく気持ち悪くて不気味だ、このencoding内のデータはどうでもいいってか何も入ってなかった気がする
今の所読めないデータはないし読み書き含め他の部分は問題なく動いて見えるが、btrfs-select-superやbtrfs check --repairやってもダメなので
データ退避してから作り直すしかない
スナップショット撮っては消ししまくりにしてはよく頑張ってくれたと思う
データ退避処理の進捗をみながらRedHatがbtrfs投げ捨ててからの動きとか見てるけど
btrfs on md-raidでいいのかZFS on Linuxに移行すべきかなかなか良いスタンダードが確立してないよねぇ btrfsはトラブるたんびにモグラ叩き、の繰り返しだったろうに何故に実運用しようとするのか video encodingかw
エンコ厨のアニヲタは氏ねばいいよw btrfsのスナップショットは作る分にはいいけど… もうNILFS2は誰も見てくれないのかなあ。
結構好きで/homeに使っているのだけれど。。。 >361
Logファイルシステムなんでファイル操作ごとにチェックポイントができるから保存されている限り任意の時点のファイルシステムの状態が復元できるんで、
あ、消しちゃったとか、間違えて書き換えちゃった時にすぐ取り返せる。
ルートで対象のチェックポイントをスナップショットに変更してマウントする作業する必要があるけど。。。
ファイルシステム止めずにスナップショットが得られるので他の作業しながらコンシステンシー気にせずにバックアップが取れる。
書き込み量とストレージのサイズによるけどデフォで1時間で設定で24時間位は遡れるようにしているので割と気軽にファイル操作している。
とは言っても実際にファイル取り返さないといけないケースは1年に数回程度だけど。 このディスクのファイルシステム何かわかる人いませんか・・・・・・FreeBSDのUFSではマウントできず・・・・・・。
GPT fdisk (gdisk) version 0.8.10
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Disk /dev/sdf: 3907029168 sectors, 1.8 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 5D5F6FE4-4185-11E4-AE7C-20C6EB48C57A
Partition table holds up to 128 entries
First usable sector is 88, last usable sector is 3907029134
Partitions will be aligned on 8-sector boundaries
Total free space is 5071 sectors (2.5 MiB)
Number Start (sector) End (sector) Size Code Name
1 88 4194391 2.0 GiB FFFF
2 4194392 3907011775 1.8 TiB FFFF
3 3907011776 3907024063 6.0 MiB FFFF
パーテション1をddで吸い出してfileしてみたら↓
# file backup-disk-image-sdf1.img
backup-disk-image-sdf1.img: Unix Fast File system [v2] (big-endian) last mounted on /tmp/mnt/ustorage3,
last written at Mon Mar 11 10:13:02 2019, clean flag 0, readonly flag 0, number of blocks 524288, number of data blocks 520071, number of cylinder groups 4,
block size 32768, fragment size 4096, average file size 16384, average number of files in dir 64, pending blocks to free 0, pending inodes to free 0,
system-wide uuid 0, minimum percentage of free blocks 8, TIME optimization あ、ディスク自体はパナのVIERAに外付けHDDとして接続してたTV録画HDDです。
HDD自体はsmartやら、ddやらの読出し結果からは異常はないっぽくて、
どうも中のファイルシステムがおかしくなってるっぽいなんとか復旧したく。
各パーテション、CodeがFFFFでファイルシステムが何かわかりません。
fileの結果からは、/tmp/mntとなってるので、UNIX系の何かだとは思うんですが・・・・ レコーダで初期化したHDDは独自のファイルシステムになってるもんじゃないの?
そうでないと録画データの引っこ抜きとかが容易になるわけで。 > Unix Fast File system [v2] (big-endian)
これが「UFS2」にしか見えなくて、
まずこれをやって
https://www.google.com/search?q=ufs2+%E3%83%AC%E3%82%B3%E3%83%BC%E3%83%80%E3%83%BC
次にこれをやってみて
https://www.google.com/search?q=ufs2+%E3%83%AC%E3%82%B3%E3%83%BC%E3%83%80%E3%83%BC+viera
なんとなく
>>365
そんなことしてたら、コストに見合わない
安定性やバグ取りにサポートまで必要なことに手を出すほど、メーカーはヒマじゃない
せいぜい多少の細工をして外部から読みにくくすることがあるかも程度 ありがとうございます。独自ファイルシステムだとコスト的にあわなさそうというのは同意見です。
TV側のOSkernelレベルからカスタムする必要がありそうですし。
吸い出したddをもとに、現状、以下をやってます。
・別HDDへのddでの丸コピでどうにかならないか
→ HDD個体識別はGUIDでやってるだろうという推測ベースで激遅コピー中。HDD異常ではなさそうなので望み薄。
・ddとったイメージをいろんなOSでマウントして中身をみてみる
→ USF2対応のFreeBSDでマウントしてみたけど、なぜかデバイスファイルのリンクがきれててNG。
GUIDとか、gpt上のファイルシステムaAラベルとかを振りなおしてもだめでした。
ddイメージのfileの結果はUSF2だけど、gptのcode上はUSF2を示すA503ではなく、
FFFFで、リザーブbニいうか、末番なのが果てしなく怪しい。
・マウントせずにファイルを見れるツールを使ってファイルだけ吸い出してみる
→ 大量の分割ファイル(mp3、mlv?)。あとSQliteとかいうDBMS関連と思われるファイル(dbx、sqlite、txt)
某社みたいにmpegファイルとして直で保存してなくて、DBMS内に格納していそうな予感。
DB論理破壊なら絶望的・・・・・。そもそも構造もよくわからんし・・・・。
現状からすると、UNIX系をベースにファイルシステム、保存方法の両方に細工がされてそうに見えます。
DB解析はあきらめて、ちょっとファイルシステムが壊れてるだけです!の方向で継続してま・・・・・
東芝のTVにしとけばよかったなぁ・・・・ てきとうにやってたら━(゚∀゚)━DB構造見えてきたー
https://imgur.com/pg50Nq7
このDBはプリセットっぽいけど一応データを見ておこう・・・・・・
????TVよりはるか昔のなにやら不穏な文字列がががが・・・・・・
パナに怒られても嫌なのであれなところは黒塗りで・・・・・・・・
https://imgur.com/ZtSb9BI
ということで全力でDBデータ吸い出し中。 TV録画HDDまるごとddイメージ用の2TB、
TV録画HDDのパーテションごとddイメージ2用のTB、
パーテションごとddイメージの一応swabイメージ用の2TB、
DB吸い出し用の2TB。空き容量ガー。
今日はもうddでHDDコピーしながらDB吸い出し仕掛けて寝ることにしま・・・・
もし同じような境遇でデータ救えた人がいればアドバイスいただきたく・・・ 録画データ壊れてて読み込んだ時点で死んでるとかじゃなければDB修復したら元のTVで見れるでしょ はい。結局マウントかけずにフアイルを読み出すツールだと、情報が断片的にしか読めずDB復旧にはいたりませんでした!あと、ddの完コピディスクも予定通りダメなとこまでコピーされてだめ!南無! 結局、gpartのFFFFコードの小細工を突破して、正攻法でマウントして読み込んでffckなりするしかなさそうですが、これはうちのスキルではむりんご。 【速報】削除後、起動しているだけでデータが復元できなくなるという性質がLinuxのファイルシステムに存在することが判明
https://cloud.watch.impress.co.jp/topics/dds1904/
>Windowsでは、1回削除してもファイルシステム上にはフォルダ構成が残っているのですが、
>Linuxに関しては、削除後はしばらくそのままにしているだけでどんどん消えていきます。
>起動しているだけでデータが消えるという性質がLinuxのファイルシステムにはあります。 >>375
Linuxでは削除したデータの復活が難しいって話でしょ?
データが勝手に消えるという意味ではないぞ ファイルシステムの仕様の話でバグでもなんでもないよな
それにファイルシステム上から完全に削除したファイルの復元なんてWindowsにしろLinuxにしろ保証なんてしてないし ext4との比較かな
そんな性質あるのか?ssdの場合か? >>377
一般的には、そうだよね。
記事の内容は、視点がフツーじゃない。 >> 363
LGのTVの録画に使っていたディスクが壊れて調べたらLGのモデルでは次のようなことがあるらしい。
https://www.avforums.com/threads/recording-on-lg-smart-tv-lm760t.1697353/
ひとことでいうと、録画ファイルのメインデータは JFSの第一パーティション。
メタデータ(リストとかかな?) はext3の第二パーティションに書き込む。
パーティションタイプはa2という独自のものを利用している(!)
新しいディスクはLG TVにフォーマットさせてたが、
TVが初期化した以前の2TBのWDディスクは
fdisk -l でみるとパーティションのバウンダリがセクターの始まりにないという。
そこでlinux の上で gparted で jfsのパーティションと最後に50MBほどのext3のパーティションを
つくり、そのあとfdiskの t コマンドで パーティションタイプをa2 に書き換えて、
上のAVForumの投稿にあるように無事つなげた。
(最初まちがってa1を書き込んだらUSB機器に問題があるといって認識せず。
正しくa2にしたら接続したが、「初期化」しますかと聞いてきた。
パーティションから作りかえることはしないだろうとOKして使えるようになった。)
古いディスクは ddrescueで読みだそうとしているが、3日かかるとか出ていてあきらめ状況。
小さいext3部分は強制的にext3としてマウントできた。jfsの方はだめだった。
消費者としては録画ハードディスクをつなげることができるTVでは
- S.M.A.R.T.の情報を表示して欲しい(ディスクが壊れる場合の80%くらいはS.M.A.R.T.で予測できるのではないかな。
あとの20%はいきなりこわれるから、気休めだが。)、
- Windowsマシンなどでバックアップコピーを簡単にできる方法を提供してほしい
とつくづく思った。
(TVの内部キーで暗号化している部分があると思うので、他では再生できないバックアップなんだけども。)
メーカーが独自ファイルシステムなんて作る余裕はないという考えには同意。
LGはパーティションタイプを変えることで obfuscateしているんだけども上記のAVFORUMの投稿者はどうやって知ったんだろう? ファイルのヘッダ見るだけでファイルタイプがわかるように、
その人もパーティションのヘッダを見てファイルシステムがわかるんしゃないかな。
ファイルシステムにシグネチャとかあるのか知らんけど。 無かったら mount -t auto なんて出来ないぞ NixOS Takes Action After 1.2GB/s ZFS Encryption Speed Drops To 200MB/s With Linux 5.0+
https://www.phoronix.com/scan.php?page=news_item&px=NixOS-Linux-5.0-ZFS-FPU-Drop
ZoLもうダメそうだな AES-NIが使えなくなってそこまで遅くなってるんだろう
暗号化をAESからchacha20に切り替えたらかなり改善されると思う >>387
ChaChaもChaChaでSSE/AVX使えないのはつらいぞ 改心したはずのトーバルズ氏がまたもや感情的な暴言
Liam Tung (Special to ZDNet.com) 翻訳校正: 編集部 2019年06月25日 12時28分
https://japan.zdnet.com/article/35138967/
(前略) Torvalds氏に早速かんしゃくの矛先を向けられたのは、オーストラリア人プロ
グラマーのDave Chinner氏である。Chinner氏は、多くのLinuxディストリビューションが
サポートしているSilicon Graphics製のXFSファイルシステムを管理している。(中略)
しかしTorvalds氏は、Chinner氏の言い分を否定し、そのような考えを広めようと
している開発者は「無能だ」と痛烈に批判した。
「Dave、キャッシュはちゃんと機能する。そう思わない者は無能なだけだ。ファイル
システムによるアクセスの99%はキャッシュに保存され、IOを行うことは決してない。
ページキャッシュはファイルシステムを美しく処理している」(Torvalds氏)
それに対してChinner氏は、Linuxの行動規範に従い「礼儀正しく議論する」ことをリマイ
ンドし、カーネル開発者がプロらしく論議できる雰囲気を作ろうと、次のように回答した。
「その通りだ。ページキャッシュは多くのストレージより高速なため、問題なく機能する
ケースはたくさんある。しかし、私が指摘したのは、そのことではない」「わたしが、IOの
並行処理、ページキャッシュ、既存コードのアーキテクチャー上の不具合などについて書い
た長文のメールの中から、たった1つの記述を前後関係を無視して引用し、まったく新しい
文脈をでっちあげた上で、私がキャッシュやページキャッシュのことを全く理解していない
と非難し始めた。」「プロらしからぬ振る舞いだ。しかし残念ながら、まったく予測できた
反応だとしか言いようがない」とChinner氏は応じている。 >>391
>ページキャッシュはいまも、ダイレクトIOよりかなりスピードが遅い。そしてNVMeのSSDが高速になればなるほど、
>そのギャップは広くなりつつある。PCIe 4のSSDで、この問題はますます明白になるだろう。もはやページキャッシュを
>使用する理由は、旧態依然としたディスクストレージを使う手頃な価格のシステムやmmap() をサポートするためだけになりつつある
じゃあnvme用に新しいファイルシステム考えれば良いんじゃね?って気はするけどね。
磁気ディスクを前提としたファイルシステムIOいじって喧嘩するなよww 何言ってんだ
ページキャッシュはファイルシステムの機能ではないだろ >>393
> ページキャッシュはファイルシステムの機能ではないだろ
ではないにしても最終的にこの人が弄ったのはfs/配下なんでしょ?
何れにしてもそんなコアな部分を、nvmeの為に変更しますとか言ったら
揉めるのはしょうがない。 何にしても特定機能の為に汎用部分弄ったら怒られるのはしょうがない。 非常に根本的が疑問があるんだが
ダイレクトI/Oより遅いページキャッシュってなんか話がおかしくね
ページキャッシュってオンメモリならストレージインターフェースより速いはずでは…? ページキャッシュが無い環境を使ったことがないから分からんな
どうなんだろうな >>398
オンメモリでもページキャッシュの管理コストが絶対に発生するので
昔はストレージアクセスが文字通り桁違いに遅かったので管理コストは
無視しても差し支え無かったけど今はそうも言ってられなくなったってことかと ダイレクトIOが遅いって言ってるのは
rawデバイスでDB扱うレベルの話でOK?
でないとRAMがSSDに。ページキャッシュのコストがあるとはいえ遅いという話にはならんと思うんだが NVMeも通り越して、3DXpointだかあの辺のDRAMの数分の1くらいまで速いメモリを使うようになったら
ページキャッシュ経由するより直で読み書きした方が良くね?って話ならまだわかるけど
いくらNVMeでもフラッシュメモリ使っててページキャッシュはオーバーヘッドだからもう要らないみたいな話なら、何言ってんだお前…ってなる >> 391
これって、次見るとわかるけど
https://lkml.org/lkml/2019/6/14/127
要は、一般的な場合ではなくて、非常に大きくて(しかもアクセスパターン考えると)キャッシュになじまない
ような大きなデータのときにはページキャッシュのオーバーヘッド大きい、また(そのような場合には)
キャッシュに使うようなLRUみたいな汎用なアルゴリズムでなくてアプリケーションの方が素性が分かっているからそっちにキャッシュさせろと。
いうごく当たり前のこと言っている。しかも発言者は数字はだしてないが、多分95%くらいのアプリケーションは
全然いまのページキャッシュでも問題ないということも言っている。
つまり のこりの数値は私の感覚だが5%の大きなデータセットを使うDB(たとえばOracle)、big data crunchingとか
の場合を話をしているわけで、どこを見るかですれ違いは無理もないかもしれないがなんだかな。
ページキャッシュの話を読んでて、次の話を思い出した。昔Sun Sparc V6だったか、bitblt 命令が入って、
白黒画面程度だったらCPUだけで簡単なウィンドウサポートができるようになった。
ただし、、MC68Kなんかの場合にCPUだけでやって困ったのが、カラー画面の書き換えしただけで
キャッシュが使われてしまって肝心のユーザアプリケーションのデータがキャッシュから追い出されることがある。
つまりカラー画面のデータって結構大きいので、そこを書き換えるとアプリケーションのデータがキャッシュから
おいだされてしまうことがままある。
Sun Sparcの場合には、bitblt関係の命令っで使ったデータはキャッシュしないことで
この問題を解決して、なるほどと思った。
巨大なデータセットがページキャッシュをバイパスするのも同じような話なんだけども、
なんでLinusは理性ある対話ができないのだろう? 流れを見てないからわからんけど
これだけ見ると老害化してるやん 最近の書込みキャッシュ付きの RAID コントローラだと、NVMe/SSD に対しては
キャッシュを通さず直接書き込むほうが早いからそうしているらしい。
ちまちま4KBずつどのキャッシュを抹消していいかを計算しながらの、
ページテーブル書き換えながらの、だと本当に遅いんじゃないかね。 RAID-Zのオーバーヘッドが今一つ分からないわ…。
パリティ+1の倍数分のブロック単位で区切るから、無駄が出る事が有るよって事?
スプレッドシートの数式見てもピンと来ないぞ…。
block size in sectors …、in sector ってどゆこと?単純に使用するブロックの数?
https://www.delphix.com/blog/delphix-engineering/zfs-raidz-stripe-width-or-how-i-learned-stop-worrying-and-love-raidz >>409
block size in sectors はファイルシステム側のブロックサイズ(またはデータベースのブロックサイズ)で、
OSがファイルシステムに対して書き込むを要求する基本サイズだね。
in sectors は KB 単位じゃなくてセクタ単位で書きましたよ、この書き方ならブロックサイズ 512B の人も
4KB の人も同じ表で良いよね、ってだけじゃないかと。 以下チラ裏。個人的解釈。
シートの Example にあるディスク7本のRAID-Z1を考える。
ブロックサイズ(プログラムやデータベースからの1度の書き込み要求のサイズ)が大きい場合は、
ディスク本数7−パリティ数(RAID-Z"1")=6なので、基本6セクタごとにパリティ1セクタが付与される。
RAID-5 と違ってブロックサイズが6セクタ未満の場合はパリティが1セクタ付与されるだけ。
例えば3セクタならパリティ1個追加して4セクタ分書き込む。
RAID-5 なら6セクタ+パリティ1個の7セクタ単位でしか書けない。
ただしRAID-Znは n+1 セクタ単位で書き込む必要があり、条件を満たさない場合は足りないセクタ分
パディングされる。 RAID-Z1 は n=1 なので書き込みセクタ数は2の倍数でなければならない。
なので2セクタ書き込む場合は、パリティ足して3セクタではなく4セクタ。
Example に戻って1度の書き込みのセクタ数が16の場合、
セクタ1-6+パリティ + セクタ7-12+パリティ + セクタ13-16+パリティ
の計19セクタ、n+1の倍数の制限でパディングが1セクタ追加されて総計20セクタ必要。
パリティとパディングは 20-16 で 4 セクタ。
データに対するパリティとパディングの比率は 4/16 で 25% になる。 >>410-411
おお、ありがとう。データとの比率だったのね。スッキリしてきたよ。
最近ZFSについて調べ始めたのだが、いろいろと難しい…。
分かっていない所だらけなんだが、
・>>in sectors は KB 単位じゃなくてセクタ単位で書きましたよ → 使用されたブロックの数という認識で良い?
・ブロックと表現されているものは、NTFSで言うクラスタみたいなもん
・ブロックサイズは、4、8、16、32、64、128KBで可変(DBの人は8KBをセットする?)
・書き込まれるファイルのサイズによって、ブロックサイズとブロック数が変わってくる
という事であってますか? >>412
俺も ZFS についてはど素人なので下記内容については詳しい人による査読希望。
参照先の文脈においては、
(スプレッドシートの縦軸における)ブロック → 一回の書き込み量であってLinuxのファイルシステムのブロックサイズではない。
セクタ → ディスクに書き込む際の最小単位。 参照ページの2番目の図の P0 とか D0 の箱1個分。
セクタブロック → セクタと同義と解釈。
フィジカルブロックサイズ → セクタサイズと解釈。
(私見ではLinuxのファイルシステムの場合だと基本ブロック=セクタ=4KBなので厳密にどっちの話をしているか曖昧)
だと解釈。
> ・>>in sectors は KB 単位じゃなくてセクタ単位で書きましたよ → 使用されたブロックの数という認識で良い?
使用されたフィジカルブロック数という認識ですね。
> ・ブロックと表現されているものは、NTFSで言うクラスタみたいなもん
Linux スレ的にはそう。 フィジカルブロックならそう。 スプレッドシートの文脈のブロックなら違う。
> ・ブロックサイズは、4、8、16、32、64、128KBで可変(DBの人は8KBをセットする?)
フィジカルブロックサイズは固定。
> ・書き込まれるファイルのサイズによって、ブロックサイズとブロック数が変わってくる
フィジカルブロックサイズは固定でブロック数だけ変わる。
zfs で動的ストライプ幅って言ってるのはフィジカルブロックサイズ(RAID装置によってはチャンクサイズって呼んでる部分)
が動的に変化するのではなく、パリティグループ(データ+パリティ,2番目の図の色が同じ箱のセット)の幅が動的ってだけ。 パフォーマンスとかコストとかならそうなんだろうけど、
透過圧縮とか正当性の検証とかとなるとzfsのが上ってかext4じゃ無理 xfsは重複排除とCoWに逆マッピングも対応したのは聞いてたけど
フォーマットの段階でオプション有効化する必要があったのか
今使ってるxfsとは全く別物だなこりゃ
https://strugglers.net/~andy/blog/2017/01/10/xfs-reflinks-and-deduplication/ 鯖屋は大変だな
俺みたいな一般人は黙ってext4使ってりゃいいんだろ?
現状はそれで過不足ないし臨機応変に使うFSを吟味しろとかやってられん >>414
> > ・ブロックサイズは、4、8、16、32、64、128KBで可変(DBの人は8KBをセットする?)
> フィジカルブロックサイズは固定。
この文書からするとここが間違い(フィジカルブロックサイズは固定ではない)ですね。
元の文書でデータベース向けに 6KB に調整したってのがあるがそれがこれってことでしょう。
ソースを弄って調整した可能性もあったし、サイズが可変は間違いという話もあったので固定だと思っていました。 >>418
企業向けの大きいストレージは保守がハードとミドルウェアでセットになってないとNG。
加えて10年ぐらい前に luster や gluster fs, zfs ベースの製品が雨後の筍のように出てきたけど皆失敗した。
現状信頼されてるのは Isilon (OneFS) で、その下に NetApp (WAFL)。
HPE の 3PAR (AdaptiveFS?しらん) も評判下げずに続けてるようだ。 IBM の gpfs 使う製品もある。
言えるのは全てプロプラエタリで、オープンソース・フリーソフトの製品は企業は怖くて使ってられないみたいね。
なので鯖屋もストレージ屋に丸投げするしか仕事がないんじゃないかな。 オープンソースは
企業がバックにいないと話にならないよね
そういう意味ではRedHatが公式に支えているxfsがベスト 企業に支えられていないファイルシステムってどれのことだ? Reiserfs
出所したから復活するってのは嘘だったのかな https://mao.5ch.net/test/read.cgi/linux/1557401718/
↑ここから誘導されてきたファイルシステム素人なんですけど
ext4が十分ではない場合って例えばどんな場合がありますか。
そしてext4では十分ではない場合にxfsやbtrfsを使えばその問題を解消できるんですかね。
ext4が対応できない問題って大抵のファイルシステムが対応できなさそうに思うんですけど……。 個人利用なら今でもreiserfs有用だと思う
あの早さが必要で諸々理解して使うなら
reiser4fsの開発開始しないかなしないだろうな
>>425
ext4遅い
ext3よりreiserfsの方が倍くらい早いんじゃないか?という感動は忘れられん >>426
速度の問題があるんですね。
意識したことなかったです……。
バカな質問に答えてくださいありがとうございます。 今時パフォーマンスを最優先にするならF2FSでしょう
reiserfsはもう相対的にそこまで早くもないし
https://www.phoronix.com/scan.php?page=article&item=reiser4-linux-417&num=1 用途にも寄るしな
安定性が課題のFSはテストならまだしも実用は怖い
個人デスクトップ用途だと小さめのファイル扱いはSSDだとそれほど差を感じないだろうが
大きなサイズの扱いはSSDでも時間かかる、これが早くなると体感がかなり違う
とするとReiserFSは安定してるし、デスクトップ用途かなり良さそう >>425
うちは透過圧縮が欲しいから/をbtrfsにしてる奴がある(ZFSはツリー外のモジュールとか面倒くさいしfuseも使いたくない)
早いCPU+遅いHDDの組み合わせでディスクアクセスがボトルネックになってるような環境だと結構目に見えて高速化されるよ
ぼんやりとしか使ってないってのもあるけど3年ぐらい使ってて特にトラブルは無いな、まあデータを置こうとは思わんけど
つかswapファイルに対応したりとか普通に開発継続してんのにRedHatが抜けたってだけで放置とか色々言ってるやつはアレやな だってRed HatのAndy Grover様も
Btrfsはメーリングリストが断末魔で埋め尽くされていてクソって言ってるんだもん
https://strugglers.net/~andy/blog/2017/01/10/xfs-reflinks-and-deduplication/ btrfsは互換性とか影響範囲とか考えずにどっかで再設計すれば違う展望もあっただろうになあl btrfsの後釜になれるかもしれないbcachefsがそろそろLinuxカーネルのメインラインに入るぞ
おそらく次かその次のバージョン メーリングリストが団地妻で埋め尽くされるとか股間が熱くなるな
ファイルシステムが乱立ってのもなんだかなぁ
zfsをパクって機能削減してxfsと足して2で割り切れない感じでいいと思うんだが bcachefsのホームページ見たら
最初の一文からアレを意識しすぎぃぃぃ
>We prioritize robustness and reliability over features and hype:
>私達は機能と誇大宣伝よりも堅牢性と信頼性を優先します。
https://bcachefs.org/ >>440
先生!堅牢性と信頼性より機能と過大宣伝を優先したファイルシステムが多すぎてどれか特定できません! >>443
そのベンチマークは1年前で古いこっちの最新の結果を見た方が良い
https://www.phoronix.com/scan.php?page=article&item=bcachefs-linux-2019&num=1
XFS安定という結果には変わりないけど bcachefsは新しいけどベースがbcacheだからすでに信頼性はそれなりにありそう
まだ使ったことないけど期待はしておく F2FSってフラッシュストレージ向けのくせに最近はHDDのサポートもしてきてるんだよな
HDDで使うことはないだろうけど そうは言ってもxfsも最近は新機能追加しまくりだし
枯れてるの定義は結構難しいぞ windowsで安定してマウントできるファイルシステムは今はどれなんだ?
ext4ですらなんか怪しい感じなんだよなぁ >>452
ext2fs+ext4
これでだめだったらwindows窓から投げ捨てろ 仮にntfsがオープンソースになってカーネルにマージされたら
互換性も考えてほぼ一択化になるだろうな >>454
ext2fsって開発が滞ってないか?
それに、環境によって、最新版だとマウントできないみたいだし。
実際自分のところもできなくて、いくつか戻す必要があった。 ファイルシステムのシェアってどんなもんなんだろうな
デバイス数では地味にF2FSが上位かもしれない NTFSそれ自体の評価って高いの?
それともNTFSの概念や設計が評価できるの? ディスクのハード故障を除けばNTFSで致命的な状態に陥った経験は無いな >>459
NTFSは特に良いところもなく、ファイル破損が良く起きる経験しかない 全世界のPC初心者に有償で提供してるだけあって
少なくともWindows上ではクッソ安定してる
Winを使ってるような層を相手に安定してるんだから異次元としか言い様がない 安定していると言ったら対立煽りに見える思考やばいだろ >>462
なるほど。そういう見方もあるな。
Unixは基本的にファイルシステムをある程度理解してるから
Windowsの大半の利用者みたいな使い方はしないわな。
その上で安定してるというのであればすごい。
でもそんなに安定してる? ntfsは電源断などのファイル破損が起こりやすいところとか
度々ext系ほかと比べられてるけど、同じ話ループしすぎなような どうでもいいけどWikipediaのBrtFSの記事すっごく宣伝調だね…… >「今のLinuxにNTFSレベルにマトモなファイルシステムなぞない」
まで読んだ アンチMSには理解し難いだろうけど、エンドユーザーが利用可能でよくメンテされて機能的にNTFS以上のファイルシステムってちょっと思いつけない、あるなら例示して?…ってなるな。
ああ、「俺の好きなFS」じゃないんで。まあ言っても理解できないだろうが…
もちろんWindowsから扱う場合の話で、互換環境で同等の信頼性があるとは思えんが。
それでもUFSやextよりはずっとマシ Linux環境だと、データセンター並みに巨大なボリュームを扱うとか、ウェアレベリングの無いフラッシュメモリをストレージにする組み込みみたいな特殊用途でない個人ユースなら、消去法でext4が無難か… >>468
たまにあるよね、読者を説得というか、折伏?しようとしてる記事。 デスクトップとしてLinuxを使用して写真の現像とか色々しているけれど
ext4で問題になった事はないです。(安定しています)
因みにWindowsはカメラのファームアップとOSアップデート位しか使わない。 外付けHDDをLinuxで使う場合、
FAT32は無いものとして、
NTFSとexFAT、どちらのほうが無難? 外付けHDDだってことは、複数のOSからmountすることもあるだろうから
exFATが無難というか最良かと >>472
DragonflyBSD使てる日本人は居らん COWありでまともに使えるファイルシステムはどれなんだー xfsでしょそりゃ
ただしフォーマットし直さないとCoWは有効化出来ないけど xfsのcowってまともに使えるのか?
最近使えるようになったばかりだろ
新しいファイルシステムと同じようなもの xfsのメンテナが自分のPCで
CoW導入で使えるようになった
新機能の重複排除を使ってると言ってるのだから安心していいかと そりゃファイルシステムのメンテナなら自分のPCで動かしてて当然だろうな 俺はbtrfsのメンテナがbtrfsを常用しているとは思えない btrfsのお陰でニュースサイトは信用ならないものだということを再認識した
ボラクルの政治力()がそれをさせたのだろうか、それとも 「btrfsは透過圧縮が凄い!!」
みたいな宣伝ならまだ分かる。
実際には
「btrfsは他のFSよりも堅牢!安全!」
みたいに、大事なデータこそbtrfsみたいな言い方してるからタチが悪い 。 >>483
ストレージなんて導入後1年とか経過したら急激にパフォーマンスが悪化したみたいな話は少なくないわけで。
データ置くんだから色々なハード×運用アプリ×負荷条件×期間で運用して実績積んだ上じゃないと安心
なんてとても言えないんじゃ。 オラク●って、会社が関係すると残念なイメージ。
Solaris ヨロなんだけど。 Btrfs は RAID1 にサイズの異なるディスクを追加してどうヤリクリしてくるか眺めるFS メタな話だけどなんでこのスレ犬板にあんの?ム板とかじゃなくて。 Linuxはファイルシステムの選択肢が多いから、どのファイルシステムを使うのがベストなのかを語るスレだからじゃないの?
ファイルシステムの実装について語るスレだったらプログラム板にあってもおかしくないかもしれないが、
そんなコアな人は5chじゃなくて各OSSファイルシステムのMLとかでやりとりしてるんじゃないの。
自分でコードを書く人向けなのがプログラム板で、ソフトウェアをユーザーとして使う人向けなのがそれ以外の板だと思うけどね。
じゃなきゃハード関係の話題以外はなんでもかんでもプログラム板ってことになっちゃうでしょう。 >>496
言われてみればそうだな。
確かに多くの種類のファイルシステムを「使う」のはLinuxやBSDユーザーだな。
そしてその実装は5chで議論することじゃないな。
俺がバカでしたw btrfsが問題あるっぽいのはわかる。わかるんだけど、サブボリュームとか便利すぎて乗り換えれない。長らく使っててクラッシュしたの一回だけだし、性能もソコソコだし、バックアップ気軽に取れるし >>498
そのファイルシステム
静かに壊れているかもしれないぞ?
試しにbtrfsckをして確認してみた方がいい btrfs は静かに壊れるという経験はないなあ。
壊れるときはあっという間にエラーログ吐きまくって盛大にぶっ壊れる。
btrfsの唯一(?)凄いのところは、ぶっ壊れても頑張れば相当サルベージできるところ。
面倒くさいからバックアップから復旧するけど。 >>499
btrfs check やってみたよ!
問題なかった
zfsは遅いイメージがあるのとライセンス的に…… 個人的にはzfsは速度より古いPCを再利用しようとした時にメモリを食うのがネック過ぎる
削りに削ったFreeBSDですらdedupしてないのに2Gでもきつい そんなカスみたいな環境で使うことは想定してないしな appleがzfsを採用しなかったのは暗号化に対応していなかったからだぞ
ZoLは最近になって暗号化に対応したけどな /dev/sdc に刺さったPVから作られたLVMがあるんだけど、このディスクを /dev/sdb に
繋ぎ変えたいんだけど、繋ぎ変えるだけでそのまま使えますか?
何か作業が必要? >>508
lvm.conf で vgscan で除外するデバイス一覧に /dev/sdb が入ってなければOK。
lvm.conf を修正したなら initramfs 再作成もお忘れなく。 昔特に考えもなく/bootを除いたOS丸ごとZFSにしてたのを
OS更新に伴って見直そうと思うんだけど
とりあえずメインで使うのは引き続きZFSにして
/boot←fat32(esp)
/tmp←ext4
くらいしか思い付かないんだけど他に良い案とかないかな? もう何年もずっとtmpにはtmpfsを使っている…もちろん推奨などしない /boot ext4
/boot/efi fat32
にするものらしい bootはxfsにすると高速起動するよ
地味な変更だけど効果は大きいからオススメ >>513
それちょっと良いかも。検討してみるよ
>>515-516
/boot xfs
/boot/efi fat32
で試してみるよ。出来ることなら高速起動の方が良いもんね
>>514
特にオススメが無いor迷ったらZFSにするくらいの意味で捉えて頂ければ メモリが潤沢な環境で/tmpの下のいくつかのディレクトリをtmpfsにするのは有意だけど
/tmp全体をtmpfsにするのはtmpfsのドキュメントで禁忌にされてるので、やるならまあown riskで むしろ最近のディストロは/tmpまるまるtmpfsが割と普通な気が
その禁忌って書いてあるドキュメントって読んでみたいんだけどどれ? Fedoraがやってるんだから問題ない
とりあえず迷ったらFedoraがどうしてるか見るのがいい
全ての設定はFedoraから流れていく Fedoraは先進的で実験的らしいから実装一発目の機能とかは怖いイメージ((((;゜Д゜))) /tmpは普通にtmpfsだろ
/var/tmpは違うけど Fedoraに限らずsystemdのデフォルトで/tmpはtmpfsだろ
で、/tmpをtmpfsにするのは禁忌なんて書いてるtmpfsのドキュメントってどこにあんの?
kernel付属ドキュメントでも禁止なんかしてねえけど
https://www.kernel.org/doc/Documentation/filesystems/tmpfs.txt RHEL7 は systemd だけど tmpfs ではないな。 (Fedora は人柱?)
例えばメモリ 192GB 搭載のサーバで /tmp に tmpfs 使ってる場合、OS、サービス、
仮想マシン等で190GBメモリを使ってたら、/tmp に書き込める量って2GBだけで
それ以降はスワップアウトって事だよね?
なんか心許ないなぁ。 tmpfsに書き込むデータよりも先に他のデータがスワップアウトされるけどな 前提条件がおかしいわな
空きメモリが10%以下の状態とかtmpfs関係なくメモリ不足 個人利用で仮想マシン動かしつつ動画編集もやりたいって場合でも
メモリ64GBあれば平気そうかな
今メモリ安いからちょっと奮発すればいける >>527
解析用途の場合は10%以下でも特にメモリ不足って感じはしないなぁ。 /tmpの容量が気になるほどの巨大ファイルを置くような使い方、する? >>530
解析用途であらかじめ使うのがわかってる場合は /tmp 以外に NVMe とかで別途高速なデバイス用意する。
しかしミスって /tmp に書くバカもいる。 なんでそんな特定状況で対処もわかってる話でtmpfs使うとか言い出すん? .oO(いまさら禁忌は /tmp じゃなくて /var/tmp だった…なんて言えそうにない雰囲気だな) >>532
RHEL7 では /tmp が tmpfs ではない話の中で、なぜ tmpfs を使わないかの理由について
候補を挙げてるだけで、tmpfs 使っちゃダメって言ってる人とは別の人です。 /var/tmpは再起動してもデータが残っていないと駄目だからtmpfsが禁止なんて当然だよな インチキなブログのtipsだと/var/logもtmpfs指定したfstab晒してたりして舌がレロレロってなる まあ昔のSSDだとlogもtmpfsに突っ込みたくなる気持ちは分からなくもない まあデメリットとかわかった上で自分がやる分には全然いいと思うけど人に進めるもんじゃないってのはあるね bcachefsがカーネルにマージされたら即座に導入するわ
ファイル名長が緩和されるのが素晴らしい
現状だとWindowsで解凍可能なファイルがLinuxではファイル名長の関係で
ひと工夫しないと解凍不可能だったりして不便すぎる >>539
例えば?
正直ファイルシステムの出来はともかく
ファイル名に関してはext4とかの方が柔軟な気がするんだけど。 例えばも何もファイル名長って書いてあるやん
そのあたりの諸元でLinux系fsの大半に問題が出るのは常識だと思ってたけど LVMで確保されたストレージのサイズ変更を
久しぶりにやってみた。lvextendでLVの
サイズを変更して、xfs_growfsでユーザから
見える空き容量を増やす簡単なお仕事だが、
何度やってもドキドキしちゃうな。 >>539
こんなの作られてたのか
btrfsはダメみたいだしZOLは導入めんどくさいから
出来が良いといいんだけどなぁ >>542
拡張ならまだよい。
縮小するお仕事は、大変だよ? >>545
それでファイルシステム破壊したことあるw
家のサブ機だったから自己責任だったけど
あれ全く縮小の準備が整ってなくても何の警告もなしに実行するんだね。
少なくとも2016年では。 >>546
おれもルートファイルシステムを縮小しようとして、起動しなくなったことがある。
バックアップから戻した。以後試してない。 bcachefsの開発者ってpatronで資金提供者集めてるんだな 大口スポンサーの要求が参照リンクの実装だったらしく
今急ピッチで実装しているみたいだな これが実現するとbtrfsやxfsのような形式での重複排除も可能になる なんでbcacheなんか拡張することにしたのか疑問だったけど
このKent Overstreetって人がbcache本体の作者でもあったのか
ずっとfacebookがやってるやつとごっちゃになってたわ bcacheの作者がbcachefsの作成に移行した影響で
大元のbcache自体が全然更新されていないという状況になってる
オープンソースって実際には1人抜けたら立ち行かないようなプロジェクトばかりよね bcashefsのベースになってるから下手に弄れなくなったんだろ
あるある過ぎて笑えんけど ext4に続いてF2FSも大文字小文字を区別しないようにするオプションが作られているらしい どこ読んでるかわかんないけど、コメントちゃんとあるように見えるけど 寄付なんて殆どが直接募集した奴が何割吸い取るかもわからない詐欺みたいなもんだぞ Linux上のZFSはLinux 5.0以降でSIMDサポートを復元する方法を考え出しました
https://www.phoronix.com/scan.php?page=news_item&px=ZFS-On-Linux-Restoring-SIMD
近いうちに、新しいZFS On Linuxベンチマークを出すようにします。 >>561
chromeで自動翻訳してくれるからそのまま貼った。 >>454
Ext2Fsdをインストールしてるとリムーバブルメディアを取り外せなくなるからアンインストールした
>>459
ファイルを更新した直後に青画面や停電などでクラッシュすると
次回起動時に該当ファイルが0で埋められる挙動があってデータを失ったことがある
ソフトはバックアップを作ってから更新するタイプだったがご丁寧にもバックアップまで0で埋められた >>440 >>445
bcachefsは知らんが
bcacheは安定性に難あり
条件を満たすとカーネルがメモリやスタックの汚染を報告して十数分後から数時間後にシステムが確実にクラッシュする
多数ある条件を回避していって最近になってようやく安定稼働に持ち込めた xfsも一時期酷かったけど今は高評価だし、直ってれば何でもええよ 何かを利用するって事は、その下側の使ってる部分の品質を上回れない事でもあるからなぁ
安定したばっかのを使うってのは(ry そういうのを使ってあーでもないこーでもないと情報を交換したりバグを報告するのがOSSユーザーの嗜みであり楽しみでは? 今まで何もわからずUFA使ってたけど新NAS作ろうとして調べれば調べるほどファイルシステムが選べないわ
どれも一長一短あるしまるでリーマン予想を解いているみたいだ windowsから読み書きできない時点で、
XFSのせいではないが、候補から外したくなる 緊急時、データだけでも確保したいときのことを考えちゃうんだよ
XFSって、プラットフォームによってはLinuxからでも読めないことあるしなぁ
市販のNASで一度懲りたわ そんなこと言い出したらNTFS最強って話になってくるし windows関係ないけど、xfsの何がという話をしないから
信心深いのかな?くらいにしか思わない
自分ならext4で無難かな >>577
RHEL7 のファイルシステムサイズの上限が ext4 は 50TB、xfs が 500TB。
2U サイズのラックマウントサーバだと 3.5インチHDDが12本は載るからext4
だと1パーティションに収まらないのよね。
上限は RHEL6 の時は 16TB だったからその頃から xfs を選択せざるを
得なくなった人が多い。
RHEL7 以降デフォルトが xfs になってるから不具合も一番潰されてるだろう
から、一番安心して使える。
何を以て安心っていうかというと、どれだけ多くのディスク/RAID装置で、
どれだけ多くの故障パターンを経験して来たかだと思ってる。
なので普及率はバカにできない。
>>574
カーネルを新しくするか逆に古くする、マウントオプション色々試す、はやった? >>565
仮想マシンのゲストのWindows(10とXP)がクラッシュしたときも再現したのでNTFS実装の挙動で間違いない
俺はそれを見たとき対策を諦めた 同じNTFSでも2000ではファイルを閉じるときに必ず物理書き込みする挙動があって
クラッシュしたときにファイルが壊れる経験は皆無だった XFSの噂はよく聞くが、どのベンチマークでもメタデータ更新系の成績がかなり悪い点は気になっている
細かいファイルをよく扱うLinuxとは相性悪いんじゃないだろうか? 複数のファイルの遅延書き込みを溜め込みつつ、特定のファイルのフラッシュが必要になったら
確実にそのファイルへの変更結果をファイルシステムに矛盾が発生しない順序で
即座に物理層に反映・・・って、実は思ってる以上に複雑
その辺りは資本の力で開発されたファイルシステムに軍配が上がる >その辺りは資本の力で開発されたファイルシステムに軍配が上がる
んなこたーない、ntfs厨はもうこないでほしい 上にもあるが現在は正解がないというのが真実な気がする
正解がないので各派閥が宗教のように自分が使っているFSだけを信じ続けている
デジタルなのにやってることは人類が太古から続けているアナログ的な宗教に行き着くというのが感慨深い 商用のファイルシステム以外はzfsとextの中間に位置する様なシロモノがないからな
その辺りにbtrfsが位置する予定だったんだろうけど、蓋を開けてみたらアレだったしな >>578
ARMアーキテクチャのNASで使われているXFSは、
x86アーキテクチャのマシンからは、
エンディアンの違いで読めないことがあったんだよ。
(知ってたらゴメンね)
読む方法はある(シェアウェア)らしいし、
最近はバグらしきもの(FSかドライバか)が取れたらしいけど。
>>580
Linux物理マシンをext3で使ってたとき、
sync コマンドと、ALT+SysRq+s はなんか習慣的に押してたなw
まぁ、気休め程度にしかならんだろうけど。 クラッシュ耐性上げるにはCoWしか無いんだよな
bfrfs不安定と言われているけど突然の停止にはxfsやext4より壊れにくい xfsにもフォーマット時のオプションで
CoWが可能になったの知らないのか >>591
メタデータについてはジャーナリング機能の実装段階でそれ相応の物が
入ってて、CoWでは耐性上がりようがないって認識だわ。
そもそもシステムコールで明示的に呼び出さない限り CoW にならないわけで、
CoW ではなくスナップショットファイルシステムというべきじゃないかな。 今までファイルが壊れた経験があるファイルシステム
・btrfs
・ntfs ファイルシステムの頑健性っていうのはソフトウェアのレイヤーで全てが語れるわけじゃない
あるファイルシステムのある機能が、あるディスクアレイでは頑健性を上げることもあれば逆もありえる
仮想マシンだってそう、むしろレイヤーが重なる上にハードウェアチートまであるから
クラッシュ時の挙動がファイルシステム側由来なのかなんてfs設計者でも簡単には分からん スナップショットとシンプロビジョニングはオープンソースだとテストのやり込みが足りない・
テスト量がシステムの修正に追いついていないせいで安定しないイメージだわ。
これら+RAID-Z/VRAID系は長期利用時のフラグメンテーション対策がお留守な感じなんで
スナップショット等が必要な業務環境でオープンソース系ファイルシステム使うのは怖い。 RAID-ZってZFS以外使ってるんだっけ?
今のSolarisとFreeBSDとZoL,どれが一番安定してるんだか >>597
Linux 外だが Isilon の OneFS がストライプ長可変なのでほぼ同じもの。
こちらは RAID-Z4 相当まで実装してる。 >>597
意味がわからないけどRAID-Z=ZFSだろ? JFSやXFSで満足しないならもうLinuxを棄てるしかないんや >>602
バイバイsoralis
君のことはもう忘れたよ 次元、五右衛門 久しぶりだなー
カール 今日はご主人様と一緒じゃないのか?
(カールという名前はわしの他はもう Soralis様しか知らないはずだ。)
Soralis? そうか、お前のご主人は Soralisってえのか..。
.....
.....
銭形: Oracleはとんでもないものを盗んでいきました。
それは貴方のファイルシステムです。 アップデートもないしほとんど使っている人はいないと思うけどメインのNoteの/homeをnilfs2で運用初めてそろそろ10年。
それ以降PC自体が3代目でPC替えたらDDではなくてcpで移したので10年連続で同じパーティションを10年運用したわけではないけど、FSが飛ぶような深刻な自体は使い始めに操作を間違ったときくらい。
Nilfs2の仕様上FSフルにしてしまうと面倒なことが起こるけど、それも10年で2回程度。
概ね24時間分ぐらいは遡れるようにしているので間違って書き換えたり消したりしてもすぐ取り返せる安心感が嬉しくて使っている。
といってもその作業も10年で3回程度だけど。。。 CoW版のXFS使ってみたけどめっちゃ安定してるわ
完全に常用も可能な漢字 最低限どういう手法でテストしたのか位は書いてもらわんと何も意味ないわな そのくらいゆるふわ意見だと我が家のbtrfsも一度もデータ飛んだこと無いし、動画圧縮で凄く容量削減してるし、山ほどスナップショット撮れてるし、ものすごくtrimできるし、死ぬほど安定してる 100台月ぐらいメタデータ・シーケンシャル・ランダムアクセスの混在負荷テストすりゃいいかなと思っている Ubuntu 19.10からZFSのサポート強化 2019/08/09 08:33 後藤大地
https://news.mynavi.jp/article/20190808-874101/
Canonicalは8月7日(米国時間)、「Enhancing our ZFS support on Ubuntu 19.10 - an
introduction - Ubuntu Blog|Ubuntu Blog」において、この秋にリリースが予定されて
いる「Ubuntu 19.10」のデスクトップ版からZFSのサポート機能を強化する予定だと伝えた。
このまま順調に開発が進めば、Ubuntu 19.10 Dekstopでは実験的という位置づけながらも、
ルートファイルシステムをZFSで構築することが可能になると見られる。
Canonicalは今後、ZFSの採用範囲を広げるとしており、順次新しいUbuntuでZFSの利用を
拡大することが予想される。また、デスクトップ版は最初の取り組みとしており、今後
サーバ版にもZFSの適用が拡大する見込み。ZFSは人気の高いファイルシステムであり、
多くのユーザーに歓迎されると思われる。
LinuxにおけるZFSの利用に関してはライセンスにおいて長い間疑念が存在している。
Canonicalは数年前にライセンスに関して調査を行い、LinuxにおけるZFSの利用はライセン
ス違反にはならないという結論を出しており、それ以降、UbuntuでZFSを利用するための
取り組みを続けている。
ZFSはモダンなファイルシステムの1つ。ストレージ・アプライアンスやストレージ・シス
テム、NASで広く採用されている。提供されている機能が豊富で、さまざまな稼働実績が
あり、ユーザーから高い支持を得ている。Linuxディストリビューションの中でも高い人気
があるUbuntuでZFSが利用しやすい状況になることで、ZFSの利用範囲が広がると見られる。 文字数の割には情報量の薄っすい記事だな。
具体的にどう拡大するのか何も書かれていない。 Ubuntu は技術的という意味以外で危ない橋を渡ってくれていいな。
Debian派なので、使ってないが。 LinuxにはXFSやJFSという素晴らしいFSがあるというのに
btrfs(笑) そろそろOSやデバイスによらない究極のファイルシステムを誰か作って欲しいわ FAT32というほとんど全ての環境でサポートされている素晴らしいファイルシステムがあるぞ ていうか「普通に」使う分にはFAT32でも十分な気がする。
そんな馬鹿デカい容量を扱わんし OSの一部というよりOS設計に密結合しとるから、ファイルシステムだけ分離してもあまり意味が無いというか OSから独立していても、特定のOSや企業が関わると党派性の餌食になって正当な評価が得られなくなってしまうので
具体的にはAppleとMicrosoft
アップルに関わると不当に高評価しようとする勢力によって歪められ
マイクロソフト由来のものは不当に低評価される傾向にある
前者はMac/BSD採用前後のZFSを巡る扱いにおいて顕著であり
後者はNTFSの長年にわたる(低)評価について異論を待たない
まあ平たく言えばゲハ脳のリンゴ信者の声ばかりでかくて実態を反映してない
ノイジーマイノリティうぜえって話で終わる >>626
バグが無くて、使い方によらず高速で、
いかなる時もデータが失われず、
物理的な制限もないとか。
現状の物理的な容量を超えて、
無制限に記録できたりしたら、
喜ぶ人ば多いんんじなかろうか。 >>624
FAT32じゃだめ理由は容量じゃなくて、
セキュリティとUnicode対応だよ
セキュリティは、システムドライブとして使うなら必須だが、
いろんなマシンに接続する外部ストレージだと意味ないので無くても良い
でもUnicode対応は必須 >>630
>>631でも書かれてるとおりUnicode対応してると思うけど? exFATが4G超えもUNICODEも対応した理想の外部ストレージ用ファイルシステムになるはずだったんだけどな
ライセンスの問題なのかlinuxではネイティブ対応せず使い勝手が悪い
FAT32がWindows/Linux/MacどころかBIOSが認識してフラッシュの書き換えに使えるのと比べると汎用性が低い >>635
MSの規格を使うと、惑わされてろくなことがない。 LinuxでのexFATはもうすぐネイティブサポートされるかもしれない
サムスンがクローズドで開発していたんだけど間違えてgithubに公開したらGPL違反だとバレてオープンソース化した
それをLinuxのメインラインに取り込んでしまおうと言う議論がされている
特許についてはMSが去年OINに参加したから問題ないと思われる そういえばOIN入ってたなmicrosoft
昔はOINの敵だったのにかわったもんだ Githubで公開しちゃった奴は、こうなる流れを見越していたんか。 公開と言うよりも正義の告発だろう
GPL違反に加担する行為に良心の呵責が耐えられなかったのさ >>637
MSが加盟した時点で、特許問題クリアされてるし、MS側からカーネルドライバーのリファレンス実装や、ユーティリティが出てくるの時間の問題なように思うけど。 DropboxはLinux上のZFS、XFS、Btrfs、eCryptFSのサポートを復活させています
https://itsfoss.com/dropbox-brings-back-linux-filesystem-support/
Dropboxベータビルドにより、ZFS、XFS、Btrfs、eCryptFSファイルシステムのサポートが追加されます >>644
あ!
去年の今頃ファイルの上にext4のファイルシステムつくってループバックマウントしたんだけど
またXFSでdropbox使えるようになった! >>644
homeをnfsマウントしてたらやっぱりDropboxつかえないんだよね? FAT32がUnicodeに(一応)対応していたとは知らなんだ。 ついでに言うと日本産業規格で定義されているとも知らなんだ(俺が無知すぎるだけw) 「AどころかBもX」
と言った時は
「Aは前提として(時として当たり前に)XだがAよりXっぽくないBもまたXである(驚きの感情)」
という含意があるんだから,使い方としては全うな部類だろう。
FAT32はUnicodeに対応してるけど,それより他の機能で劣るFAT16・FAT12にさえUnicode対応である(驚きの感情) 流れから、FAT32はJIS規格だけど古いFAT16,FAT12もJIS規格だ(まぁ順当にそうだろう)、という解釈も Unicode対応はFAT12でもVFATなら対応可能って奴じゃないの?
MS-DOSで見ると謎の文字列になるやつ
FreeDOSでもそうじゃなかったっけ?
UEFIはどうだったか覚えてない
>>655
個人で勝負に挑むには、月間の消費電力どれくらいになるんだろう 誰かVirtual Data Optimizerを試した
人はいませんか?RHEL 7.5から使える
重複排除の機能拡張っぽいのだが。
https://github.com/dm-vdo exFATはほぼFATじゃないでしょ。少なくともFAT32やらとはかなり互換性を失なってる…筈。 ディスクの扱える最大容量が違うのに
互換性なんて持たせられるはずがないべ bcachefsの登場で
中身のファイル名が長すぎて解答できないRARファイルが
いよいよ解凍可能になるぜ 40年前に100EBのファイルシステムを想定したFS作ってればよかったのに 大容量でもメモリ不足にならないよう作れるだろうに。。 仮にメインメモリが不足しなくっても上位bitが無駄になりまくって記憶媒体の無駄遣いになってたろう
当時のKB単価知らんのけ? 俺がコンピュータを使い始めた頃は1MBうん十万なんて時代だったしな ビット単位で惜しんで実装する時代だったな
そんなもん設計しても実装して運用出来るメモリ容量がない >>664
64KBあれば個人には使い切れない(笑)
と云われていた時代に何を云うとるか(笑) ビルゲイツ「640KBのメモリがあれば十分」はデマだった [無断転載禁止]c2ch.net
https://medaka.5ch.net/test/read.cgi/prog/1501886166/l50
ビルゲイツが言ったとされる「640KBのメモリがあれば十分なはずだ」は実はデマでした
本人自ら行っていないと明言しており、第三者の調査でもそのような発言は見つかっていません
http://pc.watch.impress.co.jp/docs/2005/0427/hot367.htm
> 「640KBのメモリがあれば十分なはずだ」なんてことを言った覚えはないんだけど。
> 2005年のWinHECは、ビル・ゲイツ会長のこんなジョークともボヤキとも受け取れる言葉で始まった。
その発言の動画
https://www.youtube.com/watch?v=ElDgsQAzrLo
> Bll Gates at WinHEC. Claimed to have never said that computer would never need more than 640K memory
インタビューで、そのようなことは言っていないと明言しています。
https://web.archive.org/web/20110202030010/http://www.usnews.com/usnews/biztech/gatesivu.htm
Q. Did you ever say, as has been widely circulated on
the Internet, "640K [of RAM] ought to be enough for anybody?"
No! That makes me so mad I can't believe it! Do you realize the pain the industry went through while the
IBM PC was limited to 640K? The machine was going to be 512K at one point, and we kept pushing it up.
I never said that statement?I said the opposite of that.
The '640K' quote won't go away -- but did Gates really say it? (ビルゲイツは本当にそういったのか?)
http://www.computerworld.com/article/2534312/operating-systems/the--640k--quote-won-t-go-away----but-did-gates-really-say-it-.html
第三者の調査でも、根拠なしの主張を根拠に主張しているだけ(ループしてる)で
最初の出典が存在しないことを突き止めています。
http://quoteinvestigator.com/2011/09/08/640k-enough/
つまりビルゲイツは「640KBのメモリがあれば十分なはずだ」なんて 一言も言っていません。
これは英語サイトでは当時検証済みの話です。 情弱日本人が知らないだけです。 いつの間にか「ビルゲイツ 640KB」で検索したら↑のスレが
一番目に来るようになってるなw >>667
お前が設計したら無駄になりまくるからといって
それがもっとも効率が良い設計だと思わないで >>673
100EBを表現しなければならない可能性のあるとこには必ずそれだけのbitが必要になる筈なんだが
可変長符号化だってコスト0(bit)って訳じゃないんだぞ 考え方次第で最初に全サイズを読み込んでそれに基づいたbit割り振るようにすればいいだけなのでは? >>674
100EBを表現しなければならない状況でそれに必要なbitを使うのは無駄ではない
問題は100EBを表現しなくてもいい状況で無駄に使わないことだろ >>677
だから1byteなのか2byteなのか3byteなのかの可変長符号にもコスト掛かるっつってんだよw >>678
コストが掛かるのは当然だ
コストゼロでなければ「無駄になりまくって」るというならお前の頭がおかしい そもそも容量増加スピードなんてのは予測できるわけでそれに合わせてFSもロードマップ作って拡張すりゃよかったんだよ 当時のKB単価もビット判定やら何やらに掛かるステートも知らずに、後出しで難癖付けるだけなんて簡単でいいよな
てかそう思ったんならおまえが普及させりゃ良かっただろっていう 今だと瓦HDDに最適化したファイルシステム開発したら歓迎されそう
(もうどこかやってるかな?) 瓦HDDの中でホスト側で制御するものは、その手のファイルシステムを前提にしている 瓦は読み込みと書き込みの最小単位が異なる点でSSDと同じなので
SSD向けのファイルシステムが効果的な可能性が高い
例えばCoWやバケット単位の管理を採用したやつ >>637
https://www.phoronix.com/scan.php?page=news_item&px=Microsoft-exFAT-Specification
> Microsoft Publishes exFAT Specification, Encourages Linux Support
キタ━━━━(゚∀゚)━━━━!! 最近は反MSの連中よりMSのほうがOSSに貢献してる >>688
NTFSは公開してもファイルシステムの高度なセキュリティ能力を
Linuxにマッピングできないのであまり意味がないな >>682
瓦最適化はWDの中の人がbtrfsにパッチ投稿中。 >>691
はえー。俺の鯖ちょうど瓦でbtrfsだわ、ありがてえ >>687
反MSって具体的になに?Oracleとか? Windows Storage Server 2016の重複排除機能、優秀すぎてワロタ >>689
どちらかというと、ユーティリティ側の出来がよくなってほしいな(´・ω・`)
今、fsck.exfatがチェック出来るだけ状態だからね。
マウントするだけならfuse経由でできるし。 >>695
今のところ重複排除がまともに運用できるのWindows Serverだけだな
ZFSも一応使えるけど使う人居ないだろって感じの実装 >>690
同じ理由でextXもWindows上では使い勝手が非常に悪い
NTFSもextXもシステムに特化しすぎて細かい仕様がなじまない
低機能なFATがいまもデータ交換用に普及してる理由でもある exFATは他の近代ファイルシステムに合わせてメタデータをファイル化したのはいいけど
FATが固定テーブルのままだから空き領域ビットマップも固定テーブルで良かったと思う
あとFATエントリが32bitのままだから16TB超えると影響出始める
リムーバブルで16TBは当分先とは言え将来はわからないぞ >>700
> あとFATエントリが32bitのままだから16TB超えると影響出始める
exFATの理論上の最大ボリュームサイズは128PB(ペタバイト)だよ
128 * 1024TB = 131,072 TB。実装上の問題で 512TBが推奨とされてるけど
https://en.wikipedia.org/wiki/ExFAT なるほど、FAT32は名前に反してクラスタ数として28bitしか使ってなかったのか。(exFATは32bit)
1クラスタのサイズがFAT32は32KBまでだから、FAT32の理論上のボリュームサイズは8TB
exFATでは32bit全部を使うから、これだけでも128TBまで使えることになるが、
さらに1クラスタの最大サイズが32KBから32MBに増えたから、理論上のボリュームサイズは128PBになるんだな
FAT32もexFATも実際の実装はそこまで対応してないから減るわけだけど
将来的に対応の必要性があれば互換性を保ったまま増やせるわけか >>691
btrfsなんて不安定で微妙なFSじゃなくってext4とかXFSで瓦対応してクレヨン……
と思ったが瓦はCoW向きなのか
だったら仕方ないかorz でもexfatってジャーナリングファイルシステムじゃ無いんでしょ xfsのCoWがどんな感じかだな
btrfsはCoWだけじゃなくパケットライトのような構造でSSDへの負担の軽減と効率化を図っている
副作用でデータベースのようなランダム書き換えを繰り返す用途と非常に相性悪いけどな >>706
> でもexfatってジャーナリングファイルシステムじゃ無いんでしょ
ジャーナル対応は可能だよ。 可能なのと実装しているのは大きく違う
ext2にジャーナルファイルを追加してext3としたように後付ならどうにでもなるが
それでも名前を変えるレベルの変更になる
互換性が重要なリムーバブル向けで大きな変更はできないだろうな
exFATは冒険を避けたのか内部的にはけっこう中途半端な拡張になっている ディレクトリエントリ構造がvfat引き継いでんのがクソ kwskっていうのはクソの理由だぞ。
vfat引き継いでるということの説明をされても
クソの理由にはならないからな
ってかvfat引き継いでないがなw Linuxに関して言えば,
組込みLinuxが入ってる携帯端末とかはexFATを採用しそう。
そうじゃないのはXFSやext4でいい(「でいい」というか,「が十分使える計算機資源がある」 exFATを使うというのが単に外部ストレージのファイルシステムとして受け付ける(マウントして読み書きに対応できる)という話なら対応が進むだろうが、
システムやユーザーディレクトリがexFAT上に置かれるようになる、システムパーティションとしてexFATが採用されるという話なら、それは無いんじゃないの?
システムパーティションとしてFATやexFATを利用可能な実装、あるならそれがデフォルトの実装というものが実在するなら、むしろ見てみたい(提示して欲しい)。
パーミッションなにそれという無法の罷り通る組み込み実装というものが実在するなら恐ろしい話だ。
NTFSならUNIXの(POSIXの)パーミッション機能を全て内包した上でより高度かつ緻密な権限設定なども可能だが、それらの機能をUNIXからは満足に扱えず持ち腐れるしかないし、
NTFSをシステムパーティションとして設定可能なディストリというものも記憶に無い(Windowsとの共存を念頭に既存のNTFSパーティション内に構築されるものならあったが) Androidではf2fsとext4が使われているな
これは端末によって分かれる
それとユーザー領域にsdcardFSとか言うのが使われている >>717
今でも使えるか知らないけどUMSDOSというFAT用の拡張があるよ
仕組みはVFATのような感じで長いファイル名とパーミッション等を使える
いにしえの文書
ttp://archive.linux.or.jp/JF/JFdocs/archive/UMSDOS-HOWTO.html
それとNTFSのACLと同等の機能はXFS等でも使えるようになっているよ >>717
ACL関係もいにしえの文書だけど
ttps://www.itmedia.co.jp/enterprise/0403/06/epn01.html
POSIX ACLはSamba以外では積極的に使われない機能だから
あまり解説されていないだけ >>721
NTFSと同等なのはPOSIX ACLじゃなくてNFSv4 ACLとか、HFSやAPFSに実装されている方 互換性は別にして、機能としてPOSIX ACLになくて、NTFSやNFSv4 ACLにある物って何があるの?
デフォルト値とかが違ってWindowsと全く同じ挙動にはできないけど、機能的には同等だと思ってた。 >>723
POSIX ACLはパーミッションの素直な拡張で、
・ユーザーやグループ毎にRWXの3種類の許可のオンオフ
・ディレクトリにデフォルト値を設定して子孫に継承させる
だけ。
NTFSの方は、そもそも権限が13種類ぐらいあって複雑怪奇。例えば、
・属性(タイムスタンプとか)の読み込みだけ許可
・ファイルへの追記だけ許可(上書きは不可)
・ファイルは作れるけどサブディレクトリは作れないディレクトリの実現
・ファイルの削除権限をファイル自体に設定
・ファイルを作れるけど消せないディレクトリの実現
・ACL自体の変更権限や所有者の変更権限を設定
などが可能。継承も、
・ファイルとディレクトリで別々に設定
・子には継承させるが孫には継承させない設定
ができる。更に
・許可/拒否の設定が両方ある
・ACLの適用順を明示的に設定できる
ので、ホワイトリスト式とブラックリスト式を複雑に組み合わせられる(これはGUIでは設定不可で、コマンドでやる) >>724
おお。確かに全然違う。NTFSそんなに機能あったのか。
勉強になった。ありがとう。 機能的にはミニコンやメインフレームで大規模なDB載せるような用途にも対応できるような作りだしねえ…
これでもう20年も実績あるんだから、いっぱしのファイルシステムですな >NTFS ZFSで網羅してるとして、何のコマンドでやるの?
ZFS専用コマンド? ZFSってIRIX発祥だったように記憶しているのだけど
IRIXはつまり一般的なPOSIXの枠を超えたACLを独自に実装していたということですかね? >>728
意外なchmodで全部行ける。まるで呪文だがw
setfacl -m owner@:full_set:allow,group@::allow,everyone@::allow acl_test.txt
https://docs.oracle.com/cd/E24845_01/html/819-6260/gbacb.html#scrolltoc
>>729
Solarisでそ? >>730
自己レス
ごめん
chmod A3=user:venkman:read_acl:allow filename はSolaris
freebsd はsetfaclでやる実装だった「 > 729
XFSはIRIX
ZFSはSolarisです。 >>724
詳しい解説サンクス!
多すぎて頭がフットーしそうだよお >>732
ああそうだ、IRIXはXFSだったわごめん
おれ個人では普通に信頼してるFSだけど、Linux界隈では個人だと使ってる人あまり見ないよね… LinkStationのデフォルトがXFSだったはずたから知らないうちにXFS使ってる人は案外いそう CentOS7のデフォルトがXFSだから、個人でも使っている人は沢山いるはず 多機能すぎてその詳細を理解してる人も使いこなせる人も少ない…MSにさえ
おまけにフルに機能使いこなそうと思ったら非公開API使わなきゃいけないとかいう残念さ EROFSがLinux5.4でメインライン入りするらしい
リードオンリーファイルシステムだから使いどころは限られるが
すでにスマホで動いているので実績はある huawaiのスマホのsystemパーティションでEROFS使われてるのか
androidのsystemは元々リードオンリーでマウントされてたから有用だろうな くだらない質問で恐縮なのだが、
既存の、RW可能なファイルシステムで作成したボリュームをROでマウントするのはわかる。
しかしリードオンリーのファイルシステムとなると、
マウントするボリュームは、一体どのような手段で作成されるのだろうか?
卵が先か、鶏が先か… >>750
.iso (ISO9660 ファイルシステム、DVD-ROM 等に使われるリードオンリーのファイルシステム)
ファイル作ったことないですかそうですか >>750
別のファイルシステムから変換するのでは?
少なくともISO9660はそういう感じだよね。
原理的に、仕様がわかっていて、どういう風にファイルを用意したいか決まっていれば、
ビット列は生成可能なのだから、鶏が先か、卵が先かという問題ではないような気がするけど。 erofs-utilsに入っているmkfs.erofsで作るらしい
ttps://git.kernel.org/pub/scm/linux/kernel/git/xiang/erofs-utils.git/tree/README >>750
いや、roなファイルシステムも使用時にroでマウントしてるだけで
作成時はイメージファイル上にFSを作ってrwマウントしてファイルコピーするだけ >>753
圧縮の有無に違いはあるけど、使い方はSquashFSみたいな感じらしい >>754
なるほど,まあ当然っちゃ当然そうだよな。 >>754
isofsはwrite()が実装されてないらしいし、rwマウントしてコピーってのはちょっと違うのでは? fuseとかでrwマウント出来るようにした物はあるだろうけど、最初からrwでマウント出来たらroファイルシステムじゃないだろw mkfsが「XXバイト目にマジックナンバー書き込んでYYバイト目にはこのフラグの値書き込んで」みたいにやってる時に一緒にファイルも書き込むだけ これでZFSの重複排除が実用的になるだろうか?
まともに使えそうなら革命的だが
https://www.phoronix.com/scan.php?page=news_item&px=OpenZFS-Better-Dedup 重複排除なんてバックグラウンドでやればいいだけじゃないの? 今時のバックアップソフトや専用NASはリアルタイムに重複排除出来る >>762
重複するデータが既にストレージ上に存在するのなら後続の書き込みは行われないのが理想 >>764
コピーするときだけで十分だろ
どうせ上書きしたら内容は変わるんだし 重複データは書き込み時に判定というのは実際どう判定するのか
書き込み前に一度ファイルを舐めて双方のハッシュでも比較するのか、すごい手間だな
そんなものシステムワイドでファイル作成時や最終書き込みの時にハッシュ引いてファイルの属性データの方に持たせておけばいいのに
それでもハッシュの衝突とか無いとも限らないしな…どうやって検出すればいいんだ
…などと考え始めると眠れなくなる うん、だからバックアップでやればいいんじゃねーのって思ってる
最終的にはファームウェア側で実装するのもありかもね >>766
ファイルレベルでハッシュ比較しても駄目だよ。
少しデータが変わっただけの巨大なファイルで重複排除ができなくなる。
でもまあそういう例って仮想イメージのスナップショットぐらいしか無いんだよねw
んで、仮想イメージは仮想マシン側がスナップショットを差分で保存してくれるから関係ない
ファイルレベルならバックグラウンドでファイル検索して
ファイルサイズが同じ→中身を比較→全部一緒ならハードリンクにする
これだけで十分だろう ログファイルとか重複排除すると効果大きいんだけどな
一般家庭の用途だとストレージのほとんどがメディアファイルで埋まるから効果薄いよね >>769
なんで同じ内容のログファイルが
大量にできるんだ?
圧縮ならまだしも何の意味もないだろ Windowsは95の時代からドライブの圧縮機能があって
昔はお世話になったもんだが、他のファイルシステムには
そういう機能あるのかな? >>770
そもそもファイル単位という前提が間違ってる >>772
ブロック単位とか言いたいんだろうが、何単位であっても
ログファイルなんて同じ内容にはまずならんだろうが
1バイト違っていたりアドレスがずれてるだけでも
だけでも違うものと判断されるんだからさ ZFS とか重複排除はかなりメモリ食うらしいね
NTFS は指定日数経過後のファイルに対してだけ実行するとか
バックグラウンドで実行/高負荷時には実行しないとか
使用メモリ制限とか色々オプションがあるみたい
モードも一般/VDI/バックアップと用途向けに用意されてる
中小規模、ホームユースで考えると NTFS の方式はわかりやすくて
かつ優秀だと思う 確かNTFSの重複排除は対象ディスク領域1TiBあたり1GiBのメモリを確保することが推奨されていて、
これはZFSでの重複排除使用時の推奨値と変わらないはずですよ。
重複排除での処理単位のブロックサイズが同じ程度なら、
管理情報のオーバーヘッドはそれほど変わらんでしょう。 あ、推奨値じゃなくてこれぐらい消費しますよの目安だったかも。 >>775
メモリ使いすぎないオプションもあるよって書いたんだが... NTFSって複雑奇怪な仕様のくせにムダに安定してるよな NTFSの重複除去処理って理想的な実装じゃね?
https://www.gmo.jp/report/single/?art_id=234
> 重複除去機能はWindows Server2012ですでに搭載されていましたが、
> 最新のWindows Server 2019の重複除去では、重複除去率とパフォーマンスが改善されており、
> ファイル単位ではなくバイナリのデータ単位で重複を検出して除去するため、
> 大幅に重複除去率が向上しています。
> 重複除去は一度設定すればボリューム内のすべてのファイルが対象となり、定期的に実行されます。
> 書き込みごとに圧縮される場合、継続的なパフォーマンスの懸念がありますが、
> 重複除去はスケジュール設定が可能なため、慢性的なパフォーマンスへの影響を回避することができます。 NTFSは本当に優秀だ
NT3.1の頃から業務で使っているが、FS起因でのトラブルには一度も遭遇したことがない
さすが天才カトラーが設計しただけある 優秀つっても Isilon や NetApp とかの後追いじゃないか?
OneFS, WAFL, NTFS 以外は完全において行かれた感がある。
zfs や btrfs はそれなりに資金力ある企業傘下だったが残念だ。 昔との互換性を重視して、仕様は謎みたいな話もあったけどNTFSは問題ないのか? Ubuntu 19.10でZFSをルートファイルシステム利用やっとかよ ZFSの優秀さはメモリと引き換えなのでパソコンクラスのメモリ量だとあまり使えない パソコンクラスってよく分からない表現だな
今のサーバーはほとんどPCサーバーになってきてるのに ZFS出た2005年当時のメモリなんてどれだけだったと思ってるんだ うちのパソコンはメモリ512GBだけど足りないかな? OpenZFSはメモリ要件が改善されたらしくはあるけど
キャッシュヒットが環境によって変わるとはいえメモリの必要量が明確に分からないのは正直つらい
L2ARCの追加もメモリ消費するらしいから安易にできないし
でもZILとかスナップショットとか透過圧縮とか使いたい NASでZFSのdedup onで使ってるけど2TBでメモリ10Gも使わない
メモリ512GB積んでおけば100TBぐらいまでは対応できそうだから個人だとこれで十分そうだ 重複排除設定で使用済みブロックが2TBも使ってるなら相当ゴツいシステムだな 重複排除ってサイズが1バイトずれてるだけのやつも
排除してくれるの? あんまり排除できなくないか?
同じファイル見つけたらハードリンクに
置き換えるツールで十分そうw そうだよ、専ら仮想鯖みたいな同じユーザランドが無数に作られる様な用途を想定してるんだろう 一日1万枚ぐらいエロ画像を漁ってると20%ぐらいはかつて落としたエロ画像だったりするから
重複排除は容量の20%ぐらい浮く計算になる >>802
そういうのって重複ファイル削除ツール使えばいいだけなんじゃない?
重複させておく必要ないでしょ? 重複排除はリアルタイムである必要はないわな
ZFSが採用しているようなリアルタイムでの重複排除はメモリを食うし
デスクトップ用途ではデメリットの方が大きい。
XFSの重複排除はパフォーマンスに影響しないし実際に使っているけど便利だよ。 後で重複を排除するとなると重複かどうかがわからないから結局一度書き込みに行く事になる
zfsはデスクトップ用途だとアレだけどサーバ用途だと理に適ってはいる
あと画像だと今や同じ画像が違うファイル形式であちこちに散乱してたり
同じJPEGでも品質が違ってたりするからあんまし意味ないんじゃ? でも書き込むたびに、これ重複してるかな?って
確認してたら、書き込みが遅くなるじゃん それを高速化する為にメモリ内にハッシュの類を持ってるんだろうに でも書き込むごとに、データのハッシュ値を計算してるんですよね? >>807
非同期書き込みなら書き込み遅いのは気にならないが同期書き込みについては
遅くなるのは致命的だよな
同期・非同期で重複排除をバックグラウンドでやるかリアルタイムでやるか決め
られるだろうけど仮想環境用途の仮想ディスクとかはその上の同期・非同期って
NAS側まで伝わるのかね
>>808
ZFSの場合はハッシュの計算以外にもRAIDの計算もしているが、それをいうなら
商用NASハードはそれで百本越えのHDDとか面倒みながら処理してるわけで
ハッシュ計算はそんなに負担ではないのでは? >>800
重複排除はファイル単位ではなくブロック単位
もしファイル単位ならそりゃハードリンクと同じだ それをファイルレヴェルでやってたらでかいファイルの一部が変更されただけで
ハッシュの類を再度算出しなおさなきゃいけなくなる >>812
世代でバックアップとってるファイルとかゲストOSのイメージとか ファイル単位の重複排除もあるらしい。
更新されなくなったファイルを圧縮するついでにやる?だったかな。
他にもウイルススキャンとかも定期的に走らせるとかあるからハッシュの
再計算を何かのついでにすることで負担は減らせそうだね。 >>814
そういうのって仮想マシンソフト側が対応してますよね? ファイル単位でやるにしてもどうしても大きさに制限ができる
COWの事を考えるとどうせブロック単位に回帰する >>816
横から失礼
同じ仮想マシンイメージのPCを移動ユーザープロファイルで利用する
ならわかるが、サーバだと初期イメージから離れていくだけだから
差分に対しては仮想マシンソフト側での吸収は難しいと思うが
>>817
データベースの表領域を考えるとそうだけど、それ故最近アクセスしていない
ファイルに限定してるんじゃないかな
そうなると話は変わって逆に大きさがわかる/ファイルサイズがわかるのは
寧ろメリットになってしまう
ブロック単位に回帰する理由を挙げるならスナップショットやシンプロ
ビジョニング、ブロック単位のレプリケーションなど併用すると効率的な
機能要件挙げるべきかな 自宅のCDデータ倉庫で排除率のシミュレーション'(zdb -S)したけど1%も無くてがっかりだった
やっぱZFSの重複排除は仮想化とセットなんかな
バックアップは取得時だけソフトで差分の処理するほうが安くできそうだし >>819
zfsは仰る通りだと思う。
コピーオンライトのお陰でスナップショットが高速・少容量な感じに仕上がってる。 重複排除に夢を見ないほうがいいよ
元から圧縮をはじめとする各方面で無駄を無くす努力がなされている現状で
小手先の策は効果がない そうか?今日保存したエロ画像は以前見てHDDのどこかに保存したような気がするんだが 同じ画像に見えてもバイナリ的に同一じゃない要素があってなぁ
というかそういう画像を探すための同一画像判定をしてくれるアプリがあったな 画像はまだいいけど同一の動画を判定するのは難しそうだなあ
できるソフトあるのだろうか? >>826
年々規制が厳しくなるからいつか後悔するぞ 仮想マシンのイメージのように重複排除が効果的なものはあるけど
そういうのは個別に専用の仕組みで対応したほうが早い
例えば掲示板の画像なら重複を探してハードリンクを貼るスクリプトを定期的に回すだけで事足りる
一応btrfsは重複ブロックを探して共有するプログラムが用意されている
さまざまなリスクと制約を負ってでもリアルタイムにファイルシステムでやる必要性が少ない >>830
いやそれだったら画像を保存するだけのプール作ってそこだけdupすればいいだけ https://www.phoronix.com/scan.php?page=news_item&px=Linux-5.4-Released
> Linux 5.4 Kernel Released With exFAT Support, Faster Radeon Graphics, New Hardware
exFATキタ━━━━(゚∀゚)━━━━!! でもジャーナリングファイルシステムじゃないからなぁ そう言えばRaiserさんはFS開発に戻らないんだろうか そもそもSDXCカードの標準に採用されてるのに読み書きできない方がおかしい fatは先頭からデータ埋めてくだけだったけどexfatはそのへんどうなの? スパースファイルのことなら対応してない
アロケーションのことなら実装次第でFATと変わらんだろう
メタデータの一部がファイル化してるが位置がころころ変わるものじゃないから断片化には影響しない https://www.phoronix.com/scan.php?page=news_item&px=Reiser5-Development
> Reiser5 File-System In Development - Adds Local Volumes With Parallel Scaling Out
> Hans is still serving his fifteen year sentence until 2023 for
> murdering his wife but can see parole eligibility as soon as next month (January 2020).
Hans Reiser仮釈放でReiser5爆誕 2020年1月10日 Don't use ZFS ―Linus,ZFSをマージしない姿勢をあらためて強調 階戸アキラ
https://gihyo.jp/admin/clip/01/linux_dt/202001/10
「Don't use ZFS. ―ZFSは使わない。その理由はシンプルだ。ZFSはこれまでずっと,バズワード以上の
何物でもなく,そして実感するのだけど,例のライセンシング問題は僕にとってZFSを価値のない存在と
思わせるだけだ」
1月6日,IT業界に特化したオンラインメディア「Real World Tech」のフォーラムで繰り広げられたある
スレッドにて,Linus TorvaldsはZFSをメインラインにマージする予定がないことをあらためて明確に主張
している。(中略)
今後のZFSの扱いについては「Oracleの正式なリーガル担当者が署名したオフィシャルレターが届くか,
もしくはラリー・エリソン自身が“ああ,いいよ,手続きを進めよう”といってZFSをGPLにするか,そういう
事態でも起こらないかぎり,僕はZFSに関するいかなる成果もマージしない」と強調,つづけて「ZFSの
コードやインタフェースを取り入れたければ,個々の環境(ディストリビューションなど)で好きにやるのは
かまわないが,訴訟好きなOracleの体質,さらにはライセンスに関する数々の疑念を考慮するなら,僕は
とても安心してそれをやる気にはなれない」とZFSをメインラインに取り入れない理由を説明している。
また,ZFSを直接カーネルに統合しないだけでなく,Shimレイヤのような透過的なインタフェースを通した
実装にも「まったく興味がない。我々にとってなんの価値もなく,Oracleに(Javaのような)コピーライト
訴訟のよいきっかけを与えるだけ」と一刀両断している。
旧Sun Microsystems由来のファイルシステム技術であるZFSに関しては,何度となくLinuxカーネルでの
実装が議論された過去があり,たとえばUbuntuでは2016年ごろからZFSをサポート,最新版の「Ubuntu
19.10」ではZFSをrootファイルシステムにしたインストールが可能となっている。Linusはこうしたディストリ
ビュータの動きに関しては「やらないほうがいいと思うけど,自分たちの責任でやるなら好きにやれば」という
スタイルを通してきたが,今回あらためてZFSのメインライン統合に対し,明確なNoを突きつけたといえる。 マージ無いのはまあ当然だろう
ZFSの為だけに全てのコードをリスクに晒すわけにはいかない LinuxはSiliconGraphics謹製のxfsと添い遂げろ jfs いいぞ。
と、言いたいけどAIX由来じゃなくてOS/2からだし >>849
wikipedia の jfs からだが、
1999年4月、新しい JFS が OS/2 Warp Server for e-business に、2000年10月には OS/2 Warp クライアントに向けてリリースされた。
1999年12月、OS/2 の JFS ソースコードがオープンソースコミュニティに提供され、それを受け JFS の Linux への移植が始まった。2001年6月、JFS for Linux の最初の安定版がリリースされた。 JFSはビデオレコーダーとかのHDDのフォーマットに使われている場合が結構ある/あったか
今はXFSとかか? >>852
むしろレコーダーにはXFSが使われてるイメージ うちにちょっと古めのRegza(TV)が2台があるが、録画HDDが認識されなくなって
xfs_repairで3回くらい復活させたことがあるわ ZFS厨死亡のお知らせ
ttps://www.phoronix.com/scan.php?page=news_item&px=Linus-Says-No-To-ZFS-Linux じゃあbtrfs使いますかって話よ
俺はトラウマあるから無理 >>855
今までと変えるつもりはないからこれ以上話を出すな、ってだけだと思うんだけど
RedHatがxfsベースで似た機能を持ったもの作るのと、ReiserFSがそこまで取り込んでくれるのを期待 >>856
法的な問題が解決されない関わらないっていうのを改めて明確にしただけだと思うけど ZFSなんかバズワードだって一刀両断は胸がすくね
Macが採用を謳ってからの持ち上げようったらおかしかった linuxではバズワードかもしれないけれど、
FreeBSDなんかは、UFSの代替として一般化してると思うよ。 ソースも見ないアホが語っとるわ
リーナスが言ってるZFSはOracleのZFSのことであってOpenZFSではないぞ xfsが進化しまくってるから問題ない
俺も早速1年くらいxfsのcowで使っているけど
btrfsとは違ってド安定で一切不具合はないよ
ただしメモリの使用量はなんか多い気がする >>863
xfsは昔からメモリ大好きっ子やけんな >>862
ライセンスがGPLにならないかぎりは同じこと >>862
誰にアホといってるのか分からんけど
OpenZFSだろうがライセンスが変わらない限り一緒だといってるだろ たとえGPLになって取り込まれたとしてもZFSに使いどころがないわ
ガリガリ読み書きする部分にはメタデータアクセス遅すぎて使えん
ガチ性能と可用性が必要なところはハードウェアRAID組む
ニアライン用なら機能いらんからもっと安定してるやつ使う LinuxはZFS並みのファイルシステムができるまでまだまだかかりそうね 超サーバ用途には使わんし、かと言って一般的なPCじゃ必要メモリが大き過ぎて使えんし、
運用のハードルが高い割には使いどころが難しいのよね 使ったことないんじゃない?メモリ2GBでも快適だよ
今時のマシンなら16-32G積んでるしちゃんと使ってみてから評価すればいい 2GBで快適に動くような使い方してるならZFSでなくてもいいのではって思うけどな メタデータ触ると遅いしメモリ食いなのは確かだけどlvmでスナップショットはかなり無理矢理感あるし透過圧縮ないファイルシステムも多い snapshot、promote、細かいACL、send|reciveに透過圧縮など非RAIDでも恩恵はでかいよな >>874
だね
俺はデスクトップユーザーだからそれら機能の簡易版でもあればbtrでもxfsでも構わないのだが
現時点では選択肢がzfsしかない うんうんZFSは素晴らしいみたいだからFreeBSDでつかっててね FreeBSDもOpenZFSになるのでLinuxで使いますね 今時は1デバイスで100TB、トータル1PBぐらいのシステムを持っている個人も普通にあるよね
そういうとこで実運用に耐えるファイルシステム、って観点だとこれが以外と難しい 巨大パーティションは下手すればエラーチェックもままならなくなるから
動画用でもない限り1T程度で切ることにしている 重複排除の実装によくハッシュが使われるがハッシュの計算と保存のコストが馬鹿にならない
例えばKSMは最初ハッシュで実装してたのに結局ツリーを作った上で直接比較する方法に変更した NTFSって理論上は64ビットの番地だけど
現在の実装は32ビットなんだろ
(2^32-1)*2048KiBの8PiBくらいしか管理できない そんな容量が要求される様な用途だとReFSが使われるんじゃ? ファイルシステム上には64ビットで書かれてるよ、
読み書きするときに上位の32ビットを0に固定してるだけ。
たしか、4KBクラスタまでの時代で論理限界16EBとか言ってた。
今は2MBだから増えてる? まあストレージやメモリのこれだけあれば十分なんて数字は数年で倍になるし10年で2桁変わる 世の中にPBクラスの規模で動いてるファイルシステムって実際にあるのか…?
普通はそんな肥大化する前に設計の見直ししないか 10年前でメモリ80MBとかPentium IIを10年使っていらしたんですか? 10年前だとメイン機のRAMは8GB、サブ機で2GBだったかな
今はメインで64GBサブ機8GBだから、まあ10倍にはなっていないか
ストレージは1TB→20TB
さらに10年前、2000年時点だとRAM256MBストレージ4GB
1990年頃だとRAM4MBストレージ80MBくらいか
10年で10倍、25年で1000倍目安くらいだな >>888
そこまでいくと実質的に青天井だからS3などのクラウドを選択するだろう
もう自前でストレージを持つ時代じゃない >>888
資源系を筆頭にいくつかの業界や世界規模の大手企業ではPBなんて珍しくないよ
そういうところでは単一ネームスペースでアクセスできるところに意味があるからそうなる
>>891
むしろ逆、そこまで大きくなるとクラウドストレージはI/Oが高すぎて話にならなくなる >>892
事業の性質によるだろう
多くのBtoCビジネスでは、必要なストレージ容量やIOはユーザー数に比例するから問題ない
それで赤字ならそもそも商売として成立しない >>892
PBクラスのシステムのファイルシステムは実際は Lustre や GPFS
などの分散ファイルシステムで、その中身は ext4 などのファイル
システムを並列に並べたものだから、単一のファイルシステムとしては
PB 超えれてない
ここでの議論は単一のファイルシステムに限定したほうがいいと
思うんだがどうだろう >>893
> 事業の性質によるだろう
具体的にはスパコン(HPC)と映像系だけかな
CIFS/NFS(autofs)/オブジェクトストレージあたりは複数のストレージを
束ねて1つのネームスペースに見せかけられるからそこそこ安定してて
こなれた価格のストレージを並べるから PB のファイルシステムは不要
テキトーなこと言うけど、PB クラスのファイルシステムが必要になる
のは1ファイルがTB超えるとか1バッチあたりの中間ファイルがTB超える
とかぐらいからじゃないかな >>894
LustreもGPFSもPanFSも中身は独自でext4等の下層fsを持たないよ、何か別のものと勘違いしてない? >>895
HPCはそうだけど映像系は実は必ずしも該当しない、ガチなとこは階層化ファイルシステム使うから
日本では技術力がないのか金があるのか知らないけど単一でゴリ押す映像系の話きくけどね
PB越え単一ファイルシステムが必要なのは、一ファイルの大きさが問題じゃなくて
アクセスする可能性があるファイルが大量にあって、かつテープでは遅すぎる場合
だから金融系・資源系・生命系みたいにデータが大量で時間が金に直結するところで良く使われる >>896
おっとすまない、Lustreは下層がext4だった、ごめん勘違いしてたのは俺だった
でもGPFSやPanFSが下層を持たないのは本当
まあ現状エンタープライズのファイルシステムの最前線はGPFS vs PanFSみたいな雰囲気はある >>897
それは失礼。 ちなみに Lustre は ext4 と他に ZFS の実装もあるそうな。
> アクセスする可能性があるファイルが大量にあって、かつテープでは遅すぎる場合
使ってる業種と使い方に異論はないんだけど単一ファイルシステムを使う理由が
それかというとちょっとなんか釈然としないなぁ
結局入力ファイルや中間ファイルを複数のファイルサーバに負荷分散するように組むのが
面倒くさいから使ってるってだけって印象だわ
面倒くさがらなった結果の一つが Hadoop/HDFS だと思ってます、ハイ 1ファイル1'PBのエロ動画とかどうやって保存してるんだろう >>900
Display Portが2.7Gb/s最大なんで少なく見積もっても823時間分あるんだが
どういう人向けなのか説明Plz >>901
DPは最大25Gbps出るしDSC使えばもっといける
そもそもファイルサイズとモニターへの転送速度は関係ないでしょ?
実際に販売する段階になったらエンコードして小さくするとしても編集前のマスターデータをそのまま保存しておく場合なら再生するモニター以上の解像度、フレームレート、色域が記録されていても保存に必要な容量が用意できれば全く問題ない 8K24bitの24時間ハメ撮りAVだと無圧縮で計算上約8TBだな RAID10はmd raidよりbtrfsのほうが安定してる
RAID 1ならmdのほうがいいけど >>907,908
md の上に何乗せてるん? ext4? xfs? >>909
RAID1なら何でも乗っける
ESPの多重化もしたいし
それ以外ならファイルシステムのネイティブ機能の方がいいと思う 2020年2月10日 Linus,次期カーネル「Linux 5.6」の最初のリリース候補版を公開
https://gihyo.jp/admin/clip/01/linux_dt/202002/10
ここで触れられているZonefsは開発したWDによるとSMR HDDやSSDに適したファイルシステムらしい
What is Zoned Storage and the Zoned Storage Initiative?
https://blog.westerndigital.com/what-is-zoned-storage-initiative/ ZonefsはPOSIXに準拠していないので既存のファイルシステムを置き換えるものじゃないけどな F2FSは最大FSサイズが16TBなのがSMR HDDには今後ネックになる FlashFriendly File Systemだからな
HDDとか知らんよ HDDも大容量キャッシュ付き瓦だとあんまりfs側でいじらない方がいいような気がする WinFS でやりたかったDB の機能も付いたファイルシステムってあります? >>920
じゃあそれDBでよくね?ってなってどこも開発やめた 最近はDBのためにダイレクトIOのパフォーマンス上げる改善が多い btrfsはUUIDの変更が鬼門だな
メタデータとUUIDが紐付いているらしくてデータを読めなくなる カーネル5.4で追加されたネイティブexFATは日付の処理にバグ有り
Windows7とfuse-exFATで作成したファイルを5.4のネイティブexFATドライバで見ると、
更新日付がちょうど 1ヶ月+9時間 遅く表示される
アクセス日付は常に 1979/12/31 9:00:00 と表示される
5.4のネイティブexFATドライバで作成したファイルをWindows7で見ると、
更新日付とアクセス日付がちょうど 9時間 早く表示される
また、5.4のネイティブexFATドライバでマウントしなおすと上記の症状が起こる
つまり、
・読み書き共にタイムロケールが正しく反映されない (日本設定では9時間ずれる)
・読み込みのみ暦月がずれて読み込まれる (書き込み直後はキャッシュされるので症状が見えない) あと、5.4のネイティブexFATは日本語処理は問題なかった
日付のずれは地味に困るから一旦fuse-exFATに戻す アクセス日付を更新するだけでも更新日付が一ヶ月後ろにずれることも分かった
サムネイル表示機能を有効にしてたから試しに開いたSDカードの日付情報も派手にやられた Windows10
5000個以上のPDFをAドライブからBドライブに移動させたら、ファイル数はそのまんまなのに総サイズが250MBも減少した
なんで? A側はexfat でアロケーションユニットサイズが 1MB (平均512KB/ファイル余計に消費)で、
B側はNTFSで同サイズが4KBで(同平均2KB/ファイル)だったって感じか?
(意図的にやらない限り 1MB なんて値にはならないはず)
それ以外の可能性としてはA側には隠しファイルがあってサイズは隠しファイル込みだった exFatをWindowsで初期設定でフォーマットするとクラスタサイズが128KiBになる
1ファイルあたり平均64KiB余計に消費するので、64KiB×5000個=約312MiB
>>929 は順当な結果 1件1ファイルで保存するタイプのメールデータをexFatに保存すると大変なことになる
(1件ごとにほぼ128KiB無駄になる)
あとNTFSは約700バイト未満のファイルはメタデータに直接格納しちゃうから細かい設定ファイルやらメールデータの収納効率が非常に良い Ubuntu 20.04β試していて初めて知ったんだけどlinux-5.3あたり(?)からNILFS2へ書き込もうとするとクラッシュする(といってもNIFS2を扱っているカーネルのサブシステムだけ)というトラップ(バグ)が仕掛けられてたのね。
/homeをNILFS2で運用していて18.04でバックポートカーネルを入れるとログインできなくなるんで何でだろうと思っていた。
当分18.04+5.0系カーネルで保持かなあ? NILFS2って保守されてるのか?
いつか消されるんじゃないかと思っているのだけど 4TB の外付けHDDを exFAT でアロケーションユニットサイズを NTFS と同じ 4kB で使う場合、
大きなデメリットってある?
それとも、アロケーションユニットサイズを変更するくらいなら、素直に NTFS で使ったほうがいい?
Linux でもネイティブ対応しそうな exFAT を考慮したいけど、
今までの外付けHDDが全部 NTFS なので、
ちょっと躊躇してしまう。 数十〜数百GB程度ならexFATでも何でも構わんけど
テラバイトサイズのボリュームはジャーナリングファイルシステムでないと怖すぎないか >>938
確かに、ジャーナルのない点は少し気になるねぇ。
サルベージするときの復元率の違いも気になる。
FAT32 のときは、復元できても断片になることもあった。
もっとも、NTFS の場合、復元できなければ断片すら拾えないという感じだから、
優劣という感じじゃないしなぁ。 >>937
そのFSを読めるOSが壊れたときなんて想定は別の同じOSを用意すればいいでしかないぞ >>937
Windows95/98と同じ程度の信頼性はあるはず CoWはその性質上、空き領域をどんどん上書きするからSSDの速度低下が起きやすいようだ
定期的にトリムした方が良い、例えば毎朝と毎夕
マウントオプションでdiscardオプションを付けても良いがLinuxでは遅くなることが多い
fstrim -v / >>935
NILFS2開発者のMLにとりあえずの回避策が流れてた。
起動からマウントまでの間にそのFSのデバイスへの書き込みがあればいいので、
マウントの前に
dd if=/dev/なんとか of=/dev/なんとか count=1
みたいにダミーの書き込みを発生さればいいのだそう。
例えば、fstabから削除かnoautoにしてrc.localとかでdd, mountという流れとか。 >>946
ありがとう。
たぶんこれかな↓
https://marc.info/?l=linux-kernel&m=158825033005228&w=2
自分の場合も/homeがnilfs2なんでどうしたものかな???というところですわ。
サブ機のほうはbtrfsに替えてUbuntu20.04に上げたけどメイン機の方はどうするかなあ? Btrfsとかzfsって一台のhddだけで運用するのはたいしてメリットないの? あるだろ
圧縮とかスナックショトとか 盛りだくさんだわ
>>948 デュアルブートしてたらNTFSのMFTがミラー毎壊れたんですけどなんとかMFTを修復できませんかね?
EaseUS Data Recovery Wizardを使うとディレクトリやファイル名がそのままでデータ救出できるんですけど
という事はMFTも修復できるはずですよね? まだ始まったばかりだ!
Oracke先生の次回作にご期待ください xfsのCoWを有効化したまま1年以上使ったけど時々フリーズするなやっぱり
あとメモリ使用量がちょっと大きすぎるね。
まだまだext4安定の時代は続きそうだ それならBtrfsの方が安定してるな。できたばかりでこれからなんだろうけど うーむbtrfsで組んでる領域どうしよう
compress標準サポートが貴重なんだけどな。
乗り換え先おすすめ教えてください。 Synologyが推してるBtrfs
Googleが使ってるBtrfs なんだかんだでLinuxで高機能モダンファイルシステム使おうと思うととりあえず何も考えずに使えるのがBtrfsなんだよね。
こまめにバックアップ取りながら人柱のつもりで突っ込んだのに、意外と問題出ないし…… Google遣ってるならBtrfsの未来は明るいと思ってしまう不思議 >>963
俺も数年使ってるけど何も問題起きてないわ
ぼんやり使ってるだけだから気付いてないだけの可能性もあるけど IT巨人で信頼できるのはMSだけだわ
Window以外はブッチギリで有能 Vista以降のWindowsもNTFSも優秀だよ
今時こんな堅牢なOSちょっと無いよ https://wiki.archlinux.jp/index.php/Btrfs
本当に隅から隅まで問題が起きていないのか、問題が起きた時にfsckの類が動くのか、etc
よくbtrfsなんぞ使えるな・・・ ext4もxfsもBtrfs程の問題は抱えてないだろうて
Btrfsは解決の目途が立ってない既知の問題点が多すぎる >>973
そこ見たら実験的な機能が多いのは分かるけど
普通に使って問題が起きるようなことは書いていないが マウントオプションを貪らずに一切エラーが起きなきゃな
起きた時が問題だからbtrfs checkで全部を直せないとかマウントオプション云々だとか散々警告されてんだろうに
RedHatが匙を投げたって時点でお察し redhat引き合いに出してbtrfsオワコン唱えるやつ多いけどbtrfs開発者がredhatやめたってだけ
んでまともに触れる社員いないfsはサポート無理ってのとチーム内にXFS開発者ならいっぱいいるからだって元社員がいってたぞ
googleは知らんが大御所で使ってる、貢献してるのはfacebookと富士通とかだな GoogleはChromeOS内のLinux環境で使ってるだけ 遭遇してもクリーンインスコすりゃいいって程度のシステムならbtrfsでも問題にならんのだろうけどな
redhatの件が無くてもbtrfsは昔からモグラ叩きの繰り返しだし、
未だにRAIDやファイルチェック周辺すら完全にできてないし、どこに地雷があるかわからん
一部のfsのエラーを修復できませんって、そのエラーに遭遇した時にどうすんだよと クライアント(スナップショット/RAIDなし)で使えててもファイルサーバで
安心して使えるかというとそうじゃないからなあ スナップショットもRAIDも使ったし、オンラインでストレージ構成変えまくったけど問題出なくて(しかも構成変更が柔軟過ぎて)拍子抜けしたんだよなぁ。
ファイルサーバ用途でこそ輝くよこれ(バックアップはこまめにね) ファイルサーバーっていう言葉で考えているものが全然違う二人で会話してる感じがする Terastation クラスの NAS(Btrfs 利用だと Synology の製品)/エントリークラスか
会社のファイルサーバ(Isilon や NetApp やその対抗製品クラス)/
エンタープライズクラスかってことかな
クラウド化やセキュリティ強化が進むにつれてエントリークラスの需要は
落ちる/落ちてるんじゃないかな ノートPCをCoW有効にしたXfsにしてるけど
メモリ使いすぎて本気で後悔してる。
省メモリなFSだとext4が良いのかな?
どこかにFSごとのメモリ使用量の比較データとかあたりしない? 信じられないくらい食う
プロセスの合計メモリ使用量は大したことないのに
簡単にスワップ突入するよ。 CoWとジャーナリングなら比べるのも愚かというレベル >>985
使ってないけどメモリ制限できるんでは? dedup使ってるとかでもなしにそんなメモリ食うのか。
Btrfsがメモリ食わないからCoW自体は対してメモリ食わないものだと思ってた >>946
これはGood News?
>> Wondering if it can be reproduced on mainline with c3aab9a0bd91
>> ("mm/filemap.c: dont initiate writeback if mapping has no dirty pages")
>> reverted?
>
> For mainline kernels with that commit reverted, this oops actually
> doesn't occur.
https://marc.info/?l=linux-nilfs&m=159101200114980&w=2 >>993 で引用された部分は
「ホントにc3aab9a0bd91なしだと起きないん?」「そだよ」
と言ってるだけだけど、
落ちるまでの流れはわかったっぽいしまだ不安定ながらパッチもできた、
というのが現状かな。 >>994
で、もう正式に入れてちょうだいってパッチも出たんだけど、
実質1行追加するだけだった。
こういうパッチ好き。
実際どうかは知らないけど、いかにも問題を追求し切ったって感じがして。 なぜか、NGに引っかかったので、関連スレの途中までしか書けていません。
あと、リンク切れの場合は、ご容赦ください。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 897日 15時間 6分 0秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。