● リンク全部は、確認していないので、リンク切れがあれば、ご容赦ください。
UFSのsoftupdate実装はなんて完璧なんだ 速いしデータ保護も完璧で まさに完璧だ
家電の録画機に搭載されてるHDDのファイルシステムってなんなの?独自?
ZFSの本買おうと思ってアマ覗いたら異常に値上がっててワロタ
調べたものの、答えがみつからなかったので質問します。 GlusterFSのreplicated volumeで、不均等なBrickは使えるのでしょうか? 最も小さいBlickにひっぱられる? 分散された結果いずれかのBrickがいっぱいになったら終わり? そして、Brickはまとめられている数を単位として増減するということは、Brick単位でreplicateしたりstripeしたりしてるということでしょうか。 例えば2leg replicateにおいて、ファイルaはBrick AとBに、ファイルbはBrick AとCにというように柔軟に配置するわけではなく。
zfsで間違って消したファイルをsnapshotからcpでコピーしてるんだけど リンクを張り替えるだけで良さそうだけどデータを丸々コピーしてる もっといい方法があるのか仕様なのかなんかありますか?
非同期IOの効果を測定してみた結果、 btrfsだと有効に働くが、ext4だとかえって速度が落ちる結果になった btrfsとext4の速度差はディスクが違うのであまり参考にしないで下さい btrfsは遅いと言われているけど非同期IOを積極的に使っていけば ext4より早いファイルシステムかもしれない btrfs 同期IO time aiocp -d -b 8K -f O_SYNC -f O_CREAT srcfile dstfile 0.01s user 1.32s system 3% cpu 35.696 total btrfs 非同期IO time aiocp -d -b 8K -f O_SYNC -f O_DIRECT -f O_CREAT srcfile dstfile 0.01s user 1.43s system 4% cpu 29.792 total ext4 同期IO time aiocp -d -b 8K -f O_SYNC -f O_CREAT srcfile dstfile 0.02s user 0.63s system 1% cpu 36.446 total ext4 非同期IO time aiocp -d -b 8K -f O_SYNC -f O_DIRECT -f O_CREAT srcfile dstfile 0.01s user 0.54s system 1% cpu 41.034 total
>>14 の自己レス。 * replicationで組になっているBlickはどれかがいっぱいになると挙動がおかしくなる * そうでないBlickならどれかがいっぱいになると書き込めなくなる。均等に配分しようとするのでほぼ一番小さいBlickに引っ張られる サーバーではないのでlsyncdの方向で検討中。 ZFSで最初単一ディスクだけのプールを作り、後でディスクを追加して 最初の1台目のディスク内のデータを潰さずにmirrorやraidzなどに移行することってできるんですか?
できない。 一旦作ったRAIDやMirrorの構成は壊せない。 逆にRAIDやMirror構成の個々のディスクのサイズを 交換して大きくすると、全体のサイズを大きく できる。 例えば1Tのディスク2本でMirrorを作り、順番に ディスク2Tに交換すれば、2TのMirrorディスクに できる。
ああ、やっぱりか。既存の構成を膨らます話はすぐ見つかったけど、組み替える話はないなと思って。 thanks.
いやmirrorやstripeはできるんじゃ 変えられないのはraidzだけ
昨日ちょうどzfsについて調べてましたが、ミラーにはできるような話だったような。 というか、プールでなくボリューム単位でできた気がするので、ボリューム作ってコピーすればRAID-Zもできそう。
>>22 引越しを限られたHDD内でしたかったんだけど、raidzを構築するvolumeも同時に設けてコピーするって事ですよね。 容量的に無理っぽい orz 素直にHDD買ってきますわ、データ潰したらしょうがないですしね。追加情報ありがとうございます。 >>23 zpoolでなくzfs setでできた気がするというお話。 >>24 そういうこと。 ミラーに以降する場合でも最低でデータの3倍の空間が必要ですね。 既に25TBになっている私の経験からくるアドバイス。 「構成変更・拡張は逼迫する前にやれ」 >>26 美容整形批判板 URL貼るときはページのタイトルや説明を添えるべき 不明なリンクは誰も踏みたがらない あとここはLinux板のファイルシステムスレ >>26 おめーは何がやりたいだよ このくそやろう 糞死糞乳でも飲んでろくそやろう ext2/ext3/ntfs のどれかで、極力ディスクの先頭の方の空きセクタを使わせるマウントオプションて無い? フラグメント化は厭わず、とにかく同じセクタを再利用するようにしたい。 仮想ディスクに対して使いたくて、新しい領域へ書き込んで実容量が増えるのを避けるようにしたい。
今ZFSを真面目に学ぼうと思ったら、OSは何がいいかな 本家に近いOpenIndianaはなかなか更新されなくて先行きが不安な気がするから、FreeBSD?
オープンソースだとLinuxが一番進んでなかったっけ?FUSEじゃないほう
OpenSolaris系以外ならFreeBSDが一番実績はあるだろ
>>32 ちょっと試しに使うなら、VirutalboxのゲストOSにCentOSを入れて、 VirutalboxのストレージをOS用、RAID用、キャッシュ用、ログ用に 分けてZFS on Linux動かしてみる。ORACLEのサイトにある日本語訳 された、ZFSの資料を読みつつ、機能を試すのはこれで問題ありません。 実サーバで試したくなったら、使わなくなったUSBメモリを4、5本用意 して、USB-HUBでRAIDディスクの実験をすると面白いです。かなり 速度が遅いですが、ディスク障害、復旧の試験ができます。 ZFS on Linux遅すぎる。 3TBrsyncして、7時間で300GBは許せるとしても、 そのあと3時間で40GBはないわ。 メモリは4GB。メモリ豊富でないと無理っぽい。
>36 ファイル数が多い場合とか、1つのファイルのサイズが 巨大な場合(例えば仮想のディスクイメージ)のrsyncの バックアップは時間がかかります。 ZFSのスナップショットを使ったバックアップや、DRBDの ようなディスクごと同期する方法を検討したほうが良いと 思います。 私はNotePCにZFSを入れてVMのイメージを管理していますが、 日々のバックアップは数分で終わっています。
>>37 32GB積むのはしんどいなぁ。 将来的にはするでしょうけれど。 マスター側は32GBありますけれど、スレーブ側は4GB。 >>39 ファイル数は1,000,000,000くらい? 一番大きいファイルは523GB。 マスターはBtrfsだし、EncFS使っているのでGlusterFSなんかも使えません。 EncFSはrootでアクセスできないし。 また、シャットダウンするのでDRDBのようなHAストレージも使えない。 100TBのシステムでrsnapshotしてるよ、という話を聞いたので rsync+atにしたんですけどね。 というよりも、それしか方法がなかったのですけれど。 ZFSからbtrfsに作り変えたら、出だしから18倍以上速い。 (ただしZFSではmax-compress,btrfsはlzoに変更) ZFS on Linuxいまいちかも…Qiitaでもそんな話ありますね。 Btrfsは不安定なZFSの劣化コピーみたいに言われることが多いけれど、 少なくともLinuxの実装においてはBtrfsのほうが優れているように感じますし、 いくらかの機能(例えばフレキシブルなデバイスの追加ではZFSを凌ぐものになっていますね。 BtrfsにSend/Recieveがあることを知ってびっくり。 これはEncFSやめちゃったらだいぶ楽になるかも。 (今のままだとEncFSごとコピーされても、EncFSが壊れると一緒に死ぬ) さらにSquashfsがappendできることも知りました。これ便利。 removeできたら、更新はしないけれどmvはされるものに適用できていいのにな…
貧弱なシステムでzfs遅いとか言ってるんじゃないんだろうな
まごうことなき貧弱なシステムですよ! 貧弱なシステムで快適に動くのもひとつのメリット
ZFSメモリ食い杉ワラタ 一般家庭用途でははなく業務サーバ用やな
最近のジャーナリングファイルシステムはリソースが贅沢にあることを前提とした設計 数十秒溜めてからフラッシュしたり、lzo圧縮したり リソース無いマシンは大人しく古いファイルシステム使っとけと思う
わざわざ合わないことに使って文句言うのって、Linux使うの向いてないね
特にこだわらずext4使ってるけどbtrfsの方が良いんですか?
btrfsはもう正式版出てるのにwikipediaの記事が更新してないから未だに未完成だと思われてそう
実際の運用でext4よりbtrfsの方が良いところ ・パッケージやシステムアップデートをかけたら動かなくなった!って時にロールバックしてなかったことに出来ること ・lzo透過圧縮で書き込みが速くなってさらにディスクサイズも節約できるなんて素晴らしい
C2Dだけどbtrfs使う価値ある? 重視するのは障害時のサルベージが容易かどうか 後重すぎるのも勘弁
鯖用は1年位前からbtrfsにしたけど、スナップショット便利だな もはやスナップショットできないFSは使う気にならん 家用もbtrfsにしてるけどバックアップしないからextでも困らん
btrfsは安定しているという評判をまったく聞かないので使わない ギークでなくエンジニアが1年くらい使って問題ないというようになれば使う 実績あるZFSの難点がメモリくらだから普通にメモリマシマシしてZFSにしたほうがいいね
富士通かどっかが実運用でBtrfs使ってなかったっけ
自宅ファイルサーバがメモリ4Gで、ディスク1TB、SSD32GBの構成ですが、 スナップショットを使うためだけにZFS化してます。 圧縮と重複排除を使わなければ、4GBメモリーでもエラーなく動いてます。
SUSEには正式に採用されたね >>53 ext4だろうけど そんなの最終手段だから普通は必要ない運用をすべきと思うけど >>56 Netgearとかの民生用NASでも普通に使われている。 >>53 スナップショットを考えたら使う価値はある ext4と比べるとマルチプロセス、マルチスレッドでの書き込みはbtrfsの方が性能が良い 1プロセスでの書き込みなら一般的にはext4の方が速い 5400RPMとかの遅いディスクを使ってるならlzoでの透過圧縮が使えるbtrfsが1プロセスでも速いかもしれない btrfsの4ディスク12TBの2レッグミラーで1年くらい使っています。 btrfsが原因で壊れたのは一度だけ。これはLuksに起因するトラブルよりもずっと少ないです。 その時はfsckしてからマウントしたらマウントできて、修復にかけて復帰。 btrfsのおかげで救われもしたことになります。 途中では3つのディスクが500GB LVM+2.5TB Btrfsという状態から4つの3TB Btrfsに組み替えてさえいます。 現在はbtrfsで2ノード8ディスクで合計25TB。 btrfsはとても便利だし、十分に安定していると思います。1つずつ、しかも不均等なディスクを追加できるのが魅力。 リバランスできるにもかかわらずストライピングできるのでディスク数が増えるほど速くなるのも魅力。 ディスク1つならスナップショットとsend/recieveを魅力と感じるならあり、スナップショットだけならLVMという選択肢もあり。
>>62 古い情報だと不均等なディスクは最小容量が上限とあった気がしたが改善したんだな しかしZFSがRAID5,6とRAIDZ1,2があるのにbtrfsはRAID0,1しかないのが見劣りする あとbtrfsはディスクIOが遅いと聞いた >>63 この間4GBメモリのサーバーではZFSの18-100倍以上btrfsが高速でした。 不均等なディスクについては私が調べた限りでは言及なく、勝手にできるものだと思っています。 調べるのがちょっとむずかしいワードという気もしました。他の部分でひっかかってしまうから。 ただ、3台でミラーできるので多分できそう。使用量もリバランス時は均等ですが、均等に増えているわけではないので。 あとRAID5/6ありますよ! https://btrfs.wiki.kernel.org/index.php/RAID56 ただし、絶対まだ使わないほうが良い状態ですが。 >>64 ZFSは環境差が激しいのでXFSかExt4との比較でReadWriteともに同等かそれ以上の速度がでますか? メモリ要求がZFSほど厳しくなさそうなのは魅力ですが安定性と速度には代えられないので >>66 VM複数動かすので超重要 その比較btrfsのシーケンシャルくっそ遅いんですけどLZO圧縮したらせめて同じくらいの速度にはなるんですかね >>58 そう思うだろ?ノーパソ+SSDだからジャーナル要らないぜ最速~ な運用してたらSYSRQ効かずに固まって3日間の作業がふいになったわ LZ4爆速だぜ~ # dd if=/dev/zero of=tes.dd bs=1024M count=10 10+0 records in 10+0 records out 10737418240 bytes transferred in 25.940913 secs (413918283 bytes/sec)
>>65 うちはストレージをまとめる必要がない環境下では単純にXFSなので比べにくいのですが、 リニアLVM+XFSよりは4ストライプのbtrfsのほうが高速だと思います。 というか、デスクトップはメモリいっぱい積んでるのでストレージ速度はほとんどの場合気にならないし、 サーバーはある程度時間かかってもZFSの時のようなことがない限りほどほど同期できていればいい、 という感覚なのであまり気にしていません。 シングルストレージで速度がほしいならReiserFS。 私のラップトップの/はReiserFS。/homeはXFS。 btrfsもverifyしなければ速いそうですよ。意味ないと思いますが。 LVMを入れるならbtrfsにしても速度的には対して変わらないはず。LVM+btrfsはおすすめしません。 というか、一番わからなくなる原として、うちはdm-cryptやEncFSを介しているので、そっちのほうがずっと遅いから。 >>72 うちは5,6台まとめてRAIDZ2の予定です 現在VM1台につき5400rpmのHDD1台を割り当ててますが遅い遅い メモリは十分に用意する予定なのでZFSを選択しました 実際入れてみて問題があったりbtrfsの実績がたまってきたら再度比較検討するつもりです 落ち着いたらレポでもしようかというとこですが2chがもう終わりのようなのでたぶんできないのが悔やまれます >>67 複数の仮想マシンから一つのディスクにアクセスするようなデータパターンだとbtrfsのcowやマルチプロセスに強い設計が効いてくるんで他のファイルシステムと比べても速くなるかもしれない >>73 open2ch悪くないですよ。 本当にメモリが潤沢にあれば大概の高レベルIOはcache/bufferで終わってしまうので ファイルシステムの速度はあまり関係ない感じに。 それこそGlusterFSでも構わないくらい。 ただし、直接叩くRDBMSなんかはストレージ速度が応答速度になってしまうので、 そこに不安があればNoSQLとかVoltDBとかを採用して対応。こちらも潤沢なメモリ前提。 zfsでl2arcをSSDで追加すればライトが速くなると思ってたんだけど l2arcってリードでしか使われないから速くならないんだよね? 同期書き込みはzilで速くなるけど非同期書き込みはRAMを増やすしか速くできないの?
既存ファイルが使ってない余ってるクラスタに押し込んでるだけだからね
こんにちは。ファイルシステムについて質問させてください。 同一ディレクトリ内で500KiB程度の写真を千枚程度管理しているのですが、フォルダを開いた際の待ち時間が長い(5秒以上)です。今はXFSを利用しています。 XFSよりファイル一覧の読み込みが高速なファイルシステムはありますか? ファイルシステム初学者なので至らない点があればご指摘ください。
>>79 「フォルダを開く」ってのは GUI での話? どういう環境かよくわからんけど ファイルシステムの問題っていうか サムネイル作るのとかに時間がかかってんじゃないの。 >>79 ファイルシステムよりファイラーの問題だね。 >>80-81 はい、GUI(Nautilus)です。 やはりファイラーの問題でしたか。ありがとうございます。 サムネイル生成はランダムリードだと思うのですが、これはXFSでは低速なのでしょうか? >>82 XFSはまぁまぁ速いですよ。Nautilus使っていないので挙動がわかりませんが、 Ristrettoなんか大量の画像があるディレクトリはサムネイル生成でフリーズして猛烈に遅い。 HDDならReiser4が速い(お勧めはしない)、フラッシュストレージならF2FSが速いです。 XFSはでかいストレージ用でランダムはイマイチだろ
xfsはlogbufsオプション付けないと遅かったけど、今はデフォルトでいけるのかな?
細かいファイル大量にあるなら人殺しが作ったReiserでええやん
WS作ったメモ CPU3.0GHz 16Core MEM128GB 7200rpmHDDx6+キャッシュ用SSDでRAIDZ2 ・デスクトップVMいくつか動かしてる ・CPU負荷は感じない ・DEDUPが1.2-1.3 しか効かなくてリスク高い割に役に立ってない ・圧縮が1.5-1.6でそっちのが効果高かった ・計1TBのVMにDEDUP有効でもホストメモリ70GBしか使わない(VM分含む) ・RAIDで高速化された感がない(AES512ボリュームに可変ディスク置いて80-150MB/s) ・窓VMでHDDベンチしたらzilのおかげかランダムIOだけSSD性能 ・メモリ使いきってないのでl2arcの効果不明 ・スナップショットが最後の分しか直接ロールバックできなくて微妙な使いにくさ
訂正 HDDベンチサイズ小さければSATA3以上の速度でるようになった キャッシュ有無で速度変わらずSSD意味なかった
SSD上のl2arcとzilの有無で比較してみたんだけど使われてる気配ないんだよね いま負荷かかってるんで少しスコア下がってるけどSSDなしでだいたいこのくらい ----------------------------------------------------------------------- CrystalDiskMark 3.0.3 x64 (C) 2007-2013 hiyohiyo Crystal Dew World : http://crystalmark.info/ ----------------------------------------------------------------------- * MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s] Sequential Read : 569.597 MB/s Sequential Write : 627.577 MB/s Random Read 512KB : 375.552 MB/s Random Write 512KB : 172.797 MB/s Random Read 4KB (QD=1) : 5.073 MB/s [ 1238.5 IOPS] Random Write 4KB (QD=1) : 7.419 MB/s [ 1811.3 IOPS] Random Read 4KB (QD=32) : 30.379 MB/s [ 7416.7 IOPS] Random Write 4KB (QD=32) : 30.017 MB/s [ 7328.4 IOPS] Test : 50 MB [C: 34.7% (44.5/128.0 GB)] (x1) Date : 2015/04/18 20:32:27 OS : Windows 7 Ultimate SP1 [6.1 Build 7601] (x64) SSDでランダムアクセス速くなってくれるものと思ってたんだがピクリともしない 試しにZIL強制してみたりもしたがひどいスコアになっただけだった さらにデータサイズが500MB以上になると単体のHDD以下のスコアに下がる 50MBならシーケンシャルライトがM.2すら超えて1GB/sでることもあるんだが実際ファイルコピーしてみると100MB/sもいかなくてわけわかめ テストデータはランダムなのでスコアが間違ってるわけではないはずだがそれとも予想を超えて圧縮と重複排除の性能が高いのか 今思ったがもしかしたら可変ディスクだからかもしれない 一応キャッシュに乗ってればWin7の起動時間は20秒でSSD並みだがソフトが爆速というわけではない せっかくSSD用意したのに話が違うっすよ ちなCentOS7ホスト L2ARCが使われないって言ってるけどリードにしか使われないとかそんな基本的なこともわかってないんじゃないか
リードに使われてるように見える? そんな基本的なことはわかってるよ
だから代わりにZIL使わせても性能でないって書いたろ ZILで50MB/sも出なかったらL2ARC検証するまでもなくSSDの意味ないだろ
SSDによる性能向上の話をしてるんだが L2ARCしか話せないなら無理しなくていいよ
>>94 に答えられないなら誰も話せないから書かなくていいよ 読解力がないうえ低レベルにブレークダウンしてるものを高レベルに戻す池沼なのが分かったからもう喋らなくていいよ
crystaldiskmarkで50MBとかWindowsの起動が何秒とか何がしたいのか分からんな 高速SSDに金つっこめばいいのに
デスクトップ用だからユースケース通りのパフォーマンス測定だよ 鯖ならUnix用のベンチ回してる
デスクトップ用なら話が違うも何もただの見当違いだろ
鯖でしか使うなと言ってるのならめまいがするんだが 大して使ったことないけどネットで見た知識だけで語ってる大先生と同じレベルの発言されると区別つかないよ
>デスクトップ用だからユースケース通りのパフォーマンス測定だよ 真顔でこんなこと言われたら吹くw
コマンドプロントでfat32からntfcに変換しようとしたのですが、変換に必要な領域が出てきてから10時間がたっても変換が完了しません。なにが原因でしょうか?osはwin7で、外付けhdd1tbを変換しようとしています
ZFS導入しているんだけど、おもなファイルシステムが CIFSだとZILって意味がないって本当?
CIFS以前にZILはDBとかの特定の使い方がメインの時に効果がある特定用途向け書き込みキャッシュなイメージ。
>>115-116 まじかあ。あるとパフォーマンスが上がるとかふわっとした 解説ばっかりだったからあった方が良いのかなと導入したよ 1万円もったいなかったかなあ >>117 同時アクセスで同時にデータが入るときは役に立つのかな 個人ユースだからまずなさそうだがw・・・レコーダーのHDDは独立させているし・・・ Freenasでブラウザからの作成だとパーティション指定できなくて ドライブ単位なんだよな SSHでコマンドから作成したZFSはブラウザから何故か認識しないという・・・
>>118 同期書き込み(O_SYNC)についてはクグってくれ あくまでも非同期に比べて同期書き込みが遅いのを改善するもの ちなみにL2ARCもライトバックキャッシュじゃないから書き込みは速くならない LVM2でpvcreateしてvgcreateしたら、PE sizeが4MiBなのに、not usable領域が4GiBあるとpvdisplayで出てきた。 何故? PE単位で区切っていって端数部分が使えないなら、not usableは4MiB未満になりそうに思えるのだけれど。 管理領域とかでもなさそうだし、誰か教えて(CentOSスレで聞いたけどこっちに乗り換え)
pvckで見たらmetadataサイズが4GBと出た。 pvcreateもvgcreateもドライブ指定以外特にパラメータ与えなかったが、これが関係あるのかな。 lvm.confもArch Linuxインストーラが配布したものそのまま。 去年か一昨年かにも同じくArch Linuxで同程度のサイズのPV作ったが、そちらはnot usableが2MiB少々、metadata sizeも1MBもなかった。
arch linuxのwikiとかは参考にならないのかい。日本語のも結構あるし
>>124 arch linuxのwikiには情報はありませんでした RAIDスレがあるみたいなのでそちらでも聞いてみます CentOS6でxfsで、コピーとかしている時に corruption of in-memory data detected というエラーが出て、マウントが解除されるようになった 原因として思い当たるのは、SATAのケーブルかポートかがおかしくなって I/Oエラーを繰り返していたので、ポートを変えたこと (ケーブルが抜けかけだっただけかもしれない) 大量のI/OエラーとSATAリセットを繰り返し、SATA1.5Gとかになってたり よくわからないが、xfs_repair -L で直るのかもしれない それ以来は症状が出ていない、かも ただの報告
久しぶりにsshfs使ったら結構便利ですな。automountも出来たし。 誰かNFSとパフォーマンス比較とかしてませんか。
\(^o^)/オワタ btrfsだけど数カ月前の時点で virtualboxのクライアントとしてWindows各種あって win2000とXPはOK、win7.vhdとwin10プレビューは起動できないなんてことあった 7と10はext4に移動すれば起動できた 今ならどうなるか知らんけど、まだ安全安心とは言えないんじゃないかな
>>138 virtualboxはけっこうメジャーなアプリだと思うけど そこが対応しきれてないと言いたかったわけで バージョン5になってどうなったかは試してない マウントオプションに、lzo使ってたのでntfsとの相性なのかなとは思った ホストのファイルシステムがbtrfsって事でしょ? ntfsとの相性って意味が分からない ファイルシステムではなくマウントしたファイルパスとかの違いの問題じゃ無いの?
>>141 使用パーティションを全てbtrfsにコンバートした状態で駄目で 空いてるパーティションをext4にフォーマットして そこに移動させて起動した 要約すればこんな感じ >マウントしたファイルパスとかの違いの問題 これの意味がわからんが、マウントもパスも関係無い >>137 読んでよ >win2000とXPはOKだからさ ていうか、btrfs使ってんの? /で使って試してみたらどうかな 他にもgrubで問題あったけど、言ってる人は見当たらない 使ってる人少ないんじゃない >>140 >virtualboxはけっこうメジャーなアプリだと思うけど >そこが対応しきれてないと言いたかったわけで ファイルシステムを何だと思ってるんだ しらねえよ 駄目なんだからしゃあない でも全面的に否定してないよ 使い方があるんだなと思ったよ btrfsはそんなファイルシステムなんでしょ
原因も究明できないのにファイルシステムのせいにすんなよ
そのファイルシステムだとトラブることがある それで充分 原因調べるのは俺じゃない virtualboxはオラクル、btrfsは元々はオラクル
どこ読めば主流となるの >ここ最近は分散システム上ではBtrfsをメインに利用しているユーザが多く, >「Btrfsにはext4のバグは関係ない」と無関心を装う風潮がとくにネット上では強かったのだ まさかと思うけどこれ?
btrfs で virtualbox がー って言うんなら CoW 有り無しくらい書いてくれよ
zfsのRAID10にしてたけど btrfsのRAID10も問題ない感じなのか
ファイルシステムのレイヤで実装されているRAIDのメリットってどんなものがあるの?
ソフトウェアRAIDのことだろう 同一製品の物理ディスクを買い溜めておく必要がなくてハッピー RAIDカードが障害点になることも予備のカードを買い置く必要もない 個人利用だとメリットしかないわ
>>156 個人だと障害時間が長くても基本問題ないだろうから、その点はあまりメリットにならないよ RAIDスレで聞いとくれ。 メリットはハードに依存しない事。
>>155 ZFSとか、btrfsとかの話です。 >>155 ,>>159 Linuxだとブロックデバイスとして見せるLinux mdとかがありますが、RAIDを実装してるレイヤが違いますよね。 XFS、ext4、Btrfsって比べるとどうなの?
メリットは設定が簡単というかわかりやすい mdraid+LVM+ext4がZFSだけでいいからね
------briefチンチンまで読んだ------
ext3コードが削除されたLinux 4.3リリース
WindowsからもMacからもLinuxからも簡単に使いまわせるFSがほしいな(´・ω・`) FAT系以外で…
>>170 ext4ドライバがext3、ext2を読み書きするよ >>171 ありがとう。 ところでext1のサポートが切られたのっていつだっけ? ntfsとかをフリーにしたらそれだけでLinuxに移行するってかなりありそうだからないだろうな
ntfsからブートできるようになったら面白そうなのにな。 一部のディストリはインストールの際にntfsでフォーマットできるからインストール先をntfsにして やってみたことがあるんだけど、インストールは完了するけどブートできないんだよな。 ntfsでlinuxとかちょっと憧れるんだけどな。市販のディスククローンハードとかも普通に使えるようになるし、 ファイルの救出もwindows機に繋げばできるし。
ntfs-3gってバグ内包してないか? 今は直ったのか知らないけど、4~5年くらい前何度かNTFSが壊れた。 秘蔵データが消えた(バックアップは取っていたが)。 それ以降こんにちまで俺はLinuxのデータパーティションはext4にするようにした
>>184 linuxでntfsを常用する奴なんていないだろ >>187 Linuxから(ntfs-3g)で書き込み繰り返していると Windowsのchkdskでエラー出るようになったな NTFSだけのことじゃないでしょ 読み書きするWindowsをMSがグチャグチャいじくりまわしてるわけで Linuxでマウントするなんて考慮するはずもない
ext系がイマイチな現状 結局btrfsが標準になりそう
てかNTFSもバージョン上がってるしね。 いちいち追随していくのも大変たい
>>182 NTFS完全対応のLinuxを発見した。 そのディス鳥の名前は、Cygwin X-Windowも使えて、C言語コンパイラも使える。 Windowsのファイルシステムに再起動なくアクセスできる。 逆にWindowsから再起動なくLinuxのファイルシステムにアクセスできる。 まるで仮想のようにWindowsとLinuxが同時に動くんだ。 感動してしまったよ。 素晴らしいディス鳥だ。 extは予約領域除いても使える容量が少ない ところで/にはXFSとBtrfsどっちがおすすめ?
>>191 ぼくはext4でいく(´・ω・`) btrfsまだこわい(´・ω・`) xfsはあえてext4から移行する明確な優位性が無いと思う
数年前はXFSが一番性能良いって検証結果が目立ってたね 最近は大差ないに変わってきている印象
>>199 環境によってはブートしなくなる。自分が経験した範囲ではubuntu,manjaro,suseあたりで起きる。 インストールの段階で/bootをxfsでフォーマットしちゃうとインストール後のブートでgrubがこけて そこで止まる。 さすがにfedoraでは起きてないけど。 そのへんのトラブルから一番無縁なのはext3か4というイメージ。流石にこの辺のファイルシステムで起動が 失敗したことはないや。 btrfsやzfsではゴツすぎるしリソースも足りんけど、ext4では面白みにかけるからext4よりの新しいやつがほしいな。 lost+foundというフォルダがあるのと、mkfsが非常に遅いので、 ext3、ext4は使いたくないなぁ。
Btrfsって安定性どうよ? >>195 ,204の理由で乗り換え検討中 zfsはfsckの代わりにscrubってのがあるけどね
あれは、fsckとは違う、 やってることは全データに対するパトロールリード。
scrubはアクセス領域に対して自動実行されるから手動でやる必要ないよ
>>210 あれは、ファイルの整合性をチェックする為というより、 システムがちゃんと動いてる事を確認するためにやるもんだと、 思ってる。 っつーことで、うちは35日サイクルで scrubかけてる。 チェックするなら1~3ヶ月ごとだろうね 週一でやるには重い
fsckの流れを邪魔して申しわけないが、 暗号化について質問していいかな? CentOS6のシステムでサーバを組むことになったのだが、 依頼主の要望でディスクは暗号化することになった。 暗号化はインストールの時にチェックを入れれば良いだけなので、 楽勝と思っていたが、半完成のサーバをデモしたら、「起動時に パスワードを入れるのはNG!」と言われてしまった。 WindowsのPCではディスクは暗号化しても、パスワード無しで 動かせるので、Linuxでできないはずがないというご意見。 パーティションの一部を暗号化して、パスワード無しで動かす 方法は判ったが、システムまるごとでの場合が分からず ちょっと困っている。 何か情報はないでしょうか。
ファイルシステムとは関係無いけどログインパスワード入力なしでログインできるように設定すればいいんじゃないの 自動ログインできた気がする
> 215 bootする時にパスワード入力で停止するので、ログインのパスワードと 違う話です。 /etc/crypttabの設定で、パーティションの一部を暗号化して、 パスワードを入れずにまうんとできることは判ったのですが、 rootパーティションの設定ができていません。
そりゃ全部暗号化したらTPMとかハードウェアキー使わんと無理だろ
windowsの暗号化がbotlockerだとしたらUSBメモリに解除キーを 保存してドングル的に使えたはず。
/bootだけは暗号化出来ないと思ったけど最近は違うのかね
そりゃそうだがそれ言っちゃうと暗号化が必要なのは/homeくらいでそれならfstabに書いときゃどうとでもなるけど winのブートローダで複合になれた人たちは納得しないだろう
grub2のcryptomountでブートは出来そうな気はするけど、試したわけじゃないから本当に動くかは知らない
bootに御社の秘密情報がありますか?と客に聞いてみよう 理解できない客ならバイバイが吉
nilfsにしとけばファイルの更新履歴を追ったり、ある時点のファイルを復元したりも可能って理解で良いんかな? ディスクの容量も相応に食うことは了解してる
ファイルシステムの暗号化について、解決しましたので 報告します。 /etc/crypttabにキーファイルを登録して、データパーティションの パスワード入力は回避できましたが、ルートパーティションに 対しては設定が効きませんでした。 CentOS 6.7ではキーファイルを/boot/keyfileとファイルに保存して、 /usr/share/dracut/modules.d/90crypt/installにinst /boot/keyfileと いう行を追加したのち、dracut --forceコマンドで、initramfsを再作成 すると、ルートパーティションでも、パスワード入力無しに起動が できました。 CentOS5、CentOS7でも同じような設定ができると思いますが、 自分の目的のOSバージョンが6.7なので調べてません。 申しわけありません。
まさかと思うけど同じディスクとかじゃないよね? /bootはどうしたの?
暗号化はどういう脅威を想定しての対策なんだろ ノートPCなら盗難とか忘れ物対策で暗号化することはあるけど サーバは物理的に触られた時点で負けじゃね? オンラインでの攻撃には暗号化は意味なさそうだし
>>231 /bootは暗号化してないディレクトリです。 ルートパーティションと、データパーティションを 暗号化するのが要件です。 >>232 HDDが盗まれた時とか、廃棄した時を 想定しているそうです。データセンターに置くので、 全くナンセンスとは思います。が、クライアント様の ご希望は叶えないとね。 >>229 スナップショット使いたいんなら、 普通にbtrfsの方が良いんじゃね? 開発者が殺人犯のファイルシステムReiser4はどうなんや!!!!111111
しかしまだまだ不安定っぽいからな 最近でも壊れたって報告がちらほらあるし
メモリ不足程度で簡単に破壊されるファイルシステムを常用しようとは思わん
独断と偏見 ext 安定 使える容量が少ない xfs extには及ばないが安定 使える容量は多い ブートが実質不可能 Btrfs 安定度はxfsと同じ 使える容量は最も多い SSDならこれで決まりか?
btrfsが他のファイルシステムより速くなる利用シーン ・マルチプロセスでの単一ディスクへの並列書き込みが頻発 ・書き込みデータをまた直ぐに書き換えるデータアクセスが頻発 ・テキストファイル大量コピー、仮想マシンイメージファイル等の圧縮の利きやすいデータの書き込み(透過圧縮有効時)
枯れているという意味での安定でext4を盲目的に選ぶのもどうなの? 見方によればext4のデフォルトorderedよりbtrfsの方が信頼性が高い これは設計上の話なんで埋めようのない差ではある
設計による信頼性の差 実装による信頼性の差 両方を足して運用上の信頼性の差となるから、現状ではbtrfsを選ぶかどうかは難しいところでは? 将来的にはbtrfsの方が信頼性が確実に高くなるのだろうけど
こういう話題になるとbtrfsを必死に勧めてくる奴が湧くけど実際のところ安定面ではextに敵わないからな パフォーマンス面でも他のファイルシステムのほうが勝ってるしな
>>251 叩いている奴の方が実際の所、使わずに批判してる奴ばっかりだろ Webに上がってるトラブってる報告もgentoo、archとかのディストリを使ってるのばっかり btrfsでしかできない機能が必要かどうかで決めればいい 自分は当分zfsでいいけど
>>253 >自分は当分zfsでいいけど はぁ? 自分? 俺はzfsでよくないぞ! なんで俺のことを何も知らないのに勝手に決めつけるんだよ! いい加減にしろ! 市ね! 氏ね! ext4信者って他のファイルシステムを使ったこともないのに 安定性wって言ってる奴ばっかりだろ
一個人が他のファイルシステムを使うかどうかと安定性に どういう関連が
一個人でもファイルシステムぶっこわれたりしたら嫌でしょう
>>261 ext以外のファイルシステムを使ったことなくても 安定性について語っても良いでしょ? という意味です >>262 言いたいことはわかるが、/bootなんざext2でもいい windowsですら、最近はブートパーティションをわけるようになってる(そのままインストールする場合) まああれはvhdブートとかの都合もあるからだが 個人でって話なら、UPS前提じゃなきゃパフォーマンス出ないXFSはちょっとねぇ
>>249 ,250 ext4とbtrfsを合体させたものがあったらいいのにな(´・ω・`) それかもうbtrfsのいいとことって、ext5作るか 安定性っていうならext3使うのが一番では(´・ω・`)
>>265 あまり細かく分けるより/と/homeで分けるのが好みです(´・ω・`) >>269 コード書き直してるからext3と変わらん。 ちょっと質問 ここ見てbtrfs試してみようと思ったんだが、スナップショットはfile単位?それともセクタとか何らかのブロック単位かね? 仮想PC置き場をbtrfsにしてスナップショット使おうと思ったんだが、仮想HDDファイルがでかいのでファイル単位だとメリットないかなと思って
>>273 btrfsのスナップショットはサブボリュームと呼ばれる単位で行われる 厳密には違うけど噛み砕いて言うとディレクトリ単位みたいなもんだと思っていい (サブボリュームをディレクトリとしてマウントすっから) ただ、仮想イメージでcow使うと断片化がえらいことになるからcow切るの忘れないようにな 正直仮想イメージのsnapshot取るならzfs+zvolが一番楽チン 最近の ext4 ってディレクトリ単位の暗号化ができるようになってたんだな 面倒くさそうだけど
>>273 サブボリューム単位での差分バックアップだから、あまりサイズを気にする必要は無くなるんじゃないかな >> 274 「スナップショットは、サブボリュームの特殊な形です。サブボリュームのコピーですが、親や子となるサブボリュームを持ちません。 スナップショットは、ファイルのコピーを作成せず、元のサブボリュームのデータやメタデータを共有します。そのため、領域の節約になり、作成速度も速くなります。 元のサブボリュームとは独立しているため、スナップショットにファイルを追加しても、元のサブボリュームには追加されません。 スナップショットのスナップショットも作成できますが、それぞれ、別々のものとして扱われます。」 とあるんだが、例えば2GBのファイルの特定のバイトを更新した場合、ファイルデータが複製されるのか、特定のバイトのみ書き込まれるのか、よくわからなくて COWだから後者かな SSDに仮想PC置いてあるので断片化は問題ないと思う
>>277 ほいほい、SSDならCOWによる断片化は気にしなくてOKだね、であればTrim対応してるbtrfsの方がzfsよりいいかもしれない それならreflink使った管理の方が楽かもしれんね 例えば サブボリューム@vmを/vmにマウントしてあるとして、 例えば、cp --reflink /vm/hoge.img /vm/hoge2.imgとしてあげればhoge2.imgは最初の時点ではメタデータだけしかセクタ消費せず hoge2.imgに書き込みが行われるとその差分セクタだけディスクが消費されていく hoge2をhoge1にロールバックしたければそのままhoge1.imgをマウントしてhoge2をrmすればいいだけ >>279 FreeBSDとSolarisはね。zfs on Linuxはまだなんじゃよ btrfsとの比較だからzoLとの比較だと思ったけど違ったかな? >>278 btrfsのcow便利そうだな 上の人とは別だけど 開発中のプロダクトのテストを破壊的な操作があるベンチマークでやってて、 ベンチマーク終わる度に必要なデータ入れてる仮想ディスクのイメージファイルをコピーし直してたんだけど スコアは関係無い開発時はcowとそのロールバック機能でやればはかどりそう KVMのイメージをzvolで運用しているが、仮想ゲストを誤って 削除してしまった。その時の復活の呪文を紹介します。 zfs clone storage/kvm@151210 storage/kvm2 /dev/zvol/storage/kvm2というデバイスが作られるので、 それを/mntにマウントして、中のファイルを救出する。 トラブル時に毎回復活の手順を忘れて、スナップショットの リストの前でしばし呆然としてしまうのね。
とりあえず、/home以下をext4からbtrfsに変換してみた まだ、vm置き場やsnapshot置き場のサブボリュームの切り方がしっくりいってないので試行錯誤してみる
やっとファイルシステムっぽい話の流れになってきたな
>>277 1つのデータブロックを、セクタサイズが512バイト * 8 = 4KB とする あるファイルが、100・101・102番のデータブロックを使っているとき、 101番の内容を修正すると、101番にのみ、dirtyの印が付き、 100・102番はそのまま 101番に文字を追加すると、追加した分は、200番に保存されるとき、 ファイルの順番は、100・101・200・102番に変わる まあ漏れの推測です。ファイル更新の前後で、 100・102番がそのままであることを証明できればなあ >>286 btrfsだとその動作で大体合ってる スナップショットが有効だと 最終的な最新ファイルは100,200,102を指し、 過去のスナップショットとして100,101,102が見える 株式会社テクノプロ 新宿支店近況報告会(勉強会) [転載禁止]c2ch.net ワイが梅沢や。稀代のワルや。 仕事せいや、飲みいく奴は辞めてもらうで。 離職率アクセンチュア激務
FreeBSD なら ufs+softupdate>マウントしたままfsck
4.3kernelにMBR破壊などのの不具合があるってことですか
ZFSでpoolを作るときにRAIDZを指定しなかった場合、RAID0相当のものになるのでしょうか? 例えば3つのHDDを使ってプールを作ってファイルを書き込んだ場合、3つのHDDにストライピングされてHDDが1本壊れた場合全く読めなくなる? それとも各ファイル単位とかでHDDに保存されて、壊れたHDDに書き込まれてたファイルだけ読めなくなる。 どっちでしょうか?
んー? copies=2とかにしとけばいいんじゃね?
メモリー2GBのPCでArchでNAS兼用サーバー建てたいんだけど おすすめのファイルシステムありますか? 内蔵HDDが500GBで80GBのHDDをUSBで繋げます(将来的にもっと繋げるかも) 内蔵HDDの一部をシステム、内蔵HDDの残りと外付けをストレージ(NAS等のファイル置場) 今のところシステムパーティションをXFSで他をbtrfsにしようかと考え中です
CentOS 7で内蔵HDDを128GBぐらいのSSDに換装 OSに30GBぐらいでXFSで初期化。ZFSを導入して、 内蔵SSDの残りをCacheとLogにして外付けHDDを マウント。 少々メインメモリーが少ないのが残念だが、 利用者が少なくDedupや圧縮をしなければ 十分な性能のファイルサーバになります。 利点はスナップショットを使った、 バックアップとリストア。ファイルの冗長化が 必要ならUSBに2台以上のHDDを繋げて下さい。
別にオススメのFSはないけどスナップショットはオススメ LVMでもできるけどまともに使えるようになったかな? btrfsに不安がないならbtrfsでいいと思う 消去法で自分はzfsにするけどちゃんと理解してないとあとで大変なことになる
レスどうもです btrfsと格闘してて遅くなりました 手持ちの機器はあれだけしかないのでSSD導入とかはできないです ZFSは使ったことないけどLinuxに向いてなくてメモリー食う印象があってやっぱりbtrfsと思ってて… OSパーティションは30GBのXFSにしました 既存のext4をbtrfsに変換してリサイズとかしてたら破損してしまって修復できなかったので新しいパーティション作って様子見しようと思います 失礼しました
CenOS 5.11でNFSサーバを運用していたのを、 CentOS 7.2に変更したところ、あるアプリケーションで NFS上のファイルが見えないという障害が発生しました。 shellや大半のアプリでは問題ありません。NFS上のファイルは 正常に見え、読み書きできます。 NFSの設定に互換性のフラグなど無いでしょうか? もしCentOS 7.2のNFSを5.11と同じ仕様で動かすことが できれば、問題は解決できると考えています。
zfsのスナップショットのディレクトリをlsで表示される日時が スナップショットを取った瞬間はその日時になっているがしばらくするとある日時に全部変わってしまう このある日時がなんなのかも分からない
>>302 root は no_root_squash でアクセスできるけど一般ユーザ権限で読めないとかか? NFSv4 になって v3 の時と勝手が違うってのがわかってないのかも。 マウントするときにオプションvers=3とかつけてみるとか、idmapd.conf の Domain 設定が揃ってるか確認するとか。 それ以外は selinux 関連かな。 とりあえず permissive モードで動かしたり、 getseboot/setseboot で NFS 周りの設定許可だしてみるとか。 スナップショット消そうとして zfs destroy -r hoge@snapshot じゃなくて zfs destroy -r hoge してしまったらあっさり消えてしまった マウントされた状態でforceオプションもつけてないのにいきなり消えてしまうの怖すぎる
株式会社テクノプロ 新宿支店近況報告会(勉強会) [転載禁止]c2ch.net 俺がしんみょうじだ。稀代のワルだぜ。 仕事せいや、勉強会に参加しない雑魚は辞めてもらうぜ。 雑魚の前では、スーツは着ないぜ。 話は営業を通してくれ。
ここ2年くらいはウチでは特にヤバいトラブルは起こってないよ(´;ω;`)。 シングルとミラーでしか使ったことないのでRAID5/6の場合は知らないが。 ただ多機能とか柔軟性と引き換えに速くはない。 なのでOS用はSSD、データ用もSSHDとか使った方がいいと思う。 スナップショットとか使う場合は特に(`・ω・´)。
なんだかんだでext4が一番バランスが取れてるし安定してる
サイズによると思います。 小規模なサーバーなら1Gぐらいでも 動かせます。もちろん、圧縮や重複排除は 使いません。
>>317 いやそういう話じゃなくてL2ARCの有効性についての話です メモリが2GBのPCでzfsかbtrfsでファイルサーバ作ろうと思ってるけど、どっちがいいの?
>>315 この路線でext5も開発して欲しいよね(´・ω・`) My Late Night ZFS Recovery Adventure VIDEO
ubuntu 16.04 LTSが正式サポートしているZFSだけどブートドライブ利用可能かな?
>>322 gccに-pipeつけるとかじゃダメなレベル? 中間生成物にまで冗長性を確保したいという考えはよくわからんが >>325 いや、単にNFSサーバーを置き換えてみて自分のホームディレクトリをそこに移動したから全てがその対象に。 最初はまあ、少々遅いなとは思ったけど、沢山ファイルが作られるような作業は愕然と遅くなったので 測定してみた。 とりあえずはそういう作業はローカルディスク上でするようにしたけど、出来れば作業環境は サーバー上に置きたい。 >>323 Debian(jessie)ベースの仮想環境パッケージのPROXMOXというオーストリアの ソフトがあります。OSにZFSが組み込まれていて、インストール時にZFS BOOTデバイスに設定することもできました。ちょっと試しに使っていますが、 サポート無しなら無償で使えます。(逆にサポートを契約するとスゲー高い) ということで、LinuxでもBoot可能です。残念ながらインストーラーが BOOTの設定をどのようにやっているかは判らないのですが、BOOTできる 環境は今まさに目の前にあります。 >>326 GlusterFSはその用途に使うにはあまり向かないだけなんじゃないかな… どうしても使いたいなら作業用ディレクトリだけローカルにして、サーバーにはcronでrsync回すとか運用で問題を回避したらどうだろうか >>328 > cronでrsync そういう地味なバックアップは以前からしてますが、今回、自宅システムを構築するにあたってとにかく ハードウェア障害があっても復旧作業が0で環境が継続する事を模索しているところなので。 Glusterは赤帽が製品として売ってから間違いはないだろうと思って、実験もせずにいきなり実機に入れたので 大後悔。 vagrantとか一週間前まで知らなかったけど。 ちなみに色々と二日ほど読んだ結果、cephでやってみようかと 方針変更。 ちょっと複雑さと、あと最初の頃に読んだのでGlusterはCephより早いというのを鵜呑みにしたので全く 考慮に入れなかったけど。 で、またこんなのを見つけたので仮想に実験しました: https://github.com/carmstrong/multinode-ceph-vagrant bonnie++でテストした結果。 仮想環境での大雑把なテストですが、一番顕著なのはファイル作成(Sequential create)のテストだと 思います。 0サイズのファイルをひたすら作るようですが、glusterは一秒間に52個。 4桁遅いです。 Version 1.97 ------Sequential Output------ --Sequential Input- --Random- Concurrency 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP native 1G 1092 99 200265 22 198952 20 5779 99 1050778 66 +++++ +++ gluster 1G 13 10 24071 5 1384 1 5060 93 50705 2 146.4 5 ceph 1G 1059 97 29308 3 31701 3 5116 85 107292 5 705.0 12 Version 1.97 ------Sequential Create------ --------Random Create-------- gluster-client -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete-- files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP native 160 33847 72 3785 90 3447 84 33608 70 2839 84 2227 80 gluster 16 52 0 23640 3 99 0 53 0 1099 1 88 0 ceph 160 44036 43 +++++ +++ 9602 7 36817 34 +++++ +++ 5699 5 ceph, 十分に早いです。
自宅サーバーなら、2台も3台も立てるは電気代が勿体無い。 ※個人の感想です 故障した時に復旧時間を短くしたいなら。同じディスクサイズの サーバーを2台準備して、DRBDでデータを同期させて、同期が 終わったら1台は停めてコールドスタンバイに。定期的にバック アップは起動して、DRBDでデータ同期するというのはどうですか? 故障したら自動で切り替えるLinux-HAという世界もあるけど、 自宅サーバーでそこまでの耐障害性を求める必要はない。 ※個人の感想です
>>333 冗長性が”2”というのはものすごく不安があります。 最初は2で初めて、早々に3で運用したいです。 自宅システムですが、 在宅勤務で仕事してます。 2,3台というのはストーレッジ、コアのサービス用途でPCは全部で12台ぐらいあります。 19インチのラックもあります。 5kwのソーラーパネルがあるので電気代は多分大丈夫。 ESXiサーバーも2台ほどあってVMが常にごちゃごちゃと数ダース。 それらの煩雑なバックアップを(してないのがほとんど)をすべて1つの冗長なストーレッジに統合したい、けど高価なNASは 予算がないし、NASも本体が死んだらしょうがない。なら安価なハードを並列につなげて冗長性を上げて行けられる cephはかなり魅力あります。 ちなみにストーレッジのサーバーに被せてPacemakerを走らせてDNS, DHCP, NFS, Samba等をHAに運用する 予定でいます(いきなりGlusterで手こずって進展してませんが)。 ESXi があって別にバックアップ先があるなら、最初の ESXi がオリジナルでそれ以外がバックアップになる。 バックアップで RAID1 組むなりオリジナルで RAID1 で組むなりすれば冗長性3じゃないの? gluster とかいらないのでは? それとも ESXi 上のローカルディスクやめて NFS 越しに gluster や ceph とかの上の仮想マシンの 仮想ディスクにアクセスさせる気? レイテンシの低さ(応答速度の悪さ)に発狂するかも。 あと、NAS が死んだ場合と gluster や ceph のメタデータが死んだ場合とで天秤掛けることから 始めた方がいいんじゃないか。
>>ちなみにストーレッジのサーバーに被せてPacemakerを走らせてDNS, DHCP, NFS, Samba等をHAに運用する >>予定でいます(いきなりGlusterで手こずって進展してませんが)。 あんまり盛り込まない方が運用が楽になり、信頼性も上げることができるのだけど、 すっかりその気になっているようなので、頑張って茨の道を歩んでください。
>>337 UbuntuBSD使えばいいってことかな しらんけど分散ストレージって故障時にどのファイルがなくなったかってもんなの?
ってレプリケーションもするのか TMPDIRでもしていしとけばいいんじゃねーの
>>340 gluster はファイル単位で分散するモードがあって、データロストするような障害があっても、復旧できる かできないかがファイル単位になる。 他のノードに空きがあるのに、そのノードで空きが無いから、これ以上書き込めませんってことはありうる。 それ以外は大抵ノード間でストライプされるのでデータロストする障害では各ファイル歯抜け状態に なるので復旧は期待できない。 >>337 OSのインストール時にZFSのソースコードからzfs.koその他をコンパイル しつつ、インストールすれば問題ないのかと思っていたが、それほど 単純な話でもないのかな。 Ubuntu16.0.4のBeta2を入手しました。 プレインストールではZFSは入っていませんが、 aptコマンドで簡単にインストールできました。
>>810 バギーだなバター ..:::::::::::::::::::.. .:::::::::::::::::::::::::::. {0}::::/¨`ヽ:::{0} :::::::::::ヽ._.ノ:::::::::: ::::::::::::`ー':::::::::::: .::::::::::::::::::::::::::::::::::. >>345 なんでこんな過疎スレに誤爆してるんだよw 鳴り物入りでデビューしたBtrFS 今も鳴っているか?
zfsは正直未来がないからbtrfsにがんばってもらうしかない
ext4とBtrfsって低スペ機で違いある? Btrfsって動くプロセスが増えるイメージがあるんだけど、カーネルモジュールやめてカーネルに組み込めば変わるかな
lzo透過圧縮とデフラグでHDDアクセスは速くなる
PS4とかXBOX ONEに内蔵されてるHDDのファイルシステムって何?独自?
PS4はFreeBSDベースだからUFSじゃね? XBOXは普通にNTFSだろ
>>354 独自というか既存のファイルシステムに手を入れたカスタマイズだよ ただ暗号化しただけならとっくにDL配信のゲームが割られてる ああそうか、ブッコ抜き対策とかで暗号化されてるのか>ゲーム機のHDD
>>358 さすがにそれぐらいの人は普通にいるよ。 WinBtrfs v0.4 Changelog v0.4 (2016-05-02): Subvolume creation and deletion Snapshots Preallocation Reparse points Hard links Plug and play Free-space cache Fix problems preventing volume from being shared over the network Miscellaneous bug fixes
驚きと言えばlinux版jfsが細々とサポートされていることだなっっ
>>363 そりゃIBMが自社で利用してるからでしょ べつにそんなに悪いfsではないしな。ときどきgrubが見失って起動しなくなるけど。
jfsちょっと愛着があって自宅で5年ばかりNASで運用していましたがノートラブル でした。 (QNAPに乗り換えたので仕方なしにext4を使っています) しかしbtrfsがインストール時のデフォルトのファイルシステムになっていたり xfsが使える鳥が増えたりと昔を知っている人間からすると隔世の感があります
おれもDebianでjfs使ってる。 RHELは仕事で使うから、似ているが違う動きをする可能性があるディストリビューションが欲しいんだよね。 ファイルシステムに限らないけど基本的なコマンドで、オプション次第でバグかもという結果を出力することがあるの。 そんな時は比較してみる。
4TB HDD4台でRAID5でNASを作ろうと持ってるけど、今はFS何が良いんでしょ? xfsかbtrfsあたり?
純粋にNASだけさせるんならfreeNASとかのBSD系でzfsが鉄板じゃね? linuxでないといかん(仮想化とか動かす)ならbtrfsとかmdadm+xfsも候補に入るけど
停電対策できないならzfsでRAIDZ1択だろ RAID5とか自殺志願者か
Ubuntu 16.0.4にはZFSのカーネルモジュールが 最初から入っているので、管理コマンドのパッケージを 追加インストールすれば簡単にZFS環境が出来ます。
ZFSは気軽に始めると地獄を見るので、個人用途では勧めにくい。 サイレントクラッシュの可能性があるとはいえ、mdでのraid5だとHDD 3台から初めて、容量足りなくなったらHDD追加とか気楽にできて楽。
重複排除や圧縮を使ったら、メモリー喰らいの餓鬼地獄だったが、 使わなければ安定している。 ZVOLで気楽にディスクを切り出せるのが、大変使い勝手が良く 重宝してます。
読み取り専用を前提とした場合に速度と安定性、対障害性がもっとも良いのはどれ?
1日1回スナップショット取って1年経ったけど 1回あたりの時間がかなり遅くなってきた
>>380 実験君でなければ、使っている鳥のデフォルトを選べ 最近じゃあext4ではなくbtrfsでデフォなのが驚きっっ suseなんて/homeのパーティション切ろうとしたら「xfsはいかがですか?」だった ので本気で時代は変わったと思った。
アルファ版OSの上に開発中のfsドライバを移植とな? 将来に期待してるよ
期間限定とはいえMSがOSのアップデートを無償化した今ReactOSの未来はあるのか? (しかも互換しているのはWin95だったっけ?)
10のアップデートが無償なのと何の関係が? プロジェクトの性質上ReactOSに現状未来はないと思うが
WindowsからWindowsに移行する人たちが何の関係があると思ってんだろう
大多数の一般人はメーカー製のPC買い換えたらOS代も払ってるし 結局の所いままでと大してかわらん
簡単なはずのLVMの設定ではまってしまった。(CenOS7) /dev/sdbと/dev/sdc、/dev/sddの3つの デバイスを使ってpvcreateができんかった。 犯人はMultipath Device Mapperで、/etc/multipath.confに blacklist { devnode "^sdb" devnode "^sdc" devnode "^sdd" } と書くだけだったが、なんだよお前!!(怒) って感じ。
>>392 LinuxなのにNTFSメインなの? 性能出ないってベンチあっただろ >>396 3TBとかexFATなんてヤダヨ 仕方無くbtrfsに逝ったけどね Windowsとの相互運用なんだろう、でなきゃNTFS使うメリットなんて無いし Windows用のfsドライバってあるみたいだけどちゃんと動くの?
ext3用のやつは読むのはちゃんと出来た。 ntfsにlinuxぶち込んでgrubから起動ってまだできないんだっけ?お手軽にできるならやってみたい気もする。
>>401 ブート領域だけは無理てかはなから対応考えてないんじゃね? 古典的にはwinだってFATだけだし 最近じゃどのOSもGPT対応よね Linuxカーネルはドライバ仕込むなりでどうとでも読み込めるけど、問題はブートローダがNTFS読めるかどうか ブートローダが扱えるFS上にさえあれば、後は外付けなりのNTFSに/置くとかも不可能じゃない 今のgrubってNTFS読めたんだっけ?
古の時代より/bootは専用にパーティションを切るものなのじゃ
grubはNTFS読めるっていうことになってるね VMで試したら、initrdまでは普通に動いた
BIOSの制約があり、boot時に読み込まれるファイルは ディスクの先頭に置く必要があって、bootパーティションは sda1に作っていた。 ファイルシステムをLVMや暗号化する場合、それらのカーネル オブジェクトを起動時に読み込む必要があり、LVMや暗号化の 影響を受けない別パーティションにbootファイルを置く。
やや語弊があると思ったので書かせてください。 ディスクの先頭(MBR)に置く必要があるのは grub や lilo であって、/boot は先頭付近であれば hda1/sda1でなくても OK 。 BIOS の実装によってHDDの後ろの方が読めないものがあったので必然的に前の方に置く必要があった。 また、別に/bootを切らなくてもOKだが、/boot切らずに/だけでかつ、/の領域が「HDDの後ろの方が読めない」ルールに 跨る場合、kernelやinitrdが場合によって読めなくて起動しない可能性が発生する。 だから/bootを単独で切ってこの問題が発生しないようにする。 カーネルオブジェクトの話は大体あってる。 カーネルオブジェクトは/lib/modules以下にあるが、/をマウントするまではそこは読めないのでinitrdに/をマウントさせる ためのドライバやツール、LVM周りの設定などが入っている。 SCSIカードのドライバがinitrdに入っていなくて、「なんでgrubで読めてたHDDが/をマウントする時に読めないんだ」 という理解できない事態に泣かされるなんてことも。
もう一つ。 liloやgrub(stage1.5 を使っていないもの)は、kernelやinitrdの位置をディスクの位置だけで覚えて いて、ファイルシステムは見ていない。 ext4などは内部で自動的にデフラグするので/に置いておくと、kernelやinitrdが勝手に移動されて 起動しなくなる可能性がある。 もちろん/bootを別に切っていてもそれは発生する可能性があるし、 実際2度程発生した現場を見たが、/bootを別に切って置いた方が発生確率は断然低い。 ※ RHEL 5でstage1.5を持っているのにddでHDD先頭付近を回収したらstage1.5がインストールされて いなかった。 RHEL 5 を新規でインストールしても stage1.5 を持っているのにインストールしない 現象が。 これらは全て昔話。 いまはBIOSじゃなくてUEFIなので、/boot/efiを個別に切らなきゃいけなくて、 しかもvfat限定。 grub2 になってファイルシステム認識するので以前のようにディスクの位置だけ で覚えている訳ではないです。
stage1.5 の話して stage2 どこ行った...orz 訂正します。 × kernelやinitrdの位置をディスクの位置だけで覚えていて、ファイルシステムは見ていない。 ○ stage2の位置をディスクの位置だけで覚えていて、ファイルシステムは見ていない。 × kernelやinitrdが勝手に移動されて... ○ stage2が勝手に移動されて...
macOSで採用されるAppleの新ファイルシステム「APFS」 Apple File System Guide - Introduction https://developer.apple.com/library/prerelease/content/documentation/FileManagement/Conceptual/APFS_Guide/Introduction/Introduction.html ◆スナップショット&クローン ITニュースサイトのArs Technicaは、面白い要素として「スナップショット」と「クローン」を挙げました。 「スナップショット」は、システムの任意の時点での読み込み専用インスタンス(バックアップ)を作成する機能で、Windowsでいうと「シャドウコピー」に相当します。 スナップショットの状態からファイルシステムに変更が加わると、変更分は差分として保存されます。OS Xにあった、Macのバックアップを作成したり、 そのバックアップからの復元を行う「Time Machine」機能を刷新して置き換える存在だとのこと。 ◆タイムスタンプ タイムスタンプ処理は秒単位からナノ秒単位となり、より細かくオペレーションの順序を追えるようになります。 ◆クラッシュ保護 ファイルの書き込み中に電源を喪失してもファイルが破損しないように保証する「クラッシュ保護」が追加されます。 ◆暗号化 暗号化機能としては「FileVault」がありましたが、これを強化し、「暗号化なし」「単一キー暗号化」「マルチキー暗号化」の3種類のオプションが選べます。 これによって、「暗号化など気にしない」という人から「誰にも一切の秘密を知られたくない」という人まで、いろんな需要がカバーされるとのこと。 ◆フォルダーサイズ 「ファスト・ディレクトリ・サイジング」と呼ばれる、フォルダーサイズ算出の高速化が行われています。 ◆スペース共有 複数のボリュームを作成するにあたって、ストレージ内の同じチャンクを用いることが可能となります。Ars Technicaはこれを「スペース共有の概念」と表現しています。 例えるなら、ディスク容量が1TBであっても、チャンクを共有することで、4つの1TBのボリュームを置くことも可能になるというもので、これによって、ボリュームサイズを変更することなく物理ストレージの追加が行えるとのこと。 なお、APFSはOS X 10.12(macOS Sierra 10.12)から開発者プレビュー版が登場し、2017年に公開予定です。 Open Source An open source implementation is not available at this time. Apple plans to document and publish the APFS volume format when Apple File System is released in 2017. 微妙な書き方
アップルってOSSの恩恵受けてるくせに 全然OSSに協力的じゃないのな
IBM >> MS >> ORACLE >>>>>>>>> Apple >> GNU陣営 米個人の感想です。
>>417 cupsなんかはわりと貢献してくれたほうじゃね? mdnsresponderとかはくそみたいなやつだったけど。 cupsとwebkitとllvmがあるからLinux民はだいぶリンゴの恩恵受けてるだろう ちょろめで快適にブラウジングできるのはAppleのおかげ(起源はKDEのKHTMLで今はblinkになってるけど)
|┃ |┃三 ,ィ, (fー--─‐- 、、 |┃. ,イ/〃 ヾ= 、 |┃ N { \ |┃ ト.l ヽ l ガラッ.|┃ 、ゝ丶 ,..ィ从 | |┃ \`.、_ _,. _彡'ノリ__,.ゝ、 | / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ |┃三 `ゞf‐>n;ハ二r^ァnj< y=レヽ < 話は聞かせてもらったぞ! |┃. |fjl、 ` ̄リj^ヾ)  ̄´ ノ レ リ | 人類は滅亡する! |┃三 ヾl.`ー- べl,- ` ー-‐' ,ン \____________ |┃ l r─‐-、 /:| |┃三 ト、 `二¨´ ,.イ | |┃ _亅::ヽ、 ./ i :ト、 |┃ -‐''「 F′:: `:ー '´ ,.' フ >ー、 |┃ ト、ヾ;、..__ , '_,./ /l
Cephのベンチマークをfioでやっているのだが、ランダムリードの 性能が滅茶苦茶よくて、ローカルのディスクの1.5倍から2.0倍の IOPSが出ている。 Cephのrbdドライバを使い、/dev/rbd0をExt4フォーマットで 初期化して、/cephのマウントしたのち、/ceph内でfioを動かしてます。 fioのパラメータでnon-buffered I/Oに設定しても、rbdの キャッシュが有効になっているので、Cephだけ良い結果になり ます。 ローカルストレージとの比較を取りたいので、fioのパラメータに ついて何か情報は無いでしょうか。
RAID5/6はまだまだあかんね RAID0/1/10は問題ないけど
大規模にも対応という意味では商用のIBMのGPFSかなぁ。 dedupやCOWまで考えるとZFSだろう。 GPFSのコンペ製品にあたる?lustreがext4ベースからZFSベースに移ろうと しているあたり、そこそこ安定してきているとみていいんじゃないか? RHEL/CentOSで手堅く運用する分にはXFS一択。
Debian Jessie(カーネルは3.16)でXFS v5って安定してるのかな。 metadataがcrc32で損傷修復できるようになってるらしいんだけど xfs_repairとかxfs_fsrはちゃんと動くのかな?
>>435 実運用でDedup使ってるところなんてあるのかねぇ。 メモリ要求量多すぎて、テストならともかく実運用では使いものにならないってのが素直な感想。 そもそもZFSは64GBくらいが最低ライン そういうシステム向けに作ってある
4TBをRAID5で4台(12TB)の環境だとdedup使うとメモリ60GB要るんだよね。 流石にむりぽ。
ていうか12TBもdedupするデータってどんなデータだよって話 フツーの個人で使うNASに入ってるようなデータをdedupしてもほとんど意味ない あとついでにL2ARC使ってる人居ると思うけどこれもメモリ膨大に詰んでないと速くなるどころか逆に遅くなる
仮想マシンのせてるけど重複排除ほぼ無駄で無効にした あらかじめ重複ブロックの発生が確定している用途でなければ無意味 空きメモリ64GB以上あるけどL2ARCもZILもSSD使っても速くならなかったし クラッシュ時のリスクが増えただけだったのでこれも無効にした この辺の機能はプランニングとチューニングを詰めて使わないとほとんど効果ない印象 でもRAIDZとスナップショットは大満足なのでもう他のFS使う気しない
まぁ、何を期待してるのかにもよるだろうな 書き込みとか削除とか、色々あるんだし
とりあえずbtrfsでdedup試してみたい。オフラインでいいから
zvolでdedupを試したことがあるが、 とりあえず、仮想イメージのクローンを作ると、 使用ディスクの容量が減らず感動できた。 クローン先のVMに変更を加えると、どんどん ディスクの容量が減るのもビビる。
>>444 それってCOW(Copy On Write)であってdedupではないと思っていたのですが違います? dedup はバックアップソフトでは有効そうだけどファイルシステムにはコスト高なんかな。 >>445 学が無いもので、違いがよく判りません。 別の例で、VMの仮想イメージをddで作成するとき、 dd if=/dev/zero of=/vmdata/system.img bs=1M count=4096 とかやると、4Gのファイルが見えているのに、ディスクを 消費していないのがdedupだと思っています。これもCOWなのかな? >>446 それは勝手にスパースファイルにしているだけ。 参照元が無い以上 dedup でもCOWでもない。 COW はファイル作成時点で参照元が明らかな場合で、dedup は書き込み終わった段階で 同じファイルを探しにいくってイメージだなぁ。 調べてみたが、cp コマンドでオプション指定しないと COW にならないみたい。 ZFSで誤ってpoolの乗っているパーティションをいじってしまい、zpool importでインポート出来なくなったんだけど、もう復旧は無理ですか?? 当該デバイスファイルをstringsすると、デバイスファイルの先頭に、 pool_guidや見えなくなったpool名の文字列が見えてくるんだけど。
再起動したら、奇跡的に復活したことがある。 ダメなら諦めるしかないと思います。
間違って消したプールを復活させるコマンドがあったはず 忘れたけど
ん? mirrorなりRAID-Zなり冗長化で組んでれば、 HDD1つのpartitionいじったぐらいで、import出来なくなるなんて事は無いはず。 元のpoolの構成書かれてないんだが、なに組んでんの。
JFSとXFSとNILFS2って比較するとどうなの? XFSはエラー検出があるけど、他の2つは検出や訂正ってあるのかな
XFSのエラー検出が如何なる物かしらんが、HDD/SSDの故障パターンって時代時代で違うから 今時の機器に対して有効かは疑問があるなあ。 その手の故障パターンは RAID コントローラやRAID 装置側でサポートするもんだと思う。 特に、HDD単体では修復不可能でもRAID全体では回復可能なエラーの修正や、スクラブする タイミング等はRAID装置側でしか対応できない。
exFAT-FUSEってNTFSと比べて安定性どう?
現在3TBのHDD1台をzfsで運用しています。 これに1TB+2TBのHDDをraid0でストライピングして3TBにし、 既存の3TBの環境にミラーリングすることは可能でしょうか。 例; sdb(3TB) mirror sdc(1TB) sdd(2TB) 一度3TBを1TBと2TBにパーティション分割して以下の構成にするしか 方法はないでしょうか。 例; mirror-0 sdb1(1TB) sdc(1TB) mirror-1 sdb2(2TB) sdd(2TB)
sdbの3Tに合わせて、sdc、sddも3TのHDDに すれば、合計で6Tのraidになると思うのだが。 昔ベンチマークをとってみたら、 書き込みは3台中2台への書き込みになるので約2倍 読み込みは3台同時に読み込むので約3倍になった 記憶がある。 SSDを使ってLOG領域を追加すると、書き込みは更に 速くなる。
>>458 出来ないはず。安物カード買えばいいんじゃない? zfsってインポート中にミスってフォーマットしちゃっても、 エクスポートするまでは普通に操作できるんだな。 おかけで助かったわ
zfsやbtrfsはスナップショットをsend/receiveで送信できる機能があり、 これを使ってネットワーク越しに別媒体へ差分バックアップを取ろうと思っているのですが、 データが正しく送信できていることはどうやって確認したら良いでしょうか。 以前NICの不具合で数百ギガバイト程度送信すると、一つくらいファイルが化ける 現象にあったことがあり、現在は
zfsやbtrfsはスナップショットをsend/receiveで送信できる機能があり、 これを使ってネットワーク越しに別媒体へ差分バックアップを取ろうと思っているのですが、 データが正しく送信できていることはどうやって確認したら良いでしょうか。 以前NICの不具合で数百ギガバイト程度送信すると、一つくらいファイルが化ける 現象にあったことがあり、現在は"rsync -ac"でバックアップを取っています。 ドライバやハブの不具合でデータが化けてしまった場合、 再送してくれるような仕組みがあったりするのでしょうか。 それとも、結局は各ファイルのハッシュを送信前と送信後のファイルシステム それぞれで比較するくらいしかないものなのでしょうか。 すいません。途中で送ってしまいました。
>>465 スナップショットが転送先に生成されればうまくいっている。 SSHはTCPだから化けないと思うが。 ブロック毎にチェックサム取ってるからなぁ>zfs fletcher4 とか sha256 とか
>>466-467 ありがとうございます。 つまり既存データの読み書きだけでなく、zfs/btrfs receive時でも ハッシュ値でのチェックをしているから、エラーがあったら発見してくれるという事ですか。 >>466 >>465 では主題と関係ないのでNICの不具合と書きましたが、 実際は、遊びでLAN内であるPCのNICをbonding(balance-alb)してみた時に、ifconfigでerrorsだかdroppedだかが見られたので、 そのPCのsambaの共有ディレクトリ宛にrsyncでファイルコピー/チェックをしてみたらファイルが破損していたという事です。 (bonding化以前では特にエラーが無かった/memtestでもエラーが無かったので原因を決めつけていました) 言われてみればTCPなら再送される筈なので原因は別だったかもしれません。 Cephの評価をしているのだが、ceph.comにアクセスが出来なくなって ceph-deployが動かない。 いつ治るのやら。
>>470 OSは何をえらんだ? どれが一番Cephと相性がいいんだろう? >>470 Anonymousか誰かに最近クラックされたんじゃなかったっけ >>471 REDHAT社のストレージパッケージとして サポートが受けられるので、商用利用ならRHEL7。 馬鹿高い費用を払うのが嫌ならCentOS7で。 うちは評価段階なのでCentOS7でやってます。 海外(ヨーロッパ)はOpenStackも含めて、Ubuntuを 使う事例が多いみたいですねぇ。 >475 ほんとうなの? DreamComputeとCeph.comの関係が 見えないが。Ceph.comのWEBサーバがこのプロバイダで動いて いるなら笑い話なのだが。
>>476 そう、ceph.comをホスティングしているところ >475 レス感謝。これは飲み会の爆笑ネタですね。 Cephの連中が居ないところで使わせていただきます。
検証の答え出たじゃんw Cephのせいでceph.comが落ちる程度の可用性なので使ってはいけない。
システムなので不具合が出るのは仕方がないのが、 その後の復旧に1日以上かかっているところは大減点の評価。 Cephの構築の事例では1000サーバー以上をつなげて、ペタ バイト級のストレージも運用できるらしいが、これじゃ安心して 使えない。
ハードウェアを固定しない理屈だけで構成された分散ストレージは大体こけるね。 ハードウェアの故障のパターンのトレンドを追い続けることができ、かつ新しい製品に追随できる製品だけが生き残るって感じだわ。 何年経っても NetApp と EMC 以外名前を聞かないし。 Ceph とか GlusterFS 使えるのって正直消えても良いデータをそこそこの速度でアクセスしたい場合だけでしょ。
Cephのクラスターの障害で、OpenStackのサービスが 停止したのかなぁ。Cephの方もいろいろと冗長化や 障害対策の仕組みで、最悪の状態にならないように 設計してあるはずだが、詳しい状況が知りたい。
>>469 NIFS2 か、ちゃんと調べてみようとは思ってるんだが。 想像だけで言っちゃうと、小容量で書き込みをコントールしたい用途 - microSD 用のFS - なんかには最適ではないかと 。 小容量というのは、多分オンメモリの量が相対的に多い。巨大容量は不向きかも知れん。 逆に COW FS で オンメモリの量が多いと、書き込みがかなり綺麗になる。 まぁちらっと見ただけなんで、想像なんだけどね。 28 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:02:02.19 ID:S/EN+T+70 経理、いちやまを解雇しろ 29 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:02:24.91 ID:S/EN+T+70 営業、わたなべを解雇しろ 30 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:02:59.66 ID:S/EN+T+70 インフラ第二支店のかわさきを解雇しろ 31 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:03:31.07 ID:7Rcg+xLX0 はい、了解 32 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:06:24.42 ID:S/EN+T+70 インフラ第二支店のかわさきを解雇しろ 33 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:32:25.63 ID:7Rcg+xLX0 OK 34 :名無しさん@そうだ登録へいこう:2016/10/08(土) 00:42:00.49 ID:S/EN+T+70 >29 こいつは、許せねえ。 川越在住だから、家に石投げこんでガラス割ってやれ
WindowsでZFS使えるようにならねえかなあ みつを
PS4内蔵HDDのファイルシステムって何使ってるんだ
ZFSが出て事実上ファイルシステムの進化は止まっちゃったね。 もう出尽くしたかな
分散ファイルシステムとかモバイル向けとか組み込み向けの方はまだ伸びしろありそうな気がする ZFSを超えるファイルシステムなんてアイディアすら湧かんけど、いつかは出てくるんだろうな
zfs自体はよくできてると思うけど ライセンスに難があるしraidzはディスク追加できないL2ARCは役に経たないし遅い など個人的に不満なのでこの辺をbrtfsにがんばってもらいたい
btrfsは使いにくすぎてコレジャナイ感がハンパない それに問題があるのはGPLだと思うが
DragonflyBSDのHAMMERFSいいと思うんだけど(イメージだけで言ってます)、Linuxにも入らないかな。
>>496 IDでの管理、fstabも運用しなきゃいけないとことか f2fs心配になってきた 火が出るんじゃないかと、、
ミッションクリティカルな分野用にロジックボムを仕掛けておけばあるいは…
Reiser4はいつになったらカーネルに取り込まれるの?
zfs-fuseをCentOS6で使っています。 みなさん、zfsはメモリをよく消費するといっていますが、 自分のところは、200GBほどのZFSプールの運用で、3コアで2GBメモリ環境なんですが メモリは1GBほど空いています。 消費するとはいっても、使えるだけ全部使うわけではないってことでしょうか。
プールのサイズが大きければ、メモリーの量は多くなるし、 Dedupや圧縮を使うと更にメモリーが必要になるよ。
>>506 レスありがとうございました。 プールの量にただただ比例すると考えると、絶対量がわからないのですが、 ZFS-FUSEのみで搭載メモリをほとんど消費してスワップが増えるようなことになるのかなあ。 >>508 非常に参考になりました。 2000GBプールでそれを全部使用した場合(64KB/blockとして)、メモリーは10GB必要らしいので、 私の場合のプール200GBなら、十分の一なので、1GBメモリーが食われるということがわかりました。 使われれば使われるほど、メモリーが消費されるのは怖い。 外部ディスクにその管理テーブルを置けるらしいので調べてみたいと思います。 ありがとうございました。 fuse使ったことないけどメモリの使用量は制限できるでしょ ていうかfuseじゃないと駄目理由があるの?
>>510 CentOS6でお手軽にzfs-fuseを使ってきて、数年来問題がないので、 今回も確実な方法を選択しました。 でもいわれてみれば、ネイティブzfsもCentOS6で試してみたいなあ。 ネイティブzfsだとどうして快適になるのかな。 快適になるならぜひトライしてみたいです。 fuse版は遅いと以前読んだけどそれとは違うやつがあるのかね
>>512 今つかっているのはこれです。 ベンチマークは取ったことはないです。ファイルサーバや、メール程度の利用です。 rsyncコピー動作中はCPUはコア丸ごとひとつ食います。 Name : zfs-fuse Arch : x86_64 Version : 0.6.9 Release : 6.20100709git.el6 Size : 4.1 M Repo : installed From repo : epel Summary : ZFS ported to Linux FUSE CentOS 6上での、zfs-fuseなんですが、今日ダメになってしまいました。(1年以上問題なくがりがり動作してくれていた。) マウント先ディレクトリにアクセスできなくなり、データを喪失しました。サイズは150GBほどで、パーティションを丸ごとプールにしていました。 # df -h df: `/home/mount': Transport endpoint is not connected df: `/zfspool': Transport endpoint is not connected service zfs-fuse restartでもダメでした。 こんなことは初めてです。ちょっと使うのが怖くなってしまった。
>>519 それだけじゃプールが壊れてるのかわからんけど USBメモリでFreeNAS起動してインポートしてみたら? >>520 linuxでnative zfs使って手今のところ問題ないけど なんか既知の問題とかBSD系のメリットってあるの? >>521 SSD併用してる場合はtrim対応してるのが地味に便利ではある ZoLのtirm対応も最終テスト段階には入ってるんだけど、もうちょいかかりそう(nexentaから移植してきたコードを二年越しぐらいでテスト中) 今はそれ以外ではZoLでも極端な差はないけどね でもあえて「一択」と宣言しちゃうんならsolaris系じゃないのと愚考 >>521 レスありがとうございます。 一日置いて、今日、service zfs-fuse restart をしてみると、 Syncing disks [ OK ] Unmounting ZFS filesystemscannot open '/dev/fuse': invalid dataset name [WARNING] Stopping zfs-fuse: [ OK ] Syncing disks again [ OK ] Starting zfs-fuse: [ OK ] Immunizing zfs-fuse against OOM kills [ OK ] Mounting zfs partitions: [ OK ] と、表示されて、マウントが成功しました。以上の結果から回復した様子が確認できます。 昨日も同様に試したはずなんですが、回復しませんでした。 zpool status を表示させましたが、異常はありませんでした。 昨日と、今日とでコマンドの結果が異なるのはよくわかりません。 いま、zpool scrub を実行中です。 >>522 すまんSolarisが現行だったね 単に安定性や信頼性の面で不安があるってだけです btrfsのサブボリュームってどのぐらいの粒度でつくってる? 自宅鯖だしroot、homeとsnapshotぐらいでいいのかなーと思ってるんだけど これ便利だぜってレイアウトある?
>523 操作ミスでなければ、日によってマウントできたり できなかったりというのはあり得ないので、外付けUSBの HDDなり、クラウドサービスなりにデータを退避して、 そのシステムは窓から投げ捨てる事を勧めます。
>>525 そのぐらいでいいと思うけど、データベース(mysqlとかpostgreとか)入れる予定があるのなら その領域だけはcowの対象外にしておくべし、かな DBファイルのある場所をcowにしてしまうとえらいことになるんで >>526 VPSなので、投げ捨てられません。 scrubしてみてエラーがなければ、大丈夫とみなしてもよいでしょうか。 海外の安VPSだと突然/があるsdaがroになったりとかしてびっくりする
>>529 自分は国内のものです。 I/O性能が極端に低下すると、zfsのマウントが外れたりするんでしょうか。 ありえないな。 遊びでUSBディスクを刺して、 ディスクの増設や、取り外しの確認を したことがあるが、速度の遅いUSBメモリーで 混ぜても問題なかった。
PIO1に遊びで設定して試しても特に問題感じなかった記憶がある
mdadmならフロッピーディスクでRAID作れるぜ
ていうかzfs-fuseはnativeがない時代の物だし更新もされてないだろ
>>531-532 レスありがとうございます。 どうして急にマウントが解除されてしまったのか疑問が残ります。 >>534 zfs-fuseって、zfsネイティブがライセンスの問題でLinuxカーネルに統合できなかったためにその代用としてあるものだから、 Linuxでzfsを手軽に利用するには最適なのだと考えていました。 ただ更新もされないとなれば心配だなあ。そういえば、たしかバージョンはまだ1.0にもなっていなかったと思います。 Linuxカーネルからzfsが外されているので、カーネルのアップデート時に不具合が生じそうで怖いです。 その辺りの知識も経験もないので、ネイティブzfsをLinuxで使うことを躊躇してしまいます。 zfs-fuseは数年来同様にして使ってきましたが、今回の件以外ではマウントが勝手に解除されてしまうようなことはなかったです。 いずれの場合もデータが壊れるようなことはありませんでした。 ちょっとググってみたんですが、今は、カーネルのアップデートのたびに、 再構成をしなくてもzfsネイティブが使えるようになっているみたいですね。 ちょっと勉強してみます。ありがとうございます。
zol使ってるけどホスト暗号化してzfsマウントしたままカーネルアップデートすると再起動不能になってまいった
少しメモリーの多いPCにVirtualBoxでもいれて、 仮想環境でCentOSとZFSの動作確認して下さい。
>>537 カーネルアップデート時に、動的にモジュールをセットする仕組みでインストールしたネイティブZFSのことですか? そういう話を聞くと不安だなあ。 zfs-fuseなら実績があるので、安定動作のためにはまだしばらくはfuseの方がよいのかもしれないなあ。 >>538 長期間にわたって、アップデートも含めて、テストしないと駄目ですね。 俺のはメモリのせいじゃねーぞ 構成壊れて復号できないだけ
そもそもをいえばfuseに関わらずlinux上でのzfsに実績なんてない zfsガチで使ってる人たちは専用のストレージサーバー建ててんだろ
自分は壊れてもかまわない個人用パソコンだから新しいことを試しでできる waylandなんか何の意味があるのかわからんけど使ってるし
Linuxだけどbtrfsのための chattr +C ってなくね?
株式会社テクノプロ 新宿支店近況報告会(勉強会) [転載禁止]c2ch.net 俺がしんみょうじだ。稀代のワルだぜ。 仕事せいや、勉強会に参加しない雑魚は辞めてもらうぜ。 雑魚の前では、スーツは着ないぜ。 話は営業を通してくれ。
NTFSでUSBメモリ持ってこられるよりはましになる
>>552 NTFSよりは安定しているのか Windowsとの共有パーティションにFAT32を使いたくないので迷っていた 安定じゃなくて面倒くささね NTFSはユーザー管理をまともにやろうとするから読み出しは良くても書き込みが怖い
FAT32の限界は、1つのファイルで、4GBまでだろ 普通、単独で、こんな大きなファイルを作らないから、FAT32で十分
>>555 書き込みが怖いとはどういうこと? linuxも、ntfsを使えるようにできるよね。 samba経由でbtrfsに書き込んだファイルにローカルプログラムからアクセスすると 書き込んで数秒間Permission errorだの起こして読めないのはなんでなんだぜ?
btrfsつかってる du /.snapshots/ したら 8172177468 つまり 8G強 もある。 これって 増え続けるの?
自己解決 Disk Space Consumed by Snapper Snapshots だった。
>>562 |┃ |┃三 ,ィ, (fー--─‐- 、、 |┃. ,イ/〃 ヾ= 、 |┃ N { \ |┃ ト.l ヽ l ガラッ.|┃ 、ゝ丶 ,..ィ从 | |┃ \`.、_ _,. _彡'ノリ__,.ゝ、 | / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ |┃三 `ゞf‐>n;ハ二r^ァnj< y=レヽ < 話は聞かせてもらったぞ! |┃. |fjl、 ` ̄リj^ヾ)  ̄´ ノ レ リ | 人類は滅亡する! |┃三 ヾl.`ー- べl,- ` ー-‐' ,ン \____________ |┃ l r─‐-、 /:| |┃三 ト、 `二¨´ ,.イ | |┃ _亅::ヽ、 ./ i :ト、 |┃ -‐''「 F′:: `:ー '´ ,.' フ >ー、 |┃ ト、ヾ;、..__ , '_,./ /l zfs-fuse(CentOS6、yumで導入したもの)で、圧縮、重複排除機能をオンにしてつかっていた。 これで二度も、ディレクトリマウントポイントから勝手に外れるという不具合に遭遇した。 1回目は、マウントポイントが空になったことで、データの喪失かと思って、バックアップからのリストア作業を行った。 このときは冷や汗をかいた。 しかし、service zfs-fuse stopしてから、数分から数時間おいたあとで、再び、startとすると、 元に戻った。 二回目は、またかと思って、上記の再マウント作業を行うと案の定、回復した。 どうして、ダウンしてしまうのかわからない。 他のシステムでも同じOSでzfs-fuseをつかっているがそんな不具合に遭遇したことはない。 一つ違うのは、同時にzfs-fuseのファイルシステムに対して、 コピー、削除、移動などのアクセスが頻繁(samba経由で10セッションほど)にあること。 これがダウンを引き起こしたのではないかと思ったが、そんなに安定していないんでしょうか。 他のシステムでは大量のファイルのバックアップを毎日行い、 コピー、削除(ただし移動はない)したときにはそういう不具合は発生したことがない。 移動に弱いとかあるのかな。
「コピー&chmodする」スクリプトの走っていないマシン(同様に、zfs-fuse)では、 これまで4年ほど連続運転しているが、大量コピー、削除でも不具合は発生しなかった。 同時に複数chmodすると発生するバグなのかな。
プロジェクトとメンテナが消滅してから数年経ち最終更新がいつなのやらって状態のFUSE版とか罰ゲームか何か?
低スペ機(RAM512MB、Pentium3)のFSって何がいいかな? メモリ使用量よりCPU使用率を低くしたい JFSがCPU使用率が低いって聞いたけど実際どうなの?
あぁ^~NTFS卒業したい つってもWindowsだからこれ意外まともに使えるファイルシステムがないというジレンマ
ext3がパフォーマンス最高なんじゃないの? XFSはメモリ喰いなので
メモリ不足で壊れはしないだろパフォーマンスが落ちるだけで
XFSはメモリが少ないと、fsck.xfsがちゃんと動かなくてな 延々と修復が動き続け、仕方なくリセットするとまた fsckの繰り返し。あるいはディスクが昇天してしまう。 最近は改善されたのかな。
Windowsってまだあったのか。 昔はGUI的な意味があっただろうけど、劣化しまくってLinuxに完全に抜かれてるし、 使う必要性なんてミジンコほどもないやろ
リソースを潤沢に確保できる時代だから パフォーマンスはXFSが一番だろうね
ext(特にext4)って管理領域を0%にしても使える容量が少ないよね 1TBのHDD全体をext4にフォーマットした直後で2桁GBが使用済みだったりする
>>567 CentOSでfuseのようにお手軽にzfsが使えるようにするものが他にない。 btrfsはまだまだバグが多いらしいし。 重複排除、圧縮機能がほしい。 XFSってバグ修正後はメモリが1GBも無いようなPCでも快適に動くの?
>>578 zfsonlinuxの何がダメだと言うんだ btrfsでデータ消失したことなんかないわ 不満といえばファイル削除が糞遅いことと、 smb経由で書き込んだファイルにソフトからすぐアクセスするとパーミッションエラーやら吐くことだな 書き換え時のテーブル管理がウンコなのだろう だからといってメンテ性ゼロのzfsとかイラネ あんなアホみたいなコマンド群覚えてられるかっつの
btrfsとzfs逆に読んでても気づかなかったレベル
>>580 システム(カーネル)のアップデートを行つとき、zfsネイティブだと問題が生じる。 それを回避する方法も上の方のレスにはあったが、完全ではないらしいから、 zfsならfuseがいいなあと。 epelからインストールできる現行バージョンのzfs-fuseでも、chmod chownさえしなければ、 問題は起きたことない。 結局万一のサルベージ考えるとext4なんだなあ 倉庫用ならfdupsでハードリンクにしとけば事足りるし
SynologyのbtrfsとLinux RAIDのハイブリッド実装がいいとこ取りかも。
ext4 on LVMでLVサイズ自由自在が便利だったのに、XFSだとLV縮小するときは作り直すしかないんだよね?
すまん、言葉足らずだった。LVMが関係無いのは理解してる 個人的にLinuxで環境構築するときはLVMがデフォルトになってるから、ext4のときは良かったのに、XFSだと不便だな、というだけの話
何言ってんだか どっちも前からあるんだし使いやすい方使えばいいだけだろ
zfsでz_rd_intみたいなプロセスが大量に出るんだけどこれなに?
あーbtrfsぶっ壊れた。直し方も分からん… % btrfsck /dev/sdb root 5 inode 18446744073709551604 errors 2000 root 5 inode 18446744073709551605 errors 1 found 2326089822208 bytes used err is 1 total csum bytes: 1953425020 total tree bytes: 3768508416 total fs tree bytes: 1113550848 btree space waste bytes: 607047087 file data blocks allocated: 8606287585280 referenced 2315255730176 Btrfs Btrfs v0.19
Linux3.2では btrfs-restore 使えないの? 参ったなこりゃ…
壊れるとスライス丸ごとマウントできないからscrubできないところがきつい logをしっかり見ろってことかもしれないが ソース弄って無理矢理マウントできれば復旧できるのかもしれないけどそこまで大事ならバックアップすべきだし
btrfs壊れたの始めてだよ 突然再起動してほぼ間違いなく壊れるufsと大違い とりあえずprogをmakeして、btrfs check --repair /dev/sdb したけど、 直したともなんとも言わずに、 found 2326318764032 bytes used err is 0 よう分からん 一応、scrub startさせてるけど、いつまで経っても返ってこないし インスコにtexとかでかいの平気で入れさせんのやめてくれんもんかな
>>602 texとかは、ドキュメントのためだけだから無視していい ドキュメント作れないだけで、プログラムはビルドされる >>602 treeをなめて、何もエラーなかったから、err is 0と言ってる。 エラーあったら、598のようにerr is 1になる。 >>598 の方は、inodeなんたらって言ってる最初の行がリンク数のミスマッチ、次がそんなinodeないってエラーではあるんだけど… inode番号が異様にでかいことに注意が必要 それぞれ、-12ULLと-11ULLで、内部管理用の特殊inode(空きinodeのキャッシュしてるとこ) btrfs-progsのバージョン古すぎて、普通のinodeと思って解釈して、変なinodeだと「誤解」されてた、という話 で、最新のだとちゃんと内部用inodeの範囲知ってるから、そこ読み飛ばしてエラーなかった、と 638GiBのパーティションをext4でフォーマットして、Gpartedで見たら10GiB使用されていたのだけど、dfコマンドで見たら70MBしか使われていない どっちが正確なの?
mount(8)かext4(5)でも見なさいってこった
fioでベンチマークを取ってます。(CentOS 7.3 fio 2.2) --append-terseオプションを付けると、セミコロン区切りの CSVデータも出力できるのを知人に教わって、ベンチマーク スクリプトを書き換えていたのだが、Readの時にはCSVに 正しい値が入っているのに、WRITEの場合はすべてゼロを 出力するというトンデモバグがあり、ベンチマーク スクリプトの書き換えが無駄になってしまった。 この人と同じ状況 http://www.spinics.net/lists/fio/msg03282.html fioをバージョンアップすれば治るよとの誤報を信じて、 fioの2.18も試してみたが結果は同じだった。 最新バージョンではないけれど たまにカーネルが死亡する原因がbtrfsじゃないかと思えてきた
職場に届いたメルマガを見て驚いた。 いわく、 DRBDはバイナリがRHEL/CentOS向けに公開されていない。 ボリュームの最大サイズに2TBという限界があることも後に判明した。 会社名はあえて一部伏字にするがSI○Sというところ。 「DRBD/Heartbeatによる冗長化の限界」というタイトルで、Lifekeeperを 買ってねという内容だった。 こんな弱点がDRBDにあるとは知らなかった(棒)!! システム構築はOSSではなく、信頼できる会社にお願いしなけば(笑)。
>>613 それそれ。 DRBDがこんなに恐ろしいものだと知らなかったぁ(棒)。 Windowsにも対応してなんて、ホントOSSで システムを構築するとあとが大変だぁ。 ま、自分に都合の良い情報操作をするSI〇S死ね!! というのが私の感想ですがね。 >>614 Windowsは対応出来ないって書いてあると思うんだけど。 もし言ってることがおかしいと思うのであれば 変に興奮せず普通に反論すればいいんでは あと意味ない伏せ字やめなよ
それそれwwって だったら伏字とかキモイことすんな
伏字にしておかないと、名誉毀損で訴えられるぞ。 相手が、刑事告訴するのは自由だから それに日本の法律では、無罪の段階でも、逮捕状も取れるから、 後に無罪が確定するような案件でも、逮捕できる 警察では、無罪の段階で逮捕して、家族を殺すぞなど、 拷問にかけて白状させると、出世できるから、こういうやり方が推奨されている
それを言うなら推測可能な伏せ字に意味はないですよ。
>>614 でサイオスだって認めちゃってるからもう意味ないでしょ つーか名誉毀損になるようなこと書き込むなよ OSSよろず相談室などといかにもOSSを応援してますという ポーズをしながら、OSSには欠陥があるという記事を 公開しているのが問題なのだよ。DRBDはバイナリの提供が EPELで続いているし、2TBの最大サイズの制限などは無い。 (DRBD/HeartbeatがWindowsに対応してないのは事実だが) よろず相談室なんて看板は降ろさないとね。
準公式のepelと野良のelrepoじゃ大違いだわ
>>623 みんなが何を指摘してるのか理解できないの? >>628 「Linuxで」「SSDで」「RAID5/6を使いたかった/使いたい」人には朗報じゃね? シングルドライブorRAID-0/1/10でbtrfs使ってる人はわざわざとっかえる必要もないだろうけど btrfs=RAID5/6:未だに危険 trim:対応済 zfs=RAID-Z/Z2:安定 trim=未対応(FreeBSDは対応済) っていう状態だったんで もう2~3年前から実装始まってたんだけどzfsチームってテスト相当厳密なんでテスト通すまでがすげー大変だった模様 ZFSでファイルを削除しても空き容量が増えない現象があります。 ExportしてImportすると回復するんだけど、なんかふんじゃった かな?
ああZILとL2ARCがあったわ ZILとL2ARCがそもそもたいして役に立たないってのいうのはあるけど
ワークステーションで使って感じたけどエンプラみたいに安定的な環境じゃないとかえってトラブルのもとね
NetAppやEMC対抗商品を数多の企業が出してもことごとく潰れていく業界だからね。 ハードを固定して故障パターンを限定しても重複排除だのスナップショットの機能が入ったとたん 「次はもう買いたくない」って思わせるクラスの品質に落ちるのに、それを監視や診断機能の無い ハードと無償で手に入るソフト、保守サポート窓口なしの環境でやればそれの足元にも及ばない訳で。 重複排除、COW、スナップショットはハード固有の監視や診断なしには満足できるレベルの 運用には到達しないんじゃないかな。
いまカーネル標準で対応しているFSで重複排除機能が付いているのってあるの?
無いんじゃないの 重複排除ってリソースめっちゃ喰うから用途かなり限られるよね 仮想マシン大量に建てる鯖やバックアップ鯖くらい? 現状で一番安定して使えそうなのがWindows serverっていうね…
重複排除使うためにメモリ買うよりストレージ買ったほうがいいよね
メモリ買わないと動かないようなPCをファイル鯖にするのか・・・
Windows10だとREFS(4KBクラスタのv2)ってファイルシステムが使えるがお前等どうしてる?
Debianスレから紹介いただきました。本スレの皆様に教えていただきたいことがあります。 自宅でServerを運用しており大容量ディスク(20TB以上)のファイルシステムに何が良いのか迷っています。 現在使用しているext4以外でおすすめのファイルシステムがありましたらアドバイスをお願いいたします。 ・大量データーのアーカイブ(高速なファイルのやり取りはあまり行わない) ・耐障害性が高く、ファイルシステム破壊が起こっても復旧が早いファイルシステムを希望 ・H/W RAID Box(USB接続)を使用するためOSからは大容量1Volumeで見える形です ・snapshotや重複除去を使用する予定はありません このような質問をした理由ですが、去年22TBのディスクがデーター転送中の問題でエラーが発生、強制停止させたことによりFS破壊、fsckでの復旧に半年かかったためです。 (エラーはカーネル3.16系で発生するUSB3.0の問題と思われる。現在はStretchにあげカーネルを4.xにしています) 現在の構成 サーバー:ProLiant ML110G6(CPU:Celeron 2.27GHz(2core) / メモリ:2GB) 主に使っているソフト:FTP(Proftpd)とSAMBAがメイン Debian9(Stretch) 08TB(S/W RAID5 md Device,1Partition,ext4) 12TB(H/W RAID5 USB3接続,1Partition,ext4) 22TB(H/W RAID5 USB3接続,1Partition,ext4) 30TB(H/W RAID5 USB3接続,1Partition,ext4) いきなり長文の質問で申し訳ありません…
バックアップはどうしているのかな? RAIDなら取る必要はないとか考えてないとは思いますが。
いろいろ突っ込みどころがあるがまず運用方法見直したほうがいい
こわれたら、迅速に直してバックアップから復旧がオススメです。 復旧する時間をかけたくないなら、システムを2重化して、 定期的にrsyncやDRBDで同期すること。
バッテリ付きキャッシュの無い RAID を使う限り、RAID5とか6は危険だと思う。 USB みたいな信頼性の低い線・端子でつなげてるのならなおさら。 その USB RAID を使い続けるというのであれば ZFS が一番適してることになるかな。
ハードウェアRAIDって言ってるけどハードウェアRAIDじゃないけどな
>>656 言いたかったのは、zfsを使うなら、直接HDDが見える環境で使うべきだし、 そうじゃないならあまりお勧めできないんじゃないかという事でした。 あと、よく見たらハードウェア要件がメモリ2GBだね。 性能要件次第だけど、zfsはやめたほうがいいね。 >>655 そうだった。 ZFSをバッテリなしのハードウェアRAIDやフェイクRAIDに使っても保護されないね。 マウントしたままfsckできる素敵なFSはないものか
ZFSはSelf-Healingなファイルシステムだから、 そもそもfsckの概念が無いよ。
なくなりはしないけどだんだん微妙な存在になっていくんだろうな Reiser4みたいに でも何がbtrfsの代わりになるんだろ? ZFSをクリーンルームでGPLで書き直す?
RHにxfsの開発者はいてもbtrfsの開発者はいないみたいだからなあ xfsの方に機能を拡充していく方向では?という憶測はあるみたい
>>665 書き直すなんて無理。 てか、それが出来るなら、今頃、btrfsはもっとまともになってる。 FSのバグは、FSに保存されてるファイル全てを ぶっ飛ばす事になる。 ZFSはその一番不安定な時期をSunが仕事として作ってたから、今がある。 ファイルが壊れますって言うFSを 好き好んで使う一般人は少ない。 標準で使ってるディストリあるし、 そのうちまともになるよ、いつかは分からんけど。 安心して利用できないファイルシステムとか使う価値ないから仕方ないね canonicalもbtrfsではなくzfs採用してたし SUSEはどうなんだろ
そもそも仮に安定したとしても使い勝手がzfsの劣化版で投資する価値がないからな そんなもんのために人柱になったり金払ったりしねーわ
>>671 インストーラーで/にできない程度のサポートで採用って言われてもな >>673 btrfsは捨てられるわ、ZFSも捨てられるわ もうファイルシステムも何がなんだか 旧SunからSolarisとZFSとMySQLとOpenOfficeが殺された。残るはSpark(ナイアガラは休止だっけ)とJava?
>>665 DragonFly BSDのHAMMER2とか JavaはOracleが積極的に捨てたほうが良くなる可能性がある
redhatが採用しない=オワコン という発想の奴が多くてびっくりした
スナップショットが取れればなんでもいいや… バグってて消えるのは論外ね
大規模ストレージでもう4年ほどBtrfs使ってるけれど、データが消失したことはないな ディスク故障時が全般的にタコなのはなんとかしたいけど
>>686 4年とは凄いな。 私は2年ほどで2回も壊れたよ。 "Btrfs is under heavy development~"がbtrfs.txtから消えたlinux-4.6以降でも一回壊れた。 所詮自宅サーバの/だから別に平気だけど。 DebianのWiki( https://wiki.debian.org/Btrfs )を見る限り、 Raid5/6は危険だとか、quotaでファイルシステムが壊れるだとか、compress=lzoが危険だとか、 まだまだ問題がありそうで、消えたら困る環境で使うのは怖いよ。罠が多すぎ。 (私はquotaもcompless=lzoも有効にしていた) いやそりゃあRAID5/6はまだexperimentalでしょ?
>>689 meta/data両方mirrorで、quotaは使わず、compress=lzoだな。 ファイルシステムが壊れた、といっていいのかわからないけれど、rsyncで大量のデータを同期するとやがてフリーズするようになる、というのは起きた。 一度起きたらどうやっても戻らない。フリーズするようになるまでのデータ量はどんどん減っていく。 Btrfs自体を作り直すと一旦解消するけど、必ず再現していたな。 どうやって解消したか覚えてないけれど、解消してからもsend/receiveを使うとやっぱりフリーズするという問題が残った。 今でもsend/receiveは使ってない。 復旧力に乏しいので、無停止性が欲しいのでなければ、meta mirror, data singleにして、ハードウェアRaid5上に2組構築して同期するのがベストだと思う。 というかそういう構成に組み直そうと考えている。 間違ってもmd上にbtrfs作っちゃダメだぞ。泣くぞ。 あと、btrfsのraid5なんか信用しちゃダメだぞ。 エンタープライズ環境での構成は検証してるのでそれほどバグらないけど未検証の構成ではバグりまくりってことかね
元記事ちゃんと読んでいないのかな… RHELとしては安定する様子がないから(エンタープライズユースで)実用的なファイルシステムとして取り扱うのをやめる、という話で、 FedoraでBtrfsをメインにしていくよう変わらず努めるわけだし、 そもそもBtrfsのメイン開発者はRed Hatの人だからね
>>696 Fedoraでもやめるし、 btrfsの開発者はもうRed Hatにいないんだが… メイン開発者はFacebookだろ。 Facebookが続ける間はRed Hatが止めようと関係ない。
>>688 ところで、 >> 間違ってもmd上にbtrfs作っちゃダメだぞ。泣くぞ。 ってのは何でなのか聞いて良いですか。 私はLinux md使ったことないので、当たり前なのかもしれないですが、 ハードウェアraidなら大丈夫で、mdだとまずい事が思い浮かばないので。 シンプルな返答をありがとう。 btrfsの話は、簡単な使い方の話ばかりで、 本番環境では避けたほうがいい的な結論ばかりなので、 それなりな規模で使った上での話はあまりないので有難いです。 しかし688さんの環境だとbtrfsフリーズしまくりですね。 環境依存もあるのでしょうけど、これはちょっと 何も考えずに使うのは難しいですね。
>>702 テストのために検証されてない条件を積極的にやっているので、 実際に普通に使っていれば日常問題が起きることはほとんどないし安定して使えると思う。 もちろん、mdと組み合わせないとか、RAID5/6は使わないとか配慮の上でだけど。 普通に使ってて怖い部分っていうのは、send/receiveがいまいち信頼できないのと、 ディスク故障時にそれがはっきりわからない上に、ファイルシステム保護の働かない動作をすること。 加えて言うなら復旧も割と大変。 ちなみに、ディスク交換してbalanceしてるときに別のディスクが故障したことがあるけど、 この場合データ損失がなくても復旧不能になる。 極めてエッジケースではあるけど、この不具合は報告はしたけど修正は今もされてない。 俺ってFreeBSDとLinux使いじゃない? ずっとbtrfs使ってたんだけど新HDDとスタンド買ってFSどうしようかと悩んだ挙げ句 ntfs採用しちまったよ 両方で満足に読み書きできるのってこれくらいだし あとはbtrfsだった旧HDD2台をバックアップにするけどraid0組みたいし FSどうしようか考えてるとこ
BSDでNTFSへの書き込みややこしかったのに楽になってるのかー linuxでUFS2の書き込みできれば個人的に助かるんだけどなかなか採用されぬ
ZoLでネイティブ暗号化のサポートがmasterブランチに入ったね。 次のメジャーリリース(0.8.0 ?)には使えるようになるかもね。 0.7.0ではtrimサポートが入らなかったけど、そのころには使えるようになっているだろうし、 個人的にとても楽しみ。
zfsって稼働しながらUSB-HDD接続、マウント、アンマウント容易にできるの?
ググってもサクっと出てこないし、操作方法っていうくらいだからコマンドの羅列なんだろうな 特にRAIDとか大変そう
USBでアレイを組むなんて事を、 常用環境でやらんから、気にする必要がない。 USBでアレイを組まなきゃならん環境でZFS使う事がそもそもの間違い。
自宅サーバでUSB3.0に繋いだ2台のHDDを RAID1で運用するならまだ可能性はある。
>>704 みたいに、3T2台で運用とバックアップやってたところ、 6T買って、3T2台をバックアップのときだけ通電とかよくある話と思うがな zfsが間違いと言うなら、ntfs-3gでアレイか?、できるのか知らんけど >>710 export、import、clear、online、offlineあたりの理解があれば十分だと思うよ ぶっちゃけここらの理解があればUSBであるかないかなんて関係ないと思うけど >>712 まさにそんな感じでバックアップ用途にも使ってる メインで常時通電しているraid-zアレイも、 バックアップ用でたまにしか通電しないraid-zアレイも、 どちらもUSB接続の外付けHDDケース(複数入るやつ)でつかっていますよ。 サーバー自体がThin Mini-ITXの自作PCなので、 そもそも3.5HDDが物理的に入らないというのもあるし、 仮にサーバーPCが壊れても、別の古いPCを適当に当てがってやれば すぐにファイルサーバとして復帰できで便利ですよ。 HDDをSATAで直接つなぐ場合と比べて、 性能面と可用性という観点では当然一段劣りますけど、 USB3.0ならそこまで遅さを感じない使い方しかしないし、 データ破損時に勝手に復旧してくれる点のみでも十分便利なので、 これで満足していますよ。
詳しくといわれても、HDDケース毎にストレージプールを作って、 メインとバックアップを決めて、 定期的にメインからバックアップへsend/recvで差分転送してるだけですよ。 強いてzfs使用時に気にする点を挙げるなら、 外付け複数HDDケースは、選べるならホットスワップ対応の物がお勧め。 もしくは個別に電源スイッチが付いた物が良いです。 大半の複数HDDケースはホットスワップ非対応なので、 HDDケースの電源を切らないと、ディスクを取り外せません。 せっかくのソフトウェアRAIDの利点が一部無駄になるので勿体ない。
>>717 1個のストレージプールのraid1構成で片方突然電源切っても、 電源入れたら自動でマウントしてバックアップしてくれんじゃね? >>720 冗談で言っていることを承知の上で書くけど、 メインとバックアップのストレージプールは、それぞれ容量が違うので無理です。 例えば、メイン4TB(2TBx4台 raid-z2)、バックアップ3TB(1TBx4台 raid-z)の構成を、 容量増を目指して、メイン8TB(4TBx4台 raid-z2)、バックアップ6TB(2TBx4台 raid-z)、 という構成に変更して、1TBx4台は売却といったサイクルで入れ替えているので。 それに、status: DEGRADEDの状態でzfsのすべてのコマンドが使えるかどうかわかりませんし、 常時DEGRADEDで使い続けるのは精神衛生上辛いです。 結局、バックアップもntfsにしてしまったw RAID諦めて2台分割に気を使わにゃならんけど内周フルに使わんでもいいやって判断 こんな運用をする日が来ようとは…
24時間以上たつのにまだ3TBのバックアップ終わらん どんだけntfs-3g遅いねん
ntfs-3gってファイルの更新日時情報が壊れるバグがなくね?
読んだところ、ボリュームが作れなくなるってだけだね 読み書きは全バージョンで出来るし EnterPrise版とかなら作るのも問題なく出来るらしいから
アップデートで意図的にデグレとか許されるの? せめて既存ユーザは使えるようにしないとだめだろ
上位モデルの優位性を出すために下位モデルの機能を消すのか そりゃ酷いね
どうせ評価版で作れば問題ないとかそういうレベルだろ
Refsの場合FATみたいに読み書きできればOKみたいな用途では使われないでしょ Refsを使ったこと無いけど、何らかの管理用インターフェースがあって、 日常的、定期的に管理すること前提なんじゃないか? 作成機能が削除される以上、管理用インターフェースも 上位モデルのWindowsと同等のものが残されるとはちょっと考えにくい ZFSで例えるなら、zfsコマンドが無い状態でも一応読み書きはできるよって状態じゃないか? そんなの実質使い物にならないよ
ntfs-3g使えねー ファイルシステムが壊れるバグがあるのにchkdskがないから ウインなにがしがないと使い物にならん 消せないファイルとかふざけんなっつの
>>733 詳しくは知らないけど、NTFSって仕様非公開で、ntfs-3gってリバースエンジニアリングで開発してる代物だからゴリゴリ常用するにはあんまり向いてないんじゃないのかな? かといってBSDとLinuxで共通に使えるファイルシステムはどうすんのよって言われたら答えられないんだけど。 元記事ではボリューム作成機能のみ言及されてるけど、ReFSに関係する機能として、 少なくともOneDriveがReFS上で作成できなくなっているらしいね 元々OneDriveの要件にNTFS制限なんてなかったのに、後からこれだよ 確かにReFS上のOneDriveは元々undocumentedな機能ではあったけれど、 逆に言えばドキュメントに無い機能は割とあっさり使えなくなることの査証とも言える。 Creators UpdateのReFSの機能なんて、undocumentedだらけなんだから、 実はあれもこれもできなくなりましたと言われても驚いたら駄目だよ。 現ユーザーは悲観的になっておいたほうが、がっかりしなくて済むよ。 しかしCreators Updateでボリューム作成機能を大きく拡張して期待させておきながら、 Fall Creators Updateで機能削除して落胆させるとか、実に意地が悪いな。
ntfs-3gバックアップどころかメインまでおかしくなってきたので運用断念 これから数日かけて巻き戻していじくり回した分サルベージして再構築だわ… こんなゴミ公開すんじゃねえよクソが
ネイティブじゃないFSをバックアップ用に使うとか 最初から選択自体に問題があると思うんだが
NFSもiSCSIもその向こうとか上にFSあるんじゃないの?
異なるOSから共通してアクセスしようとすると、何らかのネットワーク共有が無難だなわなあ USBメモリ、USB HDDなんかで抜き差しして使いまわせる無難なのって、FATかexFATぐらい?
糞ntfs-3g捨てて元に戻して5TBほどリナからBSDにrsync転送してるけど11MB/sしか出てねえ 単純計算であと5日かかるのか・・・ exFATって手もあったかもしれんけど、また罠にはまりそうだからもういいやw
exFATだとLinuxのメタデータ落ちるから、LinuxとFreeBSD間だけだったらZFSがいいのかな?
zfsなんてバカスカカーネルメモリ食う上にmountしにくいもんイラネ 食わないように調整すればいいけどただでさえ激遅なのに(ry
専用のエンタープライズ向けストレージじゃなきゃ、 ファマイルシステムなんかもう何でもいいよ。 ext4でもXFSでも無難なのでいい。 個人的には、高機能、高性能、可用性を求めるなら専用ストレージ一択。 面倒な苦労せずに信頼性が高いから。
ポータブルだとパーミッションとか意味なくないか NIS使ってるならNFSでいいし バックアップならtarでいいし
>>753 逆じゃね? ファイルサーバ(NAS製品)だと、比較的評判の良い NetApp や Isilon は内部の FS は非公開でそもそも選択権がない。 LinuxとFreeBSDでも平等に気持ちよく共有できるファイルシステムなんてない。 少なくともどちらがメインかというのは明確に決める必要がある。 GFSもObsolateだし。 exFATはFUSE実装ということもあってポータブルならマシな選択肢だと思う。 そうでないならネットワーク共有だな。 同一マシンデュアルブートだというのなら、仮想マシン経由でマウントしたほうがマシ。
ネットワーク共有遅いやん 5TB転送せにゃならんのにまだ1.1TBだわ… しかもFreeBSDのrsync+iconvは糞だからシステムUTF8化しないと使い物にならんし
>>757 まともな性能なら1GbE+SSHFSで800Mbps程度出るので、ハードディスクの限界なんか簡単に到達する rsyncなんかで馬鹿正直に1個ずつファイルをコピーしてたら遅いよ。 open, closeだけでも長いもん。 10年以上前の経験だけど、ディスクが十分に早いなら、コピーを多重化するとマシになる。 5個ぐらい並列でrsyncしても良いと思うよ。
ディレクトリが違えば遠いセクタに配置するかもしれんが、 rsyncって最初に必要ファイルサイズを確保してから転送するわけではないだろ
そうだよ(笑) 上の階層から分けてコピーを始めるんだよ。 同じディレクトリをコピーしてどうすんだよww
>>762 ああ、悪い。 話の前提としてはディスクがかなり並列化されてて、 あとファイルは元々断片化しまくってるような、 ファイルサーバーみたいなので話してた。 だからコピー後の断片化なんて考慮してない。 まあ、経験談ということで… >>758 ハードディスクの限界達してないじゃん それはそうとメインのOSを決めてメインじゃない方はVMでマウントしてVMからはネットワークファイル共有ってのが一番速そうな気がした VMからSATAなりUSBなりでの接続が遅かったらアウトだが >>765 ハードディスクのrandom writeは早くても50MB/s程度だから、400Mbpsでしかない。 1TBのHDDでもWindowsからファイルコピーするだけで950Mbpsは出るな
>>766 ランダムライトならそうかもしれないけど何百GBも転送するならシーケンシャルライトに近い性能が気になるでしょ そしてランダムライトならスループットじゃなくて各IOごとの遅延のほうが気になってくると思うんだが >>771 まっさらなファイルシステムならseqencial writeに近い状況もあるけれど、 既に使っているファイルシステムに対してrsyncでseqになることはまずない。 そしてディスク上で分散しているとしてもデータを流し込む段階では途中で切れるわけではないのでそれもない。 というか、その程度の問題はLinuxの場合十分なメモリを積んでいればバッファリングで解消してしまうので、 *GbEで互いに単独ノードなら* ディスクより遅いという場面はまずない。 というかやってみれば早い。ネットワーク速度よりもディスク速度が速ければ、受ける側のダーティキャッシュはほぼ空になる。 言い方を変えれば、転送中にsyncしても転送終了前にsyncが終わる >>768 バッファについて学んだほうがいい >>772 ほんそれ async/syncくらいわかれよ サイズの小さいファイルが沢山ある場合はバッファリングで解消されないでしょ。 ジャーナル(とディレクトリエントリも?)は同期書込になるのでバッファ関係ないんじゃない? そもそも書き込みの場合OSのバッファ関係ないんじゃ? 「HDD本体搭載/RAIDカード搭載のバッファで解消する」ならわかるんですが。
>>772 200GBくらいのコピーだからメモリに乗らんよ >>772 それはディスクより速い場面を想定してるだけに過ぎないのでは?VMイメージや動画のコピーをするときにネットワークがボトルネックになってる例なんていくらでもあると思うんだけど 実際10GB以上のファイルのネットワーク経由でのコピーでは、SSDにコピーしてもHDDにコピーしても100MB/sで頭打ちなんだけどなぁ >>774 それはWindows的な発想だなぁ。 まず主だったファイルシステムの挙動はだいたいドキュメントあるからそれを確認すると良いよ。 で、Linuxの場合新規書き込みであっても基本的にキャッシュする。 というか、書き込み時にバッファリングしないならなんのためのsyncだ。 試しにUSBディスクにddでdist imageでも書き込んで、dd終了直後にsyncしてごらんよ >>775 全部乗らなくてもあまり関係ないね >>776 それは経路が問題なんじゃないかな。 >>776 うちは家庭用ネットワーク機器を使った環境だけども、nc+bashでの転送ならちゃんと900Mbps近く出るし、 rsync+SSHでも400Mbpsくらい出ている。 データ転送総量は一番多かった時で40TBくらいだけども、rsyncだと途中からかなり速度が落ちる。 だいたい1TBくらいなら速度は落ちずにいける。 いずれにせよ、どれだけのデータを送ろうが、転送が間に合ってないなら受信側でsyncしたら途中で返ってくるよ。 別にafio+ncっていう方法だってあるんだよ Windowsしか使ったことない人の知識なんてそんなもんだよ親切だね
>>777 > それはWindows的な発想だなぁ。 仮にそうだとしたらWindowsではリレーショナルデータベース作れない(トランザクションログ を実装できない)んですがね。 単なるレッテル貼りはやめましょう。 > で、Linuxの場合新規書き込みであっても基本的にキャッシュする。 後の読み込み向けであって書き込みはデバイス待ちのバッファ程度でしょ。 > というか、書き込み時にバッファリングしないならなんのためのsyncだ。 syncはOSのキャッシュに対して行っているのではなくHDDのキャッシュに対してでしょ。 HDDのキャッシュからディスクに書き込みが終わってない状態で電源が切れたら ファイルシステムやデータベースで一貫性が破たんするわけで。 > それは経路が問題なんじゃないかな。 いや、約100MB/s(800MB/s)っていってるんだから制御系信号含めて帯域目いっぱい使ってるでしょ。 企業向けのディスクが精々10本程度しか入っていないエントリモデルのサーバでも 再現できるクラスです。 >>778 smbはver2.0までだとレイテンシの悪さでどんどん速度が落ちます。 そこに書いてある内容はやや語弊がありますね。 かつては拠点内だと800Gb/sでるけど拠点間だと遅くなるからって理由でsambaの 導入を渋る/Windows Server 2008が良いって言う企業さんはいました。 今どきのデータベースってファイルシステムを使ってるの?
データベースだけはOS通さずに物理ディスクに直接アクセスするとか、そういう話かしらね
アプリが必要としているのは「今電源が切れたとして、後でそれが読み出せるか(メディアに 書き込んだか)、読み出せないか(キャッシュどまりで電源断で飛んでしまうのか)」であって 何か特殊なファイルシステムだったり特殊なデバイスアクセスが必要なわけではないです。
>>787 「基本的にブロックされない」んじゃなくて、デフォルトだと非同期書き込みでファイルディスクリプタが オープンされるってだけでしょ。 プログラマが状況に応じて O_DIRECT つけたり、特定のデータの 区切りでfsync (syncにファイルディスクリプタ指定できるだけの物でsyncとは別物ではない) とか かけるってだけじゃないですか。 # 「(OSではなく)ソフトがfsyncなどで保証」ってのが? あなたの意図するOSが保証するがわかりません。 たぶん、DB は、自分でバッファを確保して、処理しているのだろう データをバッファに読み込んで、そのデータが更新されていないのなら、 バッファから読み込む事で、データを再取得しない 例えば、500件を読み込んで、もしデータが更新されていれば、 更新されたレコードだけを、再読み込みするのかも 例えば、3件目と5件目だけを、再読み込みするとか
何が言いたいのかサッパリ分からんな 目新しいひらめきでも含まれていることを前提に読んでるからアホに見えるのかな
>>790 読み込みはHDD→HDD本体付属のキャッシュメモリ(→RAIDコントローラのキャッシュメモリ)→メモリ→ CPUのL3キャッシュ→CPUのL2キャッシュ→CPUのL1キャッシュ→CPUのレジスタの順に読み込まれ、 更新(つまり書き込み)はその逆順になる。 (記憶階層と呼ばれるもの) なので更新された内容は先にメモリに書き込まれ、その後HDDに書き込まれるから 「HDDから更新されたレコードだけ読み込む」なんてことはあり得ない。 # 3件目のデータがオリジナルの値が100円で、今120円に書き換えたのにディスクには # 130円って書いてあった、なんてことは普通考えられないでしょう? あり得るとしたら共有ディスクにデータを置くクラスタ構成のデータベースぐらい。 >>793 SSDをRAID10で組むのがDBの主流のこのご時世に説明必要? 記憶階層の説明においては理解を阻害する蛇足にしかならんよ。 >>794 DBをRAWで使わない理由かな? スナップショット取れないから設計段階でハネられるからでしょ。 >>795 なるほどスナップショットですか でもRDBMSがレプリケーションしてると1つ止めればいいだけだから問題なさそう ご時世ならインメモリだろ SSDでRAID10でスナップショットとかどんだけコスパ悪いねん なんでもかんでもDB化する必要ないんやで
インメモリじゃ消えちゃう 用途ごとに適材適所しようよ
別に不揮発性じゃなくても定期的にHDDに排出すればいいだけだろ 突然電源落ちたらぶっ壊れるのは同じだしな つか1TBのDBとか何に使ってんだよ
要するにインメモリが最適解というわけですね わかります
RDBMSはログを逐次書き込むから定期的とかじゃダメでしょ チェックポイントから復旧するためのログ それに書き込めなかったことがすぐにわからなかったら、マスターの切り替えもできないんじゃない
>>800 1TBはまだ無理だが、HPのProLiantなら8GBのNVDIMM16枚載るそうな。 マザボ側に電池が必要との事なので8GBのDDR4のDIMM+停電時の退避先の8GBのNAND メモリの実装だろうから、速度はメインメモリと同じ。 8GBで定価157,000なんで、普通のDIMMの3~4倍程度の値段、 PCIeに装着するタイプのSSDが1.6TBで定価256万なんで、それと比較すると12倍ぐらい高い。 ファイルシステム目的でみると高すぎるが、DBユーザには現実的な価格だと思う。 要するにUPS付きインメモリDBのコスパ最強っていいたいんだろ? そういや昔、メモリ集めてSATAかIDEかにできる機器があったな そろそろDDR3が余ってくる頃だしまた出して欲しいわ うちはまだまだPCI付きIvyBridgeだらけだけどな
>>807 UPSと比較した場合のメリットがわからない >>809 前提が間違っているんだよ。 インメモリDBもUPS付けてもマザボ故障したらDIMM上のトランザクションログすっとぶわけで、 トランザクション処理には使っちゃダメな製品だとおもう。 素直にBIの分析だけにしとけと。 そうなるとデータ更新しないわけだからそもそもUPS要らないよね。 極論を言えばUPS付きインメモリDBなんて存在価値の無い代物ってこと。 もちろん故障した時にトランザクションログ壊さないインメモリDBもあるけど、それってSSDで 組んだ普通のリレーショナルDBと何も違わないのよね。 マザボ故障してもSSDだとすっとばないってか?w インメモリはトランザクション処理自体がお前が考えているのような動作はしない 個々のDBについて語っても無意味だが、起動は遅いし、レスポンスは桁が違うし、 HDDへの排出は別スレッドで適時行われるし、根本的にインメモリを前提にした体系だ
ファイルシステムとDBの話で インメモリDBの話はしてない
>>811 > マザボ故障してもSSDだとすっとばないってか?w マザボやRAIDコントローラがウソのデータを書き込む故障も無いわけではないが、レアなケースだわな。 マシンがコアも吐かずに突然リブートというパターンの発生比率と比べるとね。 要は実際に採用されてるってところだろ。 > インメモリはトランザクション処理自体がお前が考えているのような動作はしない RDBMSと同じような動きをするなんちゃって製品をディスったのをそう捉えられてもねぇ... > HDDへの排出は別スレッドで適時行われるし 普通のDBでもするでしょ。 ファイルシステムでさえそうしてるってのに。 >>812 UPSを使わずに済ますという観点では現状のOS/ミドルウェアの対応状況を鑑みるにNVDIMMにメリットは何もないでしょ。 Intel のビジネス的な都合で出してきた、NVMeに対するコンペ商品だから。 OMNI-Path 同様他社が手を出しにくいインターフェイスで最速のデバイス出してきたってだけさ。 >>813 おまえはインメモリの圧倒的コスパに対して、 SSDの優位性を一切論理的に説明できない駄レスしかできない無能なんだからすっこんでれば? >>815 すまないが、俺はSSD優位とは一言も言ってないぞ。 それどころかインメモリは性能最強だと思ってる。 ただ、コスパは最強という意見はいただけないね。 SSDでもメモリバカ積して逆正規化かけまくったりインデックス貼りまくったり、アイソレーションレベル に手心加えれば、従来型のRDBMSで充分「立ち上げが遅い」が「レスポンスが速い」物ができるんだよ。 インメモリDBのその製品が優れていて速いわけじゃない。 君が製品カタログに書かれたメーカに とって都合のいい売り文句のトリックを見破れてないだけだ。 お前は何を目的にレスしてんだ? だから駄レスって言われんだろ 製品カタログとか言ってる時点で盆暗だと自覚しろ コスパ以前に盆暗のお前でもコストくらいは調べられるだろ そんなに駄レスしたけりゃ必要な金額でも書いてみろよ
小さなファイルのバックアップ用に USBメモリを使用しているんだけれど windowsとLinuxの混在は不味いっすかね
ウインなにがしとかいうインターネットを危険に陥れる脆弱性だらけのバグバグOSもどきが いくら乗っ取られていようとLinuxには影響ないから大丈夫じゃね
ごめ説明が下手だった USBメモリのFAT32フォーマットに Linuxフォーマットext4で保存したファイルを 混在させてそれを消去させた場合に再びFAT32に戻るものなのかが謎で そこのセクタだけ壊れそうな雰囲気があってねw
>>820 あまりにも返信がないからツッコミをいれておこう。 ファイルシステムというのはファイルを管理しているのであってファイルに付随しているわけではないので、 別にEXT4ファイルシステム上に保存されていたファイルをFATファイルシステム上にコピーしたからといって、 FATファイルシステムのそこだけがExtファイルシステムになるわけではない。 横レスだけどAndroid(でなくてもいいけど)のfatマウントしてファイルコピーすると属性が変更できませんとか出て怖いよなw
>>826 そりゃファイルシステムが持っているファイルの属性情報が違うからねぇ… archive、system、hidden、readonlyだったっけか
そうね。しかもそれって重要ですらないような属性だし… 隠しは重要だけど気休めだしね。
ZFSって何に使ってんの? iSCSIに切りだしたり? sambaじゃメリット出ないよね速度とか
今使われてるのは、本家以外、みんなOpenZFSだと思うけど。
>>833 VSSとsnasnapshot連携できる Redhatが重複排除のファイルシステムを 開発してた会社買収したらしい。 ZFSに頼る理由がひとつ減るな。
>APFS形式ドライブは、macOS High Sierra以降のmacOSでしかマウントすることが出来なくなります。 /(^o^)\ナンテコッタイ
誰かボスケテ apt-getでアップデートアップグレードしたらzfsが無反応になって バージョンが違うって事で一度アンインスコして再度インスコしたらzfsは動くがプールが無くなった どうすればいいの?
poolをcreateしちまったがやはり何もでてこない…これもう前のデータ消えた?
>>844 poolをcreateしたら流石にダメなのでは 諦めてバックアップから復元しろって・・・バックアップとってなさそう
そっか…だいぶ古いバックアップしかない。 諦めるか…
zpool importするべきだったね createしたら上書きされるからわからん
createしなければzpool import -Dで助かったかもしれないのに
そうか、createじゃなくてimport -Dだったのか… 手痛い勉強になりました。
2年ぐらい使ったCentOS7のノートPCがあり、OSは16GBのSSDに、 内部ストレージをZpoolにしてました。 訳あって先日Ubuntu16.04に入れ替えました。最悪Zpoolは 初期化を覚悟しましたが、大きな問題なく引き継ぎができました。 元のZFSはzfsonlinux.orgので、UbuntuのはOSに入っているものを 使いました。ストレージのデータに互換性があって良かったです。 てか全く同じバイナリーでしたっけ?
https://wikileaks.org/vault7/#Angelfire Angelfireは、Solartime、Wolfcreek、Keystone(以前はMagicWand)、BadMFS、Windows一時ファイルシステムの5つのコンポーネントで構成されたインプラントです。 以前に公開されたVault7シリーズのCIAプロジェクト(GrasshopperとAfterMidnight)と同様に、 Microsoft Windowsオペレーティングシステム(XPまたはWin7)を実行しているターゲットコンピュータにカスタムインプラントを読み込んで実行できる永続的なフレームワークです。 Solartimeはパーティションブートセクタを変更し、Windowsが起動時にデバイスドライバを読み込んだときに実行されたWolfcreekインプラントを読み込んで実行し、 他のAngelfireインプラントをロードして実行することができます。これらの文書によると、追加のインプラントをロードすると、感染したマシンで検出される可能性のあるメモリリークが発生します。 キーストーンは、Wolfcreekインプラントの一部であり、悪意のあるユーザーアプリケーションを開始する責任があります。 読み込まれたインプラントはファイルシステムに決して触れないので、プロセスが実行されたという証拠はほとんどありません。 オペレーティングシステムが別のパーティションまたは別のパスにインストールされている場合、Windowsタスクマネージャーで常に検出され、「C:\Windows\system32\svchost.exe」と表示されます。 BadMFSは、アクティブなパーティションの最後(またはそれ以降のバージョンのディスク上のファイル)に作成される秘密ファイルシステムを実装するライブラリです。 Windows一時ファイルシステムは、AngelFireをインストールする新しい方法です。 独立したコンポーネントをディスク上に置くのではなく、インストール、AngelFireへのファイルの追加、AngelFireからのファイルの削除など、 特定のアクションの一時ファイルを作成することができます。一時ファイルは 'UserInstallApp'に追加されます。 Angelfire 2.0 -- User Guide https://wikileaks.org/vault7/document/Angelfire-2_0-UserGuide/ BadMFS -- Developer Guide https://wikileaks.org/vault7/document/BadMFS_Developer_Guide/ iSCSIで接続したボリューム上にRAID1組めばなんちゃってDRBD引用できるもんなの?
xfs微妙Oracleがzfsのライセンスを解放しなきゃ、透過圧縮兼ね備えてて(当然書き込めて) ブートにも圧縮(解凍)効いて安定しててみたいなファイルシステムは FreeBSDのしか無くなるんかいね?
APFSってmacのやつか Linuxに組み込めるわけ無いやろ
Machのコアにすり替えたFreeBSDっつーDarwinをベースに作ったMacOSXの ファイルシステム回りの作りがどこまでLinuxに近いかで移植しやすいかどうかが決まる
データの信頼性の根幹にかかわる部分が使いモノにならなかったら MacOSX自体への信頼が揺らぎかねないし、それなりにテストした上で 社内でも実際に無理矢理鯖用途に使ってみたりとか負荷試験してはいるんじゃないかな? シランケド、HFS Plus を改良したシロモノっぽいし、そう変な事にはならなそうな気はする ただ、個人的には、鯖用途でもないのに重複云々とか無駄な気がしてならない 複数ユーザでchrootとかjailとかなら効果もあるだろうけど、個人の用途で重複ファイルとか そんなに出はしないだろうし、FreeBSDのzfsでdedupした事ある奴ならわかるだろうけど あれすんげーメモリ食う(自前で重複検出する事を考えれば、中で何してるかわかるよな?) 今時はCPUパワーあり余ってんだから透過圧縮だけでいいんだよ CPUパワー足りないってんならNTFSみたいに compress off にすりゃいい
Appleがどのオープンライセンスにするかよるけど、SSDに向けに作られた最新設計だけに期待はできるかと
みんなは何をメインで使っているの? 保守的にext3とかext4なの?
俺はNTFSとext4とufs(今となってはどれだよっていう)だけだなぁ zfsは未だに色々と潜在的な問題抱えてそうだし、RAIDとかしないなら オーバーヘッドでか過ぎるしdedupなんて使わないし 板に従うならzfs-fuseの話しろってんだろうけど、あれユーザランドで動いてんだぜ? Ubuntuはモジュールだけど、まだライセンスの決着ついてないんじゃなかったっけ? おまけにOracleは「zfsにfsckいらん」とか政治的な理由で信頼性とか検証手段とかを 犠牲にさせまくってきたし、今となっては権利持っていながらにして もう手は下さないとかのたまってるし、色んな意味でzfsは先行き不安なんだよな・・・
zfsのdedupは1割程度しか効かなかったので結局やめたな それはそうとオラクソ死ね
>>863 システムはExt4 ストレージはBtrfs 選択的にはともかく内容的にExt4が保守的かはそこそこ疑問だな。 >>866 システムもbtrfsにしないのはどうして? そのBtrfsも赤帽が「技術的な問題諦めてXFS行くでよ」っつって見捨てちゃったからなぁ
最近、btrfsが死んでデータ全て消えた... Raid10だから安心なんてバカだったよ バックアップしてないから諦めてxfsにしたよ
zfsも数年前とかたまーに論理的に復旧不能とか話題出てたしなぁ ファイルってかディレクトリのエントリしくったらそっから下が丸ごとふっ飛ぶ事になるからな ファイルシステムだけは良く良く吟味せにゃならん
>>867 Calamaresインストーラの手動パーティショニングが安定しないから。 自動インストールならExt4が選ばれる。 まぁ、システムをBtrfsにするメリットはスナップショットしかないし、するつもりは全くないけど。 >>869 どのように死んだのかわからないけど、RAID10で救出も不能だったの? うちのBtrfsはさんざんぐっしゃぐしゃになりつつも2重運用でデータ失ったことはないけど。 >>871 kernelを4.13にあげて少したったあとにkernel panic起こして死亡したよ カーネル上げるのってリスクでかいんだね うちはシステムはぶっ壊れてもインストールしなおしゃいいからbtrfsでデータはext4だなぁ CPUパワーは有り余ってるのにHDDがボトルネックになってるような環境だとbtrfsで透過圧縮を有効にするとext4より結構速くなってイイ まあSSDが普及した昨今じゃあんま意味ないけど(´・ω・`)
ぼくはSSDの上で、システムもデータもbtrfsで透過圧縮にしてる(´・ω・`) 今の所To LOVEるなし
gitのファイル鯖とか、飛ばれたらくっそ面倒だから我慢してわざわざcifsで リモートのNTFSをストレージにしてる まじNTFS以外で透過圧縮使えて安定してる奴きぼん・・・ そうすりゃファイル鯖にgitやらMariaDBやらTFTP+nfsやら全部ぶっこんでATOM機一機潰せるのに
NTFSの透過圧縮ってハフマンすら使ってないような古いフォーマットだったような
>>876 古いっていうか、速い、だね zfsもlz4とかgzip6以上にすると途端に遅くなるから、 レンジコーダーどころかハフマンなんて使えないって RLEとかは論外だけど・・・「高圧縮アルゴリズムを採用しました!」とか言われたら逆に困る >>861 高負荷時の可用性とか、障害発生後の復旧可能性とか、 正直、あんまり注力してない お金が絡むような用途には使わないほうが吉 ntfsは昔ファイルが壊れるバグがあって、それ以来ファイルシステムはシンプルに扱うことを心掛けている
>>872 カーネルパニックとファイルシステム損傷はつながってないと思うけど… それで不整合が起きたとしても修復すれば良いだけだし zfsは修復コマンドあるけどbtrfsにはないのかね
>>881 スクショとかログとかはないけど(消えたからね)kernel panicがbtrfs関係のエラーで発生してたので関係あったのよ... 何回か復旧させたことがあるので、普通にやったが今回はお釈迦様でしたわ ちなみに4.12辺りからbtrfs関連の修正パッチとか含まれてて、4.9から一気に上げてbtrfsが何かしら壊れたかで失敗したんじゃないかな……って気がしてる
>>885 こマ? 今、4.10だから4.13に上げるの怖いな RedHatが技術的問題点の解決が云々でbtrfsやめちまうから ファイル単位でバックアップ取って他に行った方がいいんじゃないかな? ・・・いや、他の似た様なので行けそうなのないんだけどさ・・・
btrfsはもともと悪いバグの噂が絶えなかったからな
4.12からbtrfsのraid5/6がほぼ使い物になるって言うから上げたら結果的に失敗しちゃった
>>884 いや、btrfsモジュールでカーネルパニックしたとしても、ファイルシステムは通常の不整合以上には壊れないでしょう? というか、現状btrfsモジュールは毒データ与えてもストールするので、カーネルパニックになったならMLで言って欲しかった感… (ディスクが壊れた場合はカーネルパニックになることが確認されてるけど) 現時点でディスク不良以外でraid1で実損したデータ以外が救出できなくなるケースも確認されているものがほとんどないので、 それもやっぱりMLに投げてほしかった… なお、4.12のパッチは小規模というか大した変更じゃなかったよ。4.13も小さい。 変更がとても大きかったのは4.11だね。 >>890 うーん…割とあることなのかと思ってたけど、レアケースだったのね 大変失礼いたしました あと4.11でしたか >>890 btrfsは技術的問題点残ってるって赤帽も言ってる >>895 いや、balanceできない条件があるとか、 raid5/6の実装が間違ってるとか、 一部コードが汚い上に間違ってるとか、 そりゃ技術的問題はあるけど、だからといってそれ以外の箇所で障害が起こるということにはならないよ。 そんな挙動を示したなら、bugzillaに書くか、エビデンスつきでMLに投げるかしてよ。 >>897 それでもダメだったって報告だとか、噂が絶えなかったってのはガン無視? 大体ファイルシステムの障害とかすんごく報告し辛いよ btrfsの新しいバージョンが本当に完全に上位互換になれるのか、 HDDかSSDか、セクタorブロックが代替されててデータ失って再現不能なのか、 ECC側のデータ化けをリトライでたまたま合う間違ったデータでリードできた後に代替されかどうか、 報告するにも検証どころか調査が面倒で、腰を据えるだけの気力と勇気が居る てかその障害が起こったパーティションそのままに、他のパーティションのシステムから 観測し続けにゃならんのだよな・・・面倒どころの話じゃない btrfsかハードウェアの問題かすら切り分けできてないけどbtrfsの問題だと言い張るバカという自白
だからML投げたらその切り分けしろとか言われるだろ
VIDEO #kernelvm @naota344 バージョン別BtrFSのころしかた なんで頻繁にクラッシュニュースが流れるbtrfsなんて使ってんの? 直った直った詐欺の常習犯じゃん CentOSのワークステーションで2年位アップデートしながらzfs使ってるけど1度も壊れたことないよ 悪い噂のないzfsを使おう!
>>902 windows上でzfs動かした勇者がいるとか zfsは安心感はんぱないけど速度は遅いんよね 窓zfsは猛者すぎる HDDでRAIDZ2だけど安物HDDノートよりは快適に使えてるよ 2年以上窓vmつっこんで定住できる程度には 自動スナップショットにもお世話になりっぱなしだしロールバックもバックアップもレストアも全然失敗しないしもう最高
RAID10しか使わない俺はZFSが重いと思ったことがない
>>898 なるほど...XeonE5v2の2CPU環境なのにnon-ECCというクソ環境なのももしかしたら関係あったのかも... 次買い換えるときはECCにするよ 10年越しのC2Dのわいはzfs重すぎで断念したで
なんだか病的だなここ 民生のポンコツNASのファームでも開発してるのかお前ら
Btrfsをたたくとかっこいいとか思っているんだろうか それともRedHatの言葉はすべて福音だとか思ってるんだろうか そして、RHELが採用をやめただけでBtrfsの開発からRedHatが手を引いたとでも思ってるんだろうか
あれだけ不具合出してたbtrfsにさも問題がないかの様な言い回ししてるキモオタが煽ってるからだろ あそこまでもぐら叩きだと基本設計に問題があるとしか思えん FATで例えるとCRCorECCを別のセクタにしただけで滅茶苦茶複雑になるんだぞ しかも今時はSSDも絡んでくるからHDDと違ってブロックのイレース直後の電源断も考慮せにゃならん
>>910 いや、問題があるならBuzillaに書くなり、MLに投げるなりすればいいでしょ。 Issueが直ってないからチケット確認しなよ。 困ってるなら、どういう状況で何が起きるか投げれば対応するわけだし。 使ってもいません、具体的に何が発生するとも言えませんってそれはただのFUDでしょ VIDEO #kernelvm @naota344 バージョン別BtrFSのころしかた バグ見つけたらここまで検証して特定するまで誰にも言うな掲示板にも書くなってか? 検証用にパーティション切ってファイル放り込んで問題絞り込んでとかどんだけ時間掛かると思ってんだ >>912 いや、バグ見つけたならMLで言うなりBugizllaに書くなりしなよ。 で、あなたの環境でどういう状況で何が起きたの?具体的に教えて? >>906 メモリのECCとファイルシステムアクセスは、ほとんど関係ない。 あるとすれば、ダーティキャッシュがビット劣化して書き出したときにファイルがビット破損するケースだけれども、 これはファイルシステムとは*全く*関係がない事象。 btrfsやzfsの場合は、入出力のたびにチェックサム照合を行うので、RAID化されていればビット腐敗が発生していた場合、 自動的に修復される。 ただし、詳細は省くけれど、別にこれはscrubしなくていいということを意味しない。 ディスク故障時のような「安定した応答が得られない」ケースを除き、 基本的にデータビット破損によってRAID化されたbtrfsあるいはzfs、またはミラー化されたLVMからデータが損なわれるという事態は原理的に起き得ない。 >>913 btrfs-progsアプデされた後にUUID云々とかエラー吐かれた時点でシステム入れ直したわ そのパーティションを検証の為に残して他のHDD用意してそっちのシステムから検証とか 義務でも何でもないのにやるかよ (zfsも初期はアプデでトラブル云々あちこちであったみたいだからbtrfsに限った事じゃないだろうけど) てかバグ見つけたら必ずMLとかにあげなきゃならんのかよ? MLに上げない奴は不安定なファイルシステムについても何も言うなってか? >>915 btrfs-progs「だけ」上げたの?だとしたら、ファイルシステム自体は何も変更されてないからファイルシステムはおかしくなるはずがないね。 ほかもあげたなら、btrfsのせいだという根拠が必要だね。 別にこの状況でこんなエラーが出たよ、というだけだから別のHDD云々は何も関係ないね。 具体的にどのようなエラーが出たのか、そしてどのような挙動を示したのかについても述べられてないけど。 別に不具合があっても黙って使い続けるのは自由だし、困るから直してって報告するのも自由だよ。 ただし、根拠も示さず証明もせずにFUDをばらまくのは下品だと思うよ。もちろん、下品に生きるのも自由だけども。 でも、わざわざ人に向かってFUDを吐いてつっかかるのは自由の範疇じゃないからね。 >>916 「だけ」な訳ないだろ しかも VIDEO #kernelvm @naota344 バージョン別BtrFSのころしかた >>902 も言ってるし これでFUD云々だとかバカ呼ばわりだとか、印象操作してるbtrfs信者の方が頭おかしい btrfs信者はファイルシステムはわかっても自分がセルフネガキャンしてることはわからないの? まさしくキモオタだな
こういう様子を見たら、使いたいとは思わないよな 未完成なのはRHらも認めているのに、不具合があるという報告から 原因を探ろうとかそういうのではなく、不具合ではなく使う側が悪いと強硬に言い張るんだから 普通の人は、「安全で良いファイルシステムを使いたい」のであって「btrfsを良いものにしたい」なんて思ってないんだから 原因究明してMLで報告しろとか大笑いだよ
まともな人間は使って幸せになれるから使うのであって トラブルに巻き込まれた挙句キモオタがよってきて奇声を上げる製品なんて使うわけがない どんな罰ゲームだよ
CentOS7でBtrfsでインストールしなくて本当に良かったわ
ext4で特に問題なくね ext4でだめな人はxfs使ってるでしょ
>>924 求めるものによってマチマチかと ただデータをファイルとして読み書きしたいというだけなら FATやext2なんかを参考にすれば作れるだろうし、 セキュリティや可用性を求め始めると難しくなるし Fuseはいろんなfs作ってる人がいて面白いよね まともに使い物になって、さらにメンテまでされてるものはごく僅かだけど 設計と長期的な開発の大事さが伝わってくる
FAT → エントリを2つ持って、データを書いた後2か所を更新するだけ 書き込み中の最悪のタイミングでの電源断 : お察しください ジャーナリング+CRCかECCの類の更新 エントリ+データからCRCの類までジャーナリング?二重の書き込みに加えて 他のセクタ(クラスタ)のCRCの類を読んで、該当するCRCの類だけ更新して、 それを更にジャーナルに書き込む? 新規データは空きクラスタに書き込むだけでいいけど、既存ファイルの一部の更新だった場合は クラスタのチェーンも読み込んで、更新する箇所だけ空きクラスタに書き込んでおいてから チェーンの部分を読んで該当箇所だけ書き換えてそれもジャーナルに書き込む? そこまですればDB並に保護は完璧だけどめっちゃパフォーマンス落ちるし 空き容量0の時の既存ファイルの更新は?とかとか考え出したら常人にはとてもじゃないけど zfsみたいなファイルシステムなんて設計し切れるもんじゃないし、 代替案も出さないのに文句言う奴が必ず出てくる事請け合い無し SSDの場合はブロックイレースの直後に電源断だと軒並みデータ0になるし どうせアプリ類の書き込み中の電源断は何かしらファイル壊れる筈だから どっかで妥協するしかないんだよな
現在HDD(4TB)2台にそれぞれ「pool1」「pool2」の2つのzpoolを作製しています。 今度8TBのHDDを購入するため、「pool1」「pool2」の2つのzpoolを、 1つのHDDにまとめたいのですが可能でしょうか。 やはりパーティションで4TB領域2つに分けるか、 「zpool3」のようなzpoolを1つ作って 「zpool3/zpool1」「zpool3/zpool2」のようにzfsで分けるしかないでしょうか。
スナップショットを統合するのは無理だろうからファイルコピーかネームスペースを切るしかないやろな
1つのプールのルートに複数のプールをマージはできんやろ
ジャーナリングを嫌ってるGoogleとかノードが立ち上がるたびにmkfsしてそうだよな
btrfsでzstd使えるようになってたんだな IO速度がクソな環境では有用そう
zstandardを開発したのlz4の人なんだな 天才か
suseとかでデフォルトzstd圧縮有効になったりしないかな
exfatを古いandroidに指したらぶっ壊れたんだけど復旧方法ある? teatdiskのクイックスキャンはダメだった これからディープスキャン予定
>>943 復旧方法というかそれ以前の事前確認なんですが、カードリーダーの方が 壊れてないか確認(別のmicroSD挿してみる)して、その後は microSD のハード 不良なのかFSのメタデータ破損なのかを確認(dd で読み出せるかあたりか?)かな。 943っす ディープスキャンダメだった カードリーダーは複数使ってチェックしてるからハードのエラーではないっす xxd -a /dev/sdcして何か出てくるので何か入ってるぽいんだけどexfatの構造はよくわからない sudo fsck.exfat /dev/sdc1 exfatfsck 1.2.3 ERROR: exFAT file system is not found. いわれるんだよねー。最近のFSだからメタデータのコピーくらいはあるとは思うんだけど おそらく原因はこれ ドコモからのお知らせmicroSDXCカードご利用時のご注意について https://www.nttdocomo.co.jp/info/notice/page/120606_00.html いやまさか指しただけでフォーマット実行なしで壊れるとは予想外だったわ。どんな処理してるんだか ここまでバグまみれで一向に改善の傾向が見られないのは設計に何か問題でもあるのかねぇ
Deprecatedにぶっこまれるって事はそういう事なんでしょ
ext4に透過圧縮があれば十分なんだがなあ 以前は/usr以下をsquashfsしてaufs被せる荒業が使えたんだがsystemdが起動に必要なファイル置きやがるからだめになったし
圧縮機能だけでzfs-fuseを使っていたんだけど、(CentOS 6) さっきダウンしていた。マウント先ディレクトリにアクセスできなくなっていた。 service zfs-fuse restart を時間を置いて二度行なったら、復帰した。 /var/log/message を確認したら、エラーが記録されていた。 segfault at 70 ip xxxxxxx sp yyyyyyy error 4 in libpthread-2.12.so[zzzzzz] もう怖くて、zfs-fuse使えない。 重複機能はとっくに諦めていたけど、圧縮機能も諦めて、 もうzfs-fuse使わない。ext4のまま使うことにする。 圧縮効果は1.6倍だったのでもったいないけど、安全の方が大事。
>>953 自己レス メールのINBOXフォルダとして使っていたので、 大量に入ってくるメールの取扱でバグったのかなあ。 評判の悪いfuseなんぞわざわざ使ってる方に問題がある ZoL使え
>>955 ZFS on Linux ググってみたけど、標準の機能でないために躊躇します。 yum update みたいに、カーネルごとアップデートされるようになったら使いたいなあ。 fuseのzfsも標準の機能じゃないしw てかOracleもFSFもLinux界隈もPC衰退期の現状にライセンスが合ってない もうソースに手入れた人が把握できなくて身動き取れないだけかも知れんけど
>>956 ZOLが標準に組み込まれないのはライセンスの問題 FUSEはZOLまでの繋ぎで今はメンテもされていない 事実上、まともな透過圧縮は起動に使うには面倒なZOLだけか 透過圧縮って、パフォーマンス低下させない様にって細工が面倒なのはわかるんだけど ext4で特定の圧縮アルゴリズムで標準化みたいな動き、出ないもんかな
>>960 btrfsってもう詰んだんでしょ。 >>958 永久にカーネルに組み込まれないってことでしょうか。 それともオリンピックまでになんとかなる話? なんとかしてほしい。ド素人にも使えるようにしてほしい。 ZFS on Linuxなんてつかったら、多分、カーネルアップデートしたりしたときに、 データにアクセス不能にしてしまいそうでこわい。 凍結的に使いつづけるのならよいのかも知れないけど。 red hatが作るXFSベースのfsに透過圧縮付いたりしたら良いのにね
正直、圧縮はbtrfsだのzfsだのでなく、ストレージに提供させる機能とした方がよさそうだが
>>961 特定のFSに限らんだろうが暗号化ディスクをマウントしたままカーネルアップデートするとディスク構成壊れて起動不能というのはある >>965 ブロックレイヤーでってことか? メタやジャーナルまで圧縮することになるし FS側で圧縮した方が良さそうじゃない? 俺は使ってないファイルとか圧縮効果の高いファイルだけ圧縮して欲しいわ 起動時のえっらい小さなローダーがパスワード入力とか求めた上で 暗号化解除やら、場合によっては圧縮の解凍しながらとか、相当難しいからね FreeBSDでも/boot/だけは圧縮とかすらできない様に、あちこちにブロック入ってる (抜け道があったりで完全じゃないけど(それ言い出したら何でもできるけど))
>>967 ちょいと考えてみたけど、ブロックレベルでってのは、特にSSDで無理があるな 透過圧縮の類って、実際の圧縮は確か16KB単位とかでやってる筈 頻度表を扱うアルゴリズムを使うってなった時点で、最悪値で無条件に 256×出現回数の表現に必要なビット数 の頻度の情報が必要になるから 4KB単位での圧縮なんて(テキストファイル限定とかでもなきゃ)先ず意味がない >>967 >>969 内蔵HDDとかというよりかは、FCとかiSCSIとかで接続するような外部ストレージね OSからは4kbのブロックとして見えるけど、実態はストレージによりそう見せられている 仮想的なブロックの、更に下位のレイヤーでの圧縮や展開 ストレージ内蔵のASICや専用アクセラレータが圧縮や展開をするようなモノ Windowsの世界では、透過圧縮、重複排除は安定的に実現できているのかな? > NTFS smbaclientでくっつけるとか。
>>969 同じ意見だわ 余談だけど、圧縮で書き込み量減らしてSSDの寿命を延ばすとか試みはあったそうで 効果は不明 >>970 bio下位ならブロックレイヤーだね ASICとかハード実装ならインライン圧縮になる 平均IOサイズ考えると圧縮効果低くなるからなあ ポスト、セミポストならデータマージして圧縮効果上げられるけど、今度はファイル読み込み時の伸長コストに無駄が出るしなあ iSCSIならネットワークに出すデータ量減らせると考えればFSで圧縮するのが良いと思うぞ >>961 家のCentOSでなんとなしにカーネルじゃないけどアップデートしたら、OSが壊れた。 というか起動に使ってたUSBメモリが完全死亡。 新しいUSBメモリにOSに入れ直して前と同じ環境にするだけで済むだろうと思ったけど、5,6年前に組んだマシンで、当時何をどうやったかの記憶も記録も全くなくなってたw ただのファイルバックアップ用マシンだったけど、元のファイルサーバーに不調が出て一新しようとしてる作業中だったから血の気が引いた。 >>970 ファイルシステム回りを眺めて(読んだとは言ってない)思ったけど、 圧縮で空いた分のブロックとか認識して追従するファイルシステムとかめっちゃ複雑そう zfsみたいに上で全部管理しないとすぐ限界が来るに1ペソ >>971 Windowsで重複排除はReFSからじゃないかったかな 評判は知らないけど >>974 ext4で暗号化が実装されてるのに圧縮がされてないのはその辺だろうね >>976 逆。 今の所、NTFSでしか使えない。 オフラインなのもあって、まぁ、普通に使えてる。 SUSEは当分xfsとbtrfsでいくんじゃないの
Ext4でも標準でジャーナリングシステムをつかっているのだと知りました。 それなら、xfsをわざわざ選択する意義ってなんなのでしょうか。 xfsか、枯れたExt4を使うか迷っています。
>>982 XFSはファイル一つ一つのサイズがデカい場合に良い性能を発揮するらしいので、 普段使いはext4でいいんじゃないだろうか。 > 枯れたExt4 ext4って枯れてるか?絶賛開発中だと思うのだけど。 枯れてるかどうかはわからんけど xfsのほうがはるこに歴史はあるが
>>982 です。 >>983-984 ext4ってまだ開発中だったんですか。すっかり枯れたものだと思いこんでました。 それどこか、xfsの方が歴史が長かったなんて。 CentOS 7ではxfsが標準になっているので、逆転現象ですね。 IMAPサーバの構築でメールファイルの管理だけをしたいなら、 使い慣れたCentOS 6で、ext4を使う方がいいかなあと思ってきました。 ext4にしとけ extundeleteできるのは便利やぞ
>>986 xfsは復活できないそうですね。 メモリも食うらしいので、 はい。もう少し、CentOS6でいきます。 SSDのような記録形式は、劣化してくるとコンデンサでいうリフレッシュみたいなことをしないと あまり頻繁にアクセスしないデータはいつの間にか電荷?の自然消失で壊れると聞いたんですが ZFSのスクラブはリフレッシュの代わりになりますか?
そんなことしても気休めにしかならないからバックアップ取ったほうがいいぞ
>>988 バックアップしたのを丸々リストアするのが一番負担の負担が少ない 細かいファイルを1個1個同じSSD内で完全にコピー→上書き移動とかしてると ディレクトリのエントリ(ファイルの一覧)への書き込み回数がとんでもない事になる ありです やっぱりきちんとバックアップも取っておいた方が良いですか 定期的にddでディスクを丸ごとHDDに保存してみようと思います
zfsとかReFSみたいなのなら劣化には有効なんだけど、従来のFSじゃ無理 だからデータ化け対策にMSまでもがわざわざ今頃になってReFSとかし始めてる訳で 3DMLCTLCのエラー訂正がどうなるかわからんけど、少なくとも寿命が来たUSBメモリに ソフトウェアRAID組んでext4辺りで適当なでかいzipとか放り込んでしばらく放っておいた後、 (フラッシュの類の寿命って読み書きできないじゃなくて、 データを保持できる時間が短くなる、だから待つのが重要) データレベルでのエラーが検出できないから、エラーが起きたり起きなかったりする ソフトウェアRAIDだけじゃなくて、ハードウェアRAIDも同じ あれは律儀に両方の物理ドライブから読み込んで、両方のセクタの内容を比較とかしてない (ハードウェアRAID0+1だと、先ず間違いなく片方からしか読んでないし、 普通のミラーリングでも定期的に読み出す物理ドライブを切り替えて寿命を延ばそうとしてる) Win10の記憶域プールの類も同じで、プールから作った論理ドライブにNTFS切ると同じ問題が起きる RAIDはヘッドとかモータとかコントローラが死んだ時には止まらず動き続けてくれたり、 片方のデータで助けてくれたりはしてくれるけど、ECCかファイルシステムのどっちかが データの正当性を検証し続けてくれない環境だと、運用中のデータ化けには無力(特にSSD)
HDD も SSD も同じことだが、 RAID で DISK故障を発見したとき、 他の DISK のデータが一部消えてたという事態は避けなければいけない。 そのために、全データを 定期的に read することが重要。アクセスすることによって 訂正可能な範囲の劣化は修整される。 ダメならダメでデータが消えたことが発見できて RAID 使ってたら 修正も可能。 コピーオンライトなFSは、GC もあるし、そういう機能を持ってると思うけれども、詳細は知らない。
鯖向けのSSDでも、暗号化の類の保護はあっても、正当性の保証って意味での保護は滅多にない筈 (ちょっと考えればわかる)だからSLCとかで物理的な耐久で耐えようとしてるっしょ で、わざわざ電源断の保護とか謳ってたりするとこからわかると思うけど、 一般的なSSDの多くは書き込み中に電源落とすと、内部での イレース→書き込み で、 イレース直後に力尽きた時はセクタの内容がオール0とかになる 物理的な書き込みの順番を守ってないジャーナリングだと、 下手するとディレクトリエントリぶっ壊れて、ディレクトリ内のファイルの一部か全部ロストする 鯖向けの3Dは知らん
複数SSD + ZFS + 定期scrub でいい?
SSDは記憶場所の再配置も自動でやっているのでscrubなんて無価値だよ
lud20200829171418ca
このスレへの固定リンク: http://5chb.net/r/linux/1421502118/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。 TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「ファイルシステム総合スレ その17 [転載禁止]©2ch.net YouTube動画>2本 ->画像>1枚 」 を見た人も見ています:・流行り神 警視庁怪異事件ファイル 総合スレ 37 [無断転載禁止] ・ヤンマー舶用システム総合スレ [無断転載禁止] ・流行り神 警視庁怪異事件ファイル 総合スレ 39 [無断転載禁止]©3ch.net [無断転載禁止] ・ファイルシステム総合スレ その20 ・エロゲ板総合雑談スレッド その1157 [無断転載禁止]©bbspink.com ・エロゲ板総合雑談スレッド その1107 [無断転載禁止]©bbspink.com ・システム手帳 総合29 [無断転載禁止] ・Netflix総合スレ Part.7 [無断転載禁止]©2ch.net [無断転載禁止] ・【職人】MC・催眠系総合スレ その17【求む】 [無断転載禁止]©bbspink.com ・ヴァルキリープロファイル総合 Chapter154 [無断転載禁止] ・【東京マルイ】ガンサウンドシステム()総合 [無断転載禁止] ・【DQ10】 ハウジングシステム総合 1丁目 【ヒルズ】 [無断転載禁止] ・うさぎ総合スレ その113 [無断転載禁止] ・うさぎ総合スレ その114 [無断転載禁止] ・うさぎ総合スレ その123 [無断転載禁止] ・⊂Nintendo⊃任天堂総合スレ その3517 [無断転載禁止] ・棋戦情報総合スレッド その193 [無断転載禁止] ・棋戦情報総合スレッド その185 [無断転載禁止] ・棋戦情報総合スレッド その182 [無断転載禁止] ・棋戦情報総合スレッド その188 [無断転載禁止] ・SDIN将棋 総合スレ その10 [無断転載禁止] ・【PSO2】エロイSS総合スレ その124 [無断転載禁止] ・【PSO2】エロイSS総合スレ その120 [無断転載禁止] ・愛媛県松山市総合スレッド その12 [無断転載禁止] ・DXライブラリ 総合スレッド その19 [無断転載禁止] ・【PSO2】エロイSS総合スレ その113 [無断転載禁止] ・エロゲ板総合雑談スレッド その1105 [無断転載禁止]©bbspink.com ・エロゲ板総合雑談スレッド その1151 [無断転載禁止]©bbspink.com ・エロゲ板総合雑談スレッド その1091 [無断転載禁止]©bbspink.com ・グランブルーファンタジー 総合スレ 3357 [無断転載禁止] ・グランブルーファンタジー総合雑談スレpart9【転載禁止】 ・グランブルーファンタジー総合雑談スレpart25【転載禁止】 ・【C3マーケット】C3TOKYO(旧キャラホビ)総合スレ その12 [無断転載禁止] ・【田中のアトリエ】 金髪ロリ文庫/ぶんころり/幼怪軍団 総合スレ その14 [無断転載禁止] ・【田中のアトリエ】 金髪ロリ文庫/ぶんころり/幼怪軍団 総合スレ その19 [無断転載禁止] ・「転載禁止」A PROJECT総合スレ アクロス系ノーマル・ノーマル+RT その15 ・【田中のアトリエ】 金髪ロリ文庫/ぶんころり/幼怪軍団 総合スレ その18 [無断転載禁止] ・【悲報】天下のNTT様が販売したスマホg07のシステムファイルからトロイの木馬検出、本スレ阿鼻叫喚 [無断転載禁止] ・エロゲ板総合雑談スレッド その1123 [無断転載禁止]©bbspink.com [無断転載禁止]©bbspink.com ・にゃんこ大戦争 総合スレ255匹目 [無断転載禁止]©2ch.net [無断転載禁止] ・☆★ タミヤ新製品総合スレ vol.12 ☆★ [無断転載禁止]©2ch.net [無断転載禁止] ・【コスプレ女装】東方CJD総合スレ 3 [無断転載禁止]©2ch.net [無断転載禁止] ・【PS4/VITA】討鬼伝-TOUKIDEN-総合スレ 405討目 [無断転載禁止]©2ch.net [無断転載禁止] ・【PSO2】SS総合スレ その87 [無断転載禁止] ・アイドルマスター ライブ・イベント総合スレ Day99 [無断転載禁止]©2ch.net [無断転載禁止] ・【ニコニコ生放送】FX総合スレ720 [無断転載禁止]©2ch.net [無断転載禁止]©2ch.net [無断転載禁止] ・⊂Nintendo⊃任天堂総合スレ その3547 [無断転載禁止] ・⊂Nintendo⊃任天堂総合スレ その3537 [無断転載禁止] ・RPGツクール製エロゲ総合スレ その257 [無断転載禁止]©bbspink.com ・【UFC&Bellator】海外MMA総合スレ その667 [無断転載禁止] ・【UFC&Bellator】海外MMA総合スレ その697 [無断転載禁止] ・総合オイルスレッド74本目 [無断転載禁止] ・ラファエル(ごみKZ)総合スレ12 [無断転載禁止] ・【UFC&Bellator】海外MMA総合スレ その617日本以外】 [無断転載禁止] ・大人のモバイル板 総合質問スレ [無断転載禁止]©bbspink.com ・ゴッドファーザー総合スレ PART45 [無断転載禁止] ・【PSO2】ファイター総合スレ【184】 [無断転載禁止] ・Y!mobile ワイモバイル 総合スレ 62通話目 [無断転載禁止] ・【SNKのキャラファンが集まる総合雑談スレ】4 [無断転載禁止] ・グランブルーファンタジー総合雑談スレpart96【転載禁止】 ・グランブルーファンタジー総合雑談スレpart187【転載禁止】 ・App Storeゲーム総合スレ Part177 [無断転載禁止] ・DRM総合スレ その3 [無断転載禁止]©2ch.net ・兵庫県警総合スレ その10 [無断転載禁止] ・au WiMAX2+ 総合スレ その3 [無断転載禁止]