Linux iSCSI 友の会
■ このスレッドは過去ログ倉庫に格納されています
貧乏人でもiSCSIが使用可能なLinux-iSCSIについて語ろう。 FreeNASよりも高速、クラスタ対応のファイルシステムを使えば共有も可能。 NFSよりも圧倒的に高速です。 The iSCSI Enterprise Target Project http://iscsitarget.sourceforge.net/ ttp://akiba-pc.watch.impress.co.jp/blog/archives/2007/01/windows_vistais.html 来のOSと異なり、Windows VistaにはiSCSIデバイスを利用するためのソフト 「iSCSIイニシエーター」が標準で用意されているため、 ネットワーク設定をするだけでiSCSIデバイスが利用できるようになっています。 ttp://itpro.nikkeibp.co.jp/article/COLUMN/20060313/232309/ データベース・ソフトのように高速な入出力処理が必要な場合は, ファイル・システムを経由せず,アプリケーションから 直接ディスクにアクセスすることも可能である。 こんなのもあるよ! This is Intel's Open Storage Toolkit. It contains reference implementations of Internet SCSI (iSCSI) and Object-based storage devices (OSD). There is also support for synthetic workload generation, workload characterization, and I/O tracing and replay. Intel's Open Storage Toolkit http://sourceforge.net/projects/intel-iscsi >>6 お、俺もお前のこ(ry 玄箱のiscsi target化の記事があったら欲しいかな Solaris iSCSI Target/Initiator ttp://blogs.sun.com/yappri/entry/iscsi_on_solaris Solaris でも iSCSI Target/Initiator が構築できることをご存知ですか? (略)改良は続けられており、Nevada build 54 では、ZFS ファイルシステムとの連携が可能となりました。 iSCSI vs ATAoE ttp://mattwork.potsdam.edu/projects/Presentations/ATAoE/img4.html 関連スレ Windows←ファイル共有→Linux どうしてますか? http://pc11.2ch.net/test/read.cgi/linux/1064987210/l50 > +4/lbP11様 この調子で外部ナレッジを積み上げていっていいところで wikiか何かにスピンアウトしましょう おまけ ttp://www.freez-md.jp/movable/s30s/archives/images/n-botan-thumb.jpg 右 > +4/lbP11 左 > +fo3Eq3t 関連スレ 【NFS】Network File System ttp://pc11.2ch.net/test/read.cgi/unix/1143513761/l50 DFS専用スレもあったほうがいいかもしれないですが あまり欲張らない… NBD + Device Mapper + OCFS2 + 動的にノードを追加 ttp://d.hatena.ne.jp/viver/20070726 Network Block Device (TCP バージョン) ttp://www.linux.or.jp/JF/JFdocs/kernel-docs-2.6/nbd.txt.html Linuxのみの環境だとこちらも捨てがたいかも FreeBSDのiSCSIは実装中 ttp://www.freebsd.org/projects/ideas/#p-iscsi Wikipedia iSCSI ttp://ja.wikipedia.org/wiki/ISCSI RedHat GFS ttp://www.9203.net/pukiwiki/index.php?HA%2FCluster%20Filesystems%2FGFS(RedHat) 自演するならもう少し時間を空けてカキコしないとすぐわかっちゃうよ ID:+fo3Eq3t ID:+4/lbP11タソ とりあえず晒しage 自演ってわけ分からないんですが とりあえずフシアナ 出来れば煽りじゃなく構築に参加してくれると嬉しいんだが>>17 人手が足りないもんで 名前欄に、fusianasan スペルが違うんじゃないのか? 【絵で分かるキーワード】iSCSI ttp://review.ascii24.com/db/review/hard/hdd/2003/04/29/643332-000.html ATA over Ethernet ttp://en.wikipedia.org/wiki/ATA_over_Ethernet 邦訳無し 有償のWindows用実装あり ttp://store.shop2degreesfrost.com/rdstrport.html >>24 興味深いね 自分も調べてみますが 調査をお願いしてもいいですか? IPv6との相互運用性についてもどなたお願いします 【あいすかじー】 アイスかじってる感じ? まぁともかく余ってるPCで遊んでみっかな OSによってドライバ無かったりするので 闇鍋感覚で煮込みながらいきましょうや どうでもいいがUNIX系ならカーネルにドライバが組み込まれてる WindowsやMacでは当然対応してるはず ドライバ無いOSって他に何があるんだ? 全然闇鍋で行く必要がないのだがその点どうよ? お、タイムリーなスレだね。 自分も今これで遊んでます。 Server(amd64+Intel PCI-e GBI) + client(amd64 + Intel 82566DC-2)で 83mb/s までは確認しました。raidじゃないんでこれ以上は出ません。 windows xpのiscsi bootは出来ないのか? initrdみたいな仕組みがないWindowsでiSCSI BOOTはOSより前にiSCSIが動いてないといけないから iSCSI HBAが必要になる iSCSI HBAが必要になってしまうのか。 たしかintelのサーバー用nicはiscsi HBAになれるようなんだが。 なんとか出来ないものかね。 linuxは別にそれでかまわないが、Windows XPはどうするのよ? Microsoft connectに入らないと入手できないがMicrosoft iSCSI Software Initiator Boot Versionで2003は動く。 XPは知らね。 2003はiscsi bootできるのか。情報ありがと。 けど、disklessがありがたいのはクライアントだから、 xpにも出来てほしいところ。 流行追いかけでサーバ仮想化+iSCSIなら2003では実現できて欲しいな vmwareもpxeエミュレーションできたような気が xpでできちゃうとファットクライアント排除の流れに繋がりそうw M$にとってはマズイことかも xpでpxeブートそのものがM$製品のみでは実現できなかったような気がする お、なんとタイムリーなスレだ 遠距離ディスクマウントとしてsshfsの類を使ってみたのだが、良くも悪くも微妙なレイヤで、 やはり可能であればiSCSIの方が・・・と思ったものの、これ、遅延特性どうなんでしょ? 安物100Mラインじゃダメかな。 ググったら実験結果はあるんだけどそれぞれ前提環境が違うー。使って居られる方いかがでしょうか? で、SLES10の愛SCSIはIET由来なのかい? iscsitargetとsstorageどっちがいいかな? iscsitargetのほうが安定してるんだろうか Windowsには手軽なイニシエターとターゲットのツールがあるようですが Linuxの場合はカーネルコンパイルが必要なのでしょうか? リア厨 ハ,,ハ ( ゚ω゚ ) お断りします / \ ((⊂ ) ノ\つ)) (_⌒ヽ ヽ ヘ } ε≡Ξ ノノ `J コンシューマ向けネタとしてPS3 LinuxのBlu-rayドライブをiSCSIターゲットとして 他のマシンから使うっていう話があるね。 とはいっても読み込みしかできないドライブなのであまり使い道が無いんだけど うぉ、iscsiのスレが建つなんて。 DELL PowerVault MD3000i http://configure.apj.dell.com/dellstore/config.aspx?c=jp&l=ja&s=bsd&cs=jpbsd1?&oc=6282SStandardMD3000i CentOSやRHELから、 カーネルの再コンパイル無しに使えるんでしょうか? その場合は、/dev/sda みたいに、SCSI機器っぽく使えるのでしょうか? nfsにしようと思っていたんですが、まだiscsiは危険でしょうか? >>49 まさに/dev/sdaの様に、SCSI機器みたいにみえます。 iSCSI Initiatorを提供しているバージョンのRHELやCentOSなら カーネルの再コンパイル等は無しでいけます。 (Dellの推奨がどうなっているかはさておき) DASの様に使うのであれば、iSCSIで全然問題ないと思いますが NFSと比較している前提が複数ノードからの共有目的なのであれば、 iSCSIを選択するとクラスタファイルシステムにも慣れる必要が あるのでNFSにしておいた方が無難かも。 .__ ((|ノ・∀|ノプルルン ハーッハッハッハー! プルルン|__|)) 今日は特別サービス! ) ) このようかんマン様がプルルンしながら登場だ! iSCSIってレイテンシとかスループットで普通のディスク的に考えていいの? 直接アタッチされるDASならドライブ毎、バス毎に両方とも帯域保証というか 最初から分離して確保できるけど、iSCSIで多数台が接続利用する形になったら ウン十[ms]のレイテンシとか、数[MB/s]のスループットとか単品ディスクに 比べて1/10位に簡単に激減しそうで不安・・・ スペックや環境にも依るが80%ぐらいは出る ランダムreadは単独より高かったりしてわけわからん Targetのメモリをキャッシュとして使うからじゃないの? GbEはBondingして、メモリ8Gとかで使ったら速そう。 >>52 パフォーマンスが気になるならハードウェアのiSCSI使えばいいと思うんだけど。 iSCSIを最近本格的に利用しているが、超快適だ。 nfs/sambaなんて比較にならないほど早いし快適。 ファイルサーバーに全てのHDD(10台w)を割り当てて3TBの環境を実現してるが、 使いやすい。 windowsも稀に必要になって使うが、 linux server(lvm -> iscsi-target) + linux client(iscsi-initiator + vmware + windows(physical drive認識))がとても快適。 linux clientはdiskless構成で、リビングに置いてHTPCとして活躍しています。 windows xpのiscsi bootはうまくいかないのが残念。 target/initiator共にlinuxです。 失礼、よろしければディストリビューションとバージョンを教えてくださいませ。 デストリはserver/client共にUbuntu 7.04-amd64-desktopです。 serverのカーネルは2.6.23-rc9で、clientは2.6.22-12としてます。 サーバーは高負荷時のパフォーマンスを意識して野良ビルドの最新版、 クライアントはrestrictedパッケージ等のコミュニテイのサポートのある カーネルを利用しています。 >>55 ファイルシステムは何にしてます? まあ、一人暮らしで使う分にはクラスタファイルシステムなんていらないんだよね。 >>61 今のところはext3とjfs。 そのうちocfs2に移行しようかと。 nfsのもっさりはもういやだ。 みんな、やっぱりTargetとGbEで直結してんのかな? インターネット向けとは分けたいよね。 求めている速度による。40MB/sとかの性能を求めているなら無謀。 使い物になるかという意味なら・・・11gでNFSとかだって使えるのだから 人間の我慢できる範囲内じゃないかな? ケーブルが引っこ抜けたときのリカバリはうまくいきますか? 以前試したときはリカバリできずリセットするしかなかったので。 無線LANでiSCSIの速度我慢できる人は6時間待ちぼうけくらっても深層意識から怒らない人だけ iSCSIで40Mb/sは問題ないレベルだと思うが。 10GbNICで450Mb/secという記録もあるし。 FCより将来性のある技術だろう。 >>69 おれも確実にFCは廃れると思う インフラがばらばらにあるのは投資と管理の両面でコストがかかり過ぎる 十分10GbEで性能的問題が無ければインフラ統合の流れは必ず起きると思うよーん Windowsだと、LinuxのBondingみたいなことできないのかな? >>73 意地悪しないで教えてくださいよ〜。 ググる時のヒントだけでもいいので。 >>60 Ubuntuかぁ・・・おいらも真似してみよう >>71 11gにしては頑張った数字の気はしますが 汚なすぎるだろ、内藤。グローブで頭抑えていいのかよ。とてもじゃないが 祝福できないな。審判も酷すぎだった。内藤の反則をもっと取れよ。まじ、いい 加減なジャッジだったな。明らかに、内容的には大毅が勝っていたよな。先月の メキシコでの合宿でかなり成長したな。次は長男が内藤に挑戦だな。大毅から内藤攻 略を伝授してもらえば楽に勝てるだろ。俺はいつまでも、亀田一家を応援するぞ 頂上決戦に相応しい豪華なカードでしたね、特に亀田は人気もありましたし。 防御はあまりしないので、点数を取られすぎたのが今回の敗因でしょうか。 攻撃面は本当に素晴らしいものがありますね、終始KO狙いの戦い方でしたし後半の スパートは思わず歓声を挙げてしまいました、それに引き換え内藤は逃げてばかりで 汚いですね、あれがチャンピオンの戦い方なんでしょうか。 祝福をあげるべきなのは最後まで正々堂々闘った亀田選手だと思います。 加減の解らん奴らだな、いい加減にしろよな、このオタクども 刈り上げるぞ。大毅はな、雨の日も、台風の日も、雪の日も 畦道を一生懸命、走りこんで練習してんだよ。反則があった、無かったって キリがないだろ。大毅のしゃがみ姿勢からの 攻撃は、反則じゃないんだよ。解ったか? 咬みつくことしかできない、アホどもめ。 チャンピオンの風格があるのは断然、亀田大毅だよね。 次は絶対勝つと思う、と言うか今回も内容では勝ってたからね。 チャンピオンの反則に押されて力を出し切れなかった所が残念です。 冷静に見れば亀田の勝ちなのに、内藤の反則と逃げてばかりの戦法、 加えてチャンピオン贔屓の審判団、すべてが不利に働いてました。 メールで講義したけど無視されました、亀田も相当落ち込んでると思います。 町でもしあったら皆さん励ましてあげましょうね >>79 長城のあたりがよくわからんからネタバレ頼む なあ、Openfilerどうよ? iSCSI target機能もあるらしいんだが。 http://www.openfiler.com/ >>83 別にいいんじゃない? 俺はXやらデスクトップが使いたいからUbuntu使っている。 | | | |■ヽ |_|,・∀-、そ〜 |鮭|o(,,■)o. | ̄|ωJ | | | |/■ヽ |_|(,,・∀・) |鮭|o .ヾ ,.-、 | ̄|ωJ' (,,■) <コトッ | | | | |_| ピャッ! |鮭| ミ ,.-、 | ̄| (,,■) すごいプロトコルなのにいまいち注目度低いよな。 バッファローやアイオーのNASで対応製品とか出て良さそうなもんだが。 USBなんかより速いだろ? ケーブル一本で接続すればすぐ使えるってもんでないしトラブル起きたらバッドノウハウの倉庫になりそうだから N5200PROとか有るけどな ケーブル一本で使えるようになるとは思うが、そこから先が結構難しい。 ocfs2が使えるlinuxなら今のNAS(cifs,samba,nfs)程度の使い勝手は簡単に実現できると思うが、 Windowsで使うとローカルHDDの変わりにしかならない。 WindowsはiSCSIでbootするにはお金がかかるし・・・。 色々やったがいまだにWindows XP iSCSI bootできてませーん WindowsではiSCSIのターゲットをNASのように使うのは不可能ってこと? windows XPでもイニシエーターとして使うのは問題がないが、SAN(iscsi target)から直接bootするのは 難しい。。っていうか出来ないの?やっぱり。 >>92 無理じゃないかな。アクセスできるとは思うが、ファイルシステムの整合性が壊れて ぶっとぶでしょ。NTFSじゃ。 でも、お金を出せばクラスターファイルシステムがwindowsでも買えたりするかもしれん。 >>94 いっちゃん簡単なのは、対応したHBAを買うこと。 本格的なのは結構高いが、安く済ませるならIntel PRO/1000 サーバ アダプタにiSCSI イニシエータのファームを入れるのがお勧め。 ( http://www.intel.com/jp/support/network/sb/cs-006120.htm のISBOOT.EXE ) PXE bootからiSCSI対応のOS loaderとドライバを読み込んでWindows を起動するには、emBootが出しているnetBoot/iを買うのが簡単。 つまり複数台から同時にアクセスするにはクラスタファイルシステムが必須だが、 Windowsに対応したものがない。だからWindowsからはNASのように使えないということですか。 単体で使うにもNTFSでフォーマットしなきゃダメなんですよね。やっぱ NASのように使えないって表現はおかしくないか? 共有ディスクじゃ? >>97 たしかに表現がおかしかった。その通りだね。 <自作前> ____ /_ノ ' ヽ_\ /(≡) (≡)\ 新しいパーツが沢山出てきたおw /::::::⌒(__人__)⌒::::: \ どれがいいかネットで色々調べるおw | |r┬-| | 今度買ってきて組むおw \ `ー'´ / もうwktkが止まらないおwww <組んだ後> / ̄ ̄ ̄\ / ─ ─ \ / (●) (●) \. なんかもう自作とかどうでもいいわ | (__人__) | \ ` ⌒´ / / \ <数ヵ月後> 一番上に戻る 困ったことになんとなく気分で組んでしまってからwktkモードに、 を繰り返している俺orz FreeNASってiSCSIのtargetもってるのね。 Linuxじゃないけど・・・ Virtual PC 2007 に CentOS + iscsi-target 入れて Vistaからつないでっみた。 1MB/sec USBより遅いかも・・・ Vistaがinitiatorとして読み出す host-guest通信発生 CentOSがtargetとして反応→(仮想)ブロックデバイスにアクセス guest-host通信発生 Vistaが実ファイルなりブロックデバイスにアクセス host-guest通信発生 CentOSがiSCSI target応答を生成して返す guest-host通信発生 VistaがiSCSI応答を受け取る 都合4回も同じ通信パス上で行き戻りがあったら、そりゃ遅いわな。 さらにVistaでファイル共有サーバを立ち上げて、それをCentOSで smbfsマウントしてhttpd立ち上げで、そのhttpdをVista側のIEで アクセスとかすれば完璧。 >>105 httpdってなんでいるの? mount -t cifs 〜 /mnt/win 〜 ごにょごにょ # /etc/init.d/iscsi-target start ごにょごにょ open_path(118) Can't open /mnt/win -21 fileio_attach(268) -21 だめっぽい。 >>106 いやhost<->guestを死ぬほどピンポンする往復ビンタ構成を更に 強化するにはCIFSで更に通信して、その上でhttpd動かして・・・とやれば、 VMにたとえればxenの上でvmware動かして、その上でvirtualpc動かして、 その上でbochs動かして、その上で・・・ていう無限亀構成遊びみたいで 面白いね、というだけ。なので意味はないです。 Alcohol 120%って、Windowsの共有フォルダをiSCSIデバイスとして動かせるらしいんだが…。 これ試してLinux上のイニシエータから接続できた人います? ベンダーサイトにはそんな事見当たらないけど、どうやって設定するの? ファイルをiSCSIデバイス上のディスクイメージとして見せるなら分かるけど。 フォルダをiSCSIデバイスとして動かすって…どゆこと? ttp://forum.alcohol-soft.com/files/alcohol_help/englishmanual.html ここに「Sharing a Drive using Alcohol iSCSI Server」って項目があるのでできるんじゃない? スクリーンショットを見ると光学ドライブ限定のようだけど。 GbEをボンディング(チーミング)してiSCSIの速度を高速化してる方いらっしゃいますか? >>108-112 おそらく、「ローカルPC上で、ネットワーク共有を有効にした光学ドライブ(Alcohol120%の仮想CD/DVDドライブも含む)を Alcohol iSCSIサーバ経由でiSCSIターゲットにできる」ってことじゃない? #ようは1スピンドルPCとかでCD/DVDを使用する際、何らかの事情によりLAN内別PCのドライブをLAN経由で使う場合に #おいて「SMB経由でのアクセスでは出来ないことを行う」時に"別PC側"でtargetとして使い、1スピンドル側でinitiatorを #使ってゴニョ、なのでは? えらくニッチな用途だな。 クライアントがWindowsの場合だとあんまり意味なさそうだけど・・・。 WindowsXPでiSCSIブートできないですね。 白いバーは見えたのでブートローダは読めてるんですが,その先でつまづきます。 FedoraやCentOSならたやすくiSCSIブートできるのに。 残念ですね。 いまいち理解しきれないんで教えてください iscsiターゲット4台 クライアント側2台 全部linux この状態でクライアント2台ともからiscsiを同時利用するにはocfsやgfsを使えば良いってのは把握 このiscsi4つを使って負荷分散とか冗長構成とるのはどうすればいい?mdadmでraid?lvm -mとか? >>120 冗長構成という意味でいうと、iscsiバス上でのソフトウエアRAIDは意味ないよ。 ハードウエア側に障害があった場合にターゲットが無反応になってしまい、 クライアントからディスク全体が見えなくなってしまう。 ターゲット内部でハードウエアRAIDを組めるものを使う必要がある。 >>120 iscsiをmdadmで冗長化するにはもう一台コントローラとなるPCが必要。 そいつが4台のiscsiターゲットをRaidでまとめて1台のiscsiターゲットにすればいいと思う。 でもやったことない。 LVMミラーは使ったことないのでよくわからん。 ミラーリングするならDRBDを使うって手もあるけど,無償版で2台まで,有償版で3台まで。 2台でprimary/secondary+HeartBeatでHA構成ならわりかし簡単にできる。 DRBD+LVSで負荷分散できなくもないけど,複雑でオーバーヘッドが大きいからやめたほうがいい。 たぶんRaidのほうがマシで簡単。 >>121 どういうこと? iscsiは伝送路としていまいち信頼ならんってこと? それとも、ソフトウェアRAIDが信頼ならんのか? iSCSIのプロトコルしゃべるところがクリティカルパスになってるから iSCSI経由で2つの「ブロックデバイス」を出してもらう形のSW-RAIDは 役に立たないよ、ということかと。 ローカルでもバスコントローラが逝ったら同じことだが、信頼性は またネットワークより上だろうし、2枚ざしとかもコスト的には可能だから そちらにしろ、ということかな? 良スレ発見。 とりあえずopenfilerで立てたtargetがあるので、M$のinitiatorのboot版を試してみる。 windowsからもクラスタファイルシステム使えるようにならないかのう >>121 iscsiターゲットマシンでもRAID5は構築済みです 4台を別L2スイッチ下にして、RAID5か1+0にしたらスイッチ障害でも何とかならないかなーと・・・ >>122 コントローラー役マシンで複数iscsiアクセス可能にして、そこでRAID組めば良いって事ですね LVSは大変そうですねえ・・・ >>13 のNBD+DMでやってるのはコンカチとストライピングできるようで、ひとまずこれをiscsiでやってみようかと思ってます ただ、これっておそらく全iscsiターゲットで同じようにデバイス名設定しないとならないと思うんですが (マシンAのiscsiデバイス名は全てのマシンから/dev/sdm、マシンBのiscsiデバイス名は全てのマシンから/dev/sdoみたいな) これって、iscsiadmコマンドじゃできないですよね?udevでできる? >>10 のSoftware Storageが良さそうなんですが、開発止まってますね・・・ Linux TargetのMac TM initiatorで使えてるぉ iSCSIはNFSの代わりのように複数のマシンから同じスライスをマウント出来たりしないの? >>130 ストレージプロトコルと共有サービスをごっちゃにするなよ。 iSCSIはSCSIをIPネットワーク上に乗せただけで、排他制御やファイルの管理は ファイルシステムなどの仕事だ。 すまん、Knoppixのスレに書いたつもりだった。 クラスタファイルシステムと合わせて使えば複数からマウントできたりするんでないの? そういう使い方ができるのかどうかは知らんけど。 Red HatのGFSはそういうファイルシステムだな。 IntelのServer AdapterをiSCSI HBAに書き換えて、CentOS5にIET突っ込んで、 クライアントにWindowsXP入れたら、iSCSIからBOOTできた。 でも、クライアントがVIAチップだから、4in1ドライバを導入しようとしたら、そこでHUNG 。 ちなみにIntelのServerAdapterと、StarWindの組み合わせだと、接続できなかった。 バッファロー、iSCSI対応のRAID対応NAS「TeraStation IS」 ttp://pc.watch.impress.co.jp/docs/2008/0130/buffalo1.htm 製品情報 ttp://buffalo.jp/products/catalog/storage/ts-igl_r5/ ttp://buffalo.jp/products/catalog/storage/ts-rigl_r5/ Windows系しか対応OSに書いてないけど。 WindowsXPから使えるクラスタファイルシステムなんて無償では無いよね? このディスクをSMBで共有しようとすると、ネットワークがボトルネックになりそうだから、 速度が気になるならNIC2枚挿さないと駄目かな。 >>138 windowsとlinuxで共通で使えるクラスタFSが欲しいな。 ocfsがそうなんだと思ったんだけど、windowsの情報が探しきれない。てこた、windowsは使えないんだろうか...? >>138 Windows Server Enterpriseのライセンスを真っ向から否定しにかかる ソフトウエアなんて作れるはず無いだろうに。 >>139 ocfsのWindows版ならOracleのクラスタ製品のオマケに付いてくるはず。 とはいえ、いずれもServer OS用だが。 >>140 お、Enterpriseって、現行の2003のでも対応してるの? Open-iSCSI に興味を持ち始めたんだが、 冗長化ってどうしてる?? まだ調査中なので間違って理解しているかもしれないが、 GFS2やOCFS2は、ext3 と異なり、同時書き込みしてもデータが破損されないような保障をしてくれているんだよな? んで、冗長化するのであればDRBD0.8を組み合わせる必要があるって結論になってるんだけど、あってるか??? 他にストレージノードを冗長化するためのOSS技術について知りたいんだが。。 >>146 お舞いはまずスタック階層が違う事の認識からやり直せ >>146 ってそんな外したコトいってるか? iSCSIを構成する物理デバイスでの冗長化ではなく、GFSとかが利用する ブロックデバイスレベルの冗長化をDRBD以外にOSS系の方法であるか?って 聞いてるんだろ? あえていうならiSCSIのレイヤじゃないからスレ違いということになるが、 このスレはそんなケツの穴小さくないし。 ただでさえ少数民族なのに、変な煽りを入れるなよ。 滅ぶぞ。 >>146 んーというか、何を冗長化させたいのかがわからん。 path? target? targetを作ってるHDD? どこの部分よ? 最近、iSCSI Enterprise Targetの開発状況が停滞している感があるけど、どうよ? >>153 まあ、なんでもいいけど、iscsi_trgtはカーネルソースにマージほしいな。 IETは、クライアントから大きな連続データのアクセスが多い時は ietd.confで Type=blockio にしてOSのバッファキャッシュを使わない ようにしたほうが速い。 それでも連続read/writeしながら、転送状態をモニターすると 約20秒に1回、データの送受信が1秒弱止まり、引っかかるような動きをする。 RHEL5やCentOS5の場合、scsi-target-tuilsなるパッケージが入っているようだ。 スレ違いだけど windowsXPをたターゲットにするフリーなソフトってある? ttp://respection.exblog.jp/2042762 >>161 thx DVDドライブが接続できて便利になったわ >>162 無料のPersonalだと物理ドライブを扱えないみたいだけど、Professionalを入れたんかな? Alcohol 52%のFree Editionで出来たよ (ツールバーが同梱されてるけど、インストール時に除外できます) Windows→Windowsで使ってるんで、板違いだけどw >>163 フリーのやつだけど ディスクは仮想ファイルでしか試してないけど DVDドライブはちゃんと使えたよイニシエータからは物理ドライブに見えて PowerDVDとかでDVDみれたよ Fedora 6なのですがこんなエラー出ます なんでしょ iscsiadm: initiator reported error (5 - encountered iSCSI login failure) iscsiadm: Could not execute operation on all records. Err 107. >>164 そですかー 昨日登録しようとしたときは、RAMディスクを作るか、イメージファイルを作るかの2種類しか選べず、 ほかの選択肢はグレーになってたんで、無料だとそんなもんかと思ってました どこか設定を間違ってたかな (もう消しちゃったけど >>167 もしや、フリ版のレジストコードいれてないんじゃない? >>168 もう一回やってみたんだけど、やっぱ同じだった>< ↓やったこと ttp://www.rocketdivision.com/download_starwind.html の Personal の Downloadボタンを押す メールが届く インストーラとシリアルキーをダウンロード インストール後、シリアルキーを登録 公式には、PersonalでDiskBridgeプラグインは使えないっぽいんで、 Professionalをフリーで使う方法があるのか、Personalでプラグインを有効化する方法があるのかなと思うのですが。。。 いろいろ探してて、公式フォーラムにこんなスレを見つけました。 英語あんまし得意じゃないけど、無料厨に対して最後スタッフが切れてるような気がする。。。 ttp://www.rocketdivision.com/forum/viewtopic.php?t=49 えー、板違いのネタを続けるのもアレなんで、LinuxからWindowsへ接続できるかどうか試してみました^^ Initiatorは、Fedora8のscsi-target-utils(tgt)です。 StarWind Personalでimgファイルを使う場合と、Alcohol 52%でDVDドライブを使う場合でやってみて、どちらもOKでした。 >169 Personalをインストールする RocketDivisionのレジストリを保存しておく Personalをアンインストールする Professional(期間限定)をインストールする 保存しておいたレジストリを書き込む レジストリキーの、ある部分を0から1に変更 再起動 ウマー! VMWare(VMFS)+iSCSIを検討してるんですが、LUNをマウントする時って 複数のホストからマウント出来るんですか? キャッシュの中のデータとかが整合性取れなくなりそうな・・・ ファイルシステムとiSCSI機器の両方が対応してる必要があるのかな。 それをやりたいんだけど、どーも出来そうにないんで 疑似でエキスパンダ機能も追加できないか探してるんだけど、見つからない……… >>171 VMotionするつもりなら、 ESX Enterprise 2本とVirtualCenter で合計200万円オーバーだから、 EMCの一番安いストレージを100万円で買うくらいの予算あるだろ。 >>173 200万の予算で半分余ってるって発想がおかしい >>40 そのリンク先じゃスルーしてしまう http://www.etherboot.org/wiki/sanboot This method allows you to boot operating systems that do not usually support network booting, such as Microsoft Windows Server 2003, Microsoft Windows XP >>170 なるほどねー ありがとう、覚えておきます^^ >>177 ああ、それようやく出たんだ? パフォーマンスとか使い勝手はどうですか? >>155 結局、ietがいいのかlinux-iscsiがいいのか、どっちなの??? 沖縄データセンターにTeraStationかよ(w 微妙にスレチなのを許して下さい。 win2ksp4にmsのiscsiイニシエ2.06を入れたんですが、NTFSフォーマットまでは正常終了 するのに、そのドライブを開こうとすると「デバイスが見つかりません」と言 われてしまいます。 XPに同ドライバを入れた場合は問題なく読み書き出来ているので、Linux側の 問題とも思えませんし。一応公式に2k対応のはずなんですが。 2kでmsのドライバが使えてる人っていますか? なんかネタがないね 簡単につながってサクサクうごいちゃうから、ネタがないもんなのかな 個人レベルの使い方としてはどういう使い方してるんだろ? じゃぁ、ネタ振りついでにずうずうしく質問をしてみる。 ・DVD-ROMドライブやUltriumテープドライブなどをLinux箱に付けてiSCSデバイスにして 他マシンに使わせる方法ってある? ・AX100iのようなローエンドも含め、専用iSCSIストレージは大抵スナップショット機能があるが http://www.atmarkit.co.jp/ad/emc/clarix0512/ax02.html Linux iSCSIサーバーソフトウェア 自身がこの機能を持ったものはある?それとも、公開しているボリュームはLVMで切り出し、 そのLVM snapshotを取るといった運用をするしかない? >>189 その > Linux iSCSIサーバーソフトウェア自身がこの機能を持ったもの というのが良く解らないが、サーバソフトがiSCSIイニシエータ/ターゲットの 機能、及びSNAPの機能を実現するものという解釈でよければ 残念だがLinuxでなくWindowsベースで動作するのだがSANmelodyという製品を知っている。 ※微妙に板違いでもうしわけない これならAX100とかAX150を保守つきで購入するより安く上がるかも? >>190 有難う。さすがにSANmelodyとかになるとしっかりしてるよね。 iSCSIでストレージ統合をする場合って、やはりスナップショットは最低でも使えて、 MicrosoftのVSS, VDSや、OracleのRMAN等に対応してて、サーバー無停止で スナップショットを取れるというのが欲しいよね。 現状、オープンソース系のiSCSI targetでは、そこまで出来るのは無いのかな。 >>175 おお、XPのネットワークブートとかできるようになってるんだな いろいろ試してみたい物が多いんだが全然時間取れないorz >>187 高速化チューニングネタとかどうっすか。FSのブロックサイズでかくしてみるとかなんとか あとはインターネット経由の実験例は出てない気がする 旧聞だし板違いだが、ここはiSCSI総合の役目も 無きにしも非ずと勝手に判断して NetBSD 4.0 http://www.netbsd.org/ja/releases/formal-4/NetBSD-4.0.html iSCSI ターゲット (サーバー) のコードが追加されました。 iscsi-target(8) をご覧ください。 イニシエーター (クライアント) のコードは作業中です。 あまりBSDいれるきはしないんだけど FreeNASがiscsiサポートしてるのにちょっと期待してる ZFS使えるようになったらsolaris10からFreeNASへ浮気するかもしれん・・ >163 去年の8月バージョンだけど、Starwindservice.exeが以下のレジストリキーをチェックして 日付データより体験版の残り日数を確認しているみたいです。 [HKEY_CLASSES_ROOT\CLSID\{B0519608-8C70-D5F2-5E14-AC748D51494E}\TypeLib] "40E7"=hex:f6,d2,53,b0 CLSIDの値が同じかどうかは分かりませんが、TypeLibの下に40E7というキーがあれば、その 40E7のキーを削除すれば永遠に30日限定版が使えるかもしれません。 (40E7のキーが無ければ、キーを作成してその日の日付?を登録しているみたいです。) レジストリモニタ regmonとかで監視すれば、Starwindservice.exeがレジストリにLicenseキー があるかどうかを16回チェックした後に残り日数を確認していますので、一度regmonで確認して みてください。 WindowsでiSCSI使っている人のスレってある? 見つけられない。。。誰か誘導してくれ。 >>199 それは必要なのであれば自分自身でWindows板に立てなさい。 バッファローが出したあれがあるからハードウェア板の iSCSIでLinux-Winといった使い方は結構あるだろうし、分離されて無い方が良さそうだけどね。 と、Linux板で言うても仕方ないがw このスレもWin関連の話題多すぎる気はする Open-iSCSI を CentOS5.1 で使ってみたんだけどさ、 initiator って、target から強制ログアウト出来るのだろうか?? 色々テストしているうちに、以下の nexus (initiator) の残骸が残っちゃって、 tgtadm --lld iscsi --op delete --mode target --tid 1 が実行できなくなっちゃったんだよ。 セオリーで言えば、initiator 側から logout すべきなんだろうけどさ、 今後の運用を考えると、ユーザーにそんな依頼も出来ないケースが想定できるから、 なんとか target 側で強制ログアウトする方法を把握しておきたいんだが。。 そんな時、みんなはどうしてる??? # tgtadm --mode=target --op=show Show Status iSCSI target: Target 1: iqn.2008-04.<略>:storage.iSCSI0 System information: Driver: iscsi Status: running I_T nexus information: I_T nexus: 8 Initiator: iqn.1994-05.<略>:35665b705b4e Connection: 0 IP Address: 172.16.110.173 I_T nexus: 9 Initiator: iqn.1994-05.<略>:5bcc7e76a726 Connection: 0 IP Address: 172.16.110.183 遅ればせながら、intel PRO/1000 PT Server Adapterを買ってみた。 秋葉原を数時間捜索して、何とか見つけた。スズデンオレコン? しかも下手なGbE搭載ママンより高いな。(T_T) 取りあえず、CentOS5 tgtd環境が出来たので、 iSCSIブートで、Win2008評価版から試してみようと思う。 その後、vista homeとxp homeのブートが出来ないか、凸撃する。 凸撃結果^^; ISbootとtgtdの相性は最悪。 OSインストール中にリブートが掛かると、 LANカード、tgtd間のセッションが残り、 再接続で毎回エラーになる。ありえん。 ターゲットをiscsitargetの最新版に 差し替えたら、何とか安定した。 ISBoot.exe Ver13.0 (PRO/1000 PT) iscsitarget-0.4.16.tar.gz で、各OSの状況だが、 2008評価版は非常に良い感じ。 HDD無しで起動する。全部のLUNが見える。外部とも繋がる。 (インストール中にDISABLE設定のSATA HDDへアクセスしている気配があり、焦った。) 残念な所は、製品版が高くて買えないと言う事実だけだ。 VISTA HOME(32Bit)は・・・ インストール時にターゲットを認識できず。 FDにドライバを用意したが、読み込めない。 インストールさえ出来なかった。 XP HOMEは思った以上に良い感じ。 インストール時に2003用のFDを読み込ませた所、認識した。 クライアントはHDD無しで起動できた。 ただし、起動時にNICに設定したLUNのみ認識し、他のLUNは見えない。 まあ、XP Proや2003なら、Microsoft提供のイニシエータが動くからいいのか。 グラフィック、LAN、サウンド等のドライバーとの競合はなかった。 NICはターゲットへのアクセスで専有されてしまい、 外部との通信には使用できなかった。 LANドライバーを突っ込んだらフリーズして、起動しなくなった。(T_T) オンボードのNICで十分だとは思うが、他社のNICとの併用は必須だな。 Pro/1000dualとかだとポートが無駄になるっぽい。 XP用のイメージを複数用意して、各LUN番号へ設定すれば、 NICの設定画面から、起動したいLUNを選んでbootできると分かったので、 これで、通販やオンライン振込み等の環境をゲーム環境と分離できる。 かなり幸せな環境になった。 因みにマザーはSocket939のNVIDIAチップセット ttp://www.emboot.com/products_netBoot-i.htm ttp://www.emboot.com/netBoot-i-TechBrief_(How_does_it_work).pdf ttp://www.emboot.com/NBI_v20_Whats_New_Summary.pdf Uses standard Ethernet NICs - no requirement for iSCSI HBA >>209 のPDFを斜め読みしたけど、環境作るのが面倒だな・・・ PXEでiSCSIイニシエータを取得してるみたい。 このスレの誰かがやってくれる・・・きっと・・・ 確か2万円弱/clientって聞いた覚えが。 $95ってドコに書いてあったんですか?>>212 最近、LinkStationがiSCSI対応してるんだな。 安いのでも非公式対応ファームとかがある。 さすが、GPL。 SSHでトンネリングさせてインターネットごしに使ったが10MB/s位出た。 ターゲット/イニシエータ の種類とスペック晒して欲しい >>216 ターゲット:ubuntu hardy 64bit iet イニシエータ:ubuntu hardy 32bit open-isci 両方ともCore2Duoの2GHz位のマシン ドライブは単発SATA上のLVMを30G位切り出したもの イニシエータ側は100MのNIC 同一環境でsshfsだと2MB/s位だった VirtualBoxがイニシエータ持ってるのでSSHネット越しにマウントして Fedora9のネットインストールでけた 過疎ってるなー OpenFiler使ってるヒトいる ? >>218 遅すぎる。VIAC3の800MHzで、VIAオンボードの100BaseのNICとUDMA100の40GのFireBallでも8.5Mb/s出てる。 これ、透過的に物理HDDをiSCSIで使える? たとえば、WindowsのイニシエータからNTFSで使ってたHDDを取り外して、 他のWindowsPCに繋げてもデータそのまま読めるのかな? >>223 それいいな。 遠隔バックアップ用にはいいかもしれん。 target:CentOS5[tgtd] client:Windows Vista で、IPv6でつなげようと思ったのだが TargetAddressとして「[fe80::192:168:1:100%eth1]:3260」が帰ってくるものだから Vistaが素直にそれで接続しようとして失敗する このインターフェースsuffix(%eth1)消せないのかな? RHEL5をiSCSI initiaterとして動かしてるんですが,特定のiSCSIデバイスは毎回 /dev/sddにマッピングさせるような固定設定はできないんですかね? (iqnなどとデバイス名をマッピングさせる) devfsのせいでiSCSIデバイスをオフライン,オンラインにするたびにイニシエーター側の デバイス名が変わってしまうのを防ぎたいです。 >>229 すんません。devfsは昔のやつですね。いまはudevですた。 http://mux03.panda64.net/docs/udevrules_ja.html など見てみましたが,ベンダー名などのキーワードとデバイス名を結びつける感じですね。 ただ今回は、LinuxBoxに同モデルの2台のiSCSIがぶら下がっていて、両方に接続して RAID1する感じなので、 udevinfo -a -p `udevinfo -q path -n /dev/sdc` などしてみても固有の情報が見つからないですなー。シリアル番号みたいな情報を 拾ってくれてiSCSI1号機だったら毎回/dev/iscsia, iSCSI2号機だったら/dev/iscsibみたいに デバイス作ってくれれば良いのだけど。もちっとudev勉強しなくては。 >>229 >devfsって何? ・・・ちょっと愕然。 こんなのが威張ってんのか。 >>231 >>228 の背景知識と時間感覚(おそらくBSDユーザ)から 何(寝ぼけたこといってんの)? くらいの意 >> 233 ホウ!惜しいとこついてますね。けっこう長いことSolarisユーザです。 (Solarisユーザだからdevfsとかudevというわけではないけど) Solarisの場合はsdaやsdbじゃなく,iqnなんか(?)から拾ってくる情報で /dev/rdsk/c2t6090A01890CEBE312884042502156873d0 みたいなデバイスを作ってくれて,仮にOS再インストールしても iSCSIを一度オフラインにしても再び同じデバイス名を拾ってくれるので便利ですたよ。 LinuxだとiSCSIの疑似障害起こすだけでsdaが消えてsdbになったり, それに伴いRAID1のmdadmからsda外そうとしても「そんなデバイスありません」 と言われるから,いちいちMAKEDEV sdaしてmdadm -rしなきゃいけないとかで ちょっと面倒なわけですよ。 >>234 udev使え ttp://gentoo-wiki.com/HOWTO_iscsi > LinuxだとiSCSIの疑似障害起こすだけでsdaが消えてsdbになったり, > それに伴いRAID1のmdadmからsda外そうとしても「そんなデバイスありません」 > と言われるから,いちいちMAKEDEV sdaしてmdadm -rしなきゃいけないとかで > ちょっと面倒なわけですよ。 DRBD使った方がいいんじゃない? RAIDにしたブロックデバイスをiscsiでマウントすることはあっても、 iscsiでブロックデバイスとして認識させたものでRAID組むなんて やらないと思うぞJK >>234 > Solarisの場合はsdaやsdbじゃなく,iqnなんか(?)から拾ってくる情報で > /dev/rdsk/c2t6090A01890CEBE312884042502156873d0 つ /dev/disk/by-id/ つ /dev/disk/by-path/ つ /dev/disk/by-uuid/ >>235 BuffaloのiSCSI機器3台の構成でRAID5とかどう? RAID5+5みたいな感じ。 Buffaloって丸ごと死んじゃう事があるんで、 RAID5+5で安心感得られるかな、とか思うんだけど。 >> 235 > DRBD使った方がいいんじゃない? 予算無かったりパフォーマンスそれほど気にしない場合はdrbdも選択肢ですが drbdだと超パフォーマンス落ちますがな。 > RAIDにしたブロックデバイスをiscsiでマウントすることはあっても、 > iscsiでブロックデバイスとして認識させたものでRAID組むなんて > やらないと思うぞJK ぇー。HAクラスタの世界では、一方のストレージが丸ごと落ちた場合用に 筐体間ミラーさせるのがJKじゃないのー。少なくともSunClusterとか Veritas Clusterはそういう想定で作られてると思いますよん。 >> 236 そうそう,あれから調べてby-uuidなんかで引っかけるようにしてるのですが、結局うまくいかず。 障害を想定して、一方のiSCSI Boxを止めて/dev/md0に書き込み、再び iSCSI Boxを有効にすると当然/proc/mdstatでFault。でもこの状態で /dev/uuid名にアクセスすることができない。 KERNEL=="sd*", BUS=="scsi", PROGRAM="/etc/udev/scripts/iscsidev.sh %b",SYMLINK+="iscsi/%c-part%n" みたいなルール作っても,結局/proc/mdstatにはカーネルが最初に 認識したsdaやらsdbやらが書いてあるので、それが原因かと。 (/dev/sdaは障害時に消えて無くなって、iSCSI再接続後には/dev/sddみたいな新しい名前で カーネルに認識されるがmdstatはsdaという古い情報をずっと握っている) オペレーション面倒ですが、毎回MAKEDEVすることにしましたよ。 仕様と理解して自己完結したつもり。 >>241 大丈夫、おまえんとこの予算じゃ折り合わん。 予算最小限なら>>237 みたいな構成も 良いんでは? 単品20万以下で手配出来るし。 リビルド負荷がヒデー事になるかもしれんか。 >>241 の会社には予算的に手が出ないのかもしれないけど、この書き方だと初めて見た人が 「筐体間ミラー」=「アフォ」って勘違いするじゃん。 電源やコントローラ冗長化してても、共有部品やらファーム、オペミスやらが原因で 1台のボリューム丸ごとぶっ飛んだらどうすんのさ。君の会社は金融系に提案するときも 筐体間ミラーする必要ないほどの超人的な機械選んでるの? って、俺釣られてる? このスレで質問することじゃないと思うけど、 もし良かったら教えてほしい。 OCFS2(OCFS)ってのは、 共有ブロックデバイスを使用して共有ファイルシステムを実現する為のファイルシステムで、 iSCSI等で1つの領域を複数のホストでブロックデバイスとして接続し、 そのブロックデバイスを各ホストでOCFS2でmountすることにより動作・実現する。 ってことで合ってる? 各ホスト毎に専用の領域をブロックデバイスで用意し、 複数のホストでRAID(0/1/5)的に接続して、コヒーレンシを確保するファイルシステム ではないよな? 夏厨湧いたと思って教えてくれると助かる。 >>245 最初ので合ってる、と思う。 つかGFSしか知らなかったから調べてしまった・・・。 でも、よくよく考えてみたら、 「共有ファイルシステムを実現する為のファイルシステム」 なので、やっぱり合ってるよ。・・・多分。 自信なくてゴメン。 他にスレがないのでここで聞きます。 Microsoft iSCSI Targetって、仮想ディスクイメージしか使えない? 物理ディスクをそのまま仮想デバイス化するのは無理っすか? >>247 iSCSIはIP over SCSIであって、(i)SCSIの先にあるデバイスは不問だよ。 MS iSCSI Targetへデバイスを供給するのはInitiatorの仕事なので、 Initiatorがどのようなデバイスを利用、供給できるかが問題。 >>248 TargetとInitiatorを逆に理解してない? >>247 Windows Storage Server 2003 + Microsoft Software iSCSI Target ってことですよね?仮想ディスクイメージしか使えなかった気がする。 なんかWindowsのBOOT可能版イニシエータがConnect参加なしでOKになったな。 ttp://www.microsoft.com/downloads/details.aspx?familyid=12CB3C1A-15D6-4585-B385-BEFD1319F825&displaylang=en これは、盆休みのうちにXPでiSCSIブートやってみろってことか? って、ふと思ったんだが、 PXEで流し込むブートストラップどうするんだろ とりあえずマニュアル・ドキュメント読むか >>252 WindowsをiSCSIからブートしたいなら、WinBoot/iを買うか、 gPXEを使う必要があるよ。 gPXEからのWindowsブートは試したことないけど、結構大変そう。 いっそ PXEbootするようにする → NFSrootなLinuxで一旦起動 → VirtualBoxのiSCSIブートでWindows実行 でLinux最小構成分の32MB程度失うだけでiSCSI+Windowsを 簡単にできなくね? WindowsがInitiatorやらない以上iSCSIにこだわる必要性が全くないぞ とりあえずターゲットを用意して、Windowsからtargetとして認識するところまではできたけど これって、ドライバインストール用FDとか無いし、 nLiteとかで統合しても、ターゲットへの接続の設定がレジストリに入ってて面倒な気がするし、 結局、HDDにインストールして、HDDイメージを吸い出してtargetにしないと、起動HDD作れないんだろうか MSのマニュアルには、ややこしい手順が書かれてるけど、 MS鯖でDHCPとtarget賄う時の必要事項とごっちゃになってるし、 ACPI3.0のiBFTで接続設定情報をBIOSからバケツリレーで引き渡すなんて、 ACPI2.0/1.0の切り替えがある程度のPCではできるわけもなく・・・・ ハードル高ぇわ >>235 > RAIDにしたブロックデバイスをiscsiでマウントすることはあっても、 > iscsiでブロックデバイスとして認識させたものでRAID組むなんて > やらないと思うぞJK ウチでやってる CPU負荷の低さ・I/O性能・テストした感触での信頼性、どれも想像以上で満足している DRBDはテストしていないのだが、iSCSI + Software RAIDだと 3つ以上のホスト間でのミラーリングができたり mdadmが柔軟なおかげで障害起こった後の復旧方法の選択肢が多いところが利点だと思われ ホットリビルドとかホットリムーブとかイイ メルコだけど、RAID0 iscsiターゲットx4をNTサーバ側でSoftRAID5として扱う事例が紹介してあった。 ttp://buffalo.jp/products/catalog/storage/ts-igl_r5/#jirei あのね安全性でWindowsのソフトRAIDに勝るRAIDシステムはいまんとこ無いよ ハードRAIDの場合ハード壊れたらアウト カード買い直しで済めばいいけど復帰の望みは薄い でもWindowsのソフトRAIDは外付けだろうがなんだろうが一度構成してしまえば Windowsであれば2000だろうと2003だろと2008でもRAID構成がそのまま使えて認識する これってすごい事なんだよ 当然RAID5はServerじゃないとサポートしてないのでXPでRAID5できないのは当然としても 他のWindowsマシンでRAID構成がそのまま復旧できて、 ハードトラブルに強く、外付けですら構成可能ってのは他に例がない UNIXのソフトRAIDも3wareの高級RAIDカードもこれは無理 劣るのは速度だけで、それ以外のRAID本来の常用性・継続性では「最も理想的なRAID」だよ さらに、UNIXのようにディスク管理のスキルもそれほど要らないし、 コンピューター管理のディスク管理画面さえ開いてしまえば、 壊れてれば▲マークでるし、他システムのRAIDなら1クリックで認識してしまう 馬鹿にできないんだよWindowsのRAIDは >>259 システム入れない前提だろうけど、一部暗号化しちゃうとダメじゃね? ちぅか、RAID5まで入れる必要あるなら、コントローラまで多重化するっしょ。 >>261 おぉ確かにコピペだ。過疎スレにようこそ。 すみません、こっちで質問させて下さい。 CentOS5にIETを入れて問題なく使えることを確認したんで、junkのNICを買って 来たんですよ。BCM5708の。 で、買った後でなんとなく気が付いたんですが、TOEやiSCSI boot使う場合って 更に別途ライセンスを購入しないとダメなんでしょうか? タダで気前良く使わせてくれるのはPRO/1000 PTだけ? ついでに、PRO/1000 PT使ってる方がいたら教えて頂きたいんですが、iSCSIboot に興味が無く、単に外付けHDD代わりにiSCSIを使いたい場合って、PRO/1000は winからはSCSIアダプタとして認識されるんですか? TOEはともかくiSCSI Bootはライセンスなしでできるだろ ISOEと勘違いしてるに一票 某メーカー鯖のファーム更新でBCM5708のiSCSIbootが有効になったけど、 鯖メーカーがiSCSI機器売るために払ってる可能性もあるし、無料かどうかは知らん あと、Windowsだと、どっちにしろ、いろいろと苦労する罠 >>267 某D社の鯖は、オンボで5708が載ってる場合しかiSCSI使えない。 某H社の鯖の場合は、ちゃんとライセンスパックが別売されてる。 某I社のオプションカードも多分iSCSIは使えない。 5708のオプションカードでiSCSIは使えないってことで<結論 ↑ わかります、って言う香具師に限って実は分かってないという罠w 分かってないんじゃなくてわざと誤解したように書いてるだけだろw 何かボケるわけでもなく、「ボク知ってるもんね」をアピールしたいだけ USBブートできて、iSCSIがすぐ使えるディス鳥ないですか? ESXiとか、VMWare Serverの管理OS部分に組み込んでたりされてると嬉しいな。 FREE NASでUSBブートするやつがあればいいのか・・・。 クライアントがWindowsの環境で、SMB/CIFSとiSCSIでの 速度比較を行っているページとかないものでしょうか? iSCSIで繋ぐRAMディスクBOXとか出ないもんかな。 i-RAMのネットワーク版みたいの。 ちょっとスレ違いかもしれないけど。 IETをターゲットにして、PXE+iSCSI Root+Multipathな CentOS5.2を構築してみたんですが、 OSをシャットダウンするとき、NICをdownさせた直後に 当然iSCSIの通信が出来なくなってハングってしまいます。 ファイルシステムをアンマウントしないで電源落とすの 怖いんですが、正常にシャットダウン出来ている人いますか? 自己解決しました。 /etc/rc.[0|1|6]/K90networkを_K90networkとかにリネームして、NICを 落とさないようにしたら正常終了・再起動できました。 調べたらNFS Rootとかでは良く使う手みたいですね。 >>282 心配ならsync後shutdownだろjk 11gでiSCSIは厳しぃ!!! 鯖部屋からCat5e引っ張ってもらう工事してもらおうかな。 FreeNASでiSCSIターゲットを立ててみたけど iSCSIって、CPUパフォーマンス要るんだな (;´Д`) 余ってたC3機では、全然スピードでないorz ディスクペンチ走らせると、CPU usage 100%に張り付きだ。 いやまて、ディスクペンチなのがダメな原因じゃないか? >>287 NICはGbE-PCI2で、M/Bは625EMP800(C3 800MHz)、DDR400 512MB*2。 FreeNASは0.69b3。イニシエータ側はWinXPの自作機(環境省略) って、ここまで書いて気付いたが、スマン 板違いだった。 一応、続き書いとくと、 HDDはIDEの200GB(ST3200822A)に、iSCSIの領域を10GBほど確保。 で、ログインしてNTFSでフォーマット、CrystalDiskMark2.2を走らせてみると (iSCSI/CIFSの順。単位はMB/s) Sequential Read : 19.814/28.176 Sequential Write : 16.542/15.025 Random Read 512KB : 18.508/26.024 Random Write 512KB : 14.271/15.415 Random Read 4KB : 6.025/9.663 Random Write 4KB : 1.745/2.955 Test Size : 500 MB という具合だった。 試しにExploreで数GBのファイルをコピーしてみたけど iSCSI/CIFS共々、概ねSequential Writeと同じくらいの速度だったよ。 >>290 Windowsのクライアントから見たシーケンシャルは、 NTFSとUFS(2)の仕様上、FreeNAS側でスラッシングの嵐なんじゃね? SCSIはバースト転送だし、NIC性能というより、 イニシエータ、クライアントサイドは、HDDのバッファと同等か、 それ以上のバッファが必要かと思える。 CentOS 5.2でRTL811CがGigabitでリンクしない場合 ttp://blog.xe.bz/archives/51074861.html Xbench Version 1.3 System Version 10.5.5 (9F33) Physical RAM 8192 MB Model MacPro1,1 Drive Type IET VIRTUAL-DISK Disk Test 26.34 Sequential 33.25 Uncached Write 24.06 14.77 MB/sec [4K blocks] Uncached Write 27.77 15.71 MB/sec [256K blocks] Uncached Read 28.77 8.42 MB/sec [4K blocks] Uncached Read 125.38 63.01 MB/sec [256K blocks] Random 21.81 Uncached Write 6.80 0.72 MB/sec [4K blocks] Uncached Write 30.63 9.81 MB/sec [256K blocks] Uncached Read 1194.61 8.47 MB/sec [4K blocks] Uncached Read 352.22 65.36 MB/sec [256K blocks] iSCSIターゲット ubuntu 8.04 1GB 500GBx4(RAID5) iSCSIイニシエータ Lopard 10.5.5 Mac Pro 8GB って感じなんだけど、 Readに比べて、Writeが遅い気がする。 >>294 RAID5でランダム書き込みした場合、書き込み先ドライブが分散されるとは限らないし、 調停作業だけでもオーバヘッドになるだろjk open SUSEにiSCSI targetを設定してWindowsでフォーマットしたあと再起動したらext3のfsckが走ってしまった・・・・・ 気づかず-yオプションつけたら全滅w うは、オレってバカの極みwwwww >>294 参考になりました。ありがとう。 安定性やCPU負荷はどうですか? >>298 素人なので詳しく分析出来てないですが特に問題ないです。 1TB強のデータを一日かかって転送したけど普通に使えてます。 ターゲット(Cel420)/イニシエータのCPU負荷はリード/ライトともに気にするほどでもないかなぁと。 1GBのファイルをターゲットへ一つだけコピーさせると15MB/sec。 二つ同時にコピーさせると30MB/sec出る。 三つ同時でも30MB/secだったからこれが上限かな。 やっぱりローカルライクにデータを扱えるのはいいなぁ。 itunesのディレクトリとかディレクトリ数が1000以上あってもすぐ開くし。 もう少し普及して欲しい…。 ちなみに、ネットワークはどんな条件かいな。 同じセグメントに他のホストがぶら下がってる? それともターゲット−イニシエータ間は別系統? 書き込んだXbenchは同一セグメントにはハブ二台で計12台でぶら下がっています。 ターゲット、イニシエータは同じハブ(16ポート)で、8台がぶら下がってる状態で測定しました。 直結ではシーケンシャルが+5MB/secくらいで、ランダムは誤差程度でした。 ありゃ、ニホンゴが。 疲れてる状態で適当に書くもんじゃないですね。 ちゃんと伝わるか怪しいけど訂正。 ルーター - 8ポートハブ(4台) - 16ポートハブ(8台) 計12台ぶら下がっています。 書き込んだXbenchは16ポートハブにターゲット、イニシエータ含め8台がぶら下がってる状態で測定しました。 直結ではシーケンシャルが+5MB/secくらいで、ランダムは誤差程度でした。 おかしかったらごめんさいです。 疲れたのでもう寝ます。 ありがとう。参考になりました。 うちでもやってみたいな。 Windows Server 2008 のクラスタで要求されている 「SCSI-3 の 永続的な予約」とやらは、 iSCSI Enterprise Targetではクリアできないの? 2003ではフェイルオーバークラスタ組めたけど、 2008だとなんかうまくいかないのよ。 保守ついで 1台でXenとiSCSIターゲット(iet以外でも可)やるなら、今はどのディス鳥オヌヌメ? iscsi-targetはあってyastで設定できるけど カーネルのupdateで必要なカーネルモジュールが落ちた気がする。 FreeNASはインスコ先のHDDを対象にできないのが・・・。 >>311 USBメモリーとかにインスコすればいいんじゃね? インターネット経由のiSCSIってありなの? 認証だけちゃんとしてたらおk? >>315 ありってどのレベル? 技術レベルならできるかもってことになるが、 グローバルIP割り当てたiSCSIをそのまんま公開するのが セキュリティ的にありかって聞かれればなし せめてVPNを通すかってことになるが、敷居も若干高くなるね パフォーマンス的には知らん iSCSIを使った遠隔バックアップなんかには使えるの、、か? ノートパソコンで使えるHBAってありますか? 普通のNICでやれってこと? ブートさせなきゃ普通のNICでできる ブートさせる場合でも、DHCP/tftp立てれるなら、PXE使えればできる linux板なので、あえてwindowsは無視してみた 遠隔はVPNか、速度出そうと思ったら広域LAN(カネカカルー) 通常のダイアルアップ回線でもできないことはないけど、まぁ常識的に無い。 ギガビットで専用のネットワーク組むの薦められるくらいだし やって出来なくはない程度じゃないかな>広域iSCSI さらに質問ですまないのだが iSCSIターゲットでおすすめのRAIDありませんか? 予算は30万円ぐらいまで バッファローは対象外です ふと、百円をやったら次は一万円をよこせと言い出す、みたいな話を思い出した。 >>321 ML115(\13000)+WD1T(\11000)*4にCentOS5.2のRAID0にして4T近くをiscsi enter prise targetにして使ってる私がとおりますよっと。クライアントがwindowsなもんでMBR制約内の2Tに分けてるけど。 Cent(というかLinux)素人だったけど、OS標準インストールして yum update yum install gcc yum install kernel-devel yum install openssl-devel (iet落としてきて)make install だけで動いたような。ちなみにiptablesは当然編集、SElinuxはPermissive(無効だっけ?あと、つづりあってる?)で使ってる。 それにしても今でもCentOSでRAID5(mdadm)の使い方がわかんねぇ。。。勉強中に作ってそのままなもんで。今じゃデータ入れちゃって壊せんし・・orz CentOSでRAID5できるなら、最低6万ちょいあれば3Tぐらい(実質2.7Tぐらい?)の『iSCSIターゲットでおすすめのRAID』ができんじゃないかな? 速度やメンテ性で”おすすめ”に見合うかはわからんけど。 正直、初心者でiSCSI-SAN手をだして、今はひどいめにあっている。 このスレ(住人さんも多分)は私には敷居たかすぎです。。。 >>323 ひどいめって何? それだけじゃわかんないぜ。 RAID0がつくれるのにRAID5が作れないなんて・・・ >>324 んー iSCSI鯖をトイレで動かそうとしてるんだけどndiswrapperとかlsusbとかinsmodとかiwconfigとか苦労してるとか。 【Wireless】Linuxで無線LAN【IEEE802.11】 http://pc11.2ch.net/test/read.cgi/linux/1214318174/l50 とか見て参考にしてるけどダメダ… >>325 ちなみにML115のBIOSでRAID5つくれるよん。多分Centからは2.7Tのボリュームで認識できるんじゃない? >速度やメンテ性で”おすすめ”に見合うかはわからんけど。 ってのは”オンボードRAID5でメンテしやすいか?”って言いたかった。うまく言えてなかったですわぁ それにしてもRAIDに30万とかだせる人がウラヤマシス…orz 30万って仕事で使うってことだろ。 あんたみたいに遊びじゃない。 遊んでok 仕事が遊びより偉いわけじゃない うらやましいなら遊びで30万突っ込んじゃおうぜ 遊びだから30万って考え方も。 仕事だったら500万とかに・・・・ 金あるエンプラさんならNetAppとか買うだろう。 OpenSolarisでZFSや、LinuxでBtrfs、DragonflyBSDでhammerfsでがんばる(`・ω・) Openfilerを余っていたServerで試してみた。 ServerはPowerEdge750でPen4 2.8G、メモリ2G、HDD Samsung SP2504C、SAS HBA SAS3442X クライアントはThinkCentre A51でDELLのGigabit HUB使用 Read/Writeはシーケンシャルで40Mbytes/45Mbytes程度出た事を確認しますた。 iSCSIしか試してないけど古いServerでも有効に活用出来そうですね。 LinkStationのiSCSIなんかはUSBと変わらんぜ。 >>335 Writeの方がいいってw 360Mbpsだとネットワークはボトルネックでないよね? NFSで計測した値も気になる fedora9-terget [root@localhost ~]# yum install kernel-debel Loaded plugins: refresh-packagekit Setting up Install Process Parsing package install arguments No package kernel-debel available. Nothing to do [root@localhost iscsitarget-0.4.16]# make; make install make -C usr make[1]: ディレクトリ `/root/iscsitarget-0.4.16/usr' に入ります cc -O2 -fno-inline -Wall -Wstrict-prototypes -g -I../include -c -o message.o message.c message.c: In function ‘ietadm_request_handle’: message.c:130: error: storage size of ‘cred’ isn’t known message.c:130: 警告: unused variable ‘cred’ make[1]: *** [message.o] エラー 1 make[1]: ディレクトリ `/root/iscsitarget-0.4.16/usr' から出ます make: *** [usr] エラー 2 cc usr/ietd.o -o usr/ietd /usr/lib/gcc/i386-redhat-linux/4.3.0/../../../crt1.o: In function `_start': (.text+0x18): undefined reference to `main' collect2: ld はステータス 1 で終了しました make: *** [usr/ietd] エラー 1 iscsiの勉強する為にインスコしたばっかなので足りないものがあるのかも? 教えてエロイ人!! 使ってるfedora6は設定できてるんだけど… >>338 yum info iscsitarget Loaded plugins: refresh-packagekit Available Packages Name : iscsitarget Arch : i386 Epoch : 1 Version : 0.4.15 Release : 11.svn142.fc9 Size : 64 k Repo : rpmfusion-free-updates Summary : Utilities for iSCSI Enterprise Target URL : http://sourceforge.net/projects/iscsitarget/ License : GPLv2 Description: An open source iSCSI target with professional features, works well : in enterprise environment under real workload, and is scalable and : versatile enough to meet the challenge of future storage needs. Linux - Windows 間でひとつのボリュームを 共有しようと思って、OCFS を入れてみようと しているんだけど、Windows版の OCFS って RAC とか買わないと入手できないのかな? 誰か上記以外の方法も含めて Linux - Windows 間で ボリュームを共有してる人っている? >>338 オハヨー >[root@localhost ~]# yum install kernel-debel debel? develじゃね? >Loaded plugins: refresh-packagekit リフレッシュすりゃいいんじゃね? カーネルの起動オプション拾って、ネットワーク設定とiSCSI設定して、 iSCSIにswitchrootして起動するinitrd作ったんだが・・・・ 調べてみると、起動オプションって255文字の制限があるらしいじゃないですか vlanまで対応したおかげで、起動オプション600文字超えてしまって・・・orz おまえら、どうしてる? dhcpで取得して、dhcpホストに対してinitrd埋め込み名で接続? と、寂しげなスレで言ってみる >>342 大半はカーネルじゃなくてinitから先で使う変数だろうから、 /initの先頭にでも埋めとけば? >>342 試してないけど、x86 アーキなら 2048 までいけるんじゃないか? $ grep COMMAND_LINE_SIZE arch/x86/include/asm/setup.h #define COMMAND_LINE_SIZE 2048 ブートローダがしょぼいんなら、カーネルコンフィグレーションの Processor type and features -> Built-in kernel command line あたりで 埋め込めばいいんじゃない? あー ソース見てみたら確かに2048になってた。 過去何回かパッチが却下されたって聞いたけど、いつの間にか採用になってたのか。 もう土日終わっちゃったんで、またこんどやってみるよ。サンクス。 誰も見ていないスレかと思ったけど、結構見てる人いるのかな iSCSIでPC1でtgtdで公開して、PC2でiscsiでアクセスまではできるんだが、両方のPCでアクセスするにはどうするの?CentOSでやってるんだが。 ぐぐってcman+clvmd+GNBD+LVM+GFS/GFS2で共有は試してできたんだが、iSCSI経由で動いていないみたいでパフォーマンスが出ない。(10MB/sぐらい) clvmdまで動かして、iscsiデバイスをmkfs -t gfsでやっても、もう片方ではまったく検知されていない。 cmanのfailover domainやresources, fencing, servicesの設定も具体的に書いているのがなくてあきらめようかなと。 PV,LV,VG,sdaのどれを公開して、やるのかすら・・・イニシエータ側は増やしたり、減っても大丈夫なようにしたいのだが。 >>346 2台からの書き込みとか、不整合でデータ消滅するんじゃ AoEとiSCSIで自宅LANで遊ぶ場合にはどっちがパフォーマンスはいいの? ESXiのディスク領域にlinuxでiSCSIなサーバを作ってみようと思うのですが、 ATOMとかの安いCPU/MBでもそれりの性能は出ますか? ATOMはどうだろう。 でもまぁ多分、先にiSCSIターゲット側のディスクが足引っ張ると思うよ。 家庭用NASのCPUはAtomよりもはるかにプアーなARM系の石で、 高級NASでCeleron 2GHzとかなので、Atomでもパワーは十分にある罠。 それは相対的な話だろ。 もっとも、AtomはCeleron2Gより下だが。 そのCeleronがNetburstなCeleronなら、下手するとATOMのほうが上かも 結局、CPU通らないとHDD→ネットワークの転送できないからな CPUのクロックよりも、メモリバス速度の方が重要かも 以前、三省PC http://item.rakuten.co.jp/assist-pc/c/0000000100/ で、CentOS 5.2+IETのターゲット作ったときのベンチデータがあるよ。 CrystalDiskMark 2.2 -------------------------------------------------- Sequential Read : 54.071 MB/s Sequential Write : 39.400 MB/s Random Read 512KB : 52.726 MB/s Random Write 512KB : 30.645 MB/s Random Read 4KB : 14.803 MB/s Random Write 4KB : 1.151 MB/s Test Size : 100 MB HDDは2.5インチSATA 5400rpmの160GB このベンチは物理パーティションを使った場合だけど、LVMから切り出すと2割くらい遅かった。 同一マシンでOpenSolaris2008.11でzvolでターゲットを切り出したときのベンチも取ったけど 今見つからないな。あまり速度出なかったと思う。 C7 1GHzでもこの程度出るんだからAtomでもそれなりに出るんじゃないかな? >>353-358 ありがとうございました。とても参考になりました。 趣味のサーバ用なので30MB/s出れば問題なさそうです。 週末に作ってみます。 せっかくなので貼り付けておく server:linux2.6.24-x86_64 X3360 hwRAID6 client:linux2.6.24-x86_64 X3360 iSCSI # dd if=/dev/sda bs=65536 count=15258 of=/dev/null 15258+0 records in 15258+0 records out 999948288 bytes (1.0 GB) copied, 39.6692 s, 25.2 MB/s # dd if=/dev/sda bs=65536 count=15259 of=/dev/null 15259+0 records in 15259+0 records out 1000013824 bytes (1.0 GB) copied, 10.6491 s, 93.9 MB/s # dd if=/dev/sda bs=65536 count=15259 of=/dev/null 15259+0 records in 15259+0 records out 1000013824 bytes (1.0 GB) copied, 0.279964 s, 3.6 GB/s # dd if=/dev/sda bs=65536 count=15259 of=/dev/null 15259+0 records in 15259+0 records out 1000013824 bytes (1.0 GB) copied, 0.273612 s, 3.7 GB/s # dd if=/dev/sda bs=65536 count=15259 of=/dev/null 15259+0 records in 15259+0 records out 1000013824 bytes (1.0 GB) copied, 0.270295 s, 3.7 GB/s 1GBでもキャッシュに載っちまうようで AoEを使ってみた。 Target: Linux(Debian lenny, Memory 8GB) Initiator: Windows XP + WinAoE driver で、Linuxの方で1GBのファイルを作ってそれをAoEでドライブとした。 接続は1Gigabit Ethernetで、安物ハブ経由。 -------------------------------------------------- CrystalDiskMark 2.2 (C) 2007-2008 hiyohiyo Crystal Dew World : http://crystalmark.info/ -------------------------------------------------- Sequential Read : 76.216 MB/s Sequential Write : 59.867 MB/s Random Read 512KB : 65.129 MB/s Random Write 512KB : 76.348 MB/s Random Read 4KB : 23.841 MB/s Random Write 4KB : 17.450 MB/s 何故か、512KBのランダムライトが逆転してるけど… >>359 商品だけど、 QNAPとか調べてみるといいかも。 汎用CPU(セレロン、ATOM)によるNAS/iSCSI箱。 409、509あたりが汎用CPUです。 ATOMだったらMINI-ITXだけど、小型のリムーバブル付きITXケースって ES34069くらいしかないから、できあい買った方が安いかも。 RAID無くていいなら何でもいいかもしれんけど。 ああそうだ、 3wareの9550で、RAID5のSeqRead400MBくらい出るやつあるんだけど、 GbE飽和する。 FCも10GbEも高いんだけど速くしたいときは何でつなげばいい? Bondingはセッション多数張らないと意味ないよね?(モードによるけど、 2本束ねても、2倍速度が出る訳じゃなくて2セッションの時にスケジューリングで 交互にGbEを使うから遅くなりにくいってだけだよね?) >>364 iSCSIに拘らなければ、NFSはbondingで速くなるらしいぞ。 iSCSIって1つのターゲットに複数のイニシエータが接続できるのが普通ですか? vista標準のイニシエータで複数のターゲットに接続できないのですが 方法ありましたら教えてください。 初日にして沼にはまっているド素人にHELP ----------------------------------- Lun 0 Path=/dev/hdc,Type=fileio Lun 1 Path=/dev/sda9,Type=fileio ----------------------------------- ↓ ----------------------------------- Feb 15 00:21:58 aohdev kernel: iSCSI Enterprise Target Software - version 0.4.17 Feb 15 00:21:58 aovdev kernel: iscsi_trgt: Registered io type fileio Feb 15 00:21:58 aohdev kernel: iscsi_trgt: Registered io type blockio Feb 15 00:21:58 aohdev kernel: iscsi_trgt: Registered io type nullio Feb 15 00:21:58 aohdev kernel: iscsi_trgt: open_path(119) Can't open /dev/hdc -30 Feb 15 00:21:58 aohdev kernel: iscsi_trgt: fileio_attach(283) -30 Feb 15 00:21:58 aohdev ietd: Can't create a logical unit 30 1 0 Path=/dev/hdc,Type=fileio ----------------------------------- HDDはあっさり認識するのですが、物理CDドライブをTargetにするばあいどうすりゃいいのでしょうか? コマンドラインから/dev/hdcはmount可能なんですが・・・ >>372 変わらず・・・ こんなところで躓くやつはオランようで、類似事例が出てこないでつ ということは、removableに起因する問題かな 未対応ってオチがあるかも・・・・・ >>374 よろしければ、removable問題について一席。 それと未対応というのは、ドライブが?OSが? IETのバージョンが新しすぎる? などでしょうか いまのところFC4とFC10でやってますIETは同じverであります removableだと、対応必要なSCSIコマンドが増えるし、処理も増える。 なので、IETが未対応ってオチがあるんじゃないかな と。 確か、HDDとremovableで対応必須なコマンドが違ってた筈 google様に聞いてみても、removableは非対応っぽい雰囲気が・・・・ 自分の所では、iSCSIbootさせてしまっているので、全部止めないと試せないんだ。ゴメン >>376 いやいや感謝 removableという概念がなかったので目から鱗でした で、そこらへんのキーワードで調べてみたのですが ttp://plaza.rakuten.co.jp/ftechworks/diary/200712250000/ これを参考に0.4.17のソースを書き換えてみたのですが WindowsXPのディスクの管理でリムーバブルとして「正常」認識されるも エクスプローラーからアクセスすると「ディスク構造が壊れています」と・・・(DVD-Rの場合) IETじゃないやつで対応しているのを探してしまった方がはやいのかもしれませんが、駆け出しなので気長にやってみます DELL鯖でwindows2003のiSCSIbootやってみた(BCM5708、iBFT使用) 結論から言うと、「できるにはできるが、素直にintelNIC買うのが楽」 手順通りにやっても何か問題が残ってるようでうまくいかない。 設定いじりながら何回もインストールやりなおしてやっと成功。 intelNICだと、インストール時にSCSIアダプタとしてドライバの追加ができるらしく たぶん、苦労することはない。対応OSなら。 iSCSIとVLAN併用する方法もわかんないし、windows鬼門すぎる linuxだと簡単なのに・・・・ Windowsで安価に使えるクラスターファイルシステム マダー(・∀・ )っ/凵 ⌒☆チン >>382 THX ocfs2とかgfsというのがあるのは分かった。 インスコ方法まとまっているのがあまりないなぁ・・・・ コツコツやってみるか >>383 OCFS2はインストールとかほとんど考えることがない位に簡単。 GFSルートは艱難辛苦を乗り越える人生の苦い思い出を作るのに最適。 WindowsからもOCFS2読めるといいんだがなぁ Linux、BSD、Mac、Winで共通して使える オープンソースのクラスタファイルシステム出ないかねー。 そこからブート可能となると、いろいろ各OSの都合があって難しいだろうけど、 データ用としてなら十分に可能だと思うんだけどなー。 ZFSあたりがクラスタファイルシステムに対応してくれると一番良さそうだけど。 GFSだとLinux、BSD、MacOSXまでは使える…のか…? やっぱWindowsが難しいか… ocfs2 簡単だったけど、その上に vmware server 2 の vm 置いて立ち上げたらなぜか panic 起こすんだよなぁ... ocfs2を使うときに、o2cbを設定しなかったらどうなるの? >>388 まあ、その手のことをしたいのならESXiでVMFS使えって感じだしなぁ iscsiのイニシエーターが壊れた場合、iscsiで運用していたSATAのディスクを 取り外してUSBの外付けHDDケースに入れ替えて接続したりすると、 そのまま問題なく読めるのかな? ターゲット側の実装によるだろうけど、open-iscsiなら読めたかな。 それはすごい便利だね。 iSCSI Enterprize でも出来るかな? SunOS sxce113 5.11 snv_113 i86pc i386 i86pc でiSCSI Targetやってるんですが、 同じハードでCIFSだと40MB/sくらい出るんですが iSCSIだと10MB/sくらいしか出ません。 どなたかチューニングのやり方などご教授いただけませんか? Linux側をtargetにしてクライアントPCにWin7を入れたんだけど、 NICのBIOSでtargetを認識さえさせておけば、 その後はOSメディア1枚だけで何一つ問題なく入った。 便利な時代ですな。 買ってないんだろ?必死だな 頼むからRC拾ってきて目新しいことできたように言わないでくれw 情シスなら評価くらいしてるだろ。 開発者とかならMSDNあるし、運用でもTechnetとかあるし。 ノートPC買えばVista入ってるし。 ここは安鯖で遊んでる人間が多そうだから自作板みたいな 煽りも出てくるんだろうな。 というか、そもそもここLinux板だから、Windowsなんか使わねえよ、ってことか。 そりゃごもっとも。 ほう、Win7をiSCSIインストールできるのか XPとか2003とか、一度HDDに入れてイメージ作ってとか面倒だったからなぁ 7はVHDからブートできるようになったのが面白くて Fedoraのnetbsd-iscsi試したら2TB制限有ったわ >403-404 むかし展示品のVHDプレイヤーを電気屋からタダで貰ったけど、ソフトなくて捨てたの思い出した VHD=バンテック・グループ・ホールディングス LD=ライブドア 特にライバルではなかった。 >>407 ここまで拾いようのない真面目ボケは初めて見た iSCSIの利点って何なんでしょ。 WikiPedia見てきたけどいまいちわからんす…。 iSCSI - Wikipedia http://ja.wikipedia.org/wiki/ISCSI 昔、PC98時代は、外付けHDDでSCSI使ってましたが、 外付けHDDみたいに使えるだけなのでしょうか? >>1 でFreeNASより高速とありますが、スレ読む限りファイル共有のプロトコル(といかNAS)というわけではないようですし…。 また、eSATAじゃなくて、iSCSI使う理由は何なのでしょうか? こちらでiSCSIでサーバー構築とかやっておられる方みて気になってはいるのですが…。 ゆーすけべー日記: 「ボケて」ガンマ版リリース - 技術的新しい試みまとめ http://yusukebe.com/archives/09/05/02/212113.html >410 イーサを纏めてボンディングしたり VPN越しにストレージを置いたら災害対策とか iSCSI越しにテープが使えるのがよかったなぁ。 あと、Linux関係ないけどWindowsでMSCSが簡単・安価に組める。 まぁ、安価なファイバーチャネルって意見は同意。 Windowsでネットワークドライブだと制限かかるような時とか。 ネットワーク越しにハードウェアとして認識してくれるのは助かる。 まあ、スイッチがへぼかったらあんまり業務で使いたいと思わないけど。 VMware ESXi用のストレージとして活躍してます。 安価なFCというより、FCが高価すぎるというか。だからFCoEとか出てくるわけで。 NASと違ってブートできる eSATAと違って共有ディスクでも使える うちの場合、常時稼動ファイルサーバが既にあるから、 それをターゲットにしてクライアントPCをディスクレスにしたよ。 そもそもSANの利点がわからないって事じゃない? iSCSIはIP-SANとか言われてたような気がするが、SANについて調べてくれれば利点はわかると思う。 > eSATAと違って共有ディスクでも使える マジ?何かWindowsだとダメダメみたいな情報しかないんだけど。 サーバーはLinuxなんだが、クライアントは全部Windowsなんだよね・・・ >>421 俺の書き方が悪かったかもしれないが、 eSATAみたいに「それ専用のディスクドライブ」を1本用意しなくてもいいって意味だよ。 俺はLinuxでファイルシステム上に置いたイメージファイルを iSCSI越しにクライアントPCのディスクとして使わせてる。 なんとか.img みたいなやつをね。 Win7を入れて1ヶ月ぐらい、ほぼ毎日起動して使ってるけど、まったく問題ないよ。 > eSATAみたいに「それ専用のディスクドライブ」を1本用意しなくてもいいって意味だよ。 ああ!なるほど、それはなかなかにいい利点ですね。 >>410 のサイトの人も、VMのイメージにしてますよね。合点がいきました。 理想を言えばiSCSIドライブからOSごと起動+データもiSCSIドライブへ保存 ローカルはディスクレス・・・ だけどGbE以上必須になるだろうし、Winは起動もファイルシステムも厳しい('A`) こんんにちは。 iSCSIストレージをDASのように単体サーバのみへの接続で使用する場合、 iSCSI@1Gポートx3なバスはUltra320SCSIバスの代替えになりますでしょうか? EquallogicPS5000VX検討中なんですが、Dellの営業担当者の 歯切れが異様に悪いです。単体だと全然性能でないとか、なんか問題あるんでしょうか? データはサーバ上のPhotoshop画像データ動画の編集や3Dレンダリング用途がメインです。 クライアントは普通にGbのワークステーションが40台くらいで接続です。 PS5000X使ってる。複数サーバだけど。 ランダムアクセスだとGbEx3 で十分すぎる感じ。 心配なら PS6500 にするか、10Gのが出るのを待つか。 PS4000 で十分じゃないかって気がするけど。 いいなぁ 16Tで100万以内くらいになれば即買うんだけどなぁ >>427 DELLがEqualLogicを買ったわけだけど、今のところは「EqualLogic事業部」になってて 製造・セールス・サポート等全て鯖部署と別だという話だった。 なので、鯖部署に聞いても情報持ってないオチ。 何年かかけて統合だそうで。 >430、>431 アク規制でレスが(ryでしたm_ _m >ランダムアクセスだとGbEx3 で十分すぎる感じ。 結果報告ですが、PS5000XVx2にしました。6Gbpsあれば当面は十二分です。 ちなみに、もう少しするとPS6000系は10Gbpsコントローラがでるそうで、 更に少し間をおいてPS5000系でも使えるようになるとの事でした…あと10年戦える。 >16Tで100万以内くらいになれば即買うんだけどなぁ 私なら、SAS15kx16で1x0万くらいのキャンペーンなら即買います。 10Gbpsコントローラで将来の帯域も安堵されたりしたら 2台目以降、標準価格への特例割引で2x0万であっても 買っておいて損はないと判断しました。 >何年かかけて統合だそうで。 ぁぁああ、なんか近くでそんなお話を聞いたことがwwww >>432 EqualLogiciいいなあ。 うちは金がないからMD3000iさ。ファイルサーバーと軽めのVMメインだからそんなに問題ないけど。 えーっと、"ほしゅ"したかったんじゃね? 結果all rightだが。。 iSCSIのターゲットって何を使ってる?? iSCSI Enterprise Target使うのが普通なのかな? CentOSのyumで入るtgtdって、MS iSCSI Boot イニシエータでマウント出来無くね? 起動出来ないイニシエータは出来るけど。 それにしても、LinuxのiSCSIっていまいち盛り上がっていない気が。 FreeBSDのiSCSIはFreeNASのiSCSI対応だとか、Solarisのように ZFSとiSCSIとの連動とかで、それなりに盛り上がっているのに。 環境がイマイチだからじゃないか。 俺もFreeNASとかSolarisは弄ったけど、Linuxはやる気しない。 って、スレ違いか。 >>449 OpenFilerというiSCSIのターゲットになれるNASアプライアンスな ディストロがあるけど、たしかにあまり話題に上らない。 俺も一度ダウンロードしてみたけど、仮想マシンでターゲットを作ったら満足してしまった。 個人的にはDebianベースで似たようなのないかな〜と思ってるんだけど。 個人だけど、NASはvmachineのbackup用という位置づけなので 必要なときだけNASを立ち上げNFSでつなげている 個人でどのようにiSCSIを有効活用しているのか教えて欲しい 鯖にSASでHDD30本接続 接続したHDDをiSCSIで開放 他の子鯖がiSCSIbootで起動 Windows含め、ディスクレスクライアント化 vmwareとかだと、hddをイメージファイル化するけど、 仮想マシン使わずに、リアルマシンでイメージファイル化したhddが使える >>452 PCのケースを変えたらスロットの位置関係で使ってたRAIDカードが入らなくなってしまった。 仕方なく別のPCにそのRAIDカードを挿し、 そっちをiSCSIターゲットにして iSCSI経由で接続することにした。 こりゃ便利。 同じようなパターンで、家の中に一台だけ大きいのがあれば 他の小型orノートPCで簡単に大容量ストレージが使用可能になるってのは 個人レベルでも大きなメリットになるのでは。 設置コストが安いしWinからでも使えるし。 ただ、便利だけど速くはないんだよなー サーバがLinuxに7200rpmの1.5Tx4でRAID5、クライアントがWin7RTMだけど クライアントから見たディスクの速度はほぼローカルディスク単発程度。 可もなく不可もなく。 まあそんなもんだろ。 ギガイーサとコアオンリーなdebianにietdのみのサーバーなら結構いけるけどな。 GbEの理論最大値で125MB/secだから、そういう点では速くない それ以上望むなら10GbEかFCかな 体感ではターゲット側のキャッシュの量でシークタイムが結構相殺されるので HDD単発を直接繋ぐよりはいいと思うけど。 >>452 クラスタの共有ディスクに使ってる。 検証環境作る時には非常に便利。 SANは高くて買えないし、NASはSCSI Diskとして認識しないので使えない。 10GbE高いばっかりでレイテンシ大きくて遅いから そこそこ安くなりつつあるInfinibandのがいいんじゃないかな。 ターゲット1台にイニシエータ2〜4台位なら、スイッチレス で構成すれば高いスイッチ買わないで済む。 >>446 にある、IETでiSERだけど、サポートはされている みたいだけど実際にやったことはない。 Intel CT DesktopAdapter をESXi4用と思って買ってきたんだけど iSCSIutilというのでNIC firmwareを書き換えると、tftp、DHCPを用意しなくても 直接パラメータ指定で iSCSI boot可能って書いてあった またどうせiSCSI化するなら、使わなくなった100MBのHUBもあるので OnBoard NIC = internet 接続 (100MB) / Intel NIC = iSCSI用 (GB) に分離しようかなと思い調査中 これは今NFSでも同時に2台に転送するとGBの帯域を使い切ってしまい ほかのPC等に影響を与えるため ターゲット側の構成二種類でbonnie++でベンチマークを取ってみたのだけど速度がエラく違う。 TargetPC Seq.R Seq.W Ran.Sk Seq.Cre Ran.Cre Pentium4 630/512MB 33840 22642 110 310 282 Opteron 2376×2/8GB 96621 98760 11550 22978 23062 項目は TargetPC - ターゲットに使用してるPCのCPUとRAM Seq.R ---- Sequential Output(block) 単位: K/sec Seq.W ---- Sequential Input(block) 単位: K/sec Ran.Sk --- Random Seek 単位: /sec Seq.Cre -- Sequential Create 単位: /sec Ran.Cre -- Random Create 単位: /sec iSCSIターゲットはのドライバは ietd。 いずれもクライアント - ターゲット間の接続は GbEでクロスケーブル直結。 クライアント側は P4 3.0GHz/2GBなPC。 クライアント側PCもいくつか変えてみたけれど、ターゲット側ほどの大きな差は出なかった。 項目によってはモロに二桁違う結果が。つーことで、 ターゲット側のデバイスの能力によって天地ほども速度に差が出ることは分かったけれど、 速度に一番影響する要素って何でしょう? CPU速度? CPUのコア数? メモリ量? これ以上コマゴマと条件変えてテストするのも面倒w なんで、どこかに調査した文献とかないでしょうかね。 >>455 ということで、ターゲット側の能力次第で速度はかなり変わる。 本当に「遅い」のかはいろいろ実験してみないとよく分からんと思う。 ターゲットPCローカルで取ったベンチマークより速い数字が出てしまったりw つか、そもそもRAID5は速くないと思うが。 仕組みからして、特に書き込みは単体ドライブよりも遅くなるはず。 >>462 iet.confで、type= を fileio, blockio どっちにした? fileio にすると、OSのバッファキャッシュのフラッシュの 影響を受けるのか、ベンチマーク値が安定せずに それこそ測定の度に2桁位ふらふらした記憶がある。 >462 興味深いです 再度調査して報告していただけると嬉しいです スレチですまんが、MPIOターゲットになれるモジュールってある? >>464 ベンチマークのためにキャッシュ切ってどうするww fileioで安定しないのは、OSのファイルキャッシュ使うからだよ 実際fileioは遅い。てかblockioがデフォルトではない理由が判らん。 VMwareのストレージとして使うときにfileioに変えたら 速くなったんだけど、どうなんだろうな。 メモリ多めに積んだからキャッシュがよく効いただけかも >>468 逆だろ デフォがblockio キャッシュ使うfileioが遅いって言うならメモリ買え >>466 そもそもMPIO不可のiSCSIターゲットなんてあんの? MC/Sなら対応してないのは多いけど。 マルチパス実装が中途半端でクソ扱いされてるのはイニシエータ側だっけか ietdでblockio使ったらsambaよりは断然早いけど、CPUがプアだと まだまだ遅いですね。 亀レスだけど infinibandはスイッチが必須じゃない? subnet managerが存在するスイッチネットワークが必要だと思った でもIBスイッチ安いよ。10GEより全然コスパいい ちなみにiSERはメモリにアクセスしてるうちは速い 前試したときは500MBpsは出てた リード、ライトともにね >>474 OpenIBに含まれるopensmを起動しておけばOK。 switchless infinibandでぐぐると幾つか出てくるよ。 現状は低遅延広帯域ネットワークはInfinibandがベストだね。 CEEが複数ベンダから安いアダプタとスイッチが出てくるようなら、 将来は次点になるかもしれないけど、ちょっと難しそう。 >>475 スイッチレスで組めるんだ 知らなかったよ、ありがとう RDMAoCEEが動くようになれば10GEて選択も出てくるね RDMAエンジン搭載のCEE NICがまだ無いけど でもTCPベースのiSCSIにも言えることだけど、 キャッシュ同期が取れる冗長が組めないと 危なくてテンポラリな空間にしか使えないよね 商用はそこ解決してるわけだけどさ Infinibandって10GbEより圧倒的に安いんだね 超ハイエンドかと思ったが、いつの間にか部署内のサーバ間接続用なんかに ちょっとした経費で買えそうな位まで安くなってるので驚いた とりあえずスイッチレスで試すのに2枚買ってみようかな iSERってiSCSIとワイヤレベルでのプロトコルが違うんだよね? ターゲットもイニシエータも対応した奴を用意しないとパフォーマンスが出る出ない 以前に通信できないってことでおk? >>477 > ターゲットもイニシエータも対応した奴を用意しないとパフォーマンスが出る出ない > 以前に通信できないってことでおk? Yes、TCPは使わないです リモートホストのメモリに直接アクセス(RDMA)するんだけど、 RDMAのRead/WriteがSCSIのRead/Writeに相当する iSERに対応してるのは今のところ、LinuxとOpenSolarisくらいかなあ けどiSER評価するなら、NFS/RDMA使ったほうがいいかもよ? そろそろLinux版がGAになるし、一番簡単 RDMA使ったストレージアクセスって、iSERもSRPもNFS/RDMAも 大してパフォーマンス変わらないもの あと、日本語ドキュメントが皆無だから頑張ってね How toだけなら公式wikiとかバンドルされてるドキュメントで何とかなると思う IBの日本人エンジニアなんてほんとレアだしさ FCと同じで案件(金)が絡まないと情報出てこないのよ 情報が少なすぎて、 「試しに買ってやってみるか」にはならないんだよな FCなら、繋いで、インターフェースのBOOTROMで設定すれば、 あとは/dev/sd?で見えるようになって使えると思ったけど。 9割がクラスタ案件だからね 入札出来るベンダも限られるし 飯のタネのノウハウは漏らさないだろうね でもオープンな情報も多いから 英語読む気があれば色々ためせるよ スレの本スジから外れてきちゃったね 他に行くところも無いんだけど InfiniBandでスレ立てていいと思う。 情報が分断する気もするけど、 iSCSIとは直接関係ないしw やっとiSCSIのスレを見つけた… 普通のPC、またはサーバ用のOS(?)で、 そのインストールしたPCをiSCSI用のストレージとして 認識させることの出来る奴の名称、誰か知ってたら教えてくださいorz 先月くらいにちょろっと見て、後で検証してみようと思ったんだが、 名前ど忘れ+ググっても出てこないorz >>483 ありがとう。 確かにコレでも同じ事出来るな、どこ見てんだ俺はorz でも名前が違ったような気がするんだよなぁ… 仕様見に行ったときもっとグラフィカルなサイトだった気がするし とりあえず>>1 を試してみる、ありがとう! >>484 Openfilerかな? ttp://pc11.2ch.net/test/read.cgi/mysv/1231469122/ Windowsで気軽に使えるクラスタファイルシステムマダー(・∀・ )っ/凵 ⌒☆チン 来年からIntelはオンボ10Gにするらしいけどね。 問題はL2スイッチが直ぐには安くなりそうもないこと。 iSCSI用途に限らないんだけど、今のLinuxで10Gのカードって ノウハウ的にどこがおすすめ? Intel,Broadcom,Chelsio,MallaoxあたりとBladeNetworksの 24portスイッチをつなげてみようかと思うんだけど。 ノウハウ的って意味が正確には判らないけど、 自分とこではChelsio買った部署があるな。 HPC屋が推してたらしい。 >>493 39s。阿鼻叫喚はとりあえず聞こえてきていないということですね。 とりあえず阿鼻叫喚は聞こえて来ないから、マトモに動かないと いうことは無いんじゃない? ただし、ToEはカード上で処理できるセッション数を超えた途端に ホストCPU処理になってしまうため、用途によってはトラフィックごとに アダプタを別けざるを得ず、ケーブリングでハマると聞いたことが あるので、その辺は実際のワークロードをかけて幾つかの製品を 試したほうがいいと思う。 最近はCEEだ何だと言われる位なので、各社問題無くなってるのかも しれないけど。 TOE == TCP Offloading Engine 単に"o"にツッコミたかった? >>499 こんな信頼性もパフォーマンスも無さそうなTargetの 使いどころが正直判らん。 VMwareとかHyper-Vとかのライブマイグレーションの練習用? >>500 練習だったら自分で組んだ方が早いわな。 ソフトウェアによるイニシエータ/ターゲットの存在を 知らない人も世の中にはいるんだよw いや、マジで。 >>502 そんな人がVMwareとかHyper-Vでシステムを仮想化とか、無茶じゃないか? 一人でVMware Player使うとかいうのとはわけが違う。 >>503 > そんな人がVMwareとかHyper-Vでシステムを仮想化とか、無茶じゃないか? > 一人でVMware Player使うとかいうのとはわけが違う。 そんなに違うか? 所詮単なる道具だぜ? >>504 の意見に賛同 >>503 は勘違い選民思想チビデブハゲってことでおk? >>503 文章読解力がないようだが、>>502 は>>500-501 に対するresだ。 つまり「信頼性もパフォーマンスもなさそうなTarget」の存在意味。 仮想化云々はまったく関係ない。 iSCSIは従来のSCSI同様 専用のHBAと専用の機器の組み合わせで使うものだ と思い込んでる人もいる、とゆー話。 # いや、某中古サーバ専門店の店員が。 # マジ驚いたよw iSCSI HBA使うメリットって今あんのかな? 8GFCのスイッチとHBAの価格が4GFCと大して変わらんくらいまで落ちてきてんだよね あるPC(Windows7)からiSCSIでマウントしてるディスクを 別PC(XP)からSambaでファイル共有して同時に読み書きってできるのかな iSCSIは、SCSIであって、使い方はSATAやSASとほぼ一緒 なので、iSCSIをマウントしたPC/鯖とsambaで共有すればいい。 >>510 レスありがとうございます この例はあぼーんするが [PC1:Win7/NTFS] <---iSCSI---> [NAS鯖:Linux/EXT3] <---iSCSI---> [PC2:Win7/NTFS] この例は大丈夫ってことですね [PC1:Win7/NTFS] <---Samba---> [PC3:XP/NTFS] <---Samba---> [NAS鯖:Linux/EXT3] <---iSCSI---> [PC2:Win7/NTFS] [PC4:XP/NTFS] <---Samba---> どっちがどっちだ? iSCSIはブロックデバイス、sambaはファイルシステム ブロックデバイス(HDD)を適当なファイルシステムでフォーマットして sambaで共有させれば、結果的にiSCSIの中にあるファイルを共有したことになる。 iSCSIのイメージをsambaで共有しても、HDDイメージファイルを共有したことにしかならない。 >>512 NAS鯖 ・24h常時稼動 ・iSCSI Target(物理ストレージ側) ・Sambaファイル共有サーバー PC1〜4 ・電源ON/OFFのある完全なクライアントPC ・iSCSI Initiator ・Windowsファイル共有クライアント(Windowsファイル共有サーバーの設定はせず) 他PCがマウント中のHDDイメージの中身を、NAS鯖自信ならば読み書きできると勘違いしました あくまでHDDイメージなんですね >>511 の上の例では、 NAS鯖内に複数の異なるHDDイメージを作成して、 それぞれマウントすればあぼーんすることはないが、 同一のHDDイメージをマウントするとあぼーんするわけですね >>511 の下の例では PC2がマウント中のHDDイメージを、NAS鯖がマウントするとあぼーんするから、 PC2をWindowsファイル共有サーバーにする方法しかないと理解しました 経路も迂回するし、PC2が電源OFFの時は読み書きできずとうまくいかないもんですね クラスタファイルシステム何種類かあるけど一番有力なのはどれだろう Windowsでも一つくらいサポートしてもいいような iSCSIをocfs2で使うのと、 iSCSIをサーバのどれかがNASになってNFS/SMBで共有するのは どちらが性能いいのかな。Linuxのみで使うとして。 ん?HDDイメージの場合、Targetとしてマウント中でも HDDイメージそのものはそれがおいてある物理HDD上で コピーしたりすることはできるよね? できるけど・・・・ イメージの前半と後半でコピーした時間が違うなんてことになるぜ >>517 ocfs2は、CPU負荷が高くなると、同期・調停信号が遅れて、 ファイル壊れるとか消えるとか色々変な事が起きる。 ので、smbで済むような用途ならsmbの方が良い。 タイムスタンプの精度が必要とか、 inodeの値まで揃える必要があるような場合だとocfs2 >>516 Windowsで使えるクラスタファイルシステムだとOCFSくらいじゃね? 認識があってるかも分からんが linuxのkernel-stageに /fs/dst つ〜ブロックデバイスのネットワークプロトコルが入ってた nfsの替わりもあってpohmelfsというらしい 5年後に名前が残ってるかさえわからんが… >>518 それがやりたい人はSolaris使ってZFS pool上にiSCSI targetを構築しましょう。 >>523 とりあえず、SolarisのZFS + iSCSIがどう動作しているのか お勉強してきた方がいい ターゲットの0.4.16と1.4.19を比べて 特に高負荷時のパフォーマンス上がってますか? CentOS5.4(2.6.18-164.11.1.el5) + iet(1.4.19) でターゲット構築してるんですがローカルで iscsiam -m discovery -t sendtargets -p hogehoge とやってもタイムアウトしてしまって、ターゲット名が表示 されません。 iscsiadm: socket 3 header read timed out iscsiadm: Login I/O error, failed to receive a PDU とあるので、iscsi-targetが接続要求に反応していないのではないかと 思うのです。ietd.confはデフォルトのLun 0 Path=の部分のみ書き換えて 後はそのままです。 #cat /proc/net/iet/session tid:1 name:iqn.2001-04.com.example:storage.disk2.sys1.xyz #cat /proc/net/iet/volume tid:1 name:iqn.2001-04.com.example:storage.disk2.sys1.xyz lun:0 state:0 iotype:fileio iomode:wt path:/dev/VG00/test と出るので、IETの起動も一見正常に行われているように見えます。 ただ、この状態でservice iscsi-target stopとやると正常に停止できず、 psで見るとietadm --op deleteがうまくいっていなくて止まっているようです。 何かヒントだけでも頂けませんでしょうか? 3260番ポートを開けてない、とか? ところで、単なる好奇心ですが CentOS標準の tgtd ではなく ietd を選んだのは何故でしょう? >>528 iptablesではローカルホスト、ローカルネットワークからは全部開けてて、 一応telnetで接続するとコネクションまでは出来てるっぽいです。 わざわざietを使う理由ですけど、クライアントでMacを使ってて、 GlobalSAN iSCSI initiatorとの相性が悪くてマウントは出来るけど 書き込みが出来ないんですね。Windowsでは普通に使えるんですけど。 で、仕方なくietを使おうとしている次第でした。 まぁ、バックアップ用途なので最悪NetatalkかSAMBAで代替とします。 tgtd でターゲットを作成する際、 過去に使った(既に消された) tid ってのは再利用不能なんでしょうか? tgtadm --lld iscsi -m target -o show で何も表示されない (ターゲットが一つも存在しない)状態でも --tid=0 などと既に削除した ID を指定して新規作成しようとすると tgtadm: 'tid' option is necessary と断られてしまいます。 もちろんまだ一度も使ってない ID を指定すれば作成可能なのですが、 これでは「どこまで使ったか」を別途記録しておかないといけないことになり テストで作成/削除を繰り返した後など、非常に不便です。 これは「そういうもの」なんでしょうか? また「既に使ったもの」はどこを見れば確認できるのでしょう? 使用 OSは CentOS 5.4です。 ietdとscstは使ったけどietdは使ったこと無いな kernel-2.6.33 で iscsitargetを利用したいのですがpatchなどありましたら教えてください 2.6.14以降なら普通に使えると思うが 何かパッチが必要なの? ietdの場合は一応モジュール作らないとならないんじゃなかったかな パッチが大量に当たっているディストリのkernelだとconflictすることもあるだろう。 そういう場合はディストリ配布のパッケージ使えばいいわけだけど。 iscsitarget-1.4.19で、writeよりreadの方が圧倒的に遅いんだけど、こういうもの? イメージではwriteの方が遅くなるよな気がしてたんだけどなぁ。 fileioでもblockioでも同じ結果。 >>534 RH系なら、rpmbuildでkmod出来るから、それを先にインスコすればおk 以前動かしていたietdでは、read/writeによる速度差は感じなかった。 どちらかのNICが送信に弱い/受信に弱いとか、なんかあるんじゃね? そもそも、ietdも動作おかしい点がいくつもあるけど。 NICそのものかドライバが原因てのはあるかもね。 iperfだとワイヤースピード出るのに、 iometerでブロック流すとリードだけ安定しないってのは遭遇したことある。 その時はドライバ変えたら改善した。 とりあえずオフロード無効にしてみ? >>538-539 tgtdにしてみたら嘘みたいに解消した…。 負荷的にもtgtdの方がかなり有利みたい。 Cent雄5.4 x86_64環境。 まだ詳しく検証してないから、はっきりしたことは分からんけど、 NICドライバ周りも含めて色々調べてみる予定。 今のところ、 > そもそも、ietdも動作おかしい点がいくつもあるけど。 これには同意せざるを得ない感じ。 Hyper-V2.0 Live-Migration 用に、WSFC構築時のiSCSIとして、 ietdとtgtdを使ってみました。 すったもんだあって、結局・・・OpenSolarisのZFSでiSCSI-Targetを 使って、何となくWSFCを構成していますが、クラスタ検証テストはNG、 でも、Hyper-Vのクイックマイグレーション程度なら使えるっぽいです。 最初、dladmとか使ってNICチーミングしていた時は、ごまかしごまかしで クラスタ検証テストも警告状態でスルーしたのですが、MPIOに切り替えると クラスタ検証テストは完全にNGで終了しました。(涙 なお、NICはIntel系×4ポート、Mem16GB、Xeon3440、SATA1TB×4:Raid-5 構成の同一ハード仕様サーバを複数台使って検証しました。 #金出して、StoregeServerStandard以上を使えって事でしょうか? まぁ、・・・ご参考まで。 超亀報告ですが、ietdのバグだったようで 正常に動作してなかったみたいです。1.4.20.1で rpmパッケージを作成してインストールしてみたら、 あっさりつながった…。 IETでBlockSize使うとWindowsからまともに使えないな 冤罪だった WindowsもIETも悪くない VirtualBoxだ iSCSIサーバーの性能ってCPUに左右される? 昔のセレロンPCとかをサーバーにしても遅いかな。 >>548 >>462 誰もそれ以上テストしてないので結論は出てないが >>548 左右されるよ あとメモリ容量にもね。 まぁセレロン言ってもピンキリだから何とも言えんわな。 >>548 iSCSIのパフォーマンスは伝送路に大きく左右される。つまりNIC/ケーブル/ハブ。 さらに言えば、CPU、ノースブリッジ、サウスブリッジ、メモリ。 iSCSIで接続したHDを、他の何と比べるかによって答えは変わってくる。 ローカル接続のHDと比べると、ネットワークは、10MbpsでiSCSIは話にならない。 100Mbpsでも、常用するには使い方を割り切るか、忍耐強さが必要。 感覚的には、USB接続の外付けHD程度(但し抜き差し不可)かな。 たとえばDVD1枚分のコピーに1時間...みたいな。(もうちょい早いか?) それなりに使おうとすれば1Gbpsは必要。 実効速度で最低でも300〜500Mbpsは出ないと辛い。 ビット毎秒をバイト毎秒に置き換えればわかると思うが、 仮にGbEを使って実効速度800Mbps出たとしても、100メガバイト毎秒。 それでやっと一昔前のパラレルATA接続のハードディスクといい勝負。 当然、GbEを活かそうと思えば、それなりのCPUに、 それなりのノースブリッジ、サウスブリッジ、それにメモリも必要になってくる。 実験や勉強なら鱈セレでも使える...っちゃあ、使えるが、 GbEを活かせないようなハードウェアなら、実用にはならないと思った方がいい。 セレロンを積んでるような奴では、かなりキツイと思う。 でも要は、何と比べるか...だと思うよ。 CentOS で iSCSIターゲットをデータ領域としてマウントしているのですが、 shutdown/reboot時にはこのデバイスを先にアンマウントしておかないと Umounting file systems で止ってしまい正常に終了できません。 このアンマウントを自動的に行わせるにはどうしたらいいのでしょう? 安全を考えるとデバイスを使用している可能性のある samba等の終了より後で アンマウントしたいところですが、かといって iscsid や network が終了した後では (当然)正常に umount が実行されません。 (即ち、/etc/rc.d/rc[0|6].d/K?? の前でも後でも不可) 取り敢えず、現在は /etc/rc.d/init.d/iscsi の stop スクリプトの先頭に umount を 書き込んでしまいましたが、どうにも美しくありません。 皆さんはどうやって解決してますか? CentOS は netdev 見てくれないのか? 鳥別スレで聞いみそ。 情報どうもです。 _netdevオプションで解決しました。 iSCSI導入方法紹介してるサイトでも意外とこの話出てないんですね。 いや、普段 NFS等使ってる人には常識ということなんだろうけど(汗) >>551 そうなるとNASなんかのiSCSIはダメダメかい? ARMとかどうよ。 >>556 モノによっては真面目にGbEに対応してるものもある。 牛のLS-XHLとか。 freenasのiscsiにchapを設定した状態で windows7のイニシエータから接続できないんですが 非対応でしょうか。 ちょっと教えてください。 Linuxにデータが入ってるNTFSフォーマットなHDDを接続して、そのドライブを iSCSIで別のWinなマシンに見せるて事は可能でしょうか? >>562 おお、やはり出来ましたか。 最初FreeNASでやろうとしてPort Multiplier使えなくて、Openfilerでやろうとした ら、Openfilerだとファーマット前提だったので諦めかけてました。 ちょっとCentでも入れて頑張ってみます。 ありがとうございました。 ううう、何度やっても読み書きともに9MB/sぐらいしか速度がでない・・・。なぜ! freebsd+iscsi, freenas+iscsiやったけど全部9MB/sだ・・・。 freenasスレいってきます! ううん、netperfで実効900Mちょいっす。結局まだ悩んでる・・・。 ターゲットはせんとくん5.5+scsi-target-utilsで、 イニシエータ側はXP+MS御製の2.08を使用。 HDDイメージの方はイニシエータ側からローカルドライブの如く見えるものの、 CDのISOが変。 1.7Gbyte位のJustSuite2010のISOだとチャンとターゲット側でマウントされて、 XP側からはローカルの光学ドライブにDVDがマウントされた状態で見えるのに、 3.4GByte程度のStella Nabigator9のISOだと、ターゲット側でマウントされない。 76.8GByte程度のISOだとなおさら。 XP側からは、空のドライブがローカルに接続された状態に見えるんだな。 こりゃ何だろか? 確かにBD用の70GByteものISOは異常かも知れなったが、 普通に二層DVDのISOがマウントできんとは.......... よっしゃ行けたXPのSANブート せんとくん5.5では、iSCSI Enterprise targetの方だと、旨く決まるな。 だがCDイメージISOのマウントはまだまだ。 tgtdってwrite-cacheをoffにした方がSequential Write速いのな。 randomはオンの時の方が速いみたいだけど… CentOS5.5で/dev/sdbのWD10EACSを丸々backing-storeに設定して win7(x64)のPCから計測 オフの時: Sequential Read : 107.801 MB/s Sequential Write : 81.818 MB/s Random Read 512KB : 102.682 MB/s Random Write 512KB : 46.133 MB/s Random Read 4KB (QD=1) : 10.972 MB/s [ 2678.6 IOPS] Random Write 4KB (QD=1) : 1.250 MB/s [ 305.2 IOPS] Random Read 4KB (QD=32) : 97.925 MB/s [ 23907.5 IOPS] Random Write 4KB (QD=32) : 1.290 MB/s [ 315.0 IOPS] オンの時: Sequential Read : 107.513 MB/s Sequential Write : 60.971 MB/s Random Read 512KB : 100.259 MB/s Random Write 512KB : 45.661 MB/s Random Read 4KB (QD=1) : 10.226 MB/s [ 2496.7 IOPS] Random Write 4KB (QD=1) : 2.819 MB/s [ 688.3 IOPS] Random Read 4KB (QD=32) : 83.901 MB/s [ 20483.7 IOPS] Random Write 4KB (QD=32) : 13.341 MB/s [ 3257.0 IOPS] CDイメージのマウントに成功。 SCSI-Target-utilsの最新版なら、ちゃんと出来る模様ですな。 地図ソフトのインスコなどが、3昼夜掛かっていたのが、1時間半で出来る様になったぜ。 sentos5.5+tgtでLVMパーティーションをWindowsでiscsiでマウントさせて見て試してるんだけど、 初めはイニシエーター上でマウントしてWindowsでフォーマットさせて読み書きも問題無く使えるんだけど、 何かの拍子に再マウントするとこの「DISKはフォーマットされてません」となってしまう。 どうやらイニシエーター側でおかしな状態になるっぽい。 だれかやってみた人いませんか? 上の方で出てるiSCSIをソフトウェアRAID1にするのってスプリットブレインやデータ の差異が起きたらどんな動作をするのだろう・・? もし問題ないのならDRBDの盆雑さやリソース喰いすぎから開放されるんだが pohmelfs DSTってどうなったの? まともにこれらって使えなくね? どこがだよ? 何が悲しくてゲイツOSに命を預けなきゃならんのだ。 Windows Update の度に逃げられちゃ話にならん。 めちゃくちゃうれしいぞ 無料だから俺みたいな乞食が泣いてよろこぶわ 何言ってやがる、ファイルサーバーとして使うなら Solaris≒Windows>>BSD>>>Linuxだろ 何が悲しいって、Linuxをファルサーバーにせにゃならん金の無さ LinuxはVFSまともに作り直さない限りWindowsの足下にも及ばんわ >>585 Solarisはわかる。ZFS最高。 でも、どういう理由で Solaris≒Windows なのか言ってみろ。 いつも思うんだが、 iSCSIイニシエータ(ホスト側) iSCSIターゲット(ストレージ側) って、命名ミスったな、と思わん? ええと、ホスト側というのはストレージをホストしてるわけじゃなくて ホストアダプタ的な意味で、ターゲットは個々のストレージ使ってる側じゃなくて ストレージがあってさっきのホストからターゲットにされる側 とかいまだに脳内確認しないといけないことがあって萎える。 旧来のSCSIから使われている名前なので、まぁがんばって慣れるんだな。 ちなみに俺は違和感ないし、命名ミスったとも思わん。SCSI subsystemではinitiatorがbus上のtargetを探すので、英語的にはとても的確だと思うが。 われざとか逝ってよしとか使ってみたかったの? もうちょっと勉強してから書き込め >>591 サーバ - クライアントの概念を理解できてないんだね >>586 >>585 ちゃうけどストレージコントローラのドライバと それ専用のGUIユーティリティは充実してるよね>Windows Windowsで使えるクラスタリングファイルシステムマダー(・∀・ )っ/凵 ⌒☆チン どうせNAS使うんでしょ ローカルなファイルシステムなんてなんでもいいじゃん ZFS使いたいなら、Windowsなんて捨ててSolarisでいいじゃん iSCSI+DM-MPとGNBD+DM-MPってどっちが速度出るのかな? 誰か試した人居たらこっそり教えてちょ InfiniBandスレたてたんでリンクはっときます 個人で使ってる人少なすぎて落ちそうな気がするので、話題あったらよろしくです InfiniBandについて語るスレ http://hibari.2ch.net/test/read.cgi/hard/1305552336/ iSCSIというものを最近知ったので、このスレをざっと眺めたんだけど、 >>22 がちょっと気になった ところでiSCSIって1つのターゲットに複数から同時に接続しても問題ないの? >>604 ターゲット次第 うっかり両方からマウントかけてFS崩壊させたり楽しいことができるぞ >>604 iSCSIとしては、何ら問題ない。 ファイルシステムやロジカルボリュームマネージャーは クラスター対応してるの使わないと駄目だけどね。それはiSCSIの問題じゃないし。 btrfsをクラスター対応させるって言ってた記憶があるけど、実装される気配すらないな クラスタFSってのは必須なのかな。 同じファイルに同時アクセスしないって保証されれば ext3でもいいってことにはならない? 問題ない 世の中のActive/StandbyなHAクラスタはそうしてるのもいる >>610 メインメモリ上のcache/bufferとHDDの内容が食い違っても大丈夫だと思う? >>610 複数台から同時にアクセスしないって保証があれば大丈夫 >>613 つまりクラスタFSを使えばいいってことだね。 >>610 分散ロックマネージャだっけ? あれNノードで共有するならN*(N-1)/2のリンクがいるんだっけ? なんかややこしいからNFSやCIFSでよくない? クラスタFS以外のFSを複数台でマウントしたらクラッシュするだろ iSCSIはそうならないための制御をしてくれてるんじゃないの? できないならNFSのほうがマシじゃん。 >>617 お前、ファイルシステムのお勉強して出直せ >>617 NFSの後ろ二文字は何の略だと思ってるんだ? お前が書いてるのは「HDDよりWindowsの方がマシ」みたいなもんで 本来比較対象になるものではない。 違うレイヤーの技術だ。 NFSは複数からの接続もokだろ? NFSの先がext3でもいいんじゃなかったのか? iSCSIはそれがだめなんだろ?? いやだから、NFSの場合はネットワークを飛び交うデータは(ものすごく大雑把に言うと) 「このファイルを開け、シーク、読め。ディレクトリエントリに新規ファイル追加しろ」 といったファイルシステムの操作であって、iSCSIの場合は 「ブロック(セクタ)○番のデータを読め、書け」 というブロック操作そのもの。全くレイヤが違って、どっちの機能が欲しいかによるということ。 通常、サーバーのファイルシステムをクライアントから共有したいのであれば、基本的には前者が向いている。 NFSで十分なことを、わざわざiSCSI + クラスタファイルシステムにするのは無駄。 じゃ、なぜiSCSIのようなものが必要とされているかは、答えが一つじゃないので自分で調べてくれ。 >617 まぁ言葉の説明で分からなければ 実際にiSCSI targetにlogonしてみると良いよ。 未formatのUSB-HDDつないだような感覚なんだ。 iSCSI の Target にした HDD を local でもそのまま扱えるかどうか興味があります。 Target の HDD を iSCSI の target としてではなく、local で WinXP ドライブ割り当て したり、Linux vfs mount などできるように iSCSI は設定できますか? ・ Storage PC に Linux で iSCSI で target を準備。target専用のHDD を割り当て ・ work PC (WinXP) 側から iSCSI initiator で接続、NTFS もしくは FAT32 でformat して、 local HDD の内容を target に転送した後切断 ・ iSCSI の target にした HDD を iSCSI 経由でなく直接扱う。 HDD を USB MassStorage Class で扱ったり、SATA AHCI HotSwap でできることを 物理的にではなく電気的に行いたいです。SMB でも実現できるけど転送レートが遅いので >>625 それができないターゲットソフトウェアなんてまずない。 少なくともSTGTとSCSTではできた。 実際にマウントするにはkpartx使ったり、/dev/sdX自体をターゲットにしたり。 ちなみにFSをフォーマットする前にfdiskが必要。 すばらしい。iSCSI いじってみる気になれました。 Atom D525MW ですが、お勧めの distribution と target の組み合わせはありますか。 最近は、仕事の関連で Fedora base で管理したり作業することが多いですが、 LAN でサーバを構築・運用したりはしてきたり、昔は、slack, deb, redhat で いろいろハードはいじっていたので fdisk だとかはわかります。 パフォーマンスがよくて安定している target ソフトウェアと、それがメインに 供給されているdistribution があったら教えていただけるとうれしいです。 くれくれ、ですみません。 iscsi+dm-multipathでスループット向上は期待できない? GbEx2でtargetはCOMSTARやらFreeNASやら試してみたけど115MB/s(GbEx1でも同じ)の壁を超えられん。 multipath.confをいじりまわして現在こんな風になっている。 mpathd (33000000022af3af8) dm-3 FreeBSD,iSCSI DISK size=10G features='1 queue_if_no_path' hwhandler='0' wp=rw `-+- policy='round-robin 0' prio=2 status=active |- 11:0:0:0 sdc 8:32 active ready running `- 12:0:0:0 sdd 8:48 active ready running マルチパスにしてもその先にぶら下がるディスクは一個なわけで そっちが律速になるんでないかい target側はSSD(C300)にしてあるのでシーケンシャルリードなら250MB/sくらいは出てます。 LUNの実体はZFS上のファイルなので16Gあるメモリキャッシュに乗ってしまえばもっと出るはず。 わざと100BASEに落としてみると上限が11.8MB/sに張り付いた。 マルチパスにしてもスループットが向上しないのが論点なんだからnetperfで単体パスのスループット測っても意味ないんじゃないの ここでも同じような報告あるから現状ではそういうもんなんじゃね? http://www.linux-archive.org/device-mapper-development/519570-round-robin-performance-limit.html request-based device-mapper対応のkernelでrr_min_ioを3にすれば 少しだけ改善するみたいだけど。 openfiler 2.99 Celeron E3300 8GB memory LSI Logic 8408E+1TB 7200rpm×8 RAID5 intel 1000PT dual port GbE openfiler上でbond0を作り、mode=6 readだけなら170MB/sくらい出ているよ writeは100MB/sくらいが上限だけども bondingも頭の片隅にはあったけど、何となく悔しいのでもうちょっと試行錯誤してみる イニシエータA(PC1台目)でCeonOS5.4をインストールして その起動イメージをターゲット上でコピーして イニシエータB(PC2台目)で起動する...って事は 可能なのでしょうか? 起動イメージをターゲット上でコピーした後に initrdを展開してイニシエータの情報だったりを 変更しないと駄目でしょうか? >>645 イニシエータAとイニシエータBのハードウェアが同じならいけるのでは? ハードウエアの違いはKudzuが頑張ってくれるので大体の場合は普通に起動できる 手作業は起動してからhostnameとネットワークの再設定くらいかな イニシエータAでOSインストール時に設定した イニシエータ名が/etc/iscsi/initiatorname.iscsi に記載されて...その起動イメージ(iSCSI LU)コピー後 イニシエータBで起動するとBoot中に イニシエータ名が違うと言われてしまって...。 ターゲットがutf16(windows)で イニシエータがutf8(linux)だと ファイル名ちゃんと出る? ターゲットを丸ごとバックアップしたい場合、どういう方法があるかな? iSCSIってターゲット側のメモリが多ければ多いだけI/Oが高速化するの? iSCSIがあってiUSBがないのは なぜなんだぜ? USB IPの話題で、そういえば昔はプリンタやスキャナとかをSCSIにつなげていたなぁ、 iSCSI対応スキャナとかあったら…とか思ったけど、今はスキャナが直接 TCP/IP吐き出すから無意味か。 ISCSIで公開する領域はfileioにしたほうが、バックアップやサーバ移動など保守しやすいと思うのですが、 どうなのでしょうか。 hddデバイスを丸ごと公開するよりも、動作が鈍くなるなど問題が生じたりするでしょうか。 一つ思うのは、ファイルの大きさに制限があるのではないかということです。 2Tほどの領域を公開するなんてことはfileioでは無理でしょうか。 ファイルとブロックデバイスという視点じゃなくファイルシステムの入ったオブジェクトとしてみれば保守しやすさなんてどちらも変わんね >>659 バックアップは、ファイルの方が取り扱いやすいかなって思ったんです ブロックデバイスは、バックアップやリストアがややこしくないですか 全体コピるならcp使うかdd使うかの違いだし、daemon止めてローカルでマウントすれば中身丸見えだし、 どっちも一緒だべ。 >ローカルでマウントすれば /dev/ディレクトリ以下のデバイスファイルでなくてもいいわけか ddで吸い上げて、それをどっかのディレクトリ(/somewhere/ディレクトリ)にマウントして、アイスかっじたらいいわけか。 ISCSIのターゲットを作成し、ESXIのディスクとして使いたいのですが、 どこのを使えばいいのか良く分かりません。 例えば、次の二つが見つかりました。 http://www.open-iscsi.org/ http://iscsitarget.sourceforge.net/ おすすめはないでしょうか。 せめて ××は試しましたが △△という点で不満です くらいのことは書いてみようよ タダ&情報量の多いものから取り敢えず試してみりゃいいと思うけどね 失敗しても別に爆発する訳でもなし 何もやらなきゃ何が分からないのかすら永遠に分からんまま だめだー単一点の存在しないクラスタFS探してたけどなかなかこれ!ってのがない。 GFS2 RHCSでやるもfence失敗したらハング、複数のiscsiのミラーはCLVMでは不可。速度は出る Glusterfs 単一点無し、構成も自由度高いけどノード増えると遅すぎ Web公開領域とセッションとかの保存用に少し欲しいだけなら普通にNFSの方がいい気がしてきた。lsycdとか、、 >>657 大昔のMACのイーサアダプタってSCSI接続なのがあって とりあえずnetbsdならネットワークドライバあるみたい。 ttp://www.drvlabo.jp/old/jp/netbsdj.htm これ使えばLANまるごとiSCSI化できたりするんだろうか? その先でUSBIP使ったら内部接続PCIなUSBディスプレイでもなんでも iSCSIに乗っけて接続できたりする? >>677 それってEthernet over SCSIであって、 SCSI over IP(Ethernet) ではないのでは・・ >>678 NET2280 PCI over USB usbip USB over IP RFC894 IP over Ethernet SSC-502 Ethernet over SCSI iSCSI SCSI over IP 現実性や冗長性はともかく、既成技術の組み合わせで構成しているところがミソやね。 >>673 fence失敗したらハングって・・fenceってわざとハングさせる為の物じゃん スプリットブレインシンドローム起こさせない為に esxi 5.1のソフトウェアイニシエータとUbuntu上のietを試してる。 iscsiログインはできて、パーティション作成まではできるんだけど、vmfsフォーマットしようとするとコネクションタイムアウトになってしまう。。。 debianのコアのみにiscsitargetをインストールして vmwareのデータストアとして使ってるんだけど どうもパフォーマンスが良くない。 NICはe1000eなんだけど何かいい情報ないですかね。 どのくらいの性能を期待してどうガッカリだったのかを書いたほうが良いのでは ちょっと説明が難しいんですけど具体的には esxiゲストのCentOSがyum updateすると ストア側の負荷がtopコマンドで4〜5くらいまで上昇して 他のゲストOSの反応が悪くなる感じです。 少し前にはiscsiでabortとか出てゲストがすべて止まったこともありました。 ストア側はxeon e3110でメモリ2GBです。 ietd.confはtype=blockioとしているくらいで、他はデフォルトのままです。 つーか、ソフトウェア、NIC、CPU、メモリの情報なんかより、 ストレージの情報がいちばん重要だと思うんだけど。 esxiに直接SSDつけた方がいいんじゃない? >>685 とりあえずiotopとvmstatを1日中眺める作業から始めてみようか vmstat 短時間だけど抜粋 5秒間隔 ほとんど負荷なしの状態でcentosのデスクトップにログインした procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 0 0 0 1849948 92720 88632 0 0 0 345 269 533 0 0 100 0 0 0 0 1849948 92724 88632 0 0 10 98 108 282 0 0 100 0 0 0 0 1835608 92728 88632 0 0 3278 250 1070 1968 3 2 95 0 0 0 0 1849788 92740 88632 0 0 3655 501 1289 2541 0 2 98 0 0 0 0 1849872 92744 88632 0 0 2210 284 783 1521 0 1 99 0 0 0 0 1849892 92744 88632 0 0 1976 336 839 1664 0 2 98 0 0 0 0 1849636 92744 88632 0 0 3706 788 1658 3339 0 3 97 0 0 0 0 1849772 92744 88632 0 0 3278 953 1679 3744 0 3 97 0 1 0 0 1849824 92748 88632 0 0 1565 583 895 1824 0 1 99 0 0 0 0 1849872 92748 88632 0 0 1475 232 401 678 0 1 99 0 0 0 0 1849984 92748 88632 0 0 70 90 108 229 1 0 99 0 0 0 0 1850064 92748 88632 0 0 318 315 213 439 0 0 100 0 0 0 0 1850056 92748 88632 0 0 133 81 108 187 0 0 100 0 0 0 0 1850320 92748 88632 0 0 606 436 470 1119 0 1 99 0 0 0 0 1850196 92748 88632 0 0 1270 308 600 1200 0 1 99 0 0 0 0 1850128 92748 88632 0 0 1471 193 702 1712 0 1 99 1 0 0 0 1849824 92748 88632 0 0 300 350 328 790 0 0 99 0 0 0 0 1849824 92748 88632 0 0 2 124 108 244 0 0 100 0 0 0 0 1849948 92748 88632 0 0 2 101 72 150 0 0 100 0 0 0 0 1850016 92748 88632 0 0 0 704 514 1424 0 1 99 0 そのときのiotopは Total DISK READ: 0.86 M/s | Total DISK WRITE: 154.95 K/s PID USER DISK READ DISK WRITE SWAPIN IO> COMMAND 1048 root 0 B/s 130.19 K/s 0.00 % 0.68 % [kjournald] 2457 root 113.42 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2458 root 83.07 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2459 root 85.46 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2460 root 69.49 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2461 root 104.63 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2462 root 76.68 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2463 root 150.16 K/s 0 B/s 0.00 % 0.00 % [istiod1] 2464 root 195.89 K/s 0 B/s 0.00 % 0.00 % [istiod1] loadaverageは最高1.2くらいで他ゲストにはとくに影響なし でもistiod1のDISK WRITEがすべて0B/sってどういうことだろ? DVDやBD等の光学ドライブをiSCSIターゲットにしたいのだが、ietだとできないっぽい 最近はSCSTとかLIOとかあるみたいだがいまいち情報が少ないな iSCSIを使ってみたくて調べていたらIomega StorCenter ix2という製品が安いんだけど このくらいのスペック(Marvell6282 1.6GHz メモリ256MB)だとどの位の速度出るもん? 上の方でCPUとかメモリとかがいるって書いてあったしこの程度のハードだとどの程度 性能が出るのか気になる。 まぁ、メインで使いたいのがMacBookAirとかSSDで容量が少ないマシンで今使っている データ溜め込んでるUSB HDDつなぐの面倒くさくなったからなんだけど、無線LANで 運用の時点で性能云々という話ではなくなるのかもしれないけどね・・・。 当面の目的はそんな感じ。 メインは編集用の写真データを貯めこんでる外付けUSBなHDDを無線化出来たら 良いなーって感じかな。据え置き機(有線GbE)とMBA(無線LAN)と両方からマウント 出来る環境になるとちょっと編集をしたい時と腰を据えて編集する時どっちも同じ ディスクを参照出来るし、付け替えとかの手間が無くて面倒くさくなくて良いかなと。 マウント自体は共用せず排他で使う感じなので特殊なFSはいらないと思う。 iomega って Jazz とか clik! とか作ってたとこだよね。 今こんなの作ってたんか。 とっくに潰れたと思ってたw mini-ITXのPCにFreeNASでも入れた方が融通が利くし安上がりなんじゃ。 ベルヌーイやzipでなくその2つを思い出すってどうなの 時期が後ろよりなだけじゃない? Jazは売る側だったから辛酸をなめさせられたな 全然LinuxかすらないけどiSCSIという物に触ってみたくてVMWareにNetBSD入れて Windows8からつないでみた・・・けどCrystalmark完走する前に何やら止まってしまい Windowsの管理ツールからも切断出来ずみたいな状態になってしまった。こんなもん? ちゃんと設定して使えばそんなもんではない 多くの企業でそんなもんが使われてるとでも思うのか >>704 いや、別にiSCSIそのものをどうこう言っているつもりもないし、多くの企業が こんな構成を使っているわけでもないだろ? ただ、ちゃんと設定と言ってもNetBSDはデフォルト設定のままデーモンを 起動しただけ(ローカルHDDを100MB分)、Win8のイニシエータはIP指定で つないでFAT32でフォーマット。認証もなし、ネットワークもPC内のローカル。 限りなくシンプルな構成な気がするんだけどどこがまずそう? 可能性としては容量少なすぎてCrystalMark的に問題があったとか (一応50MBの選んだけど)、Win8のイニシエータの実装がネットワーク的に 瞬断とか起きた際にリカバリうまく出来ないとか、VMWareのネットワーク 部分と何か相性が悪いとか、そもそもNetBSDの実装がイマイチだったり とか色々想像してるんだけどよくわからないや。 そんな組み合わせにゃ興味ねーし 気になるなら面倒がって妄想してねーで もっといろんな組み合わせでテストしてみればー? はじめて試すなら、まずM$のコードから離れたほうがいいな。 彼らは平気でオレオレ仕様で実装してくるから。 ADが土台として使ってるKerberosがいい例。 Win8のイニシエータを試すなら、ターゲットもM$じゃないと地雷踏む可能性大。 逆にいわゆる世間一般のiSCSIを体験したいなら、まずM$は忘れろ。 >>707 アザッス。おっしゃるとおりどんなもんか触ってみたかったのが発端。 試した環境は職場のPCなんで明日まで試せないんだけどイニシエータの 管理アプリが固まった後はシャットダウンも出来なくなりなんとなく昔の イマイチ実装だったWebDAVを彷彿させるなと思っていたところなんで 確かにそっち側に地雷がある可能性は否めないですね。 とりあえず来週WindowsServer組む予定なのでWindows環境はそちらで 試してみます。 Crystal Disk MarkのQD32ってテスト項目ってSATA特有の機能を使っている と言う認識なんだけどiSCSIなボリュームに対して使えるものなの?ってググると iSCSI上でテストした結果が出てくるので動くものは動くんだろうけど。 なんとなく気になってiSCSIの実装が違うDebianな環境をVMwareに作って同様の ベンチマークをしてみたら同じところで止まった。ムムムム。 ムムム。一応特定は出来た。 実装の問題かとVMware上にdebian, netbsd, freenas, solarisと入れて試してダメ イラッときて一台マシンを用意してfreenas入れて試してもダメ Initiatorの問題かとStarWindの物を入れてもダメ ソース読んで、デバッグしてみて止まっている場所も特定したけど腑に落ちず ふと別のマシンから試したらOK。色々調べてみたらノートン先生が犯人でしたorz コード的には非同期のファイル書き込みを投げた後、I/Oの終了待ちのSleepExで ずっとループしててそこが原因だった。この状態でそのファイルのハンドルいじると ロックしてシャットダウンすら出来なくなる。どこら辺(ディスクI/Oなのかネットワーク なのか)が遮断されるとかまでは特定出来ていないけど困った話デスな まぁ、でもsambaなNASをネットワークドライブの場合はノートン先生を 生かしていても完走するのでヤヤコシイ話ではある・・・orz /etc/cron.d/mdadm の過負荷にやられた。なんだこの爆弾 DL3xxG7世代の bnx2i offloadなイニシエータ動いたンゴ イニシエータはCentOS7.1 ターゲットはCentOS6.7 の貧乏構成ンゴ。bnx2i を使うにはライセンスが必要だったみたいだけど、今は無くても動く模様 iscsiuioを動かしとかんとアカンところがハマりどころだったンゴ。 GbE直結にしてみたけど速度が250Mbps位しか出ないンゴ ターゲットはsataのやっすいディスクなんだけどもうちょっと速度でてほしいンゴねぇ あとiSCSI自体が感覚的にそこそこ重くて、貧乏構成ならAoEでも良かった気がするンゴ >>712 ターゲットがシングルプロセッサでしか動かんので遅い模様。初代core シリーズのPentuumなマシンだからこんなもんか オープンソース実装のソフトウェアiSCSIってまともに使えるの? 最近はもうiSCSI Enterprise Targetは古いんだな。 Ubuntuを17.10にしてみたらIETはパッケージすら無くて困った。 LIOに移行してみたけどこれ難しいな。 難しいというか癖があるというか、良くわからないな。 逆にオープンソース実装でまともに使えるの何があるのか apache専用OSやんLinux 誰でも簡単にパソコン1台で稼げる方法など 参考までに、 ⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。 グーグル検索⇒『宮本のゴウリエセレレ』 R3XKOKSEZE 僕の知り合いの知り合いができた副業情報ドットコム 関心がある人だけ見てください。 グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』 RMWAH ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる