第1回OpenStorage研究会MTG議事録


第1回開催 開催:第1回OpenStorage研究会MTG議事録
開催日時:2012/03/30(金) 15:00~17:00
開催場所:ネットワンシステムズ株式会社様 会議室
参加者
(順不同・敬称略)
現地参加者
松井(株式会社データホテル)/荒井(CUPA)/山口(ネットワンシステムズ株式会社/Cloud Business Alliance)
武川(株式会社モーフ・ラボ)/中島(伊藤忠テクノソリューションズ株式会社)/
平田(日商エレクトロニクス株式会社)

リモート参加者
高橋(NTT PCコミュニケーションズ)/川田(Atoll Project)/山下(株式会社データホテル)/
伊藤(株式会社NTTデータ)

議題

  • 1. OpenStorage研究会の方針
  • 2. 検証環境の現状調査
  • 3. 実験や研究のネタについて

0.資料の説明by松井

    前提
  • 個人で検証を行おうとしても、構築までで終わりがちになってしまう。
  • 機材を持ち寄ることで大規模な構築を行い、運用までもって行きたい。

1.研究会の実施方針

  • 実証実験タスクフォースの別の研究会との交流
  • ユーザ会などへの情報発信
  • 運用を通した実用性の評価や課題の洗い出し
  • 取扱技術
  • Swift
  • Gluster

1-1.スケジュール案

1.最初は物理サーバでの検証
2.OpenIaaS研究会から提供される仮想サーバを利用しての検証

  • OpenIaaS研究会からクラウド基盤にSwiftを使用したいとの要望 ⇒ 2012年1Q辺りから着手したい
  • OpenNetwork研究会からも広域分散ストレージシステム構築の要望 ⇒2012年2Q辺りから着手したい

1-2.活動内容と成果物

 
前期(Phase1)
  • 物理サーバを用いた性能評価
  • 他研究会へのストレージ基盤の提供
前期成果物
  • インストール手順書
  • ベンチマーク結果
  • 運用ノウハウ
担当
  • Swift:松井(予定)
  • GlusterFS:高橋(予定)
  • ※ブロックストレージをやりたいが、担当者のアサインができない状態(荒井)
    ・iSCSIなど
後期(Phase2)
  • 前期に引続き、各研究会に提供するストレージ基盤の運用
  • ストレージ技術の検証
  • 大規模実験の準備(制御や結果収集の仕組みを確立)
  • 多数VMを用いた大規模実験の実施
  • 広域分散のストレージ構築
後期成果物
  • 実験支援プログラム
  • 大規模実験結果
  • 運用ノウハウ
まとめ  
    Phase1
  • データホテルとIDCFを拠点とする
  • 物理サーバを使ってベンチマーク測定
  • 研究会への基盤提供
  • 運用における課題の洗い出し
  • Phase2
  • IaaS基盤への基盤を提供
  • その上で作成されたVMを用いて大規模実験を行う
  • 様々な技術の検証

2.現状の機材

IDCF社への設置機材 ・ラック1本&40Aをレンタル中
・電源の増設は可能
モーフ・ラボ社からサーバ3台 ・1TBディスク×4台
・半年間の期限
・置き場所はIDCF?
OpenIaaS研からNetGearのストレージを入れる予定 ・iSCSIで12TB
・データのバックアップなどに使用可
データホテル社への設置機材 データホテルが保有するものを中心に集める
・GlusterFSをどこで構築するか決まっていない。(荒井)
・どの程度の規模で機材を揃えたいのかの目標は?(平田)
⇒GlusterFSの実証実験用にサーバ17台程度欲しい
⇒仮想マシンは不可(InfiniBandがつけられないため)
⇒InfiniBand対応必須
⇒17台分のInfiniBandカードとスイッチは用意可能
⇒サーバについては手配できていない

・必要スペック
⇒CPU:Nehalem以降
⇒メモリ:12G以上
⇒HDD:システム全体で50T以上なら嬉しいが、特に構わない
⇒1サーバ2スピンドル以上ならなお良い(OSとGluster用で分けられる方がいい)

・目標を決めないと必要設備も定められないのでは?(高橋)

2-1.その他

  • 現在機材は各研究会で集めているが、タスクフォース全体で管理した方が良い(松井)
  • 今後は方針を切り替える(荒井)
  • CTC社より機材提供を検討中。四月中には規模を提示したい(中島)

3.目標をどこに置くか

  • OpenIaaS研の例
  • 組み合わせ
  • 相互運用性
  • OpenStrage研は?
  • 1)インターオペ-ラブイリティ
  • 2)性能の評価(Phase2以降)
  • 各拠点にミニマム環境を作ってのベンチマークをやってみては?(松井)
    ⇒あまり意味がない。拠点が5台以上無いと(高橋)
  • 拡張性を見たい(武川)
  • 運用性、安定して運用するためのノウハウ(荒井)
  • ストレージ技術間の比較は?(平田)
  • インターフェイスが違うので比較しても…
  • 要件定義の段階でインターフェイスが決まっていないことも多々ある。(高橋)
  • 用途レベルでの比較など性能以外にも比較したい
  • GlusterのSwift機能とSwiftの比較
  • 大規模に分散しつつ、広域拠点で組んだときの特性評価をしたい(中島、高橋)
    ⇒環境に応じた最適な設定についてのノウハウも得たい(中島)
  • 監視系を行うかどうか?

  • Swift/Gluster以外もやる?
  • 同じハードウェアでやって比較するか
    ⇒実は伊藤さんがデモでやってた(規模が小さいと難しい)
  • 大規模にやるなら3桁以上の機材が必要
    ⇒NiCTの施設を借りられるように相談しては?

  • Swift
  • IaaS上で動かしてみる(I/Oとかどうだろうか)
  • プロビジョニング・構築の自動化
    ⇒自作よりはあり物で実現したい。Cobblerとかクローバーとかも。ハード非依存がいい

  • 大規模環境へ向けての導入・運用の大変さ
  • デプロイメントの自動化方法と評価(監視なども)
  • 評価項目を設定しよう
  • 移設も想定しよう

3-1.今年度のゴール

最終的には大規模環境へのデプロイメントの自動化
Phase1 準備 ・ハードの確保次第
・小規模環境の時点では何をするか?
→Swiftインターフェイスの検証とか
・Phase2のための自動デプロイメント用スクリプトなどを作成
・運用の自動化、監視なども検討
・Phase1の追加課題としては、実験企画書のための実績作り
Phase2 実践 ・自動デプロイメントの試験と評価(監視なども)
・NiCTの施設を借りてできないか調整する(実験自体は1~2週間くらい?)
Gluster ・IBでのスケーラビリティ
・広域でのスケーラビリティ
Swift ・大規模分散+広域拠点
・Zone=拠点にして広域分散できるか?等

3-2.データガバナンスについて

データの置き場所が国をまたいだ時の法権については?
⇒今回は考えない

データガバナンスを行う方法としては2通りある
  • 高レイヤーで処理する
  • 低レイヤーで処理する

データにタグを付けて、保存する物理マシンを指定する技術がある
  • TMフォーラムのSID
  • CIMI-CIM
  • テレコムでの実装にはFrameworkがある(ライセンスあり)

OSSのクラウド用の標準が必要になる
  • AmazonやRackSpaceなどの企業は自前でこの仕組もっている
  • OSSを使うか、別のアプローチを使うかは各社まちまち
  • 予備知識が無いので研究会では扱えなさそう
  • レクチャーしてもらう?
  • ⇒OpenCloudCampusで勉強会としてやる
    (英語の資料を事前共有、日本語で解説 みたいに。)

【決定事項】
  • MTGの開催:月1程度と、必要に応じて+αで開催
  • 次回:GWくらい
  • 実験企画書のひな形作成:中島
  • その他の状況についてはMLで連絡
以上