[ English | Indonesia | Deutsch | 日本語 ]

事例

この付録ではコミュニティからを事例をいくつか紹介します。これらでは通常より多くの技術的詳細情報が提供されています。他の事例は OpenStack ウェブサイト で探して下さい。

NeCTAR

利用者:オーストラリアの公的資金による研究部門からの研究者。用途は、シンプルな Web サーバー用のインスタンスから高スループットコンピューティング用の数百のコア使用まで、多種多様な専門分野に渡ります。

デプロイ

OpenStack Compute セルを使用して、NeCTAR Research Cloud は8サイトに及び、1サイトあたり約4,000コアがあります。

各サイトは(OpenStack Compute のセル設定におけるリソースセルとして)異なる設定で実行されています。数サイトは複数データセンターに渡り、コンピュートノード外のストレージを共有ストレージで使用しているサイトもあれば、コンピュートノード上のストレージを非共有型ファイルシステムで使用しているサイトもあります。各サイトは Object Storage バックエンドを持つ Image service をデプロイしています。中央の Identity、dashboard、Compute API サービスが使用されています。dashboard へのログインが Shibboleth の SAML ログインのトリガーになり、SQL バックエンドの Identity サービスのアカウントを作成します。Object Storage Global Cluster は、いくつかの拠点をまたがり使用されます。

コンピュートノードは 24~48コアがあり、1コアあたり 4GB 以上の RAM があり、1コアあたり約 40GB 以上の一時ストレージがあります。

全サイトは Ubuntu 14.04 をベースにしており、ハイパーバイザとして KVM を使用しています。使用している OpenStack のバージョンは基本的に安定バージョンであり、5~10%のコードが開発コードからバックポートされたか、修正されています。

リソース

MIT CSAIL

利用者:MIT Computer Science and Artificial Intelligence Lab からの研究者。

デプロイ

CSAIL クラウドは現在 64 物理ノード、768 物理コア、3,456 GB のメモリがあります。クラウドリソースがコンピュータリソースに焦点をあてているため、永続データストレージの大部分は、クラウド外の NFS 上にあります。40 以上のプロジェクトに 130 以上のユーザーがいます。一般的に、300 ~ 400 インスタンスで 2,000 ~ 2,500 仮想 CPU が動作しています。

最初は、Ubuntu 12.04 に OpenStack Essex を導入しました。FlatDHCP マルチホストネットワークを使用しています。

ソフトウェアスタックは Ubuntu 12.04 LTS と Ubuntu Cloud Archive からの OpenStack Havana です。KVM がハイパーバイザで、FAI と Puppet を設定管理に使用してデプロイされています。FAI と Puppet の組み合わせはOpenStack のみならず研究所全体で使用されています。単一のクラウドコントローラーノードがあり、これはネットワークコントローラーとしても動作しますが、他のコンピュータ・ハードウェアはコンピュートノードに使用されています。

ホストアグリゲートとインスタンス種別の追加スペックが使用され、2 種類の割り当て倍率を提供します。私たちが使用するデフォルトのリソース割り当ては、4:1 CPU と 1.5:1 RAM です。コンピュート中心の処理は、cpu_ratioram_ratio をどちらも 1.0 に設定されている、オーバーサブスクライブしていないホストを必要とするインスタンス種別を使用します。コンピュートノードでハイパースレッディングを有効化しているので、これは CPU スレッドごとに 1 つの仮想 CPU、または、物理 CPU ごとに 2 つの仮想 CPU を提供します。

2013 年 8 月に Grizzly へとアップグレードしたときに、OpenStack Networking に移行しました。コンピュートノードは、2 個の GbE NIC を持ち、IPMI 管理専用のマネジメントカードを持ちます。1 つの NIC は、ノード間通信のために使用されます。もう 1 つは、OpenStack が管理する VLAN のトランクポートとして使用されます。コントローラーノードは、パブリック IP 通信のために、ボンドした 2 つの 10 GbE NICを持ちます。イメージがこのポート経由で使用されるため、ビッグパイプがここで使用されます。また、イメージストレージとデータベースのバックエンドとなる iSCSI ストレージに接続するためにも使用されます。コントローラーノードは、OpenStack が管理する VLAN 通信のためにトランクモードで使用される GbE NIC も持ちます。このポートは、DHCP エージェントとメタデータプロキシーへの通信も処理します。

インスタンスが既存のパブリックにアクセスできるネットワークに直接接続され、デフォルトゲートウェイとして既存の物理ルーターを使用する、プロバイダー VLAN ネットワークを使用した、より古い nova-network のマルチホスト HA セットアップに近づいています。このことは、ネットワークコントローラーが停止した場合に、実行中のインスタンスがネットワークを利用可能であり続けること、単独の Linux ホストが通信のボトルネックにならないことを意味します。すべてのインスタンスの IPv4 アドレスを十分に提供でき、NAT が必要なく、Floating IP アドレスを使用しないので、これを実行できます。単独の汎用的なパブリックネットワークをすべてのプロジェクトに提供し、必要に応じてプロジェクト単位に追加で既存の VLAN を提供します。個々のプロジェクトは、自身のプライベートな GRE ネットワークを作成することもできます。

リソース

DAIR

利用者:DAIR は新しい情報通信技術(ICT)と他のデジタル技術を開発・評価するための CANARIE ネットワークを活用した統合仮想環境です。このシステムは、先進的なネットワーク、クラウドコンピューティング、ストレージといったデジタルインフラから構成されており、革新的な ICT アプリケーション、プロトコル、サービス、の開発・評価環境の作成、デプロイのスケールに関する実験の実施、市場へのより早期の投入促進を目的としています。

デプロイ

DAIR はカナダの2つの異なるデータセンタ(1つはアルバータ州、もう1つはケベック州)でホスティングされています。各拠点にはそれぞれクラウドコントローラがありますが、その1つが「マスター」コントローラーとして、認証とクォータ管理を集中して行うよう設計されています。これは、特製スクリプトと OpenStack の軽微な改造により実現されています。DAIR は現在、Havana で運営されています。

オブジェクトストレージ用に、各リージョンには swift 環境があります。

各リージョンでは、ブロックストレージとインスタンスストレージの両方でNetApp アプライアンスが使用されています。これらのインスタンスを NetApp アプライアンスから Ceph または GlusterFS といった分散ファイルシステム上に移動する計画があります。

ネットワーク管理は VlanManager が広範囲に使用されています。全てのサーバーは2つの冗長化(bonding)された 10GbE NIC があり、2つの独立したスイッチに接続されています。DAIR はクラウドコントローラーが全コンピュートノード上の全インスタンス用のゲートウェイとなる、単一ノードのネットワーキングを使用する設定がされています。内部の OpenStack 通信(例:ストレージ通信)はクラウドコントローラーを経由していません。

リソース

CERN

利用者: 高エネルギー物理学の研究を指揮している CERN (European Organization for Nuclear Research) の研究者。

デプロイ

この環境は、大部分は Red Hat 互換の Scientific Linux 6 ベースです。主なハイパーバイザとして KVM を使用していますが、一方 Windows Server 2008 上の Hyper-V を使用したテストも進行中です。

我々は Compute、Image service、Identity、dashboard の設定に Puppet Labs のOpenStack モジュールを使用しています。Puppet は、インスタンスの設定に幅広く使用されます。Foreman は、レポートおよびインスタンスの配備の GUI として使用されます。

ユーザとグループは Active Directory で管理され、LDAP を使用して Identity にインポートされます。CLI は nova と euca2ools が使用可能です。

CERN では現在 3 つのクラウドが稼働しており、合計で約 4,700 台のコンピュートノード、120,000 コアがあります。 CERN IT クラウドは 2015年までに 300,000 コアにまで拡張される予定です。

リソース