[ English | 日本語 | Deutsch | Indonesia ]

Use Case (kasus penggunaan)

Apendiks ini berisi sejumlah kecil kasus penggunaan dari komunitas, dengan lebih banyak detail teknis dari biasanya. Contoh lebih lanjut dapat ditemukan di OpenStack website.

NeCTAR

Siapa yang menggunakannya: peneliti dari sektor penelitian yang didanai publik Australia. Penggunaannya melintasi berbagai disiplin ilmu, dengan tujuan mulai dari menjalankan server web sederhana hingga menggunakan ratusan core untuk komputasi high-throughput.

Deployment

Menggunakan sel OpenStack Compute, NeCTAR Research Cloud mencakup delapan situs dengan sekitar 4.000 core per situs.

Setiap situs menjalankan konfigurasi yang berbeda, sebagai sel sumber daya dalam pengaturan sel OpenStack Compute. Beberapa situs menjangkau beberapa pusat data, beberapa menggunakan penyimpanan node komputasi dengan sistem file bersama, dan beberapa digunakan pada penyimpanan node komputasi dengan sistem file yang tidak digunakan bersama. Setiap situs menyebarkan layanan Image dengan back end Object Storage. Layanan Identity pokok, dashboard, dan Compute API digunakan. Login ke dasbor memicu login SAML dengan Shibboleth, yang membuat akun di layanan Identity dengan SQL back end. Object Storage Global Cluster digunakan di beberapa situs.

Compute nodes memiliki 24 hingga 48 core, dengan setidaknya 4 GB RAM per core dan sekitar 40 GB penyimpanan sesaat per core.

Semua situs didasarkan pada Ubuntu 14.04, dengan KVM sebagai hypervisor. Versi OpenStack yang digunakan biasanya adalah versi stabil saat ini, dengan 5 hingga 10 persen kode porting belakang dari trunk dan modifikasi.

Sumber daya

MIT CSAIL

Siapa yang menggunakannya: peneliti dari MIT Computer Science and Artificial Intelligence Lab.

Deployment

Cloud CSAIL saat ini adalah 64 node fisik dengan total 768 core fisik dan 3.456 GB RAM. Penyimpanan data yang persisten sebagian besar berada di luar cloud di NFS, dengan sumber daya cloud terfokus pada sumber daya komputasi. Ada lebih dari 130 pengguna di lebih dari 40 proyek, biasanya menjalankan 2.000–2.500 vCPU dalam 300 hingga 400 instance.

Kami awalnya digunakan di Ubuntu 12.04 dengan rilis Essex OpenStack menggunakan jaringan multi-host FlatDHCP.

Tumpukan perangkat lunak masih Ubuntu 12,04 LTS, tetapi sekarang dengan OpenStack Havana dari Ubuntu Cloud Archive. KVM adalah hypervisor, dikerahkan menggunakan FAI dan Puppet untuk manajemen konfigurasi. Kombinasi FAI dan Puppet digunakan di seluruh lab, tidak hanya untuk OpenStack. Ada node cloud controller tunggal, yang juga bertindak sebagai pengontrol jaringan, dengan sisa perangkat keras server yang didedikasikan untuk komputasi node.

Agregat host dan spesifikasi tambahan tipe instanace digunakan untuk menyediakan dua rasio alokasi sumber daya yang berbeda. Rasio alokasi sumber daya default yang kami gunakan adalah 4:1 CPU dan 1.5:1 RAM. Beban kerja intensif-komputasi menggunakan tipe instance yang memerlukan non-oversubscribed host dimana cpu_ratio dan ram_ratio keduanya diatur ke 1.0. Karena kami memiliki hyper-threading yang diaktifkan pada node komputasi kami, ini menyediakan satu vCPU per utas CPU, atau dua vCPU per core fisik.

Dengan peningkatan kami ke Grizzly pada Agustus 2013, kami pindah ke OpenStack Networking, neutron (kuantum pada saat itu). Compute nodes memiliki antarmuka jaringan dua gigabit dan kartu manajemen yang terpisah untuk manajemen IPMI. Satu antarmuka jaringan digunakan untuk komunikasi node-to-node. Yang lain digunakan sebagai port trunk untuk VLAN yang dikelola OpenStack. Node pengontrol menggunakan dua antarmuka jaringan 10g terikat untuk komunikasi IP publiknya. Pipa besar digunakan di sini karena image disajikan melalui port ini, dan juga digunakan untuk terhubung ke penyimpanan iSCSI, back-ending penyimpanan image dan basis data. Node pengontrol juga memiliki antarmuka gigabit yang digunakan dalam mode trunk untuk lalu lintas VLAN yang dikelola OpenStack. Port ini menangani lalu lintas ke agen dhcp dan metadata-proxy.

Kami memperkirakan pengaturan HA multi-host ``nova-network `` yang lebih lama dengan menggunakan "provider VLAN networks" yang menghubungkan instance secara langsung ke jaringan yang dapat dialamatkan secara publik yang ada dan menggunakan router fisik yang ada sebagai gateway default mereka. Ini berarti bahwa jika pengontrol jaringan kami turun, instance yang berjalan masih memiliki jaringan mereka, dan tidak ada satu pun host Linux yang menjadi penghambat lalu lintas. Kami dapat melakukan ini karena kami memiliki pasokan alamat IPv4 yang cukup untuk menutupi semua instance kami dan karenanya tidak perlu NAT dan tidak menggunakan alamat IP mengambang. Kami menyediakan jaringan publik generik tunggal ke semua proyek dan tambahan VLAN yang ada berdasarkan proyek per proyek sesuai kebutuhan. Proyek individu juga diperbolehkan untuk membuat jaringan pribadi berbasis GRE mereka sendiri.

Sumber daya

DAIR

Siapa yang menggunakannya: DAIR adalah lingkungan virtual terintegrasi yang memanfaatkan jaringan CANARIE untuk mengembangkan dan menguji t information communication technology (ICT) dan teknologi digital lainnya. Ini menggabungkan infrastruktur digital seperti jaringan dan komputasi awan serta penyimpanan canggih untuk menciptakan lingkungan untuk mengembangkan dan menguji aplikasi ICT, protokol, dan layanan yang inovatif; melakukan eksperimen at-scale untuk pengerahan; dan memfasilitasi waktu yang lebih cepat ke pasar.

Deployment

DAIR di-host di dua pusat data berbeda di Kanada: satu di Alberta dan yang lainnya di Quebec. Ini terdiri dari pengontrol cloud di setiap lokasi, meskipun, satu ditunjuk pengontrol "master" yang bertanggung jawab atas otentikasi pusat dan kuota. Ini dilakukan melalui skrip khusus dan modifikasi ringan ke OpenStack. DAIR saat ini menjalankan Havana.

Untuk Object Storage, setiap wilayah memiliki lingkungan yang cepat.

Alat NetApp digunakan di setiap wilayah untuk penyimpanan blok dan penyimpanan instance. Ada rencana di masa depan untuk memindahkan instance dari alat NetApp dan ke sistem file terdistribusi seperti :term: Ceph atau GlusterFS.

VlanManager digunakan secara luas untuk manajemen jaringan. Semua server memiliki dua NIC 10GbE terikat yang terhubung ke dua sakelar switch. DAIR diatur untuk menggunakan jaringan node tunggal di mana pengontrol cloud adalah gateway untuk semua instance pada semua node komputasi. Lalu lintas OpenStack internal (misalnya, lalu lintas penyimpanan) tidak melalui pengontrol cloud.

Sumber daya

CERN

Siapa yang menggunakannya: peneliti di CERN (European Organization for Nuclear Research) yang melakukan penelitian fisika energi tinggi.

Deployment

Lingkungan sebagian besar didasarkan pada Scientific Linux 6, yang kompatibel dengan Red Hat. Kami menggunakan KVM sebagai hypervisor utama kami, meskipun tes sedang berlangsung dengan Hyper-V pada Windows Server 2008.

Kami menggunakan modul Puppet Labs OpenStack untuk mengonfigurasikan Compute, Image service, Identity, dan dashboard. Puppet digunakan secara luas untuk konfigurasi instance, dan Foreman digunakan sebagai GUI untuk pelaporan dan penyediaan instance.

Pengguna dan grup dikelola melalui Active Directory dan diimpor ke layanan Identity menggunakan LDAP. CLI tersedia untuk nova dan Euca2ools untuk melakukan ini.

Ada tiga awan yang saat ini berjalan di CERN, dengan total sekitar 4.700 node komputasi, dengan sekitar 120.000 core. The CERN IT cloud bertujuan untuk memperluas ke 300.000 core pada tahun 2015.