Catatan Rilis Seri Rocky

18.1.15

Fitur baru

  • Tambahkan kemungkinan untuk menonaktifkan unduhan openrc v2 di dasbor. var baru horizon_show_keystone_v2_rc dapat diatur ke False untuk menghapus entri untuk unduhan openrc v2.

18.1.8

Fitur baru

  • Opsi baru telah ditambahkan yang memungkinkan penelepon menonaktifkan sebagian dan semua kontainer pada host tertentu. Opsi no_containers adalah boolean dimana, jika tidak terdefinisi, akan default ke *false *. Opsi ini dapat ditambahkan ke host mana saja di openstack_user_config.yml atau melalui override di conf.d. Ketika opsi ini disetel ke *true * host yang diberikan akan diperlakukan sebagai mesin baremetal. Opsi baru ini mencerminkan opsi lingkungan yang ada is_metal tetapi memungkinkan deployer untuk menargetkan host tertentu daripada seluruh grup.

    log_hosts:
      infra-1:
        ip: 172.16.24.2
        no_containers: true
    

Catatan Upgrade

  • Variabel tempest_image_dir_owner dihapus karena menggunakan pengguna yang dimungkinkan secara default untuk membuat direktori image.

  • Struktur data untuk ceph_gpg_keys telah diubah menjadi daftar dicts, yang masing-masing diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.

  • Nilai default untuk ceph_gpg_keys telah diubah untuk semua platform yang didukung dan sekarang menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.

  • Nilai baru epel_gpg_keys dapat diganti untuk menggunakan kunci GPG yang berbeda untuk repo paket EPEL-7 RPM, bukan kunci yang dibatalkan yang digunakan secara default.

18.1.6

Fitur baru

  • Menambahkan dukungan untuk Mistral untuk dibangun sebagai bagian dari proses pembuatan repo.

  • Menambahkan file os-mistral-install.yml untuk menyebarkan mistral ke host yang ditandai dengan hostgroup mistral_all

  • Daftar filter yang diaktifkan untuk penjadwal Cinder, scheduler_default_filters pada cinder.conf, sebelumnya hanya dapat didefinisikan melalui entri di cinder_cinder_conf_overonfes. Anda sekarang memiliki opsi untuk mendefinisikan variabel daftar, cinder_scheduler_default_filters, yang menentukan filter yang diaktifkan. Ini berguna jika Anda ingin menonaktifkan salah satu filter yang diaktifkan secara default (pada saat penulisan, ini adalah AvailabilityZoneFilter,` CapacityFilter`, dan CapabilitiesFilter), atau jika sebaliknya Anda ingin menambahkan filter yang biasanya tidak diaktifkan, seperti DifferentBackendFilter atau` InstanceLocalityFilter`.

    Misalnya, untuk mengaktifkan InstanceLocalityFilter di samping filter penjadwal yang diaktifkan secara normal, gunakan variabel berikut ini.

    cinder_scheduler_default_filters:
      - AvailabilityZoneFilter
      - CapacityFilter
      - CapabilitiesFilter
      - InstanceLocalityFilter
    

Catatan Depresiasi

  • Sebelumnya ada variabel lingkungan (ANSIBLE_ROLE_FETCH_MODE) untuk mengatur apakah role dalam ansible-role-requirements.yml diambil menggunakan ansible-galaxy atau menggunakan git, namun defaultnya telah git selama beberapa waktu ansible karena penggunaan respoitory ceph-ansible untuk deployment ceph, menggunakan ansible-galaxy untuk mengunduh role tidak berfungsi dengan baik. Fungsi ini karenanya telah dihapus.

18.1.5

Fitur baru

  • Deployer sekarang dapat menentukan jenis volume cinder-backend secara eksplisit privat atau publik dengan opsi publik disetel ke true atau false.

Masalah Dikenal

  • Jumlah inotify watch instances yang tersedia terbatas pada seluruh sistem melalui pengaturan sysctl. Dimungkinkan untuk proses tertentu, seperti pypi-server, atau elasticsearch dari ops repo untuk mengkonsumsi sejumlah besar inotify watch. Jika lebar sistem maksimum tercapai maka proses apa pun pada host atau dalam kontainer apa pun pada host tidak akan dapat membuat inotify watch baru. Systemd menggunakan inotify watch, dan jika tidak ada yang tersedia, ia tidak dapat memulai kembali layanan. Proses yang menyinkronkan konten server repo antara infra nodes juga bergantung pada inotify watch. Jika server repo gagal menyinkronkan, atau layanan gagal untuk me-restart ketika diharapkan periksa batas inotify watch yang didefinisikan dalam nilai sysctl fs.inotify.max_user_watches. Patch telah bergabung untuk meningkatkan batas ini, tetapi untuk lingkungan yang ada atau yang belum ditingkatkan ke point release yang cukup baru mungkin harus menerapkan batas yang ditingkatkan secara manual.

Perbaikan Bug

  • Memperbaiki router HA neutron, dengan mengaktifkan neutron-l3-agent untuk memanggil skrip pembantu yang diperlukan.

18.1.4

Fitur baru

  • Sekarang dimungkinkan untuk mengubah opsi server NTP dalam kroni menggunakan security_ntp_server_options.

  • Chrony mendapat opsi konfigurasi baru untuk menyinkronkan jam sistem kembali ke RTC menggunakan variabel security_ntp_sync_rtc. Dinonaktifkan secara default.

Catatan Upgrade

  • Struktur data untuk galera_gpg_keys telah diubah menjadi dict yang diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.

  • Nilai default untuk galera_gpg_keys telah diubah untuk semua platform yang didukung akan menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.

  • Struktur data untuk rabbitmq_gpg_keys telah diubah menjadi dict yang diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.

  • Nilai default untuk rabbitmq_gpg_keys telah diubah untuk semua platform yang didukung akan menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.

Catatan Depresiasi

  • Perubahan nama variabel berikut telah diterapkan untuk lebih mencerminkan tujuan mereka.

    • lxc_host_machine_quota_disabled -> lxc_host_btrfs_quota_disabled

    • lxc_host_machine_qgroup_space_limit -> lxc_host_btrfs_qgroup_space_limit

    • lxc_host_machine_qgroup_compression_limit -> lxc_host_btrfs_qgroup_compression_limit

Perbaikan Bug

  • Saat menggunakan kontainer LXC dengan back-end copy-on-write, eksekusi role lxc_hosts akan gagal karena variabel yang tidak ditentukan dengan awalan (prefix) nspawn_host_. Masalah ini sekarang telah diperbaiki.

  • Di https://review.openstack.org/582633 penyesuaian dibuat ke wrapper openstack-ansible yang secara keliru mengubah perilaku yang dimaksud. Wrapper hanya dimaksudkan untuk memasukkan extra-vars dan memanggil inventaris jika ansible-playbook dijalankan dari dalam klon repositori openstack-ansible (biasanya /opt/openstack-ansible)) , tetapi perubahan itu membuat jalan itu tidak relevan. Ini sekarang telah diperbaiki - ansible-playbook dan ansible hanya akan memanggil inventaris dan memasukkan vars tambahan jika itu dipanggil dari dalam git clone path.

18.1.3

Fitur baru

  • Sekarang dimungkinkan untuk menggunakan NFS mountpoint dengan peran dengan menggunakan variabel nova nfs_client, yang berguna untuk menggunakan NFS untuk data instance dan menyimpan.

Catatan Upgrade

  • Struktur data untuk galera_client_gpg_keys telah diubah menjadi dict yang diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.

  • Nilai default untuk galera_client_gpg_keys telah diubah untuk semua platform yang didukung akan menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.

18.1.1

Fitur baru

  • Anda sekarang dapat mengatur model CPU Libvirt dan flag fitur dari entri yang sesuai di bawah variabel pustaka nova_virt_types (biasanya kvm). nova_cpu_model adalah nilai string yang mengatur model CPU; nilai ini diabaikan jika Anda mengatur nova_cpu_mode selain custom. nova_cpu_model_extra_flags adalah daftar yang memungkinkan Anda menentukan flag fitur CPU tambahan yang biasanya tidak dilewati dengan host-model, atau model CPU custom pilihan Anda.

Catatan Upgrade

  • Jika konfigurasi Anda sebelumnya mengatur variabel libvirt / cpu_model dan/atau libvirt/cpu_model_extra_flags`` dalam kamus nova_nova_conf_overrides, Anda harus mempertimbangkan untuk memindahkannya ke nova_cpu_model dan nova_cpu_model_model_model_model_teks_paket_model_flags dalam entri yang sesuai (biasanya kvm) dalam kamus nova_virt_types.

Perbaikan Bug

  • Dengan rilis CentOS 7.6, deployment menjadi rusak dan menjadi sangat lambat ketika kami me-restart dbus untuk menangkap beberapa perubahan PolicyKit. Namun, perubahan itu tidak pernah digunakan secara penuh sehingga terjadi tanpa alasan. Kami tidak lagi melakukan modifikasi pada konfigurasi systemd-machined dan/atau PolicyKit untuk menjaga kompatibilitas hulu.

18.1.0

Fitur baru

  • Horizon, sejak awal OSA, telah dikerahkan dengan akses HTTPS diaktifkan, dan tidak memiliki cara untuk mematikannya. Beberapa kasus penggunaan mungkin ingin diakses melalui HTTP, jadi patch ini memungkinkan yang berikut ini.

    • Dengarkan melalui HTTPS pada load balancer, tetapi melalui HTTP pada host horizon dan minta load balancer meneruskan header yang benar. Ini akan melakukan ini secara default di build terintegrasi karena adanya penyeimbang beban, sehingga perilaku saat ini dipertahankan.

    • Aktifkan HTTPS di horison host tanpa penyeimbang beban. Ini adalah perilaku default peran yang cocok dengan yang selalu ada.

    • Nonaktifkan HTTPS seluruhnya dengan mengatur haproxy_ssl: no (yang juga akan menonaktifkan https di haproxy. Pengaturan ini diwarisi (inherited) oleh variabel horizon_enable_ssl yang baru secara default. Ini adalah opsi baru.

Masalah Dikenal

  • Rilisan stable/rocky asli (18.0.x) berisi referensi ke status pra-rilis peran ceph-ansible (rilis 3.2.0beta1-nya). Peran itu --- dan karenanya, setiap rilis OpenStack-Ansible stable/rocky` --- tidak boleh digunakan untuk menggunakan cluster Ceph produksi. Pada rilis ini, ``stable/rocky melacak cabang stable-3.1 peran ceph-ansible

Catatan Upgrade

  • Konfigurasi yang menggunakan peran ceph-ansible (yaitu, yang menerapkan playbook ceph-install.yml atau ceph-rgw-install.yml) harus ditinjau dengan sangat hati-hati jika Anda memutakhirkan dari rilis stable/rocky sebelumnya. Rilis itu mengirimkan versi pra-rilis dari ceph-ansible yang secara tidak sengaja termasuk dalam ansible-role-requirements.yml.

  • Variabel ceilometer_oslomsg_rpc_servers dan ceilometer_oslomsg_notify_servers telah dihapus mendukung pemakaian ceilometer_oslomsg_rpc_host_group dan ceilometer_oslomsg_notify_host_group sebagai gantinya.

Catatan Depresiasi

  • Cache paket pada server repo telah dihapus. Jika caching paket diinginkan, itu harus di-setup di luar OpenStack-Ansible dan variabel lxc_container_cache_files (untuk kontainer LXC) atau nspawn_container_cache_files_from_host (untuk nspawn kontainer) dapat digunakan untuk menyalin konfigurasi host yang sesuai dari host ke dalam kontainer saat penciptaan. Atau, variabel lingkungan dapat diatur untuk menggunakan cache di file host /etc/environment sebelum pembuatan kontainer, atau deployment_environment_variables dapat memiliki variabel yang tepat diatur untuk menggunakannya. Variabel berikut telah dihapus.

    • repo_pkg_cache_enabled

    • repo_pkg_cache_port

    • repo_pkg_cache_bind

    • repo_pkg_cache_dirname

    • repo_pkg_cache_dir

    • repo_pkg_cache_owner

    • repo_pkg_cache_group

Perbaikan Bug

  • Referensi ansible-role-requirements.yml untuk peran ceph-ansible telah diperbaiki untuk merujuk ke HEAD saat ini dari branch stable-3.1 peran itu. Ini sebelumnya menunjuk ke versi 3.2.0beta1 pra-rilis.

  • Kuota untuk aturan grup keamanan secara keliru ditetapkan ke 100 dengan tujuan untuk memiliki 100 aturan grup keamanan per grup keamanan daripada ke aturan grup 100*#security . Patch ini memperbaiki perbedaan ini.

18.0.0

Fitur baru

  • Dukungan telah ditambahkan untuk penggunaan pada host Ubuntu 18.04 LTS. Perubahan paling signifikan adalah peningkatan versi utama LXC dari 2.x menjadi 3.x yang mencela (deprecate) beberapa elemen yang sebelumnya digunakan dari file konfigurasi kontainer.

  • Dimungkinkan untuk mengkonfigurasi Glance untuk mengizinkan permintaan asal silang (cross origin request) dengan menentukan alamat asal yang diizinkan menggunakan variabel glance_cors_allowed_origin. Secara default, ini akan menjadi alamat penyeimbang beban.

  • Menambahkan dukungan untuk dasbor horizon octavia-ui. Dasbor akan diaktifkan secara otomatis jika ada host octavia yang ditentukan. Jika Neutron LBaaSv2 dan Octavia diaktifkan, dua panel Load Balancer akan terlihat di Horizon.

  • Deployer sekarang dapat mengatur container_tech ke nspawn saat menggunakan OSA di dalam kontainer. Saat membuat keputusan untuk menggunakan tipe kontainer, deployer hanya perlu mendefinisikan container_tech yang diinginkan dan melanjutkan deployment seperti biasa.

  • Penambahan opsi container_tech dan dimasukkannya nspawn dukungan deployers sekarang memiliki ketersediaan untuk menentukan strategi containerization yang diinginkan secara global atau pada host tertentu.

  • Saat menggunakan kontainer driver nspawn akan terhubung ke sistem bridge menggunakan MACVLAN, lebih lanjut tentang jenis pengaturan jaringan ini dapat dilihat here.

  • Saat menggunakan jaringan kontainer driver nspawn dikelola oleh systemd-networkd baik pada host maupun di dalam kontainer. Ini memberi kami satu antarmuka untuk mengelola terlepas dari distro dan memungkinkan systemd untuk mengelola sumber daya secara efisien.

  • Pengaturan layanan dalam keystone untuk aodh sekarang akan dieksekusi melalui delegasi dimana aodh_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    aodh_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk barbican sekarang akan dieksekusi melalui delegasi ke dimana barbican_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    barbican_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Ketika venvwithindex=True dan ignorerequirements=True keduanya ditentukan dalam rally_git_install_fragments (seperti sebelumnya default), ini menghasilkan rally yang dipasang dari PyPI tanpa kendala yang diterapkan. Ini menghasilkan build yang tidak konsisten dari hari ke hari, dan dapat menyebabkan kegagalan build untuk implementasi yang stabil karena rilis library baru. Ke depan, kami menghapus rally_git_* overrides di playbooks/defaults/repo_packages/openstack_testing.yml sehingga build terintegrasi menginstal rally dari PyPI, tetapi dengan batasan yang sesuai diterapkan.

  • Ketika venvwithindex=True and ignorerequirements=True keduanya ditentukan dalam tempest_git_install_fragments (seperti sebelumnya default), ini mengakibatkan tempest diinstal dari PyPI tanpa kendala yang diterapkan. Ini bisa mengakibatkan versi tempest yang dipasang di integrated build berbeda dari versi yang diinstal di independent role test. Ke depan, kami menghapus tempest_git_* overrides di playbooks/defaults/repo_packages/openstack_testing.yml sehingga integrated build menginstal tempest dari PyPI, tetapi dengan batasan yang sesuai diterapkan.

  • Pengaturan layanan dalam keystone untuk ceilometer sekarang akan dieksekusi melalui delegasi dimana ceilometer_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    ceilometer_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Octavia membutuhkan sertifikat SSL untuk komunikasi dengan amphora. Ini menambahkan pembuatan otomatis sertifikat yang ditandatangani sendiri untuk tujuan ini. Ini menggunakan otoritas sertifikat yang berbeda untuk amphora dan control plane sehingga menjamin keamanan maksimum.

  • Pengaturan layanan dalam keystone untuk cinder sekarang akan dieksekusi melalui delegasi dimana cinder_service_setup_host yang, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    cinder_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Jika didefinisikan dalam host atau grup vars yang berlaku, variabel container_extra_networks akan digabungkan dengan container_networks yang ada dari inventaris dinamis. Ini memungkinkan penyebar untuk menentukan antarmuka khusus yang mungkin unik untuk container individual. Contoh penggunaan untuk fitur ini adalah menerapkan alamat IP tetap yang dikenal ke antarmuka publik pada server BIND yang ditunjuk.

  • Opsi repo_venv_default_pip_packages telah ditambahkan yang akan memungkinkan para deployer untuk memasukkan paket apa pun ke dalam sebuah service venv sesuai kebutuhan. Opsi mengharapkan daftar string yang merupakan nama paket python yang valid seperti yang ditemukan di PYPI.

  • Pengaturan layanan dalam keystone untuk ditunjuk sekarang akan dieksekusi melalui delegasi dimana designate_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    designate_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Peran os_horizon sekarang mendukung distribusi tema kustom pengguna. Penyebar dapat menggunakan kunci baru theme_src_archive dari kamus horizon_custom_themes untuk memberikan jalur absolut ke tema yang diarsipkan. Hanya arsip .tar.gz, .tgz, .zip, .tar.bz, .tar.bz2, .tbz, .tbz2 yang didukung. Struktur di dalam arsip harus sebagai tema standar, tanpa folder utama.

  • Opsi rabbitmq_erlang_version_spec telah ditambahkan yang memungkinkan deployer untuk mengatur versi erlang yang digunakan pada instalasi yang diberikan.

  • Octavia membuat vms, grup keamanan, dan hal lain dalam proyeknya. Dalam kebanyakan kasus, kuota default tidak cukup besar. Ini akan menyesuaikannya dengan nilai wajar (dapat dikonfigurasi).

  • Pengaturan layanan dalam keystone untuk sekilas sekarang akan dieksekusi melalui delegasi dimana glance_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    glance_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk gnocchi sekarang akan dieksekusi melalui delegasi ke `` gnocchi_service_setup_host`` yang, secara default, adalah `` localhost`` (host penyebaran). Deployer dapat memilih untuk mengubah ini ke wadah utilitas dengan mengimplementasikan penggantian berikut di `` user_variables.yml``.

    gnocchi_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk panas sekarang akan dieksekusi melalui delegasi ke `` heat_service_setup_host`` yang, secara default, adalah `` localhost`` (host penyebaran). Deployer dapat memilih untuk mengubah ini ke wadah utilitas dengan mengimplementasikan penggantian berikut di `` user_variables.yml``.

    heat_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk horizon sekarang akan dieksekusi melalui delegasi dimana horizon_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    horizon_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk ironic sekarang akan dieksekusi melalui delegasi dimana ironic_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    ironic_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pembaruan layanan untuk keystone sekarang akan dieksekusi melalui delegasi ke dimana keystone_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    keystone_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk magnum sekarang akan dieksekusi melalui delegasi ke `` magnum_service_setup_host`` yang, secara default, adalah `` localhost`` (host penyebaran). Deployer dapat memilih untuk mengubah ini ke wadah utilitas dengan mengimplementasikan penggantian berikut di `` user_variables.yml``.

    magnum_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Sebagai ganti mengunduh image ke server API magnum, image sekarang akan mengunduh ke magnum_service_setup_host ke folder yang diatur dalam magnum_image_path yang dimiliki oleh magnum_image_path_owner.

  • Pengaturan layanan dalam keystone untuk neutron sekarang akan dieksekusi melalui delegasi dimana neutron_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    neutron_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk nova sekarang akan dieksekusi melalui delegasi dimana nova_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    nova_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Pengaturan layanan dalam keystone untuk octavia sekarang akan dieksekusi melalui delegasi dimana octavia_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    octavia_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Deployer sekarang dapat mengatur install_method menjadi source (default) atau distro untuk memilih metode untuk menginstal layanan OpenStack pada host. Ini hanya berlaku untuk deployment new Deployment yang ada yang berbasis sumber, tidak dapat dikonversi ke metode distro yang baru. Untuk informasi lebih lanjut, silakan merujuk ke Deployment Guide.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan dengan hanya mengatur variabel heat_install_method ke distro.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel cinder_install_method menjadi distro .--

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel `` glance_install_method`` menjadi `` distro``.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel aodh_install_method menjadi distro.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan dengan hanya mengatur variabel designate_install_method ke distro.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel swift_install_method menjadi distro.

  • Peran sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel nova_install_method menjadi distro.

  • Peran sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel ceilometer_install_method menjadi distro.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan dengan hanya mengatur variabel barbican_install_method ke distro.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel keystone_install_method menjadi distro.

  • Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel neutron_install_method menjadi distro.

  • Peran sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel nova_install_method menjadi distro.

  • Peran openrc tidak lagi dijalankan pada semua kontainer/host layanan OpenStack. Sebagai gantinya satu host ditunjuk melalui penggunaan variabel openstack_service_setup_host. Defaultnya adalah localhost (host penyebaran). Deployer dapat memilih untuk mengubahnya ke kontainer utilitas dengan mengimplementasikan penggantian berikut di user_variables.yml.

    openstack_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di trove.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di cinder.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di nova.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di ironic.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di barbican.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di heat.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di aodh.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di glance.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di ceilometer.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di sahara.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di designate.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di neutron.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di magnum.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di keystone.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di swift.

  • Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di octavia.

  • Pengaturan layanan dalam keystone untuk sahara sekarang akan dieksekusi melalui delegasi dimana sahara_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    sahara_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Opsi untuk menonaktifkan sistem kuota machinectl telah diubah. Variabel lxc_host_machine_quota_disabled adalah Boolean dengan default ** false **. Ketika opsi ini disetel ke ** true **, opsi ini akan menonaktifkan sistem kuota machinectl.

  • Opsi lxc_host_machine_qgroup_space_limit dan lxc_host_machine_qgroup_compression_limit telah ditambahkan yang memungkinkan seorang deployer untuk menetapkan batas qgroup sesuai keinginan mereka. Nilai default untuk opsi ini adalah "none" yang efektif unlimited. Opsi ini menerima nilai ukuran nominal apa pun yang diikuti oleh jenis huruf tunggal, misalnya 64G. Opsi ini hanya efektif ketika opsi lxc_host_machine_quota_disabled disetel ke false.

  • Pengaturan layanan dalam keystone untuk swift sekarang akan dieksekusi melalui delegasi dimana swift_service_setup_host, secara default, adalah localhost``(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di ``user_variables.yml.

    swift_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Playbook baru infra-jurnal-remote.yml untuk mengirim jurnal telah ditambahkan. Host fisik sekarang akan mengirimkan semua jurnal systemd yang tersedia ke infrastruktur logging. Jurnal yang diterima akan dibagi oleh host dan disimpan di direktori /var/log/journal/remote. Fitur ini akan memberikan akses/wawasan (access/insight) yang lebih luas kepada pengawas tentang bagaimana cloud berfungsi, tidak memerlukan apa-apa lagi selain systemd built-in.

  • Pengaturan layanan dalam keystone untuk prahara sekarang akan dijalankan melalui delegasi dimana tempest_service_setup_host yang, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    tempest_service_setup_host: "{{ groups['utility_all'][0] }}"
    
  • Dari sekumpulan proyek hard-coded dan pengguna , tempest sekarang dapat dikonfigurasi dengan daftar kustom dengan variabel tempest_projects dan tempest_users.

  • Sekarang dimungkinkan untuk menentukan daftar tes untuk tempest ke daftar hitam ketika mengeksekusi menggunakan variabel daftar tempest_test_blacklist.

  • Setup layanan trove di keystone sekarang akan dieksekusi melalui delegasi dimana trove_service_setup_host, secara default, adalah localhost (the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di user_variables.yml.

    trove_service_setup_host: "{{ groups['utility_all'][0] }}"
    

Masalah Dikenal

  • Semua rilis OSA lebih awal dari 17.0.5, 16.0.4, dan 15.1.22 akan gagal membangun rally venv karena rilis python library cmd2-0.9.0 baru. Deployer didorong untuk memperbarui ke rilis OSA terbaru yang menyematkan (pin) ke versi yang sesuai yang kompatibel dengan python2.

  • Dengan rilis CentOS 7.5, semua rilis pike rusak karena ketidakcocokan dalam versi antara pustaka libvirt-python yang ditentukan oleh komunitas OpenStack, dan versi yang disediakan di CentOS 7.5. Karena itu OSA tidak dapat membangun pustaka python yang sesuai untuk libvirt. Satu-satunya jalan lain (recourse) untuk ini adalah melakukan upgrade lingkungan ke rilis ratu terbaru.

Catatan Upgrade

  • Path upgrade yang didukung dari Xenial ke Bionic adalah melalui re-installation OS host di semua node dan redeployment layanan yang diperlukan. Branch Rocky dari OSA dimaksudkan sebagai titik transisi untuk upgrade dari Xenial ke Bionic. Saat ini tidak ada dukungan untuk upgrade sistem operasi in-place (biasanya melalui do-release-upgrade).

  • Pengguna harus membersihkan paket 'ntp' dari host mereka jika mungkin diaktifkan. ceph-ansible sebelumnya dikonfigurasikan untuk menginstal ntp secara default yang bertentangan dengan layanan kroni role ansible-hardening OSA.

  • Variabel cinder_iscsi_helper telah digantikan oleh variabel baru yaitu cinder_target_helper karena fakta bahwa iscsi_helper telah ditinggalkan dalam Cinder.

  • Kunci is_ssh_address telah dihapus dari openstack_user_config.yml dan dynamic inventory. Kunci ini bertanggung jawab memetakan alamat ke kontainer yang digunakan untuk konektivitas SSH. Karena kami telah membuat plugin konektivitas SSH, yang memungkinkan kami kemampuan untuk terhubung ke kontainer jarak jauh tanpa SSH, opsi ini tidak lagi berguna. Untuk menjaga, clean deployers openstack_user_config.yml dapat menghapus opsi namun bergerak maju tidak lagi memiliki efek.

  • Pencarian paket distribusi dan output data telah dihapus dari pencarian py_pkgs sehingga penggunaan repo-build dari py_pkgs telah mengurangi output dan pencarian khusus untuk paket python saja.

  • Pemeriksaan ping yang terjadi di dalam keepalived untuk memastikan bahwa server yang menjalankannya dapat mencapai 193.0.14.129 telah dihapus secara default. Fungsionalitas dapat terus digunakan jika Anda mendefinisikan keepalived_ping_address dalam file user_variables.yml Anda menjadi 193.0.14.129 atau IP apa pun pilihan Anda.

  • Glance v1 API sekarang dihapus di hulu dan kode penempatan sekarang dihapus dari peran glance ansible ini. Variabel glance_enable_v1_api dihapus.

Catatan Depresiasi

  • Variabel aodh_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel barbican_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel berikut tidak lagi digunakan dan karenanya telah dihapus.

    • ceilometer_requires_pip_packages

    • ceilometer_service_name

    • ceilometer_service_port

    • ceilometer_service_proto

    • ceilometer_service_type

    • ceilometer_service_description

  • Variabel cinder_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel designate_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Penggunaan role apt_package_pinning sebagai ketergantungan meta telah dihapus dari role rabbitmq_server. Sementara role pinning paket masih digunakan, sekarang hanya akan dieksekusi ketika file tugas apt dieksekusi.

  • Filter get_gested telah dihapus, karena tidak digunakan oleh roles/plays apa pun.

  • Variabel glance_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel gnocchi_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel heat_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel horizon_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel ironic_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Path log, /var/log/barbican tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan barbican sekarang akan dikirim langsung ke jurnal systemd.

  • Path log, /var/log/keystone tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan Keystone sekarang akan dikirim langsung ke jurnal systemd.

  • Path log, /var/log/congress` tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan kongres sekarang akan dikirim langsung ke jurnal systemd.

  • Path log, /var/log/cinder tidak lagi digunakan untuk mengambil log layanan. Semua pencatatan untuk layanan cinder sekarang akan dikirim langsung ke jurnal systemd.

  • Path log, /var/log/aodh tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan aodh sekarang akan dikirim langsung ke jurnal systemd.

  • Path log, /var/log/ceilometer tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan ceilometer sekarang akan dikirim langsung ke jurnal systemd.

  • Path log, /var/log/designate tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan yang ditunjuk sekarang akan dikirim langsung ke jurnal systemd.

  • Variabel keystone_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel nova_compute_pip_packages tidak lagi digunakan dan telah dihapus.

  • Variabel magnum_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Layanan molteniron tidak lagi termasuk dalam OSA integrated build. Penyebar apa pun yang ingin menggunakannya masih dapat menggunakan playbook dan contoh konfigurasi dari peran os_molteniron.

  • Variabel neutron_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel nova_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel octavia_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel octavia_image_downloader telah dihapus. Pengunduhan image sekarang menggunakan host yang sama yang ditunjuk oleh octavia_service_setup_host untuk pengunduhan image.

  • Variabel octavia_ansible_endpoint_type telah dihapus. Endpoint yang digunakan untuk tugas ansible telah sulit diatur ke endpoint 'admin' seperti yang biasa digunakan di semua peran OSA.

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - trove_oslomsg_rpc_servers menggantikan trove_rabbitmq_servers - trove_oslomsg_rpc_port menggantikan trove_rabbitmq_port - trove_oslomsg_rpc_use_ssl menggantikan trove_rabbitmq_use_ssl - trove_oslomsg_rpc_userid menggantikan trove_rabbitmq_userid - trove_oslomsg_rpc_vhost menggantikan trove_rabbitmq_vhost - menambahkan trove_oslomsg_notify_servers - menambahkan trove_oslomsg_notify_port - menambahkan trove_oslomsg_notify_use_ssl - menambahkan trove_oslomsg_notify_userid - menambahkan trove_oslomsg_notify_vhost - menambahkan trove_oslomsg_notify_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - cinder_oslomsg_rpc_servers menggantikan cinder_rabbitmq_servers - cinder_oslomsg_rpc_port menggantikan cinder_rabbitmq_port - cinder_oslomsg_rpc_use_ssl menggantikan cinder_rabbitmq_use_ssl - cinder_oslomsg_rpc_userid menggantikan cinder_rabbitmq_userid - cinder_oslomsg_rpc_vhost menggantikan cinder_rabbitmq_vhost - cinder_oslomsg_notify_servers menggantikan cinder_rabbitmq_telemetry_servers - cinder_oslomsg_notify_port menggantikan cinder_rabbitmq_telemetry_port - cinder_oslomsg_notify_use_ssl menggantikan cinder_rabbitmq_telemetry_use_ssl - cinder_oslomsg_notify_userid menggantikan cinder_rabbitmq_telemetry_userid - cinder_oslomsg_notify_vhost menggantikan cinder_rabbitmq_telemetry_vhost

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - nova_oslomsg_rpc_servers menggantikan nova_rabbitmq_servers - nova_oslomsg_rpc_port menggantikan nova_rabbitmq_port - nova_oslomsg_rpc_use_ssl menggantikan nova_rabbitmq_use_ssl - nova_oslomsg_rpc_userid menggantikan nova_rabbitmq_userid - nova_oslomsg_rpc_vhost menggantikan nova_rabbitmq_vhost - nova_oslomsg_notify_servers menggantikan nova_rabbitmq_telemetry_servers - nova_oslomsg_notify_port menggantikan nova_rabbitmq_telemetry_port - nova_oslomsg_notify_use_ssl menggantikan nova_rabbitmq_telemetry_use_ssl - nova_oslomsg_notify_userid menggantikan nova_rabbitmq_telemetry_userid - nova_oslomsg_notify_vhost menggantikan nova_rabbitmq_telemetry_vhost - nova_oslomsg_notify_password menggantikan nova_rabbitmq_telemetry_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - ironic_oslomsg_rpc_servers menggantikan ironic_rabbitmq_servers - ironic_oslomsg_rpc_port menggantikan ironic_rabbitmq_port - ironic_oslomsg_rpc_use_ssl menggantikan ironic_rabbitmq_use_ssl - ironic_oslomsg_rpc_userid menggantikan ironic_rabbitmq_userid - ironic_oslomsg_rpc_vhost menggantikan ironic_rabbitmq_vhost

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - barbican_oslomsg_rpc_servers menggantikan rabbitmq_servers - barbican_oslomsg_rpc_port menggantikan rabbitmq_port - barbican_oslomsg_rpc_userid menggantikan barbican_rabbitmq_userid - barbican_oslomsg_rpc_vhost menggantikan barbican_rabbitmq_vhost - ditambahkan barbican_oslomsg_rpc_use_ssl - ditambahkan barbican_oslomsg_notify_servers - ditambahkan barbican_oslomsg_notify_port - ditambahkan barbican_oslomsg_notify_use_ssl - ditambahkan barbican_oslomsg_notify_userid - ditambahkan barbican_oslomsg_notify_vhost - ditambahkan barbican_oslomsg_notify_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - heat_oslomsg_rpc_servers menggantikan heat_rabbitmq_servers - heat_oslomsg_rpc_port menggantikan heat_rabbitmq_port - heat_oslomsg_rpc_use_ssl menggantikan heat_rabbitmq_use_ssl - heat_oslomsg_rpc_userid menggantikan heat_rabbitmq_userid - heat_oslomsg_rpc_vhost menggantikan heat_rabbitmq_vhost - heat_oslomsg_rpc_password menggantikan heat_rabbitmq_password - heat_oslomsg_notify_servers menggantikan heat_rabbitmq_telemetry_servers - heat_oslomsg_notify_port menggantikan heat_rabbitmq_telemetry_port - heat_oslomsg_notify_use_ssl menggantikan heat_rabbitmq_telemetry_use_ssl - heat_oslomsg_notify_userid menggantikan heat_rabbitmq_telemetry_userid - heat_oslomsg_notify_vhost menggantikan heat_rabbitmq_telemetry_vhost - heat_oslomsg_notify_password menggantikan heat_rabbitmq_telemetry_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - - aodh_oslomsg_rpc_servers menggantikan aodh_rabbitmq_servers - aodh_oslomsg_rpc_port menggantikan aodh_rabbitmq_port - aodh_oslomsg_rpc_use_ssl menggantikan aodh_rabbitmq_use_ssl - aodh_oslomsg_rpc_userid menggantikan aodh_rabbitmq_userid - aodh_oslomsg_rpc_vhost menggantikan aodh_rabbitmq_vhost - aodh_oslomsg_rpc_password menggantikan aodh_rabbitmq_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - glance_oslomsg_rpc_servers menggantikan glance_rabbitmq_servers - glance_oslomsg_rpc_port menggantikan glance_rabbitmq_port - glance_oslomsg_rpc_use_ssl menggantikan glance_rabbitmq_use_ssl - glance_oslomsg_rpc_userid menggantikan glance_rabbitmq_userid - glance_oslomsg_rpc_vhost menggantikan glance_rabbitmq_vhost - glance_oslomsg_notify_servers menggantikan glance_rabbitmq_telemetry_servers - glance_oslomsg_notify_port menggantikan glance_rabbitmq_telemetry_port - glance_oslomsg_notify_use_ssl menggantikan glance_rabbitmq_telemetry_use_ssl - glance_oslomsg_notify_userid menggantikan glance_rabbitmq_telemetry_userid - glance_oslomsg_notify_vhost menggantikan glance_rabbitmq_telemetry_vhost - glance_oslomsg_notify_password menggantikan glance_rabbitmq_telemetry_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Beritahu untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - ceilometer_oslomsg_rpc_servers menggantikan rabbitmq_servers - ceilometer_oslomsg_rpc_port menggantikan rabbitmq_port - ceilometer_oslomsg_rpc_userid menggantikan ceilometer_rabbitmq_userid - ceilometer_oslomsg_rpc_vhost menggantikan ceilometer_rabbitmq_vhost - menambahkan ceilometer_oslomsg_rpc_use_ssl - menambahkan ceilometer_oslomsg_notify_servers - menambahkan ceilometer_oslomsg_notify_port - menambahkan ceilometer_oslomsg_notify_use_ssl - menambahkan ceilometer_oslomsg_notify_userid - menambahkan ceilometer_oslomsg_notify_vhost - menambahkan ceilometer_oslomsg_notify_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - sahara_oslomsg_rpc_servers menggantikan sahara_rabbitmq_servers - sahara_oslomsg_rpc_port menggantikan sahara_rabbitmq_port - sahara_oslomsg_rpc_use_ssl menggantikan sahara_rabbitmq_use_ssl - sahara_oslomsg_rpc_userid menggantikan sahara_rabbitmq_userid - sahara_oslomsg_rpc_vhost menggantikan sahara_rabbitmq_vhost - sahara_oslomsg_notify_servers menggantikan sahara_rabbitmq_telemetry_servers - sahara_oslomsg_notify_port menggantikan sahara_rabbitmq_telemetry_port - sahara_oslomsg_notify_use_ssl menggantikan sahara_rabbitmq_telemetry_use_ssl - sahara_oslomsg_notify_userid menggantikan sahara_rabbitmq_telemetry_userid - sahara_oslomsg_notify_vhost menggantikan sahara_rabbitmq_telemetry_vhost

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - designate_oslomsg_rpc_servers menggantikan designate_rabbitmq_servers - designate_oslomsg_rpc_port menggantikan designate_rabbitmq_port - designate_oslomsg_rpc_use_ssl menggantikan designate_rabbitmq_use_ssl - designate_oslomsg_rpc_userid menggantikan designate_rabbitmq_userid - designate_oslomsg_rpc_vhost menggantikan designate_rabbitmq_vhost - designate_oslomsg_notify_servers menggantikan designate_rabbitmq_telemetry_servers - designate_oslomsg_notify_port menggantikan designate_rabbitmq_telemetry_port - designate_oslomsg_notify_use_ssl menggantikan designate_rabbitmq_telemetry_use_ssl - designate_oslomsg_notify_userid menggantikan designate_rabbitmq_telemetry_userid - designate_oslomsg_notify_vhost menggantikan designate_rabbitmq_telemetry_vhost - designate_oslomsg_notify_password menggantikan designate_rabbitmq_telemetry_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - neutron_oslomsg_rpc_servers menggantikan neutron_rabbitmq_servers - neutron_oslomsg_rpc_port menggantikan neutron_rabbitmq_port - neutron_oslomsg_rpc_use_ssl menggantikan neutron_rabbitmq_use_ssl - neutron_oslomsg_rpc_userid menggantikan neutron_rabbitmq_userid - neutron_oslomsg_rpc_vhost menggantikan neutron_rabbitmq_vhost - neutron_oslomsg_notify_servers menggantikan neutron_rabbitmq_telemetry_servers - neutron_oslomsg_notify_port menggantikan neutron_rabbitmq_telemetry_port - neutron_oslomsg_notify_use_ssl menggantikan neutron_rabbitmq_telemetry_use_ssl - neutron_oslomsg_notify_userid menggantikan neutron_rabbitmq_telemetry_userid - neutron_oslomsg_notify_vhost menggantikan neutron_rabbitmq_telemetry_vhost

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - magnum_oslomsg_rpc_servers menggantikan rabbitmq_servers - magnum_oslomsg_rpc_port menggantikan rabbitmq_port - magnum_oslomsg_rpc_userid menggantikan magnum_rabbitmq_userid - magnum_oslomsg_rpc_vhost menggantikan magnum_rabbitmq_vhost - menambahkan magnum_oslomsg_rpc_use_ssl - menambahkan magnum_oslomsg_notify_servers - menambahkan magnum_oslomsg_notify_port - menambahkan magnum_oslomsg_notify_use_ssl - menambahkan magnum_oslomsg_notify_userid - menambahkan magnum_oslomsg_notify_vhost - menambahkan magnum_oslomsg_notify_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - keystone_oslomsg_rpc_servers menggantikan keystone_rabbitmq_servers - keystone_oslomsg_rpc_port menggantikan keystone_rabbitmq_port - keystone_oslomsg_rpc_use_ssl menggantikan keystone_rabbitmq_use_ssl - keystone_oslomsg_rpc_userid menggantikan keystone_rabbitmq_userid - keystone_oslomsg_rpc_vhost menggantikan keystone_rabbitmq_vhost - keystone_oslomsg_notify_servers menggantikan keystone_rabbitmq_telemetry_servers - keystone_oslomsg_notify_port menggantikan keystone_rabbitmq_telemetry_port - keystone_oslomsg_notify_use_ssl menggantikan keystone_rabbitmq_telemetry_use_ssl - keystone_oslomsg_notify_userid menggantikan keystone_rabbitmq_telemetry_userid - keystone_oslomsg_notify_vhost menggantikan keystone_rabbitmq_telemetry_vhost

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging Notify untuk mengabstraksi layanan pesan dari deployment server backend yang sebenarnya. - swift_oslomsg_notify_servers menggantikan swift_rabbitmq_telemetry_servers - swift_oslomsg_notify_port menggantikan swift_rabbitmq_telemetry_port - swift_oslomsg_notify_use_ssl menggantikan swift_rabbitmq_telemetry_use_ssl - swift_oslomsg_notify_userid menggantikan swift_rabbitmq_telemetry_userid - swift_oslomsg_notify_vhost menggantikan swift_rabbitmq_telemetry_vhost - swift_oslomsg_notify_password menggantikan swift_rabbitmq_telemetry_password

  • Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - octavia_oslomsg_rpc_servers menggantikan octavia_rabbitmq_servers - octavia_oslomsg_rpc_port menggantikan octavia_rabbitmq_port - octavia_oslomsg_rpc_use_ssl menggantikan octavia_rabbitmq_use_ssl - octavia_oslomsg_rpc_userid menggantikan octavia_rabbitmq_userid - octavia_oslomsg_rpc_vhost menggantikan octavia_rabbitmq_vhost - octavia_oslomsg_notify_servers menggantikan octavia_rabbitmq_telemetry_servers - octavia_oslomsg_notify_port menggantikan octavia_rabbitmq_telemetry_port - octavia_oslomsg_notify_use_ssl menggantikan octavia_rabbitmq_telemetry_use_ssl - octavia_oslomsg_notify_userid menggantikan octavia_rabbitmq_telemetry_userid - octavia_oslomsg_notify_vhost menggantikan octavia_rabbitmq_telemetry_vhost - octavia_oslomsg_notify_password menggantikan octavia_rabbitmq_telemetry_password

  • Proxy reverse server repo untuk pypi kini telah dihapus, hanya menyisakan pypiserver untuk melayani paket yang sudah ada di server repo. Upaya untuk membalikkan proxy hulu proksi ternyata sangat tidak stabil dengan meningkatnya kerumitan bagi deployer yang menggunakan proxy atau pemasangan offline. Dengan ini, variabel repo_nginx_pypi_upstream dan repo_nginx_proxy_cache_path juga telah dihapus.

  • Variabel repo_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Dengan implementasi systemd-journal-remote peran` rsyslog_client` tidak lagi dijalankan secara default. Untuk mengaktifkan fungsi legacy, variabel rsyslog_client_enabled dan` rsyslog_server_enabled` dapat diatur ke true.

  • Variabel sahara_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel swift_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel tempest_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

  • Variabel tempest_image_downloader telah dihapus. Unduhan image sekarang menggunakan host yang sama yang ditunjuk oleh tempest_service_setup_host untuk unduhan image.

  • Variabel trove_requires_pip_packages tidak lagi diperlukan dan karenanya telah dihapus.

Masalah keamanan

  • Direkomendasikan bahwa pembuatan sertifikat selalu ditinjau oleh para profesional keamanan karena algoritma dan panjang kunci dianggap perubahan yang aman sepanjang waktu.

  • Hindari menetapkan kuota terlalu tinggi untuk cloud Anda karena hal ini dapat berdampak pada kinerja servcies lain dan menyebabkan potensi serangan Denial-of-Service jika kuota Loadbalancer tidak disetel dengan benar atau RBAC tidak diatur dengan benar.

Perbaikan Bug

  • Rilis CentOS yang lebih baru menghadirkan versi libnss yang tergantung pada keberadaan /dev/random and /dev/urandom dalam sistem operasi untuk menjalankannya. Ini menyebabkan masalah selama proses persiapan cache yang berjalan di dalam chroot yang tidak mengandung ini, menghasilkan kesalahan dengan pesan berikut.

    error: Failed to initialize NSS library
    

    Ini telah diselesaikan dengan memperkenalkan /dev/random dan /dev/urandom di dalam lingkungan chroot-ed.

  • ceph-ansible tidak lagi dikonfigurasikan untuk menginstal ntp secara default, yang menciptakan konflik dengan role ansible-hardening OSA yang digunakan untuk mengimplementasikan ntp menggunakan 'chrony'.

  • Untuk mencegah masalah lebih lanjut dengan ketidakcocokan libvirt dan versi python-libvirt, node komputasi berbasis KVM sekarang akan menggunakan paket distribusi python library untuk libvirt. Ini harus menyelesaikan masalah yang terlihat dengan pike build di CentOS 7.5.

  • Persyaratan yang menentukan apakah file sso_callback_template.html dikerahkan untuk penyebaran federasi telah diperbaiki.

Catatan lain

  • Saat menjalankan keystone dengan apache(httpd) semua log apache akan disimpan dalam direktori log apache standar yang dikendalikan oleh variabel spesifik distro keystone_apache_default_log_folder.

  • Saat menjalankan aodh dengan apache(httpd) semua log apache akan disimpan dalam direktori log apache standar yang dikendalikan oleh variabel spesifik distro aodh_apache_default_log_folder.

  • Opsi playbook max_fail_percentage telah digunakan dengan playbook default sejak rilis pertama playbook kembali di Icehouse. Sementara maksudnya adalah untuk memungkinkan penyebaran skala besar untuk berhasil dalam kasus di mana satu node gagal karena masalah sementara, opsi ini telah menghasilkan lebih banyak masalah yang dipecahkan. Jika terjadi kegagalan yang bersifat sementara tetapi berada di bawah persentase kegagalan yang ditetapkan, playbook akan melaporkan keberhasilan, yang dapat menyebabkan kegagalan diam (silent failure) tergantung di mana kegagalan itu terjadi. Jika seorang deployer menemukan diri mereka dalam situasi ini masalahnya kemudian diperparah karena alat akan melaporkan tidak ada masalah yang diketahui. Untuk memastikan bahwa deployer memiliki pengalaman penerapan terbaik dan informasi paling akurat telah dilakukan perubahan untuk menghapus opsi max_fail_percentage dari semua playbook default. Penghapusan opsi ini memiliki efek samping yang mengharuskan penyebaran untuk melewati host tertentu jika seseorang harus dihilangkan dari run, tetapi memiliki manfaat menghilangkan kegagalan diam, sulit dilacak, kegagalan. Untuk melewati host yang gagal untuk menjalankan playbook tertentu gunakan --limit '!$HOSTNAME' CLI switch untuk menjalankan tertentu. Setelah masalah terselesaikan untuk host yang gagal jalankan kembali playbook tertentu tanpa opsi --limit untuk memastikan semuanya tersinkronisasi.