Dieser Abschnitt beschreibt wie der Compute-Dienst auf einem Compute-Node installiert und konfiguriert wird. Der Dienst unterstützt verschiedene Hypervisoren oder term:VMs <virtual machine (VM)>. Zur Vereinfachung verwendet diese Konfiguration den QEMU-Hypervisor mit der KVM-Erweiterung auf Compute-Nodes, die Hardwarebeschleunigung für virtuelle Maschinen unterstützen. Auf Legacy-Hardware verwendet diese Konfiguration den generischen QEMU-Hypervisor. Mit wenigen Änderungen können Sie diese Anleitungen dazu verwenden, Ihre Umgebung mit zusätzlichen Compute-Nodes horizontal zu skalieren.
Bemerkung
Im folgenden Abschnitt wird davon ausgegangen, dass Sie diese Anleitung Schritt für Schritt befolgen, um den ersten Compute-Node zu konfigurieren. Zur Konfiguration weiterer Compute-Nodes bereiten Sie sie wie den ersten Compute-Node wie im Abschnitt Beispielarchitekturen vor. Jeder zusätzliche Compute-Node benötigt eine eineindeutige IP-Adresse.
Bemerkung
Die voreingestellten Konfigurationsdateien können je nach Distribution unterschiedlich aussehen. Es kann notwendig sein, diese Abschnitte und Optionen selbst hinzuzufügen anstatt bestehende anzupassen. Außerdem deuten Auslassungszeichen (...) in den Konfigurationsabschnitten Standardeinstellungen an, die beibehalten werden sollten.
Installieren Sie die Pakete:
# yum install openstack-nova-compute
Bearbeiten Sie die Datei /etc/nova/nova.conf
und führen folgende Schritte durch:
Aktivieren Sie nur die Compute- und Metadaten-APIs im Abschnitt [DEFAULT]
:
[DEFAULT]
...
enabled_apis = osapi_compute,metadata
In der [DEFAULT]
Sektion, konfigurieren Sie den RabbitMQ
Nachrichtenwarteschlangen-Zugriff:
[DEFAULT]
...
transport_url = rabbit://openstack:RABBIT_PASS@controller
Ersetzen Sie RABBIT_PASS
mit dem Passwort, welches Sie für den openstack
Account in RabbitMQ
gewählt haben.
Konfigurieren Sie den Identitätsdienst-Zugriff in den Sektionen [DEFAULT]
und [keystone_authtoken]
:
[DEFAULT]
...
auth_strategy = keystone
[keystone_authtoken]
...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = nova
password = NOVA_PASS
Ersetzen Sie NOVA_PASS
durch das Passwort, das Sie für den Benutzer nova
im Identitätsdienst vergeben haben.
Bemerkung
Alle anderen Optionen in der Sektion [keystone_authtoken]
müssen auskommentiert oder gelöscht werden.
Konfigurieren Sie in der Sektion``[DEFAULT]`` die Option my_ip
:
[DEFAULT]
...
my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS
Ersetzen Sie MANAGEMENT_INTERFACE_IP_ADDRESS
mit der IP-Adresse der Management-Netzwerkschnittstelle Ihres Compute-Nodes, üblicherweise 10.0.0.31 für den ersten Node in der Beispiel-Architektur.
Aktivieren Sie die Unterstützung für den Netzwerkdienst in der [DEFAULT]
Sektion:
[DEFAULT]
...
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
Bemerkung
Standardmäßig verwendet der Compute-Dienst einen internen Firewalldienst. Da der Netzwerkdienst schon einen Firewalldienst beinhaltet, deaktivieren Sie diesen durch Verwendung des Firewall-Treibers nova.virt.firewall.NoopFirewallDriver
.
Aktivieren und konfigurieren Sie den Fernzugriff auf die Konsole in der [vnc]
Sektion:
[vnc]
...
enabled = True
vncserver_listen = 0.0.0.0
vncserver_proxyclient_address = $my_ip
novncproxy_base_url = http://controller:6080/vnc_auto.html
Die Serverkomponente hört auf allen IP-Adressen während die Proxykomponente nur auf der Management-IP-Adresse des Compute-Knotens hört. Die Basis-URL zeigt den Ort, wo Sie mit einem Browser Zugriff auf die Remote-Konsolen der Instanzen dieses Compute-Knotens erhalten.
Bemerkung
Sofern der Webbrowser für den Zugriff auf die Remote-Konsole auf einem Host läuft, der den controller
Hostnamen nicht auflösen kann, müssen Sie Controller
mit der IP-Adresse des Managementinterfaces auf dem Controller-Knoten ersetzen.
Konfigurieren Sie den Ort der Abbilddienst API in der Sektion [glance]
:
[glance]
...
api_servers = http://controller:9292
Konfigurieren Sie den Sperrpfad in der Sektion [oslo_concurrency]
:
[oslo_concurrency]
...
lock_path = /var/lib/nova/tmp
Überprüfen Sie ob Ihr Compute-Node Hardwarebeschleunigung für virtuelle Maschinen unterstützt:
$ egrep -c '(vmx|svm)' /proc/cpuinfo
Wenn dieser Befehl als Ergebnis eins oder mehr
aufweist, unterstützt Ihr Compute-Node Harwarebeschleunigung, in diesem Fall ist keine weitere Konfiguration notwendig.
Wenn dieser Befehl als Ergebnis null
aufweist, unterstützt Ihr Compute-Node Harwarebeschleunigung nicht, in diesem Fall müssen Sie libvirt
so konfigurieren, dass QEMU statt KVM verwendet wird.
Bearbeiten Sie den Abschnitt [libvirt]
in der Datei /etc/nova/nova.conf
wie folgt:
[libvirt]
...
virt_type = qemu
Starten Sie den Compute-Dienst inkl. aller Abhängigkeiten und konfigurieren Sie ihn so, dass er beim Systemstart automatisch gestartet wird:
# systemctl enable libvirtd.service openstack-nova-compute.service
# systemctl start libvirtd.service openstack-nova-compute.service
Bemerkung
Wenn der nova-compute
Dienst nicht erfolgreich startet, prüfen Sie /var/log/nova/nova-compute.log
. Die Fehlermeldung AMQP server on controller:5672 is unreachable
bedeutet wahrscheinlich, dass die Firewall auf dem Controller-Knoten den Zugriff auf Port 5672 verhindert.
Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.