이번 색션에서는 compute 노드에서 Compute 서비스를 설치하고 구성하는 방법을 설명합니다. 이 서비스는 instances 또는 VMs 을 배포하는데 여러 hypervisors 를 지원합니다. 간단하게 우리는 가상 머신에대한 하드웨어 가속을 지원하는 compute 노드에서 KVM 확장인 QEMU 하이퍼바이저를 이용하여 구성하여 사용합니다. 기존 하드웨어 상에선 이 구성은 일반적인 QEMU 하이퍼바이저를 이용하여 구성합니다. 이 지침을 약간 수정하여 당신의 환경에 추가적인 compute 노드를 수평적인 확장에 사용할 수 있습니다.
주석
이번 색션에서는 가이드를 따라서 단계별로 첫 compute 노드를 구성하고 있다고 가정합니다. 추가 compute 노드를 구성하길 원하면 example architectures 섹션에서의 첫 compute 노드 구성과 비슷한 방식으로 준비합니다. 각 추가 compute 노드는 고유한 IP 주소가 필요합니다.
주석
디폴트 구성 파일을 배포판에 따라 달라집니다. 기존 섹션 및 옵션을 변경하는 것 보다는 해당 섹션과 옵션을 추가해야 할 수도 있습니다. 또한 구성 내용 조각 중 생략 (...
) 부분은 유지될 필요성이 있는 디폴트 구성 옵션을 가리킵니다.
패키지를 설치하십시오:
# yum install openstack-nova-compute
/etc/nova/nova.conf
파일을 편집하여 다음 작업을 완료합니다:
[DEFAULT]
섹션에서 컴퓨트와 메타데이터 API만 활성화시킵니다:
[DEFAULT]
# ...
enabled_apis = osapi_compute,metadata
[DEFAULT]
섹션에서, RabbitMQ
메시지 큐 액세스를 구성합니다:
[DEFAULT]
# ...
transport_url = rabbit://openstack:RABBIT_PASS@controller
RABBIT_PASS
를 RabbitMQ
에서 openstack
계정에 대해 선택한 암호로 변경합니다.
[api]
와 [keystone_authtoken]
섹션에서는, Identity 서비스 액세스를 구성합니다:
[api]
# ...
auth_strategy = keystone
[keystone_authtoken]
# ...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = NOVA_PASS
Identity 서비스에서 nova
사용자의 암호로 NOVA_PASS
를 변경합니다.
주석
[keystone_authtoken]
섹션 내 다른 옵션들을 주석 처리 또는 제거합니다.
[DEFAULT]
섹션에서, my_ip
옵션을 구성합니다:
[DEFAULT]
# ...
my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS
compute 노드의 관리 네트워크 인터페이스 IP로 MANAGEMENT_INTERFACE_IP_ADDRESS
로 변경합니다. example architecture 에서는 첫 노드에대해 10.0.0.31로 설정합니다.
[DEFAULT]
섹션에서는 네트워킹 서비스에 대한 지원을 활성화합니다:
[DEFAULT]
# ...
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
주석
기본적으로 Compute는 내부 방화벽 서비스를 사용합니다. 네트워킹 서비스에 방화벽 서비스가 포함된 이이후론 nova.virt.firewall.NoopFirewallDriver
방화벽 드라이버를 사용하여 Compute 방화벽 서비스를 비활성합니다.
[vnc]
섹션에서 원격 콘솔 접근을 구성하고 활성화합니다:
[vnc]
# ...
enabled = True
vncserver_listen = 0.0.0.0
vncserver_proxyclient_address = $my_ip
novncproxy_base_url = http://controller:6080/vnc_auto.html
서버 구성 요소는 모든 IP 주소를 확인하고 프록시 구성 요소는 compute 노드의 관리 인터페이스 IP 주소만 확인합니다. 베이스 URL은 compute 노드에 존재하는 인스턴스를 웹 브라우저 원격 콘솔로 접근하여 이용할 수 있는 위치를 나타냅니다.
주석
원격 콘솔에 접근할 수 있는 웹 브라우저가 controller
호스트 이름을 확인할 수 없는 호스트에 있는 경우, 컨트롤러 노드의 관리 인터페이스 IP 주소로 controller
를 변경해야합니다.
[glance]
섹션에서 이미지 API 서비스의 위치를 구성합니다:
[glance]
# ...
api_servers = http://controller:9292
[oslo_concurrency]
섹션에서, lock 경로를 구성합니다:
[oslo_concurrency]
# ...
lock_path = /var/lib/nova/tmp
[placement]
섹션에서, Placement API 를 구성합니다:
[placement]
# ...
os_region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://controller:35357/v3
username = placement
password = PLACEMENT_PASS
Identity 서비스에서 placement
사용자의 암호로 PLACEMENT_PASS
를 변경합니다. [placement]
섹션 내에 있는 다른 옵션들은 주석처리합니다.
Compute 노드가 가상 머신에 대한 하드웨어 가속을 지원하는지 확인합니다:
$ egrep -c '(vmx|svm)' /proc/cpuinfo
해당 명령어가 1 이상
의 값을 반환하는 경우에는, compute 노드에서 하드웨어 가속을 지원하여 보통 추가적인 구성을 필요로 하지 않습니다.
명령에대해 zero
값으로 반환되면, compute 노드에서 하드웨어 가속을 지원하지 않는 것이니 KVM의 QEMU를 사용하여 libvirt
구성을 해야합니다.
/etc/nova/nova.conf
파일의 [libvirt]
섹선에 다음과 같이 수정합니다:
[libvirt]
# ...
virt_type = qemu
compute 서비스와 그와 관계된 서비스들을 시작하고 시스템 부팅시 자동적으로 시작하도록 설정합니다:
# systemctl enable libvirtd.service openstack-nova-compute.service
# systemctl start libvirtd.service openstack-nova-compute.service
주석
nova-compute
서비스가 시작 실패하는 경우, /var/log/nova/nova-compute.log
를 확인합니다. 오류 메시지 AMQP server on controller:5672 is unreachable
는 아마도 컨트롤러 노드에 있는 방화벽이 5672 포트에 대한 액세스를 차단하는 것을 가리킬 것입니다. 컨트롤러 노드에서 5672 포트를 오픈하는 방화벽 설정을 하고 컴퓨트 노드에 있는 nova-compute
서비스를 재시작하세요.
중요
controller 노드에 다음 명령을 실행하세요.
관리자 전용 CLI 명령을 활성화하기 위해서 관리자 자격증명을 입력하고, 데이터베이스에 compute 호스트가 있는지 확인하세요:
$ . admin-openrc
$ openstack hypervisor list
+----+---------------------+-----------------+-----------+-------+
| ID | Hypervisor Hostname | Hypervisor Type | Host IP | State |
+----+---------------------+-----------------+-----------+-------+
| 1 | compute1 | QEMU | 10.0.0.31 | up |
+----+---------------------+-----------------+-----------+-------+
compute 호스트 찾기:
# su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
Found 2 cell mappings.
Skipping cell0 since it does not contain hosts.
Getting compute nodes from cell 'cell1': ad5a5985-a719-4567-98d8-8d148aaae4bc
Found 1 computes in cell: ad5a5985-a719-4567-98d8-8d148aaae4bc
Checking host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
Creating host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
주석
새로운 compute 노드를 추가할 때, 새로운 compute 노드들의 등록을 위해 controller 노드에서 nova-manage cell_v2 discover_hosts
를 꼭 실행해야 합니다. 또는, /etc/nova/nova.conf
에서 적절한 interval을 설정할 수 있습니다:
[scheduler]
discover_hosts_in_cells_interval = 300
Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.