이번 색션에서는 compute 노드에서 Compute 서비스를 설치하고 구성하는 방법을 설명합니다. 이 서비스는 instances 또는 VMs 을 배포하는데 여러 hypervisors 를 지원합니다. 간단하게 우리는 가상 머신에대한 하드웨어 가속을 지원하는 compute 노드에서 KVM 확장인 QEMU 하이퍼바이저를 이용하여 구성하여 사용합니다. 기존 하드웨어 상에선 이 구성은 일반적인 QEMU 하이퍼바이저를 이용하여 구성합니다. 이 지침을 약간 수정하여 당신의 환경에 추가적인 compute 노드를 수평적인 확장에 사용할 수 있습니다.
주석
이번 색션에서는 가이드를 따라서 단계별로 첫 compute 노드를 구성하고 있다고 가정합니다. 추가 compute 노드를 구성하길 원하면 example architectures 섹션에서의 첫 compute 노드 구성과 비슷한 방식으로 준비합니다. 각 추가 compute 노드는 고유한 IP 주소가 필요합니다.
주석
디폴트 구성 파일을 배포판에 따라 달라집니다. 기존 섹션 및 옵션을 변경하는 것 보다는 해당 섹션과 옵션을 추가해야 할 수도 있습니다. 또한 구성 내용 조각 중 생략 (...) 부분은 유지될 필요성이 있는 디폴트 구성 옵션을 가리킵니다.
패키지를 설치하십시오:
# yum install openstack-nova-compute
/etc/nova/nova.conf 파일을 편집하여 다음 작업을 완료합니다:
[DEFALT], [oslo_messaging_rabbit] 섹션에서 RabbitMQ 메시지 큐 접근에 대해서 구성합니다:
[DEFAULT]
...
rpc_backend = rabbit
[oslo_messaging_rabbit]
...
rabbit_host = controller
rabbit_userid = openstack
rabbit_password = RABBIT_PASS
RABBIT_PASS 를 RabbitMQ 에서 openstack 계정에 대해 선택한 암호로 변경합니다.
[DEFAULT] 및 [keystone_authtoken] 섹션에서는, Identity 서비스 액세스를 구성합니다:
[DEFAULT]
...
auth_strategy = keystone
[keystone_authtoken]
...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = NOVA_PASS
Identity 서비스에서 nova 사용자의 암호로 NOVA_PASS 를 변경합니다.
주석
[keystone_authtoken] 섹션 내 다른 옵션들을 주석 처리 또는 제거합니다.
[DEFAULT] 섹션에서, my_ip 옵션을 구성합니다:
[DEFAULT]
...
my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS
compute 노드의 관리 네트워크 인터페이스 IP로 MANAGEMENT_INTERFACE_IP_ADDRESS 로 변경합니다. example architecture 에서는 첫 노드에대해 10.0.0.31로 설정합니다.
[DEFAULT] 섹션에서는 네트워킹 서비스에 대한 지원을 활성화합니다:
[DEFAULT]
...
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
주석
기본적으로 Compute는 내부 방화벽 서비스를 사용합니다. 네트워킹 서비스에 방화벽 서비스가 포함된 이이후론 nova.virt.firewall.NoopFirewallDriver 방화벽 드라이버를 사용하여 Compute 방화벽 서비스를 비활성합니다.
[vnc] 섹션에서 원격 콘솔 접근을 구성하고 활성화합니다:
[vnc]
...
enabled = True
vncserver_listen = 0.0.0.0
vncserver_proxyclient_address = $my_ip
novncproxy_base_url = http://controller:6080/vnc_auto.html
서버 구성 요소는 모든 IP 주소를 확인하고 프록시 구성 요소는 compute 노드의 관리 인터페이스 IP 주소만 확인합니다. 베이스 URL은 compute 노드에 존재하는 인스턴스를 웹 브라우저 원격 콘솔로 접근하여 이용할 수 있는 위치를 나타냅니다.
주석
원격 콘솔에 접근할 수 있는 웹 브라우저가 controller 호스트 이름을 확인할 수 없는 호스트에 있는 경우, 컨트롤러 노드의 관리 인터페이스 IP 주소로 controller 를 변경해야합니다.
[glance] 섹션에서 이미지 API 서비스의 위치를 구성합니다:
[glance]
...
api_servers = http://controller:9292
[oslo_concurrency] 섹션에서, lock 경로를 구성합니다:
[oslo_concurrency]
...
lock_path = /var/lib/nova/tmp
Compute 노드가 가상 머신에 대한 하드웨어 가속을 지원하는지 확인합니다:
$ egrep -c '(vmx|svm)' /proc/cpuinfo
해당 명령어가 1 이상 의 값을 반환하는 경우에는, compute 노드에서 하드웨어 가속을 지원하여 보통 추가적인 구성을 필요로 하지 않습니다.
명령에대해 zero 값으로 반환되면, compute 노드에서 하드웨어 가속을 지원하지 않는 것이니 KVM의 QEMU를 사용하여 libvirt 구성을 해야합니다.
/etc/nova/nova.conf 파일의 [libvirt] 섹선에 다음과 같이 수정합니다:
[libvirt]
...
virt_type = qemu
compute 서비스와 그와 관계된 서비스들을 시작하고 시스템 부팅시 자동적으로 시작하도록 설정합니다:
# systemctl enable libvirtd.service openstack-nova-compute.service
# systemctl start libvirtd.service openstack-nova-compute.service
Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.