compute 노드 설치와 설정

compute 노드 설치와 설정

이번 색션에서는 compute 노드에서 Compute 서비스를 설치하고 구성하는 방법을 설명합니다. 이 서비스는 instances 또는 VMs 을 배포하는데 여러 hypervisors 를 지원합니다. 간단하게 우리는 가상 머신에대한 하드웨어 가속을 지원하는 compute 노드에서 KVM 확장인 QEMU 하이퍼바이저를 이용하여 구성하여 사용합니다. 기존 하드웨어 상에선 이 구성은 일반적인 QEMU 하이퍼바이저를 이용하여 구성합니다. 이 지침을 약간 수정하여 당신의 환경에 추가적인 compute 노드를 수평적인 확장에 사용할 수 있습니다.

주석

이번 색션에서는 가이드를 따라서 단계별로 첫 compute 노드를 구성하고 있다고 가정합니다. 추가 compute 노드를 구성하길 원하면 example architectures 섹션에서의 첫 compute 노드 구성과 비슷한 방식으로 준비합니다. 각 추가 compute 노드는 고유한 IP 주소가 필요합니다.

구성요소 설치와 구성

주석

디폴트 구성 파일을 배포판에 따라 달라집니다. 기존 섹션 및 옵션을 변경하는 것 보다는 해당 섹션과 옵션을 추가해야 할 수도 있습니다. 또한 구성 내용 조각 중 생략 (...) 부분은 유지될 필요성이 있는 디폴트 구성 옵션을 가리킵니다.

  1. 패키지를 설치하십시오:

    # apt-get install nova-compute sysfsutils
    
  1. /etc/nova/nova.conf 파일을 편집하여 다음 작업을 완료합니다:

    • [DEFALT], [oslo_messaging_rabbit] 섹션에서 RabbitMQ 메시지 큐 접근에 대해서 구성합니다:

      [DEFAULT]
      ...
      rpc_backend = rabbit
      
      [oslo_messaging_rabbit]
      ...
      rabbit_host = controller
      rabbit_userid = openstack
      rabbit_password = RABBIT_PASS
      

      RABBIT_PASSRabbitMQ 에서 openstack 계정에 대해 선택한 암호로 변경합니다.

    • [DEFAULT][keystone_authtoken] 섹션에서 Identity 서비스 접근을 구성합니다:

      [DEFAULT]
      ...
      auth_strategy = keystone
      
      [keystone_authtoken]
      ...
      auth_uri = http://controller:5000
      auth_url = http://controller:35357
      auth_plugin = password
      project_domain_id = default
      user_domain_id = default
      project_name = service
      username = nova
      password = NOVA_PASS
      

      Identity 서비스에서 nova 사용자의 암호로 NOVA_PASS 를 변경합니다.

      주석

      [keystone_authtoken] 섹션 내 다른 옵션들은 주석 처리나 제거합니다.

    • [DEFAULT] 섹션에서 my_ip 옵션을 구성합니다:

      [DEFAULT]
      ...
      my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS
      

      compute 노드의 관리 네트워크 인터페이스 IP로 MANAGEMENT_INTERFACE_IP_ADDRESS 로 변경합니다. example architecture 에서는 첫 노드에대해 10.0.0.31로 설정합니다.

    • [DEFAULT] 섹션에서는 네트워킹 서비스에 대한 지원을 활성화합니다:

      [DEFAULT]
      ...
      network_api_class = nova.network.neutronv2.api.API
      security_group_api = neutron
      linuxnet_interface_driver = nova.network.linux_net.NeutronLinuxBridgeInterfaceDriver
      firewall_driver = nova.virt.firewall.NoopFirewallDriver
      

      주석

      기본적으로 Compute는 내부 방화벽 서비스를 사용합니다. 네트워킹 서비스에 방화벽 서비스가 포함된 이이후론 nova.virt.firewall.NoopFirewallDriver 방화벽 드라이버를 사용하여 Compute 방화벽 서비스를 비활성합니다.

    • [vnc] 섹션에서 원격 콘솔 접근을 구성하고 활성화합니다:

      [vnc]
      ...
      enabled = True
      vncserver_listen = 0.0.0.0
      vncserver_proxyclient_address = $my_ip
      novncproxy_base_url = http://controller:6080/vnc_auto.html
      

      서버 구성 요소는 모든 IP 주소를 확인하고 프록시 구성 요소는 compute 노드의 관리 인터페이스 IP 주소만 확인합니다. 베이스 URL은 compute 노드에 존재하는 인스턴스를 웹 브라우저 원격 콘솔로 접근하여 이용할 수 있는 위치를 나타냅니다.

      주석

      원격 콘솔에 접근할 수 있는 웹 브라우저가 controller 호스트 이름을 확인할 수 없는 호스트에 있는 경우, 컨트롤러 노드의 관리 인터페이스 IP 주소로 controller 를 변경해야합니다.

    • [glance] 섹션에서 이미지 서비스의 위치를 구성합니다:

      [glance]
      ...
      host = controller
      
    • [oslo_concurrency] 섹션에서 lock 경로를 구성합니다:

      [oslo_concurrency]
      ...
      lock_path = /var/lib/nova/tmp
      
    • (옵션) 트러블 슈팅을 지원하기 위해, [DEFAULT] 섹션에서 verbose 로깅을 활성화합니다:

      [DEFAULT]
      ...
      verbose = True
      

설치 마무리

  1. Compute 노드가 가상 머신에 대한 하드웨어 가속을 지원하는지 확인합니다:

    $ egrep -c '(vmx|svm)' /proc/cpuinfo
    

    명령에 대해 one or greater 값으로 반환되면, compute 노드에서 하드웨어 가속을 지원하는 것이니 추가적인 구성이 필요하지 않습니다.

    명령에대해 zero 값으로 반환되면, compute 노드에서 하드웨어 가속을 지원하지 않는 것이니 KVM의 QEMU를 사용하여 libvirt 구성을 해야합니다.

    • /etc/nova/nova-compute.conf 파일의 [libvirt] 섹션을 다음과 같이 수정합니다:

      [libvirt]
      ...
      virt_type = qemu
      
  1. Compute 서비스를 재시작하십시오:

    # service nova-compute restart
    
  2. 기본으로 Ubuntu 패키지들은 SQLite 데이터베이스를 생성합니다.

    해당 구성은 SQL 데이터베이스 서버를 사용하므로, 해당 SQLite 데이터베이스 파일을 삭제할 수 있습니다:

    # rm -f /var/lib/nova/nova.sqlite
    
Creative Commons Attribution 3.0 License

Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.