compute 노드 설치와 설정

compute 노드 설치와 설정

이번 색션에서는 compute 노드에서 Compute 서비스를 설치하고 구성하는 방법을 설명합니다. 이 서비스는 instances 또는 VMs 을 배포하는데 여러 hypervisors 를 지원합니다. 간단하게 우리는 가상 머신에대한 하드웨어 가속을 지원하는 compute 노드에서 KVM 확장인 QEMU 하이퍼바이저를 이용하여 구성하여 사용합니다. 기존 하드웨어 상에선 이 구성은 일반적인 QEMU 하이퍼바이저를 이용하여 구성합니다. 이 지침을 약간 수정하여 당신의 환경에 추가적인 compute 노드를 수평적인 확장에 사용할 수 있습니다.

주석

이번 색션에서는 가이드를 따라서 단계별로 첫 compute 노드를 구성하고 있다고 가정합니다. 추가 compute 노드를 구성하길 원하면 example architectures 섹션에서의 첫 compute 노드 구성과 비슷한 방식으로 준비합니다. 각 추가 compute 노드는 고유한 IP 주소가 필요합니다.

구성요소 설치 및 구성

주석

디폴트 구성 파일을 배포판에 따라 달라집니다. 기존 섹션 및 옵션을 변경하는 것 보다는 해당 섹션과 옵션을 추가해야 할 수도 있습니다. 또한 구성 내용 조각 중 생략 (...) 부분은 유지될 필요성이 있는 디폴트 구성 옵션을 가리킵니다.

  1. 패키지를 설치하십시오:

    # apt install nova-compute
    
  1. /etc/nova/nova.conf 파일을 편집하여 다음 작업을 완료합니다:

    • [DEFAULT] 섹션에서, RabbitMQ 메시지 큐 액세스를 구성합니다:

      [DEFAULT]
      # ...
      transport_url = rabbit://openstack:RABBIT_PASS@controller
      

      RABBIT_PASSRabbitMQ 에서 openstack 계정에 대해 선택한 암호로 변경합니다.

    • [api][keystone_authtoken] 섹션에서는, Identity 서비스 액세스를 구성합니다:

      [api]
      # ...
      auth_strategy = keystone
      
      [keystone_authtoken]
      # ...
      auth_uri = http://controller:5000
      auth_url = http://controller:35357
      memcached_servers = controller:11211
      auth_type = password
      project_domain_name = default
      user_domain_name = default
      project_name = service
      username = nova
      password = NOVA_PASS
      

      Identity 서비스에서 nova 사용자의 암호로 NOVA_PASS 를 변경합니다.

      주석

      [keystone_authtoken] 섹션 내 다른 옵션들을 주석 처리 또는 제거합니다.

    • [DEFAULT] 섹션에서, my_ip 옵션을 구성합니다:

      [DEFAULT]
      # ...
      my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS
      

      compute 노드의 관리 네트워크 인터페이스 IP로 MANAGEMENT_INTERFACE_IP_ADDRESS 로 변경합니다. example architecture 에서는 첫 노드에대해 10.0.0.31로 설정합니다.

    • [DEFAULT] 섹션에서는 네트워킹 서비스에 대한 지원을 활성화합니다:

      [DEFAULT]
      # ...
      use_neutron = True
      firewall_driver = nova.virt.firewall.NoopFirewallDriver
      

      주석

      기본적으로 Compute는 내부 방화벽 서비스를 사용합니다. 네트워킹 서비스에 방화벽 서비스가 포함된 이이후론 nova.virt.firewall.NoopFirewallDriver 방화벽 드라이버를 사용하여 Compute 방화벽 서비스를 비활성합니다.

    • [vnc] 섹션에서 원격 콘솔 접근을 구성하고 활성화합니다:

      [vnc]
      # ...
      enabled = True
      vncserver_listen = 0.0.0.0
      vncserver_proxyclient_address = $my_ip
      novncproxy_base_url = http://controller:6080/vnc_auto.html
      

      서버 구성 요소는 모든 IP 주소를 확인하고 프록시 구성 요소는 compute 노드의 관리 인터페이스 IP 주소만 확인합니다. 베이스 URL은 compute 노드에 존재하는 인스턴스를 웹 브라우저 원격 콘솔로 접근하여 이용할 수 있는 위치를 나타냅니다.

      주석

      원격 콘솔에 접근할 수 있는 웹 브라우저가 controller 호스트 이름을 확인할 수 없는 호스트에 있는 경우, 컨트롤러 노드의 관리 인터페이스 IP 주소로 controller 를 변경해야합니다.

    • [glance] 섹션에서 이미지 API 서비스의 위치를 구성합니다:

      [glance]
      # ...
      api_servers = http://controller:9292
      
    • [oslo_concurrency] 섹션에서, lock 경로를 구성합니다:

      [oslo_concurrency]
      # ...
      lock_path = /var/lib/nova/tmp
      
    • 패키지 버그로 인해, [DEFAULT] 섹션에 있는 log_dir 옵션을 제거하세요.
    • [placement] 섹션에서, Placement API 를 구성합니다:

      [placement]
      # ...
      os_region_name = RegionOne
      project_domain_name = Default
      project_name = service
      auth_type = password
      user_domain_name = Default
      auth_url = http://controller:35357/v3
      username = placement
      password = PLACEMENT_PASS
      

      Identity 서비스에서 placement 사용자의 암호로 PLACEMENT_PASS 를 변경합니다. [placement] 섹션 내에 있는 다른 옵션들은 주석처리합니다.

설치 마무리

  1. Compute 노드가 가상 머신에 대한 하드웨어 가속을 지원하는지 확인합니다:

    $ egrep -c '(vmx|svm)' /proc/cpuinfo
    

    해당 명령어가 1 이상 의 값을 반환하는 경우에는, compute 노드에서 하드웨어 가속을 지원하여 보통 추가적인 구성을 필요로 하지 않습니다.

    명령에대해 zero 값으로 반환되면, compute 노드에서 하드웨어 가속을 지원하지 않는 것이니 KVM의 QEMU를 사용하여 libvirt 구성을 해야합니다.

    • /etc/nova/nova-compute.conf 파일의 [libvirt] 섹션을 다음과 같이 수정합니다:

      [libvirt]
      # ...
      virt_type = qemu
      
  1. Compute 서비스를 재시작하십시오:

    # service nova-compute restart
    

주석

nova-compute 서비스가 시작 실패하는 경우, /var/log/nova/nova-compute.log 를 확인합니다. 오류 메시지 AMQP server on controller:5672 is unreachable 는 아마도 컨트롤러 노드에 있는 방화벽이 5672 포트에 대한 액세스를 차단하는 것을 가리킬 것입니다. 컨트롤러 노드에서 5672 포트를 오픈하는 방화벽 설정을 하고 컴퓨트 노드에 있는 nova-compute 서비스를 재시작하세요.

cell 데이터베이스에 컴퓨트 노드를 추가하세요

중요

controller 노드에 다음 명령을 실행하세요.

  1. 관리자 전용 CLI 명령을 활성화하기 위해서 관리자 자격증명을 입력하고, 데이터베이스에 compute 호스트가 있는지 확인하세요:

    $ . admin-openrc
    
    $ openstack hypervisor list
    +----+---------------------+-----------------+-----------+-------+
    | ID | Hypervisor Hostname | Hypervisor Type | Host IP   | State |
    +----+---------------------+-----------------+-----------+-------+
    |  1 | compute1            | QEMU            | 10.0.0.31 | up    |
    +----+---------------------+-----------------+-----------+-------+
    
  2. compute 호스트 찾기:

    # su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
    
    Found 2 cell mappings.
    Skipping cell0 since it does not contain hosts.
    Getting compute nodes from cell 'cell1': ad5a5985-a719-4567-98d8-8d148aaae4bc
    Found 1 computes in cell: ad5a5985-a719-4567-98d8-8d148aaae4bc
    Checking host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
    Creating host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
    

    주석

    새로운 compute 노드를 추가할 때, 새로운 compute 노드들의 등록을 위해 controller 노드에서 nova-manage cell_v2 discover_hosts 를 꼭 실행해야 합니다. 또는, /etc/nova/nova.conf 에서 적절한 interval을 설정할 수 있습니다:

    [scheduler]
    discover_hosts_in_cells_interval = 300
    
Creative Commons Attribution 3.0 License

Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.