compute 노드 설치와 설정

compute 노드 설치와 설정

이번 색션에서는 compute 노드에서 Compute 서비스를 설치하고 구성하는 방법을 설명합니다. 이 서비스는 instances 또는 VMs 을 배포하는데 여러 hypervisors 를 지원합니다. 간단하게 우리는 가상 머신에대한 하드웨어 가속을 지원하는 compute 노드에서 KVM 확장인 QEMU 하이퍼바이저를 이용하여 구성하여 사용합니다. 기존 하드웨어 상에선 이 구성은 일반적인 QEMU 하이퍼바이저를 이용하여 구성합니다. 이 지침을 약간 수정하여 당신의 환경에 추가적인 compute 노드를 수평적인 확장에 사용할 수 있습니다.

주석

이번 색션에서는 가이드를 따라서 단계별로 첫 compute 노드를 구성하고 있다고 가정합니다. 추가 compute 노드를 구성하길 원하면 example architectures 섹션에서의 첫 compute 노드 구성과 비슷한 방식으로 준비합니다. 각 추가 compute 노드는 고유한 IP 주소가 필요합니다.

구성요소 설치 및 구성

주석

디폴트 구성 파일을 배포판에 따라 달라집니다. 기존 섹션 및 옵션을 변경하는 것 보다는 해당 섹션과 옵션을 추가해야 할 수도 있습니다. 또한 구성 내용 조각 중 생략 (...) 부분은 유지될 필요성이 있는 디폴트 구성 옵션을 가리킵니다.

  1. 패키지를 설치하십시오:

    # zypper install openstack-nova-compute genisoimage qemu-kvm libvirt
    
  1. /etc/nova/nova.conf 파일을 편집하여 다음 작업을 완료합니다:

    • [DEFAULT] 섹션에서 컴퓨트와 메타데이터 API만 활성화시킵니다:

      [DEFAULT]
      # ...
      enabled_apis = osapi_compute,metadata
      
    • [DEFAULT] 섹션에, compute_driver 구성 값을 설정합니다:

      [DEFAULT]
      # ...
      compute_driver = libvirt.LibvirtDriver
      
    • [DEFAULT] 섹션에서, RabbitMQ 메시지 큐 액세스를 구성합니다:

      [DEFAULT]
      # ...
      transport_url = rabbit://openstack:RABBIT_PASS@controller
      

      RABBIT_PASSRabbitMQ 에서 openstack 계정에 대해 선택한 암호로 변경합니다.

    • [api][keystone_authtoken] 섹션에서는, Identity 서비스 액세스를 구성합니다:

      [api]
      # ...
      auth_strategy = keystone
      
      [keystone_authtoken]
      # ...
      auth_uri = http://controller:5000
      auth_url = http://controller:35357
      memcached_servers = controller:11211
      auth_type = password
      project_domain_name = default
      user_domain_name = default
      project_name = service
      username = nova
      password = NOVA_PASS
      

      Identity 서비스에서 nova 사용자의 암호로 NOVA_PASS 를 변경합니다.

      주석

      [keystone_authtoken] 섹션 내 다른 옵션들을 주석 처리 또는 제거합니다.

    • [DEFAULT] 섹션에서, my_ip 옵션을 구성합니다:

      [DEFAULT]
      # ...
      my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS
      

      compute 노드의 관리 네트워크 인터페이스 IP로 MANAGEMENT_INTERFACE_IP_ADDRESS 로 변경합니다. example architecture 에서는 첫 노드에대해 10.0.0.31로 설정합니다.

    • [DEFAULT] 섹션에서는 네트워킹 서비스에 대한 지원을 활성화합니다:

      [DEFAULT]
      # ...
      use_neutron = True
      firewall_driver = nova.virt.firewall.NoopFirewallDriver
      

      주석

      기본적으로 Compute는 내부 방화벽 서비스를 사용합니다. 네트워킹 서비스에 방화벽 서비스가 포함된 이이후론 nova.virt.firewall.NoopFirewallDriver 방화벽 드라이버를 사용하여 Compute 방화벽 서비스를 비활성합니다.

    • [vnc] 섹션에서 원격 콘솔 접근을 구성하고 활성화합니다:

      [vnc]
      # ...
      enabled = True
      vncserver_listen = 0.0.0.0
      vncserver_proxyclient_address = $my_ip
      novncproxy_base_url = http://controller:6080/vnc_auto.html
      

      서버 구성 요소는 모든 IP 주소를 확인하고 프록시 구성 요소는 compute 노드의 관리 인터페이스 IP 주소만 확인합니다. 베이스 URL은 compute 노드에 존재하는 인스턴스를 웹 브라우저 원격 콘솔로 접근하여 이용할 수 있는 위치를 나타냅니다.

      주석

      원격 콘솔에 접근할 수 있는 웹 브라우저가 controller 호스트 이름을 확인할 수 없는 호스트에 있는 경우, 컨트롤러 노드의 관리 인터페이스 IP 주소로 controller 를 변경해야합니다.

    • [glance] 섹션에서 이미지 API 서비스의 위치를 구성합니다:

      [glance]
      # ...
      api_servers = http://controller:9292
      
    • [oslo_concurrency] 섹션에서, lock 경로를 구성합니다:

      [oslo_concurrency]
      # ...
      lock_path = /var/run/nova
      
    • [placement] 섹션에서, Placement API 를 구성합니다:

      [placement]
      # ...
      os_region_name = RegionOne
      project_domain_name = Default
      project_name = service
      auth_type = password
      user_domain_name = Default
      auth_url = http://controller:35357/v3
      username = placement
      password = PLACEMENT_PASS
      

      Identity 서비스에서 placement 사용자의 암호로 PLACEMENT_PASS 를 변경합니다. [placement] 섹션 내에 있는 다른 옵션들은 주석처리합니다.

  1. 커널 모듈 nbd 가 로드되었는지 확인합니다.

    # modprobe nbd
    
  2. 매 부팅마다 nbd/etc/modules-load.d/nbd.conf 파일에 추가하여 모듈 로딩이 이루어지는지 확인합니다.

설치 마무리

  1. Compute 노드가 가상 머신에 대한 하드웨어 가속을 지원하는지 확인합니다:

    $ egrep -c '(vmx|svm)' /proc/cpuinfo
    

    해당 명령어가 1 이상 의 값을 반환하는 경우에는, compute 노드에서 하드웨어 가속을 지원하여 보통 추가적인 구성을 필요로 하지 않습니다.

    명령에대해 zero 값으로 반환되면, compute 노드에서 하드웨어 가속을 지원하지 않는 것이니 KVM의 QEMU를 사용하여 libvirt 구성을 해야합니다.

    • /etc/nova/nova.conf 파일의 [libvirt] 섹선에 다음과 같이 수정합니다:

      [libvirt]
      # ...
      virt_type = qemu
      
  1. compute 서비스와 그와 관계된 서비스들을 시작하고 시스템 부팅시 자동적으로 시작하도록 설정합니다:

    # systemctl enable libvirtd.service openstack-nova-compute.service
    # systemctl start libvirtd.service openstack-nova-compute.service
    

주석

nova-compute 서비스가 시작 실패하는 경우, /var/log/nova/nova-compute.log 를 확인합니다. 오류 메시지 AMQP server on controller:5672 is unreachable 는 아마도 컨트롤러 노드에 있는 방화벽이 5672 포트에 대한 액세스를 차단하는 것을 가리킬 것입니다. 컨트롤러 노드에서 5672 포트를 오픈하는 방화벽 설정을 하고 컴퓨트 노드에 있는 nova-compute 서비스를 재시작하세요.

cell 데이터베이스에 컴퓨트 노드를 추가하세요

중요

controller 노드에 다음 명령을 실행하세요.

  1. 관리자 전용 CLI 명령을 활성화하기 위해서 관리자 자격증명을 입력하고, 데이터베이스에 compute 호스트가 있는지 확인하세요:

    $ . admin-openrc
    
    $ openstack hypervisor list
    +----+---------------------+-----------------+-----------+-------+
    | ID | Hypervisor Hostname | Hypervisor Type | Host IP   | State |
    +----+---------------------+-----------------+-----------+-------+
    |  1 | compute1            | QEMU            | 10.0.0.31 | up    |
    +----+---------------------+-----------------+-----------+-------+
    
  2. compute 호스트 찾기:

    # su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
    
    Found 2 cell mappings.
    Skipping cell0 since it does not contain hosts.
    Getting compute nodes from cell 'cell1': ad5a5985-a719-4567-98d8-8d148aaae4bc
    Found 1 computes in cell: ad5a5985-a719-4567-98d8-8d148aaae4bc
    Checking host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
    Creating host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
    

    주석

    새로운 compute 노드를 추가할 때, 새로운 compute 노드들의 등록을 위해 controller 노드에서 nova-manage cell_v2 discover_hosts 를 꼭 실행해야 합니다. 또는, /etc/nova/nova.conf 에서 적절한 interval을 설정할 수 있습니다:

    [scheduler]
    discover_hosts_in_cells_interval = 300
    
Creative Commons Attribution 3.0 License

Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.