Установите и настройте сетевые компоненты на управляющем узле.
# yum install openstack-neutron openstack-neutron-ml2 \
openstack-neutron-linuxbridge ebtables
Отредактируйте файл /etc/neutron/neutron.conf
и выполните следующие действия:
Сконфигурируйте доступ к базе данных в разделе [database]
:
[database]
# ...
connection = mysql+pymysql://neutron:NEUTRON_DBPASS@controller/neutron
Замените NEUTRON_DBPASS
на пароль, который вы выбрали для базы данных.
Примечание
Закомментируйте или удалите любые другие опции connection
в разделе [database]
.
Включите Modular Layer 2 (ML2) плагин, сервис маршрутизации и пересекающиеся IP адреса в разделе [DEFAULT]
:
[DEFAULT]
# ...
core_plugin = ml2
service_plugins = router
allow_overlapping_ips = true
В разделе [DEFAULT]
настройте доступ к RabbitMQ
очереди сообщений:
[DEFAULT]
# ...
transport_url = rabbit://openstack:RABBIT_PASS@controller
Замените RABBIT_PASS
паролем, который вы выбрали для учетной записи openstack
в RabbitMQ.
Настройте доступ к идентификатору в разделах [DEFAULT]
и [keystone_authtoken]
:
[DEFAULT]
# ...
auth_strategy = keystone
[keystone_authtoken]
# ...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = neutron
password = NEUTRON_PASS
Замените NEUTRON_PASS `` паролем, который вы выбрали для пользователя ``neutron
в идентификаторе.
Примечание
Закомментируйте или удалите любые другие опции в разделе [keystone_authtoken]
.
In the [DEFAULT]
and [nova]
sections, configure Networking to
notify Compute of network topology changes:
[DEFAULT]
# ...
notify_nova_on_port_status_changes = true
notify_nova_on_port_data_changes = true
[nova]
# ...
auth_url = http://controller:35357
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = nova
password = NOVA_PASS
Замените NOVA_PASS `` паролем, который вы выбрали для пользователя ``nova
в службе идентификации.
Настройте путь до файлов локов в разделе [oslo_concurrency]
:
[oslo_concurrency]
# ...
lock_path = /var/lib/neutron/tmp
The ML2 plug-in uses the Linux bridge mechanism to build layer-2 (bridging and switching) virtual networking infrastructure for instances.
Отредактируйте файл /etc/neutron/plugins/ml2/ml2_conf.ini
и выполните следующие действия:
Включите одноуровневые, VLAN и VXLAN сети в разделе [ml2]
:
[ml2]
# ...
type_drivers = flat,vlan,vxlan
In the [ml2]
section, enable VXLAN self-service networks:
[ml2]
# ...
tenant_network_types = vxlan
In the [ml2]
section, enable the Linux bridge and layer-2 population
mechanisms:
[ml2]
# ...
mechanism_drivers = linuxbridge,l2population
Предупреждение
После того как вы сконфигурируете ML2 плагин, удаление значений в опции type_drivers
может привести к нарушению целостности базы данных.
Примечание
The Linux bridge agent only supports VXLAN overlay networks.
In the [ml2]
section, enable the port security extension driver:
[ml2]
# ...
extension_drivers = port_security
Настройте провайдер виртуальной сети как одноуровневую сеть в разделе [ml2_type_flat]
:
[ml2_type_flat]
# ...
flat_networks = provider
In the [ml2_type_vxlan]
section, configure the VXLAN network identifier
range for self-service networks:
[ml2_type_vxlan]
# ...
vni_ranges = 1:1000
Включите ipset для увеличения эффективности правил группы безопасности в разделе [securitygroup]
:
[securitygroup]
# ...
enable_ipset = true
Linux bridge agent создает layer-2 (bridging and switching) виртуальную сетевую инфраструктуру для инстансов и регулирует группы безопасности.
Отредактируйте файл /etc/neutron/plugins/ml2/linuxbridge_agent.ini
и выполните следующие действия:
В разделе [linux_bridge]
соотнесите виртуальную сеть провайдера и физический сетевой интерфейс провайдера:
[linux_bridge]
physical_interface_mappings = provider:PROVIDER_INTERFACE_NAME
Замените PROVIDER_INTERFACE_NAME
именем физического сетевого интерфейса провайдера. Смотрите Сеть узлов для более подробной информации.
In the [vxlan]
section, enable VXLAN overlay networks, configure the
IP address of the physical network interface that handles overlay
networks, and enable layer-2 population:
[vxlan]
enable_vxlan = true
local_ip = OVERLAY_INTERFACE_IP_ADDRESS
l2_population = true
Replace OVERLAY_INTERFACE_IP_ADDRESS
with the IP address of the
underlying physical network interface that handles overlay networks. The
example architecture uses the management interface to tunnel traffic to
the other nodes. Therefore, replace OVERLAY_INTERFACE_IP_ADDRESS
with
the management IP address of the controller node. See
Сеть узлов for more information.
В разделе [securitygroup]
включите группы безопасности и настройте драйвер брандмауэра Linux bridge iptables:
[securitygroup]
# ...
enable_security_group = true
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
The Layer-3 (L3) agent provides routing and NAT services for self-service virtual networks.
Отредактируйте файл /etc/neutron/l3_agent.ini
и выполните следующие действия:
Настройте Linux bridge драйвер и мост во внешнюю сеть, в разделе [DEFAULT]
:
[DEFAULT]
# ...
interface_driver = linuxbridge
DHCP agent предоставляет DHCP сервис для виртуальных сетей.
Отредактируйте файл /etc/neutron/dhcp_agent.ini
и выполните следующие действия:
In the [DEFAULT]
section, configure the Linux bridge interface driver,
Dnsmasq DHCP driver, and enable isolated metadata so instances on provider
networks can access metadata over the network:
[DEFAULT]
# ...
interface_driver = linuxbridge
dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
enable_isolated_metadata = true
Вернитесь к Networking controller node configuration.
Except where otherwise noted, this document is licensed under Creative Commons Attribution 3.0 License. See all OpenStack Legal Documents.