안녕하세요. 썬구루입니다. 이 게시물에서는 리눅스 네트워크 서비스 가용성을 높이기 위해 사용되는 네트워크 이중화 기술인 본딩(Bonding) 기술을 가지고 간단하게 구성을 해보도록 하겠습니다.
만약 네트워크 선로상에 또는 네트워크 카드 단일 장애가 발생한다면 서버가 정상적으로 동작한다고 할지라도 네트워크 장애로 인해 외부로 서비스를 제공할 수 없습니다.
네트워크 카드 또는 네트워크 선로 단일 장애에 대비를 하기 위해 각 운영체제에서는 네트워크 이중화 기술을 제공합니다. 윈도우 서버는 티밍(Teaming)이라 부르고 솔라리스에서는 IPMP라 부릅니다. 그리고 리눅스에서는 본딩(Bonding)이라 부릅니다.
리눅스 본딩(Bonding)은 다른 운영체제보다 다양한 기술을 제공하지만 여기서는 간단하게 Active-Backup (다른 운영체제에서는 Active-Standby라 부름.) 구성을 해볼 것입니다.
■ 리눅스 본딩(Bonding) 기술은?
네트워크 카드 또는 경로에 대한 단일 장애에 대처할 수 있는 구성을 하거나 네트워크 트래픽 분산처리를 하기 위해 구성하는 기술이다. 여기서는 네트워크 단일 장애에 대처할 수 있는 구성을 해본다. 리눅스 본딩(Bonding) 장점은 다음과 같다.
▶ 여러 네트워크 카드를 사용하여 네트워크 단일 장애에 대처를 할 수 있다. (Active-Standby 또는 Active-Backup이라 칭함)
▶ 여러 네트워크 카드를 사용하여 네트워크 대역폭을 늘릴 수 있다.(Trunking)
▶ 여러 네트워크 카드를 사용하여 데이터 송수신 부하를 분산시킬 수 있다. (Load Balance)
여기에서는 Active-Backup으로 한정하여 구성해볼 것이다.
■ 리눅스 본딩(Bonding)의 Active-Backup 모드(Mode)
본딩(Bonding)이 어떻게 동작할 것인지에 대한 설정인 본딩(Bonding) 모드(Mode)는 아래와 같이 총 7가지가 있다.
모드 번호
|
모드 종류
|
설 명
|
0
|
balance-rr
|
네트워크 카드를 번갈아가며 패킷을 송신한다. |
1
|
active-backup
|
여러 개의 네트워크 카드(이하 NIC)로 구성된 bond 내에 한 개의 Active Slave를 통해서만 통신을 한다. Active Slave에 해당하는 NIC 장애 시 다른 Slave NIC이 Active로 전환되어 통신을 재개한다. Failover가 발생하는 방식이며 설정에 따라 Failback이 진행될 수 있다. |
2
|
balance-xor
|
네트워크 부하 분산 통신을 지원한다. 소스와 목적지 MAC을 XOR 연산하여 사용할 NIC을 결정하여 통신한다. |
3
|
broadcast
|
모든 Slave NIC를 통해 데이터를 전송한다. Fault Tolerance 모드 |
4
|
802.3ad
|
네트워크 부하 분산 통신을 지원한다. 802.3ad 프로토콜을 이용하여 Dynamic Link Aggregation을 구성한다. |
5
|
balance-tlb
|
네트워크 부하 분산 통신을 지원한다. 송신 패킷 부하 분산. |
6
|
balance-alb
|
네트워크 부하 분산 통신을 지원한다. 송수신 패킷 부하 분산. |
2개 이상의 NIC을 하나의 가상 NIC으로 그룹화하여 주 통신용 NIC이 장애 났을 때 다른 NIC으로 통신을 할 수 있도록 Failover(장애 극복) 하는 모드(Mode)가 active-backup이다. 이전 주 통신용 NIC가 복구되었을 때 주 통신회선을 복구하는 것을 Failback(장애 복원)이라 하는데 구성에 따라 Failback을 지원한다.
■ 리눅스 본딩(Bonding)의 Active-Backup 모드(Mode) 구성
1). 새로운 NIC 추가
본딩(Bonding)을 구성하기 위해 2개 이상의 NIC 가 필요하다. shutdown 명령을 사용하여 CentOS 가상머신을 반드시 종료한 후 가상 NIC를 하나 추가한다.
VM 메뉴 > Settings > Add 버튼 > Network Adapter > Finish 버튼 > OK 버튼 > NIC 추가 완료 > 가상머신 켜기
2). NetworkManager 서비스 중단
저의 경험상 본딩(Bonding) 구성 시 network 서비스와 잦은 문제로 NetworkManager 서비스를 아래와 같은 방법으로 중단 후 본딩(Bonding)을 구성합니다.
[root@sunguru ~]# service NetworkManager status
NetworkManager (pid 2157)를 실행하고 있습니다.. [root@sunguru ~]# [root@sunguru ~]# service NetworkManager stop 네트워크 관리자 데몬 종료 중: [ OK ] [root@sunguru ~]# [root@sunguru ~]# chkconfig --list NetworkManager NetworkManager 0:해제 1:해제 2:활성 3:활성 4:활성 5:활성 6:해제 [root@sunguru ~]# [root@sunguru ~]# chkconfig NetworkManager off [root@sunguru ~]# [root@sunguru ~]# chkconfig --list NetworkManager NetworkManager 0:해제 1:해제 2:해제 3:해제 4:해제 5:해제 6:해제 [root@sunguru ~]# |
3). /etc/udev/rules.d/70-persistent-net.rule 파일 내 있는 아래와 유사한 eth0, eth1 NIC에 대한 정보 삭제
[root@sunguru ~]# vi /etc/udev/rules.d/70-persistent-net.rules
# PCI device 0x8086:0x100f (e1000) <= 삭제 SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:56:e3:45", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0" <= 삭제 # PCI device 0x8086:0x100f (e1000) <= 삭제 SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:56:e3:4f", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1" <= 삭제 [root@sunguru ~]# |
4). eth0 관련 파일 내용 삭제
eth0 NIC 관련 파일 내용을 수정하기 위해 기존의 파일 내용을 NULL 카피로 제거한다.
[root@sunguru ~]# cd /etc/sysconfig/network-scripts/
[root@sunguru network-scripts]# [root@sunguru network-scripts]# ls -l ifcfg-eth* -rw-r--r--. 1 root root 231 2016-05-27 02:44 ifcfg-eth0 [root@sunguru network-scripts]# [root@sunguru network-scripts]# cat /dev/null > ifcfg-eth0 [root@sunguru network-scripts]# [root@sunguru network-scripts]# more ifcfg-eth0 [root@sunguru network-scripts]# |
5). bond0 관련 파일 생성 및 내용 추가
[root@sunguru network-scripts]# more ifcfg-bond0
DEVICE=bond0 IPADDR=192.168.80.250 NETMASK=255.255.255.0 GATEWAY=192.168.80.2 DNS1=168.126.63.1 ONBOOT=yes BOOTPROTO=none # Static, none, DHCP, bootp USERCTL=no # User Control NM_CONTROLLED=no BONDING_OPTS="mode=1 miimon=100 #primary=eth0" [root@sunguru network-scripts]# |
BONDING_OPTS="mode=1 miimon=100 #primary=eth0" <= primary 설정을 정의하지 않으면 NIC 장애 시 Failover 만 진행
BONDING_OPTS="mode=1 miimon=100 primary=eth0" <= primary 설정을 정의하면 NIC 장애 시 Failover 와 Failback 진행
6). eth0 관련 파일 내용 추가
[root@sunguru network-scripts]# more ifcfg-eth0
DEVICE=eth0 MASTER=bond0 SLAVE=yes USERCTL=no ONBOOT=yes BOOTPROTO=none NM_CONTROLLED=no [root@sunguru network-scripts]# |
7). eth1 관련 파일 생성 및 내용 추가
[root@sunguru network-scripts]# more ifcfg-eth1
DEVICE=eth1 MASTER=bond0 SLAVE=yes USERCTL=no ONBOOT=yes BOOTPROTO=none NM_CONTROLLED=no [root@sunguru network-scripts]# |
8). /etc/modprobe.d/bonding.conf 파일 생성 및 내용 추가
[root@sunguru network-scripts]# vi /etc/modprobe.d/bonding.conf
alias bond0 bonding [root@sunguru network-scripts]# |
■ 리눅스 본딩(Bonding)의 Active-Backup 모드(Mode) 시작
1). 라우팅 테이블 정보 확인
[root@centos64 modprobe.d]# netstat -nr
Kernel IP routing table Destination Gateway Genmask Flags MSS Window irtt Iface 192.168.80.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0 169.254.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth0 0.0.0.0 192.168.80.2 0.0.0.0 UG 0 0 0 eth0 [root@centos64 modprobe.d]# |
2). Bonding 모듈 동작 확인
[root@centos64 modprobe.d]# lsmod | grep bonding
[root@centos64 modprobe.d]# |
3). network 서비스 재시작 및 Bonding 모듈 동작 확인
[root@sunguru network-scripts]# service network restart
인터페이스 eth0 (을)를 종료 중: /etc/sysconfig/network-scripts/ifdown-eth: line 116: /sys/class/net/bond0/bonding/slaves: 그런 파일이나 디렉터리가 없습니다 [ OK ] 인터페이스 eth1 (을)를 종료 중: /etc/sysconfig/network-scripts/ifdown-eth: line 116: /sys/class/net/bond0/bonding/slaves: 그런 파일이나 디렉터리가 없습니다 [ OK ] loopback 인터페이스 종료 중: [ OK ] loopback 인터페이스 활성화중 입니다: [ OK ] bond0 인터페이스 활성화중 입니다: ./network-functions: line 489: /sys/class/net/bond0/bonding/#primary: 그런 파일이나 디렉터리가 없습니다 ./network-functions: line 489: /sys/class/net/bond0/bonding/#primary: 그런 파일이나 디렉터리가 없습니다 ./network-functions: line 489: /sys/class/net/bond0/bonding/#primary: 그런 파일이나 디렉터리가 없습니다 ./network-functions: line 489: /sys/class/net/bond0/bonding/#primary: 그런 파일이나 디렉터리가 없습니다 Determining if ip address 192.168.80.250 is already in use for device bond0... [ OK ] [root@sunguru network-scripts]# [root@sunguru network-scripts]# lsmod | grep bonding bonding 130997 0 8021q 25527 1 bonding ipv6 334932 156 bonding,ip6t_REJECT,nf_conntrack_ipv6,nf_defrag_ipv6 [root@sunguru network-scripts]# [root@sunguru network-scripts]# netstat -nr Kernel IP routing table Destination Gateway Genmask Flags MSS Window irtt Iface 192.168.80.0 0.0.0.0 255.255.255.0 U 0 0 0 bond0 169.254.0.0 0.0.0.0 255.255.0.0 U 0 0 0 bond0 0.0.0.0 192.168.80.2 0.0.0.0 UG 0 0 0 bond0 [root@sunguru network-scripts]# [root@sunguru network-scripts]# ifconfig -a bond0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 inet addr:192.168.80.250 Bcast:192.168.80.255 Mask:255.255.255.0 inet6 addr: fe80::20c:29ff:fe56:e345/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:367 errors:0 dropped:0 overruns:0 frame:0 TX packets:126 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:53221 (51.9 KiB) TX bytes:11194 (10.9 KiB) eth0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:208 errors:0 dropped:0 overruns:0 frame:0 TX packets:115 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:37026 (36.1 KiB) TX bytes:9896 (9.6 KiB) eth1 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:159 errors:0 dropped:0 overruns:0 frame:0 TX packets:11 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:16195 (15.8 KiB) TX bytes:1298 (1.2 KiB) lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:12 errors:0 dropped:0 overruns:0 frame:0 TX packets:12 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:720 (720.0 b) TX bytes:720 (720.0 b) [root@sunguru network-scripts]# |
4). 본딩(Bonding) 구성 및 상태 확인
[root@sunguru network-scripts]# more /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:45 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:4f Slave queue ID: 0 [root@sunguru network-scripts]# [root@sunguru network-scripts]# reboot |
■ 리눅스 본딩(Bonding)의 Active-Backup 모드(Mode) 동작 테스트
1). ping 명령을 통한 네트워크 통신 확인
터미널 창을 열어 기본 게이트웨이(Default Gateway)로 ping 신호를 지속적으로 보내어 통신 상태 이상 유무를 확인한다.
[root@sunguru ~]# ping -c 3 192.168.80.2
PING 192.168.80.2 (192.168.80.2) 56(84) bytes of data. 64 bytes from 192.168.80.2: icmp_seq=1 ttl=128 time=0.303 ms 64 bytes from 192.168.80.2: icmp_seq=2 ttl=128 time=0.247 ms 64 bytes from 192.168.80.2: icmp_seq=3 ttl=128 time=0.180 ms |
2). 본딩(Bonding) 구성 및 상태 확인
터미널 창을 열어 아래와 같은 명령을 사용하여 2초 간격으로 본딩(Bonding) 구성 및 상태를 실시간 모니터링한다.
[root@sunguru ~]# while true
> do >cat /proc/net/bonding/bond0 > sleep 2 > clear > done |
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:45 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:4f Slave queue ID: 0 |
3). NIC 구성 및 상태 확인
터미널 창을 열어 아래와 같은 명령을 사용하여 2초 간격으로 NIC 구성 및 상태를 실시간 모니터링한다.
[root@sunguru ~]# while true
> do > ifconfig -a > sleep 2 > clear > done |
bond0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45
inet addr:192.168.80.250 Bcast:192.168.80.255 Mask:255.255.255.0 inet6 addr: fe80::20c:29ff:fe56:e345/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:602 errors:0 dropped:0 overruns:0 frame:0 TX packets:566 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:67421 (65.8 KiB) TX bytes:54375 (53.1 KiB) eth0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:571 errors:0 dropped:0 overruns:0 frame:0 TX packets:566 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:64611 (63.0 KiB) TX bytes:54375 (53.1 KiB) eth1 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:31 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:2810 (2.7 KiB) TX bytes:0 (0.0 b) lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:12 errors:0 dropped:0 overruns:0 frame:0 TX packets:12 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:720 (720.0 b) TX bytes:720 (720.0 b) |
4). eth0 NIC 장애 유도 및 본딩(Bonding) 및 네트워크 통신 상태 확인
아래 그림과 같이 VMware Workstation 윈도 창 우측 하단에 보이는 첫 번째 가상 NIC를 마우스 오른쪽 클릭하여 NIC 장애를 유도한다.
그리고 각 터미널 창을 확인하여 네트워크 통신 지속 여부를 확인한다.
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: down Speed: Unknown Duplex: Unknown Link Failure Count: 1 Permanent HW addr: 00:0c:29:56:e3:45 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:4f Slave queue ID: 0 |
bond0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45
inet addr:192.168.80.250 Bcast:192.168.80.255 Mask:255.255.255.0 inet6 addr: fe80::20c:29ff:fe56:e345/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:1561 errors:0 dropped:0 overruns:0 frame:0 TX packets:1490 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:161414 (157.6 KiB) TX bytes:144303 (140.9 KiB) eth0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST SLAVE MULTICAST MTU:1500 Metric:1 RX packets:1156 errors:0 dropped:0 overruns:0 frame:0 TX packets:1135 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:121824 (118.9 KiB) TX bytes:110025 (107.4 KiB) eth1 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:405 errors:0 dropped:0 overruns:0 frame:0 TX packets:355 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:39590 (38.6 KiB) TX bytes:34278 (33.4 KiB) lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:12 errors:0 dropped:0 overruns:0 frame:0 TX packets:12 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:720 (720.0 b) TX bytes:720 (720.0 b) |
64 bytes from 192.168.80.2: icmp_seq=1506 ttl=128 time=0.185 ms
64 bytes from 192.168.80.2: icmp_seq=1507 ttl=128 time=0.184 ms 64 bytes from 192.168.80.2: icmp_seq=1508 ttl=128 time=0.191 ms 64 bytes from 192.168.80.2: icmp_seq=1509 ttl=128 time=0.176 ms |
eth0 NIC는 장애가 발생하여 MII Status가 Down으로 변경되었다. 그리고 Active Slave는 eth0에서 eth1로 변경되었고 eth1로 전환하여 Failover가 있어났고 네트워크 통신에는 문제가 없는 것을 확인할 수 있다.
5). eth0 NIC 장애 복구 및 본딩(Bonding) 및 네트워크 통신 상태 확인
아래 그림과 같이 VMware Workstation 윈도창 우측 하단에 보이는 첫 번째 가상 NIC를 마우스 오른쪽 클릭하여 NIC 장애를 복구한다.
그리고 각 터미널 창을 확인하여 네트워크 통신 지속 여부를 확인한다.
아래 내용을 보면 eth0 NIC는 장애가 복구되어 MII Status가 UP으로 변경되었다. 하지만 Active Slave는 eth1로 설정 유지되어 Failback은 일어나지 않을 것을 확인할 수 있다. 만약 ifcfg-bond0 파일 내용 중 아래와 같이 primary 설정을 해줬다면 장애 복구 시 primary 디바이스(eth0)로 Failback이 자동으로 일어난다.
BONDING_OPTS="mode=1 miimon=100 primary=eth0"
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:45 Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 00:0c:29:56:e3:4f Slave queue ID: 0 |
bond0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45
inet addr:192.168.80.250 Bcast:192.168.80.255 Mask:255.255.255.0 inet6 addr: fe80::20c:29ff:fe56:e345/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:2306 errors:0 dropped:0 overruns:0 frame:0 TX packets:2163 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:242649 (236.9 KiB) TX bytes:209242 (204.3 KiB) eth0 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:1178 errors:0 dropped:0 overruns:0 frame:0 TX packets:1135 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:124007 (121.1 KiB) TX bytes:110025 (107.4 KiB) eth1 Link encap:Ethernet HWaddr 00:0C:29:56:E3:45 UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:1128 errors:0 dropped:0 overruns:0 frame:0 TX packets:1028 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:118642 (115.8 KiB) TX bytes:99217 (96.8 KiB) lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:12 errors:0 dropped:0 overruns:0 frame:0 TX packets:12 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:720 (720.0 b) TX bytes:720 (720.0 b) |
64 bytes from 192.168.80.2: icmp_seq=2088 ttl=128 time=0.192 ms
64 bytes from 192.168.80.2: icmp_seq=2089 ttl=128 time=0.174 ms 64 bytes from 192.168.80.2: icmp_seq=2090 ttl=128 time=0.182 ms |
여기까지 본딩(Bonding)을 이용한 네트워크 이중화 간단 구성을 해보았습니다. 주요 서비스를 제공하는 서버들은 거의 네트워크 이중화를 구성합니다. Teaming, IPMP, Bonding 등의 이름으로 불리지만 이것은 네트워크 디바이스 또는 선로 단일 장애에 대비할 수 있는 구성입니다. 본딩에 관련된 좀 더 세부적인 설명 게시글은 연말 정도 되어야 올릴 수 있겠네요.
일단 이것을 먼저 다룬 이유는 DNS, DHCP, WEB, WAS, DB 서버 구성 시 본딩 구성을 기본적으로 할 것이기 때문입니다. 왜? 실무에선 서버 구축 시 네트워크 이중화는 기본이니까요.
다음 게시글에서는 DHCP 서버 구성에 대해 알아보도록 하겠습니다.
No comments:
Post a Comment