目錄
??拓撲圖
??案例實施
??1、環(huán)境配置
??1.1、配置IP地址
??1.2、GFS添加磁盤
??2、Keepalived
??2.1、配置主調(diào)度器
??2.2、配置備份調(diào)度器
??3、LVS-DR
??3.1、負載均衡
??3.1.1、關閉icmp重定向
??3.1.2、配置負載分配策略
??3.2、配置主調(diào)度器
??3.3、配置備份調(diào)度器
??4、GFS
??4.1、web端
??4.1.1、web配置VIP
??4.1.2、關閉部分arp應答
??4.1.3、配置httpd
??4.2、配置GFS端
??4.2.1、創(chuàng)建復制卷
??4.2.2、web掛載復制卷
??4.2.3、測試
??5、zabbix
??5.1、安裝
??5.1.1、創(chuàng)建zabbix源
??5.1.2、安裝MariaDB
??5.1.3、安裝Zabbix
??5.1.4、配置zabbix
??5.2 、zabbix界面優(yōu)化
??5.3、監(jiān)控LVS
??5.3.1、web界面配置
??5.4、監(jiān)控web
??5.4.1、web界面配置
??:事實證明大蝦還是好吃的。
拓撲圖
案例實施
1、環(huán)境配置
????????環(huán)境要求:如圖所示配置IP地址,所有主機橋接到vmnet1,并關閉防火墻和Selinux。GFS兩臺服務器分別添加兩塊20G的磁盤,客戶端使用宿主機。
1.1、配置IP地址
????????關于IP的配置這里以web1為例,只有web1和web2添加兩塊網(wǎng)卡,相對比其他服務器的配置只是多一塊需要配置的網(wǎng)卡,其他服務器正常配置IP即可。
[root@web1 ~]# systemctl stop firewalld
[root@web1 ~]# systemctl disable firewalld
[root@web1 ~]# setenforce 0
[root@web1 ~]# cd /etc/sysconfig/network-scripts/
[root@web1 network-scripts]# vim ifcfg-ens33
......省略部分內(nèi)容
BOOTPROTO=static
NAME=ens33
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.1.3
NETMASK=255.255.255.0
[root@web1 network-scripts]# cp ifcfg-ens33 ifcfg-ens36
[root@web1 network-scripts]# vim ifcfg-ens36
......省略部分內(nèi)容
BOOTPROTO=static
NAME=ens36
DEVICE=ens36
ONBOOT=yes
IPADDR=200.0.0.3
NETMASK=255.255.255.0
[root@web1 network-scripts]# systemctl restart network
1.2、GFS添加磁盤
????????關于磁盤可以開機前添加,會自動識別磁盤。若開機后添加可以執(zhí)行以下命令識別磁盤。
echo "- - -" >> /sys/class/scsi_host/host0/scan
echo "- - -" >> /sys/class/scsi_host/host1/scan
echo "- - -" >> /sys/class/scsi_host/host2/scan
????????到目前的配置,web1和web2可以ping通全網(wǎng),而公網(wǎng)和私網(wǎng)則不能相互ping通。GFS1和GFS2每臺服務器上都有一塊sdb磁盤。
2、Keepalived
????????搭建Keepalived實現(xiàn)Lvs的雙機熱備。本次使用yum方式安裝keepalived和ipvsadm管理工具。LVS1和LVS2都需要那種,這里以LVS1為例。
[root@lvs1 ~]# yum -y install keepalived ipvsadm
[root@lvs1 ~]# systemctl enable keepalived
2.1、配置主調(diào)度器
[root@lvs1 ~]# cd /etc/keepalived/
[root@lvs1 keepalived]# cp keepalived.conf keepalived.conf.back
[root@lvs1 keepalived]# vim keepalived.conf
! Configuration File for keepalived
?
global_defs {
......省略部分內(nèi)容
? router_id LVS1 //主調(diào)度器名稱
}
?
vrrp_instance VI_1 {
? state MASTER //主調(diào)度器的熱備狀態(tài)
? interface ens33 //修改接口網(wǎng)卡
? virtual_router_id 51
? priority 100
? advert_int 1
? authentication {
? ? ? auth_type PASS
? ? ? auth_pass 1111
? }
? virtual_ipaddress {
? ? ? 200.0.0.100 //配置漂移地址
? }
} ?
[root@lvs1 keepalived]# systemctl start keepalived
[root@lvs1 keepalived]# ip addr show dev ens33 //查看漂移地址
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
? link/ether 00:0c:29:16:da:97 brd ff:ff:ff:ff:ff:ff
? inet 200.0.0.1/24 brd 200.0.0.255 scope global ens33
? ? ? valid_lft forever preferred_lft forever
? inet 200.0.0.100/32 scope global ens33 //此時漂移地址在主調(diào)度器上
? ? ? valid_lft forever preferred_lft forever
? inet6 fe80::c3cf:e745:3647:394a/64 scope link
? ? ? valid_lft forever preferred_lft forever
2.2、配置備份調(diào)度器
[root@lvs2 ~]# cd /etc/keepalived/
[root@lvs2 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@lvs2 keepalived]# vim keepalived.conf
! Configuration File for keepalived
?
global_defs {
......省略部分內(nèi)容
? router_id LVS2 //備份調(diào)度器名稱
} ?
?
vrrp_instance VI_1 {
? state BACKUP //備份調(diào)度器的熱備狀態(tài)
? interface ens33 //修改接口網(wǎng)卡
? virtual_router_id 51
? priority 99 //修改優(yōu)先級別
? advert_int 1
? authentication {
? ? ? auth_type PASS
? ? ? auth_pass 1111
? }
? virtual_ipaddress {
? ? ? 200.0.0.100 //配置漂移地址
? }
} ?
[root@lvs2 keepalived]# systemctl start keepalived
[root@lvs2 keepalived]# ip addr show dev ens33 //查看漂移地址
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
? link/ether 00:0c:29:55:f7:8d brd ff:ff:ff:ff:ff:ff
? inet 200.0.0.2/24 brd 200.0.0.255 scope global ens33
? ? ? valid_lft forever preferred_lft forever
? inet6 fe80::15ae:efbc:5794:874b/64 scope link
? ? ? valid_lft forever preferred_lft forever
????????備份服務器仍處于備份狀態(tài),因此備份服務器不會為ens33接口添加VIP地址。當主服務器失效時,VIP地址才會過來,達到了雙機熱備的功能。
3、LVS-DR
3.1、負載均衡
????????兩臺LVS都需要配置選項3.1中的內(nèi)容(關閉ICMP重定向,配置策略)。
3.1.1、關閉icmp重定向
[root@lvs1 ~]# vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
[root@lvs1 ~]# sysctl -p
3.1.2、配置負載分配策略
[root@lvs1 ~]# ipvsadm -C //清除原有策略
[root@lvs1 ~]# ipvsadm -A -t 200.0.0.100:80 -s rr
[root@lvs1 ~]# ipvsadm -a -t 200.0.0.100:80 -r 200.0.0.3 -g -w 1
[root@lvs1 ~]# ipvsadm -a -t 200.0.0.100:80 -r 200.0.0.4 -g -w 1
[root@lvs1 ~]# ipvsadm-save //保存策略
-A -t lvs1:http -s rr
-a -t lvs1:http -r 200.0.0.3:http -g -w 1
-a -t lvs1:http -r 200.0.0.4:http -g -w 1
[root@lvs1 ~]# systemctl enable ipvsadm
3.2、配置主調(diào)度器
????????通過配置文件添加兩臺web節(jié)點。
[root@lvs1 ~]# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 { //在vrrp配置模塊下面添加節(jié)點
......省略部分內(nèi)容
? virtual_ipaddress {
? ? ? 200.0.0.100
? }
}
......省略部分內(nèi)容
virtual_server 200.0.0.100 80 { //以下內(nèi)容需要修改添加節(jié)點信息
? delay_loop 15
? lb_algo rr
? lb_kind DR
? protocol TCP
? ?
? real_server 200.0.0.3 80 {
? ? ? weight 1
? ? ? TCP_CHECK {
? ? ? ? ? connect_port 80
? ? ? ? ? connect_timeout 3
? ? ? ? ? nb_get_retry 3
? ? ? ? ? delay_before_retry 4
? ? ? } ?
? }
? real_server 200.0.0.4 80 {
? ? ? weight 1
? ? ? TCP_CHECK {
? ? ? ? ? connect_port 80
? ? ? ? ? connect_timeout 3
? ? ? ? ? nb_get_retry 3
? ? ? ? ? delay_before_retry 4
? ? ? }
? }
}
[root@lvs1 ~]# systemctl restart keepalived
3.3、配置備份調(diào)度器
????????相同的方法配置完主調(diào)度器后,接著配置備份調(diào)度器。
[root@lvs2 ~]# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 { //在vrrp配置模塊下面添加節(jié)點
......省略部分內(nèi)容
? virtual_ipaddress {
? ? ? 200.0.0.100
? }
}
......省略部分內(nèi)容
virtual_server 200.0.0.100 80 { //以下內(nèi)容需要修改添加節(jié)點信息
? delay_loop 15
? lb_algo rr
? lb_kind DR
? protocol TCP
? ?
? real_server 200.0.0.3 80 {
? ? ? weight 1
? ? ? TCP_CHECK {
? ? ? ? ? connect_port 80
? ? ? ? ? connect_timeout 3
? ? ? ? ? nb_get_retry 3
? ? ? ? ? delay_before_retry 4
? ? ? } ?
? }
? real_server 200.0.0.4 80 {
? ? ? weight 1
? ? ? TCP_CHECK {
? ? ? ? ? connect_port 80
? ? ? ? ? connect_timeout 3
? ? ? ? ? nb_get_retry 3
? ? ? ? ? delay_before_retry 4
? ? ? }
? }
}
[root@lvs2 ~]# systemctl restart keepalived
4、GFS
4.1、web端
????????GFS的配置如下表所示,兩臺服務器實現(xiàn)復制卷,復制卷的名稱為share。
????????在兩個web服務器將share復制卷掛載到web服務器的/var/www/html下。
IP | 主機名 | 掛載盤 | 掛載目錄 |
---|---|---|---|
192.168.1.1 | gfs1 | /dev/sdb(20G) | /b3 |
192.168.1.2 | gfs2 | /dev/sdb(20G) | /b3 |
4.1.1、web配置VIP
????????每個web服務器上都需要配置漂移地址(VIP)。
[root@web1 ~]# cd /etc/sysconfig/network-scripts/
[root@web1 network-scripts]# cp ifcfg-lo ifcfg-lo:0
[root@web1 network-scripts]# vim ifcfg-lo:0
DEVICE=lo:0
IPADDR=200.0.0.100
NETMASK=255.255.255.255
ONBOOT=yes
[root@web1 network-scripts]# ifup lo:0
[root@web1 network-scripts]# ifconfig lo:0
lo:0: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
? ? ? inet 200.0.0.100 netmask 255.255.255.255
? ? ? loop txqueuelen 1 (Local Loopback)
?
[root@web1 network-scripts]# vim /etc/rc.local
......省略部分內(nèi)容
/sbin/route add -host 200.0.0.100 dev lo:0 //添加一條路由
[root@web1 network-scripts]# route add -host 200.0.0.100 dev lo:0
4.1.2、關閉部分arp應答
[root@web1 ~]# vim /etc/sysctl.conf
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
[root@web1 ~]# sysctl -p
4.1.3、配置httpd
[root@web1 ~]# yum -y install httpd
[root@web1 ~]# echo "111" > /var/www/html/index.html
[root@web1 ~]# systemctl start httpd
[root@web1 ~]# systemctl enable httpd
4.2、配置GFS端
????????兩臺GFS服務器都需要配置,以下gfs1和gfs2配置相同,我以gfs1為例,gfs2相反配置即可。
[root@gfs1 ~]# vim /etc/hosts //GFS本地節(jié)點解析
192.168.1.1 node1
192.168.1.2 node2
[root@gfs1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
[root@gfs1 ~]# systemctl start glusterd
[root@gfs1 ~]# systemctl enable glusterd
[root@gfs1 ~]# gluster peer probe node1 //本身在gfs1上操作,所以node1也可以不執(zhí)行
peer probe: success. Probe on localhost not needed
[root@gfs1 ~]# gluster peer probe node2
peer probe: success.
[root@gfs1 ~]# gluster peer status //查看GFS群集狀態(tài)
Number of Peers: 1
?
Hostname: node2
Uuid: 16bc8386-0168-4c21-8ed3-e762f1bd8c77
State: Peer in Cluster (Connected)
4.2.1、創(chuàng)建復制卷
????????使用fdisk命令創(chuàng)建一個20G的磁盤空間為sdb1并格式化。兩臺GFS服務器創(chuàng)建成復制卷,卷名為share。
[root@gfs1 ~]# fdisk /dev/sdb
n→p→回車→回車→回車→w保存退出
[root@gfs1 ~]# mkfs.xfs /dev/sdb1
[root@gfs1 ~]# gluster volume create share replica 2 node1:/b1 node2:/b1 force
volume create: share: success: please start the volume to access data
[root@gfs1 ~]# gluster volume start share
volume start: share: success
4.2.2、web掛載復制卷
web1配置如下:
[root@web1 ~]# yum -y install glusterfs glusterfs-fuse
[root@web1 ~]# vim /etc/hosts
192.168.1.1 node1
192.168.1.2 node2
[root@web1 ~]# mount -t glusterfs node1:share /var/www/html/
[root@web1 ~]# df -h
文件系統(tǒng) ? ? ? ? ? ? 容量 已用 可用 已用% 掛載點
/dev/mapper/cl-root ? 17G 3.8G ? 14G ? 23% /
devtmpfs ? ? ? ? ? ? 473M ? ? 0 473M ? 0% /dev
tmpfs ? ? ? ? ? ? ? 489M 144K 489M ? 1% /dev/shm
tmpfs ? ? ? ? ? ? ? 489M 7.1M 482M ? 2% /run
tmpfs ? ? ? ? ? ? ? 489M ? ? 0 489M ? 0% /sys/fs/cgroup
/dev/sda1 ? ? ? ? ? 1014M 173M 842M ? 18% /boot
tmpfs ? ? ? ? ? ? ? ? 98M ? 12K ? 98M ? 1% /run/user/0
/dev/sr0 ? ? ? ? ? ? 53M ? 53M ? ? 0 100% /media
node1:share ? ? ? ? ? 17G 3.8G ? 14G ? 23% /var/www/html
web2配置如下:
[root@web2 ~]# yum -y install glusterfs glusterfs-fuse
[root@web2 ~]# vim /etc/hosts
192.168.1.1 node1
192.168.1.2 node2
[root@web2 ~]# mount -t glusterfs node1:share /var/www/html/
[root@web2 ~]# df -hT
文件系統(tǒng) ? ? ? ? ? 類型 ? ? ? ? ? 容量 已用 可用 已用% 掛載點
/dev/mapper/cl-root xfs ? ? ? ? ? ? 17G 3.9G ? 14G ? 23% /
devtmpfs ? ? ? ? ? devtmpfs ? ? ? 473M ? ? 0 473M ? 0% /dev
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 489M 144K 489M ? 1% /dev/shm
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 489M 7.1M 482M ? 2% /run
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 489M ? ? 0 489M ? 0% /sys/fs/cgroup
/dev/sda1 ? ? ? ? ? xfs ? ? ? ? ? 1014M 173M 842M ? 18% /boot
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 98M ? 12K ? 98M ? 1% /run/user/0
/dev/sr0 ? ? ? ? ? iso9660 ? ? ? ? 53M ? 53M ? ? 0 100% /media
node1:share ? ? ? ? fuse.glusterfs ? 17G 3.8G ? 14G ? 23% /var/www/html
????????到目前為止,復制卷就已經(jīng)創(chuàng)建完了。下一步需要測試了,在掛載盤中創(chuàng)建文件,查看網(wǎng)頁內(nèi)容。
4.2.3、測試
????????在上面掛了盤以后,之前的內(nèi)容就已經(jīng)消失了,所以還得從新創(chuàng)建一個新的網(wǎng)頁內(nèi)容。在web1上創(chuàng)建一個內(nèi)容,內(nèi)容會同步到web2上,客戶端查看的內(nèi)容就會是后面創(chuàng)建的內(nèi)容。
[root@web1 ~]# echo "666" > /var/www/html/index.html
......web2查看網(wǎng)頁內(nèi)容
[root@web2 ~]# cat /var/www/html/index.html
666?
5、zabbix
????????無監(jiān)控不運維,最后搭建Zabbix服務器分別監(jiān)控LVS服務器和web服務器的性能。
5.1、安裝
5.1.1、創(chuàng)建zabbix源
????????掛盤后將文件復制到創(chuàng)建的目錄中,yum倉庫目錄指向zabbix。
[root@zabbix ~]# mkdir /zabbix
[root@zabbix ~]# cp /media/* /zabbix
[root@zabbix ~]# cd /zabbix
[root@zabbix zabbix]# createrepo .
[root@zabbix ~]# rm -rf /etc/yum.repos.d/*
[root@zabbix ~]# vim /etc/yum.repos.d/a.repo
[a]
name=a
baseurl=file:///zabbix
gpgcheck=0
5.1.2、安裝MariaDB
[root@zabbix ~]# yum -y install mariadb-server mariadb
[root@zabbix ~]# systemctl start mariadb
[root@zabbix ~]# systemctl enable mariadb
[root@zabbix ~]# mysqladmin -u root password "123"
5.1.3、安裝Zabbix
[root@zabbix ~]# yum -y install zabbix-server-mysql zabbix-web-mysql zabbix-agent
[root@zabbix ~]# mysql -u root -p
Enter password: //輸入密碼
MariaDB [(none)]> create database zabbix character set utf8 collate utf8_bin;
Query OK, 1 row affected (0.00 sec)
MariaDB [(none)]> grant all privileges on zabbix.* to zabbix@localhost identified by "456";
Query OK, 0 rows affected (0.00 sec)
5.1.4、配置zabbix
[root@zabbix ~]# zcat /usr/share/doc/zabbix-server-mysql-3.4.1/create.sql.gz | mysql -uzabbix -p zabbix
Enter password:
[root@zabbix ~]# cp /etc/zabbix/zabbix_server.conf /etc/zabbix/zabbix_server.conf.bak
[root@zabbix ~]# vim /etc/zabbix/zabbix_server.conf
DBHost=localhost
DBPassword=456
[root@zabbix ~]# cp /etc/zabbix/zabbix_agentd.conf /etc/zabbix/.zabbix_agent.conf.bak
[root@zabbix ~]# vim /etc/zabbix/zabbix_agentd.conf
Server=200.0.0.10 //客戶端被動等待指定服務器來查詢數(shù)據(jù)
ServerActive=200.0.0.10 //客戶端主動提交數(shù)據(jù)到指定的服務器
Hostname=Zabbix server //主機名稱
[root@zabbix ~]# systemctl start zabbix-server
[root@zabbix ~]# systemctl enable zabbix-server
Created symlink from /etc/systemd/system/multi-user.target.wants/zabbix-server.service to /usr/lib/systemd/system/zabbix-server.service.
[root@zabbix ~]# systemctl start zabbix-agent
[root@zabbix ~]# systemctl enable zabbix-agent
Created symlink from /etc/systemd/system/multi-user.target.wants/zabbix-agent.service to /usr/lib/systemd/system/zabbix-agent.service.
[root@zabbix ~]# systemctl start httpd
[root@zabbix ~]# systemctl enable httpd
Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.
[root@zabbix ~]# vim /etc/httpd/conf.d/zabbix.conf
? ? ? php_value date.timezone Asia/Shanghai
[root@zabbix ~]# systemctl restart httpd
5.2 、zabbix界面優(yōu)化
????????瀏覽器輸入http://200.0.0.10/zabbix,用戶名默認為Admin密碼為zabbix,登錄即可見到默認頁面。為了頁面的美觀可以修改中文字體,修改亂碼等。
5.3、監(jiān)控LVS
????????被監(jiān)控端安裝軟件,配置基本相同,這里先只監(jiān)控LVS主服務器了。
[root@lvs1 ~]# mount /dev/cdrom /media
mount: /dev/sr0 寫保護,將以只讀方式掛載
[root@lvs1 ~]# rpm -ivh /media/zabbix-agent-3.2.6-1.el7.x86_64.rpm
警告:/media/zabbix-agent-3.2.6-1.el7.x86_64.rpm: 頭V4 RSA/SHA512 Signature, 密鑰 ID a14fe591: NOKEY
準備中... ? ? ? ? ? ? ? ? ? ? ? ? ################################# [100%]
正在升級/安裝...
? 1:zabbix-agent-3.2.6-1.el7 ? ? ? ? ################################# [100%]
????????被監(jiān)控端修改配置文件
[root@lvs1 ~]# vim /etc/zabbix/zabbix_agentd.conf
Hostname=LVS-01
ServerActive=200.0.0.1
Server=200.0.0.1
[root@lvs1 ~]# systemctl start zabbix-agent
[root@lvs1 ~]# systemctl enable zabbix-agent
Created symlink from /etc/systemd/system/multi-user.target.wants/zabbix-agent.service to /usr/lib/systemd/system/zabbix-agent.service.
[root@lvs1 ~]# netstat -anpt | grep agent
tcp ? ? ? 0 ? ? 0 0.0.0.0:10050 ? ? ? ? ? 0.0.0.0:* ? ? ? ? ? ? ? LISTEN ? ? 3764/zabbix_agentd ?
tcp6 ? ? ? 0 ? ? 0 :::10050 ? ? ? ? ? ? ? :::* ? ? ? ? ? ? ? ? ? LISTEN ? ? 3764/zabbix_agentd ?
5.3.1、web界面配置
????????新建主機,監(jiān)控LVS。查看”檢測中“→“圖形”選擇監(jiān)控的內(nèi)容就可以看到監(jiān)控的選項了,還可以自定義添加監(jiān)控內(nèi)容。
查看驗證
5.4、監(jiān)控web
????????被監(jiān)控端安裝軟件,配置基本相同,這里只監(jiān)控web2了。
[root@web2 ~]# rpm -ivh /media/zabbix-agent-3.2.6-1.el7.x86_64.rpm
警告:/media/zabbix-agent-3.2.6-1.el7.x86_64.rpm: 頭V4 RSA/SHA512 Signature, 密鑰 ID a14fe591: NOKEY
準備中... ? ? ? ? ? ? ? ? ? ? ? ? ################################# [100%]
正在升級/安裝...
? 1:zabbix-agent-3.2.6-1.el7 ? ? ? ? ################################# [100%]
[root@web2 ~]# vim /etc/zabbix/zabbix_agentd.conf
Hostname=web2
ServerActive=200.0.0.4
Server=200.0.0.4
[root@web2 ~]# systemctl start zabbix-agent
[root@web2 ~]# systemctl enable zabbix-agent
[root@web2 ~]# netstat -antp | grep agent
tcp ? ? ? 0 ? ? 0 0.0.0.0:10050 ? ? ? ? ? 0.0.0.0:* ? ? ? ? ? ? ? LISTEN ? ? 49560/zabbix_agentd
tcp6 ? ? ? 0 ? ? 0 :::10050 ? ? ? ? ? ? ? :::* ? ? ? ? ? ? ? ? ? LISTEN ? ? 49560/zabbix_agentd
5.4.1、web界面配置
????????新建主機,監(jiān)控web。查看”檢測中“→“圖形”選擇監(jiān)控的內(nèi)容就可以看到監(jiān)控的選項了,還可以自定義添加監(jiān)控內(nèi)容。
文章來源:http://www.zghlxwxcb.cn/news/detail-810752.html
文章來源地址http://www.zghlxwxcb.cn/news/detail-810752.html
到了這里,關于【群集】——keepalived+LVS-DR+GFS+zabbix的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!