国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【群集】——keepalived+LVS-DR+GFS+zabbix

這篇具有很好參考價值的文章主要介紹了【群集】——keepalived+LVS-DR+GFS+zabbix。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

??拓撲圖

??案例實施

??1、環(huán)境配置

??1.1、配置IP地址

??1.2、GFS添加磁盤

??2、Keepalived

??2.1、配置主調(diào)度器

??2.2、配置備份調(diào)度器

??3、LVS-DR

??3.1、負載均衡

??3.1.1、關閉icmp重定向

??3.1.2、配置負載分配策略

??3.2、配置主調(diào)度器

??3.3、配置備份調(diào)度器

??4、GFS

??4.1、web端

??4.1.1、web配置VIP

??4.1.2、關閉部分arp應答

??4.1.3、配置httpd

??4.2、配置GFS端

??4.2.1、創(chuàng)建復制卷

??4.2.2、web掛載復制卷

??4.2.3、測試

??5、zabbix

??5.1、安裝

??5.1.1、創(chuàng)建zabbix源

??5.1.2、安裝MariaDB

??5.1.3、安裝Zabbix

??5.1.4、配置zabbix

??5.2 、zabbix界面優(yōu)化

??5.3、監(jiān)控LVS

??5.3.1、web界面配置

??5.4、監(jiān)控web

??5.4.1、web界面配置


??:事實證明大蝦還是好吃的。

拓撲圖

gfs2增加磁盤,架構群集,服務器,linux,centos

案例實施

1、環(huán)境配置

????????環(huán)境要求:如圖所示配置IP地址,所有主機橋接到vmnet1,并關閉防火墻和Selinux。GFS兩臺服務器分別添加兩塊20G的磁盤,客戶端使用宿主機。

1.1、配置IP地址

????????關于IP的配置這里以web1為例,只有web1和web2添加兩塊網(wǎng)卡,相對比其他服務器的配置只是多一塊需要配置的網(wǎng)卡,其他服務器正常配置IP即可。

[root@web1 ~]# systemctl stop firewalld
[root@web1 ~]# systemctl disable firewalld
[root@web1 ~]# setenforce 0
[root@web1 ~]# cd /etc/sysconfig/network-scripts/
[root@web1 network-scripts]# vim ifcfg-ens33 
......省略部分內(nèi)容
BOOTPROTO=static
NAME=ens33
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.1.3
NETMASK=255.255.255.0
[root@web1 network-scripts]# cp ifcfg-ens33 ifcfg-ens36
[root@web1 network-scripts]# vim ifcfg-ens36
......省略部分內(nèi)容
BOOTPROTO=static
NAME=ens36
DEVICE=ens36
ONBOOT=yes
IPADDR=200.0.0.3
NETMASK=255.255.255.0
[root@web1 network-scripts]# systemctl restart network

1.2、GFS添加磁盤

????????關于磁盤可以開機前添加,會自動識別磁盤。若開機后添加可以執(zhí)行以下命令識別磁盤。

echo "- - -" >> /sys/class/scsi_host/host0/scan
echo "- - -" >> /sys/class/scsi_host/host1/scan
echo "- - -" >> /sys/class/scsi_host/host2/scan 

????????到目前的配置,web1和web2可以ping通全網(wǎng),而公網(wǎng)和私網(wǎng)則不能相互ping通。GFS1和GFS2每臺服務器上都有一塊sdb磁盤。

2、Keepalived

????????搭建Keepalived實現(xiàn)Lvs的雙機熱備。本次使用yum方式安裝keepalived和ipvsadm管理工具。LVS1和LVS2都需要那種,這里以LVS1為例。

[root@lvs1 ~]# yum -y install keepalived ipvsadm
[root@lvs1 ~]# systemctl enable keepalived

2.1、配置主調(diào)度器

[root@lvs1 ~]# cd /etc/keepalived/
[root@lvs1 keepalived]# cp keepalived.conf keepalived.conf.back
[root@lvs1 keepalived]# vim keepalived.conf
! Configuration File for keepalived
?
global_defs {
 ......省略部分內(nèi)容
 ? router_id LVS1           //主調(diào)度器名稱
}
 ? 
vrrp_instance VI_1 {
 ?  state MASTER            //主調(diào)度器的熱備狀態(tài)
 ?  interface ens33         //修改接口網(wǎng)卡
 ?  virtual_router_id 51
 ?  priority 100
 ?  advert_int 1
 ?  authentication {
 ? ? ?  auth_type PASS
 ? ? ?  auth_pass 1111
 ?  }
 ?  virtual_ipaddress {
 ? ? ?  200.0.0.100         //配置漂移地址
 ?  }
} ? 
[root@lvs1 keepalived]# systemctl start keepalived
[root@lvs1 keepalived]# ip addr show dev ens33          //查看漂移地址
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
 ?  link/ether 00:0c:29:16:da:97 brd ff:ff:ff:ff:ff:ff
 ?  inet 200.0.0.1/24 brd 200.0.0.255 scope global ens33
 ? ? ? valid_lft forever preferred_lft forever
 ?  inet 200.0.0.100/32 scope global ens33              //此時漂移地址在主調(diào)度器上
 ? ? ? valid_lft forever preferred_lft forever
 ?  inet6 fe80::c3cf:e745:3647:394a/64 scope link 
 ? ? ? valid_lft forever preferred_lft forever

2.2、配置備份調(diào)度器

[root@lvs2 ~]# cd /etc/keepalived/
[root@lvs2 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@lvs2 keepalived]# vim keepalived.conf
! Configuration File for keepalived
?
global_defs {
......省略部分內(nèi)容
 ? router_id LVS2               //備份調(diào)度器名稱
} ?
?
vrrp_instance VI_1 {
 ?  state BACKUP                //備份調(diào)度器的熱備狀態(tài)
 ?  interface ens33             //修改接口網(wǎng)卡
 ?  virtual_router_id 51
 ?  priority 99                 //修改優(yōu)先級別
 ?  advert_int 1
 ?  authentication {
 ? ? ?  auth_type PASS
 ? ? ?  auth_pass 1111
 ?  }
 ?  virtual_ipaddress {
 ? ? ?  200.0.0.100             //配置漂移地址
 ?  }
} ?
[root@lvs2 keepalived]# systemctl start keepalived
[root@lvs2 keepalived]# ip addr show dev ens33              //查看漂移地址
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
 ?  link/ether 00:0c:29:55:f7:8d brd ff:ff:ff:ff:ff:ff
 ?  inet 200.0.0.2/24 brd 200.0.0.255 scope global ens33
 ? ? ? valid_lft forever preferred_lft forever
 ?  inet6 fe80::15ae:efbc:5794:874b/64 scope link 
 ? ? ? valid_lft forever preferred_lft forever

????????備份服務器仍處于備份狀態(tài),因此備份服務器不會為ens33接口添加VIP地址。當主服務器失效時,VIP地址才會過來,達到了雙機熱備的功能。

3、LVS-DR

3.1、負載均衡

????????兩臺LVS都需要配置選項3.1中的內(nèi)容(關閉ICMP重定向,配置策略)。

3.1.1、關閉icmp重定向

[root@lvs1 ~]# vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
[root@lvs1 ~]# sysctl -p

3.1.2、配置負載分配策略

[root@lvs1 ~]# ipvsadm -C               //清除原有策略
[root@lvs1 ~]# ipvsadm -A -t 200.0.0.100:80 -s rr
[root@lvs1 ~]# ipvsadm -a -t 200.0.0.100:80 -r 200.0.0.3 -g -w 1
[root@lvs1 ~]# ipvsadm -a -t 200.0.0.100:80 -r 200.0.0.4 -g -w 1
[root@lvs1 ~]# ipvsadm-save             //保存策略
-A -t lvs1:http -s rr
-a -t lvs1:http -r 200.0.0.3:http -g -w 1
-a -t lvs1:http -r 200.0.0.4:http -g -w 1
[root@lvs1 ~]# systemctl enable ipvsadm

3.2、配置主調(diào)度器

????????通過配置文件添加兩臺web節(jié)點。

[root@lvs1 ~]# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {            //在vrrp配置模塊下面添加節(jié)點
......省略部分內(nèi)容
 ?  virtual_ipaddress {
 ? ? ?  200.0.0.100
 ?  }
}
......省略部分內(nèi)容
virtual_server 200.0.0.100 80 {             //以下內(nèi)容需要修改添加節(jié)點信息
 ?  delay_loop 15
 ?  lb_algo rr 
 ?  lb_kind DR 
 ?  protocol TCP
 ? ?
 ?  real_server 200.0.0.3 80 {
 ? ? ?  weight 1
 ? ? ?  TCP_CHECK {
 ? ? ? ? ?  connect_port 80
 ? ? ? ? ?  connect_timeout 3
 ? ? ? ? ?  nb_get_retry 3
 ? ? ? ? ?  delay_before_retry 4
 ? ? ?  } ? 
 ?  }
 ?  real_server 200.0.0.4 80 {
 ? ? ?  weight 1
 ? ? ?  TCP_CHECK {
 ? ? ? ? ?  connect_port 80
 ? ? ? ? ?  connect_timeout 3
 ? ? ? ? ?  nb_get_retry 3
 ? ? ? ? ?  delay_before_retry 4
 ? ? ?  }
 ?  }
}
[root@lvs1 ~]# systemctl restart keepalived

3.3、配置備份調(diào)度器

????????相同的方法配置完主調(diào)度器后,接著配置備份調(diào)度器。

[root@lvs2 ~]# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {                        //在vrrp配置模塊下面添加節(jié)點
......省略部分內(nèi)容
 ?  virtual_ipaddress {
 ? ? ?  200.0.0.100
 ?  }
}
......省略部分內(nèi)容
virtual_server 200.0.0.100 80 {             //以下內(nèi)容需要修改添加節(jié)點信息
 ?  delay_loop 15
 ?  lb_algo rr 
 ?  lb_kind DR 
 ?  protocol TCP
 ? ?
 ?  real_server 200.0.0.3 80 {
 ? ? ?  weight 1
 ? ? ?  TCP_CHECK {
 ? ? ? ? ?  connect_port 80
 ? ? ? ? ?  connect_timeout 3
 ? ? ? ? ?  nb_get_retry 3
 ? ? ? ? ?  delay_before_retry 4
 ? ? ?  } ? 
 ?  }
 ?  real_server 200.0.0.4 80 {
 ? ? ?  weight 1
 ? ? ?  TCP_CHECK {
 ? ? ? ? ?  connect_port 80
 ? ? ? ? ?  connect_timeout 3
 ? ? ? ? ?  nb_get_retry 3
 ? ? ? ? ?  delay_before_retry 4
 ? ? ?  }
 ?  }
}
[root@lvs2 ~]# systemctl restart keepalived

4、GFS

4.1、web端

????????GFS的配置如下表所示,兩臺服務器實現(xiàn)復制卷,復制卷的名稱為share。

????????在兩個web服務器將share復制卷掛載到web服務器的/var/www/html下。

IP 主機名 掛載盤 掛載目錄
192.168.1.1 gfs1 /dev/sdb(20G) /b3
192.168.1.2 gfs2 /dev/sdb(20G) /b3

4.1.1、web配置VIP

????????每個web服務器上都需要配置漂移地址(VIP)。

[root@web1 ~]# cd /etc/sysconfig/network-scripts/
[root@web1 network-scripts]# cp ifcfg-lo ifcfg-lo:0
[root@web1 network-scripts]# vim ifcfg-lo:0
DEVICE=lo:0
IPADDR=200.0.0.100
NETMASK=255.255.255.255
ONBOOT=yes
[root@web1 network-scripts]# ifup lo:0
[root@web1 network-scripts]# ifconfig lo:0
lo:0: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
 ? ? ?  inet 200.0.0.100  netmask 255.255.255.255
 ? ? ?  loop  txqueuelen 1  (Local Loopback)
?
[root@web1 network-scripts]# vim /etc/rc.local
......省略部分內(nèi)容
/sbin/route add -host 200.0.0.100 dev lo:0          //添加一條路由
[root@web1 network-scripts]# route add -host 200.0.0.100 dev lo:0

4.1.2、關閉部分arp應答

[root@web1 ~]# vim /etc/sysctl.conf
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
[root@web1 ~]# sysctl -p

4.1.3、配置httpd

[root@web1 ~]# yum -y install httpd
[root@web1 ~]# echo "111" > /var/www/html/index.html 
[root@web1 ~]# systemctl start httpd
[root@web1 ~]# systemctl enable httpd

4.2、配置GFS端

????????兩臺GFS服務器都需要配置,以下gfs1和gfs2配置相同,我以gfs1為例,gfs2相反配置即可。

[root@gfs1 ~]# vim /etc/hosts                   //GFS本地節(jié)點解析
192.168.1.1 node1
192.168.1.2 node2
[root@gfs1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
[root@gfs1 ~]# systemctl start glusterd
[root@gfs1 ~]# systemctl enable glusterd
[root@gfs1 ~]# gluster peer probe node1         //本身在gfs1上操作,所以node1也可以不執(zhí)行
peer probe: success. Probe on localhost not needed
[root@gfs1 ~]# gluster peer probe node2
peer probe: success.
[root@gfs1 ~]# gluster peer status              //查看GFS群集狀態(tài)
Number of Peers: 1
?
Hostname: node2
Uuid: 16bc8386-0168-4c21-8ed3-e762f1bd8c77
State: Peer in Cluster (Connected)

4.2.1、創(chuàng)建復制卷

????????使用fdisk命令創(chuàng)建一個20G的磁盤空間為sdb1并格式化。兩臺GFS服務器創(chuàng)建成復制卷,卷名為share。

[root@gfs1 ~]# fdisk /dev/sdb
n→p→回車→回車→回車→w保存退出
[root@gfs1 ~]# mkfs.xfs /dev/sdb1
[root@gfs1 ~]# gluster volume create share replica 2 node1:/b1 node2:/b1 force
volume create: share: success: please start the volume to access data
[root@gfs1 ~]# gluster volume start share
volume start: share: success

4.2.2、web掛載復制卷

web1配置如下:

[root@web1 ~]# yum -y install glusterfs glusterfs-fuse
[root@web1 ~]# vim /etc/hosts
192.168.1.1 node1
192.168.1.2 node2
[root@web1 ~]# mount -t glusterfs node1:share /var/www/html/
[root@web1 ~]# df -h
文件系統(tǒng) ? ? ? ? ? ? 容量  已用  可用 已用% 掛載點
/dev/mapper/cl-root ? 17G  3.8G ? 14G ? 23% /
devtmpfs ? ? ? ? ? ? 473M ? ? 0  473M ?  0% /dev
tmpfs ? ? ? ? ? ? ?  489M  144K  489M ?  1% /dev/shm
tmpfs ? ? ? ? ? ? ?  489M  7.1M  482M ?  2% /run
tmpfs ? ? ? ? ? ? ?  489M ? ? 0  489M ?  0% /sys/fs/cgroup
/dev/sda1 ? ? ? ? ? 1014M  173M  842M ? 18% /boot
tmpfs ? ? ? ? ? ? ? ? 98M ? 12K ? 98M ?  1% /run/user/0
/dev/sr0 ? ? ? ? ? ?  53M ? 53M ? ? 0  100% /media
node1:share ? ? ? ? ? 17G  3.8G ? 14G ? 23% /var/www/html

web2配置如下:

[root@web2 ~]# yum -y install glusterfs glusterfs-fuse
[root@web2 ~]# vim /etc/hosts
192.168.1.1 node1
192.168.1.2 node2
[root@web2 ~]# mount -t glusterfs node1:share /var/www/html/
[root@web2 ~]# df -hT
文件系統(tǒng) ? ? ? ? ?  類型 ? ? ? ? ?  容量  已用  可用 已用% 掛載點
/dev/mapper/cl-root xfs ? ? ? ? ? ?  17G  3.9G ? 14G ? 23% /
devtmpfs ? ? ? ? ?  devtmpfs ? ? ?  473M ? ? 0  473M ?  0% /dev
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 489M  144K  489M ?  1% /dev/shm
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 489M  7.1M  482M ?  2% /run
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ? 489M ? ? 0  489M ?  0% /sys/fs/cgroup
/dev/sda1 ? ? ? ? ? xfs ? ? ? ? ?  1014M  173M  842M ? 18% /boot
tmpfs ? ? ? ? ? ? ? tmpfs ? ? ? ? ?  98M ? 12K ? 98M ?  1% /run/user/0
/dev/sr0 ? ? ? ? ?  iso9660 ? ? ? ?  53M ? 53M ? ? 0  100% /media
node1:share ? ? ? ? fuse.glusterfs ? 17G  3.8G ? 14G ? 23% /var/www/html

????????到目前為止,復制卷就已經(jīng)創(chuàng)建完了。下一步需要測試了,在掛載盤中創(chuàng)建文件,查看網(wǎng)頁內(nèi)容。

4.2.3、測試

????????在上面掛了盤以后,之前的內(nèi)容就已經(jīng)消失了,所以還得從新創(chuàng)建一個新的網(wǎng)頁內(nèi)容。在web1上創(chuàng)建一個內(nèi)容,內(nèi)容會同步到web2上,客戶端查看的內(nèi)容就會是后面創(chuàng)建的內(nèi)容。

[root@web1 ~]# echo "666" > /var/www/html/index.html
......web2查看網(wǎng)頁內(nèi)容
[root@web2 ~]# cat /var/www/html/index.html 
666?

gfs2增加磁盤,架構群集,服務器,linux,centos

5、zabbix

????????無監(jiān)控不運維,最后搭建Zabbix服務器分別監(jiān)控LVS服務器和web服務器的性能。

5.1、安裝

5.1.1、創(chuàng)建zabbix源

????????掛盤后將文件復制到創(chuàng)建的目錄中,yum倉庫目錄指向zabbix。

[root@zabbix ~]# mkdir /zabbix
[root@zabbix ~]# cp /media/* /zabbix
[root@zabbix ~]# cd /zabbix
[root@zabbix zabbix]# createrepo .
[root@zabbix ~]# rm -rf /etc/yum.repos.d/*
[root@zabbix ~]# vim /etc/yum.repos.d/a.repo
[a]
name=a
baseurl=file:///zabbix
gpgcheck=0

5.1.2、安裝MariaDB

[root@zabbix ~]# yum -y install mariadb-server mariadb
[root@zabbix ~]# systemctl start mariadb
[root@zabbix ~]# systemctl enable mariadb
[root@zabbix ~]# mysqladmin -u root password "123"

5.1.3、安裝Zabbix

[root@zabbix ~]# yum -y install zabbix-server-mysql zabbix-web-mysql zabbix-agent
[root@zabbix ~]# mysql -u root -p
Enter password:             //輸入密碼
MariaDB [(none)]> create database zabbix character set utf8 collate utf8_bin;
Query OK, 1 row affected (0.00 sec)
MariaDB [(none)]> grant all privileges on zabbix.* to zabbix@localhost identified by "456";
Query OK, 0 rows affected (0.00 sec)

5.1.4、配置zabbix

[root@zabbix ~]# zcat /usr/share/doc/zabbix-server-mysql-3.4.1/create.sql.gz | mysql -uzabbix -p zabbix 
Enter password: 
[root@zabbix ~]# cp /etc/zabbix/zabbix_server.conf /etc/zabbix/zabbix_server.conf.bak
[root@zabbix ~]# vim /etc/zabbix/zabbix_server.conf
DBHost=localhost
DBPassword=456
[root@zabbix ~]# cp /etc/zabbix/zabbix_agentd.conf /etc/zabbix/.zabbix_agent.conf.bak
[root@zabbix ~]# vim /etc/zabbix/zabbix_agentd.conf 
Server=200.0.0.10                       //客戶端被動等待指定服務器來查詢數(shù)據(jù)
ServerActive=200.0.0.10                 //客戶端主動提交數(shù)據(jù)到指定的服務器
Hostname=Zabbix server                  //主機名稱
[root@zabbix ~]# systemctl start zabbix-server
[root@zabbix ~]# systemctl enable zabbix-server
Created symlink from /etc/systemd/system/multi-user.target.wants/zabbix-server.service to /usr/lib/systemd/system/zabbix-server.service.
[root@zabbix ~]# systemctl start zabbix-agent
[root@zabbix ~]# systemctl enable zabbix-agent
Created symlink from /etc/systemd/system/multi-user.target.wants/zabbix-agent.service to /usr/lib/systemd/system/zabbix-agent.service.
[root@zabbix ~]# systemctl start httpd
[root@zabbix ~]# systemctl enable httpd
Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.
[root@zabbix ~]# vim /etc/httpd/conf.d/zabbix.conf
 ? ? ?  php_value date.timezone Asia/Shanghai
[root@zabbix ~]# systemctl restart httpd

5.2 、zabbix界面優(yōu)化

????????瀏覽器輸入http://200.0.0.10/zabbix,用戶名默認為Admin密碼為zabbix,登錄即可見到默認頁面。為了頁面的美觀可以修改中文字體,修改亂碼等。

gfs2增加磁盤,架構群集,服務器,linux,centos

5.3、監(jiān)控LVS

????????被監(jiān)控端安裝軟件,配置基本相同,這里先只監(jiān)控LVS主服務器了。

[root@lvs1 ~]# mount /dev/cdrom /media
mount: /dev/sr0 寫保護,將以只讀方式掛載
[root@lvs1 ~]#  rpm -ivh /media/zabbix-agent-3.2.6-1.el7.x86_64.rpm 
警告:/media/zabbix-agent-3.2.6-1.el7.x86_64.rpm: 頭V4 RSA/SHA512 Signature, 密鑰 ID a14fe591: NOKEY
準備中... ? ? ? ? ? ? ? ? ? ? ? ?  ################################# [100%]
正在升級/安裝...
 ? 1:zabbix-agent-3.2.6-1.el7 ? ? ? ? ################################# [100%]

????????被監(jiān)控端修改配置文件

[root@lvs1 ~]# vim /etc/zabbix/zabbix_agentd.conf
Hostname=LVS-01
ServerActive=200.0.0.1
Server=200.0.0.1
[root@lvs1 ~]# systemctl start zabbix-agent
[root@lvs1 ~]# systemctl enable zabbix-agent
Created symlink from /etc/systemd/system/multi-user.target.wants/zabbix-agent.service to /usr/lib/systemd/system/zabbix-agent.service.
[root@lvs1 ~]# netstat -anpt | grep agent
tcp ? ? ?  0 ? ?  0 0.0.0.0:10050 ? ? ? ? ? 0.0.0.0:* ? ? ? ? ? ? ? LISTEN ? ?  3764/zabbix_agentd ?
tcp6 ? ? ? 0 ? ?  0 :::10050 ? ? ? ? ? ? ?  :::* ? ? ? ? ? ? ? ? ?  LISTEN ? ?  3764/zabbix_agentd ?

5.3.1、web界面配置

????????新建主機,監(jiān)控LVS。查看”檢測中“→“圖形”選擇監(jiān)控的內(nèi)容就可以看到監(jiān)控的選項了,還可以自定義添加監(jiān)控內(nèi)容。

查看驗證

gfs2增加磁盤,架構群集,服務器,linux,centos

gfs2增加磁盤,架構群集,服務器,linux,centos

5.4、監(jiān)控web

????????被監(jiān)控端安裝軟件,配置基本相同,這里只監(jiān)控web2了。

[root@web2 ~]# rpm -ivh /media/zabbix-agent-3.2.6-1.el7.x86_64.rpm 
警告:/media/zabbix-agent-3.2.6-1.el7.x86_64.rpm: 頭V4 RSA/SHA512 Signature, 密鑰 ID a14fe591: NOKEY
準備中... ? ? ? ? ? ? ? ? ? ? ? ?  ################################# [100%]
正在升級/安裝...
 ? 1:zabbix-agent-3.2.6-1.el7 ? ? ? ? ################################# [100%]
[root@web2 ~]# vim /etc/zabbix/zabbix_agentd.conf
Hostname=web2
ServerActive=200.0.0.4
Server=200.0.0.4
[root@web2 ~]# systemctl start zabbix-agent
[root@web2 ~]# systemctl enable zabbix-agent
[root@web2 ~]# netstat -antp | grep agent
tcp ? ? ?  0 ? ?  0 0.0.0.0:10050 ? ? ? ? ? 0.0.0.0:* ? ? ? ? ? ? ? LISTEN ? ?  49560/zabbix_agentd 
tcp6 ? ? ? 0 ? ?  0 :::10050 ? ? ? ? ? ? ?  :::* ? ? ? ? ? ? ? ? ?  LISTEN ? ?  49560/zabbix_agentd 

5.4.1、web界面配置

????????新建主機,監(jiān)控web。查看”檢測中“→“圖形”選擇監(jiān)控的內(nèi)容就可以看到監(jiān)控的選項了,還可以自定義添加監(jiān)控內(nèi)容。

gfs2增加磁盤,架構群集,服務器,linux,centos

gfs2增加磁盤,架構群集,服務器,linux,centos文章來源地址http://www.zghlxwxcb.cn/news/detail-810752.html

到了這里,關于【群集】——keepalived+LVS-DR+GFS+zabbix的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 部署 LVS-DR 群集

    部署 LVS-DR 群集

    本章內(nèi)容: - 了解 LVS-DR 群集的工作原理 - 會構建 LVS-DR 負載均衡群集 2.1 LVS-DR 集群 LVS-DR ( Linux Virtual Server Director Server )工作模式,是生產(chǎn)環(huán)境中最常用的一 種工作模式。 2.1.1 . LVS-DR 工作原理 LVS-DR 模式, Director Server 作為群集的訪問入口,不作為網(wǎng)關使用,節(jié)點 Directo

    2024年01月16日
    瀏覽(16)
  • 【LVS】2、部署LVS-DR群集

    【LVS】2、部署LVS-DR群集

    LVS-DR數(shù)據(jù)包的流向分析 1.客戶端發(fā)送請求到負載均衡器,請求的數(shù)據(jù)報文到達內(nèi)核空間; 2.負載均衡服務器和正式服務器在同一個網(wǎng)絡中,數(shù)據(jù)通過二層數(shù)據(jù)鏈路層來傳輸; 3.內(nèi)核空間判斷數(shù)據(jù)包的目標IP是本機VIP,此時IP虛擬服務器比對數(shù)據(jù)包請求的服務是否是集群服務,是

    2024年02月12日
    瀏覽(15)
  • 02.部署LVS-DR群集

    02.部署LVS-DR群集

    了解 LVS-DR 群集的工作原理 會構建 LVS-DR 負載均衡群集 ????????LVS-DR( Linux Virtual Server Director Server )工作模式,是生產(chǎn)環(huán)境中最常用的一種工作模式。 ????????LVS-DR 模式, Director Server 作為群集的訪問入口,不作為網(wǎng)關使用,節(jié)點 Director Server 與 Real Server 需要在同一

    2024年01月21日
    瀏覽(16)
  • CentOS 7 構建 LVS-DR 群集

    一、LVS-DR集群摘要 LVS(Linux Virtual Server)是一個用于構建可擴展和高可用性的負載均衡集群的軟件。它基于Linux操作系統(tǒng),并提供了一種將網(wǎng)絡流量分發(fā)到多個后端服務器的機制。 二、基本工作原理 配置負載均衡器:在LVS集群中,首先需要配置一個或多個負載均衡器(Load

    2024年02月13日
    瀏覽(21)
  • lvs-dr模式+keepalived

    lvs-dr模式+keepalived

    一,keepalived概述 ????????Keepalived 是一個基于VRRP協(xié)議來實現(xiàn)的LVS服務高可用方案,可以解決靜態(tài)路由出現(xiàn)的單點故障問題。 ????????在一個LVS服務集群中通常有主服務器(MASTER)和備份服務器(BACKUP)兩種角色的服務器,但是對外表現(xiàn)為一個虛擬IP,主服務器會發(fā)送

    2024年02月11日
    瀏覽(19)
  • 對比 LVS 負載均衡群集的 NAT 模式和 DR 模式,基于 CentOS 7 構建 LVS-DR 群集

    對比 LVS 負載均衡群集的 NAT 模式和 DR 模式,基于 CentOS 7 構建 LVS-DR 群集

    LVS(Linux Virtual Server)是一個開源的負載均衡軟件,它支持多種負載均衡算法,包括 NAT 模式和 DR (Direct Routing)模式。下面分別介紹一下這兩種模式的優(yōu)勢: 1.NAT 模式 在 NAT 模式中,LVS 負載均衡器將客戶端請求的 IP 地址和端口轉換為后端服務器的 IP 地址和端口,因此后端

    2024年02月03日
    瀏覽(21)
  • 基于 CentOS 7 構建 LVS-DR 群集。

    本次實驗我準備了4臺虛擬機 DS:DIP--192.168.163.138 ? ? ? ? VIP--192.168.163.200 RIP1(web1)--192.168.163.140 RIP2(web2)--192.168.163.141 Client:user--192.168.163.142 RIP1 RIP2 使用Client驗證 RIP1: RIP2同上 下載ipvsadm 添加ipvsadm服務 RIP1和RIP2皆如此 在Client上進行測試 成功訪問到服務

    2024年02月13日
    瀏覽(21)
  • 基于 CentOS 7 構建 LVS-DR 群集

    基于 CentOS 7 構建 LVS-DR 群集

    LVS-DR模式工作原理 首先,來自客戶端計算機CIP的請求被發(fā)送到Director的VIP。 然后Director使用相同的VIP目的IP地址將 請求發(fā)送到集群節(jié)點或真實服務器。 然后,集群某個節(jié)點將回復該數(shù)據(jù)包,并將該數(shù)據(jù)包直接發(fā)送到客戶端計算機(不經(jīng)過Director),并且以此回復數(shù)據(jù)包使用的

    2024年02月13日
    瀏覽(18)
  • 簡單認識LVS-DR負載群集和部署實例

    簡單認識LVS-DR負載群集和部署實例

    1、客戶端發(fā)送請求到 Director Server(負載均衡器),請求的數(shù)據(jù)報文(源 IP 是 CIP,目標 IP 是 VIP)到達內(nèi)核空間。 2、Director Server 和 Real Server 在同一個網(wǎng)絡中,數(shù)據(jù)通過二層數(shù)據(jù)鏈路層來傳輸。 3、內(nèi)核空間判斷數(shù)據(jù)包的目標IP是本機VIP,此時IPVS(IP虛擬服務器)比對數(shù)據(jù)包請

    2024年02月13日
    瀏覽(18)
  • 構建 LVS-DR 群集、配置nginx負載均衡。

    構建 LVS-DR 群集、配置nginx負載均衡。

    目錄 一、基于 CentOS 7 構建 LVS-DR 群集 1、準備四臺虛擬機 2、配置負載調(diào)度器(192.168.2.130) 3、部署共享存儲(192.168.2.133) 4、配置兩個Web服務器(192.168.2.131、192.168.2.132) 測試集群 二、配置nginx負載均衡。 1、安裝部署nginx 2、負載均衡服務器192.168.2.130 3、web1服務器192.168.2

    2024年02月12日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包