国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Keepalived高可用集群、Keepalive+LVS

這篇具有很好參考價值的文章主要介紹了Keepalived高可用集群、Keepalive+LVS。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Keepalived高可用集群

高可用集群簡介

什么是高可用集群?

高可用集群 (High Availability;Cluster,簡稱HA Cluster) ,是指以減少服務(wù)中斷時間為目的的服務(wù)器集群技術(shù)。它通過保護用戶的業(yè)務(wù)程序?qū)ν獠婚g斷提供的服務(wù),把因軟件、硬件、人為造成的故障對業(yè)務(wù)的影響降低到最小程度。

自動切換/故障轉(zhuǎn)移(FailOver)

自動切換階段某一主機如果確認對方故障,則正常主機除繼續(xù)進行原來的任務(wù)還將依據(jù)各種容錯備援模式接管預先設(shè)定的備援作業(yè)程序,并進行后續(xù)的程序及服務(wù)。
通俗地說,即當A無法為客戶服務(wù)時,系統(tǒng)能夠自動地切換,使B能夠及時地頂上繼續(xù)為客戶提供服務(wù),且客戶感覺不到這個為他提供服務(wù)的對象已經(jīng)更換
通過上面判斷節(jié)點故障后,將高可用集群資源(如VIP、httpd等)從該不具備法定票數(shù)的集群節(jié)點轉(zhuǎn)移到故障轉(zhuǎn)移域( Failover Domain,可以接收故障資源轉(zhuǎn)移的節(jié)點)。

自動偵測/腦裂

自動偵測階段由主機上的軟件通過冗余偵測線,經(jīng)由復雜的監(jiān)聽程序,邏輯判斷,來相互偵測對方運行的情況。
常用的方法是:集群各節(jié)點間通過心跳信息判斷節(jié)點是否出現(xiàn)故障。
腦裂:在高可用(HA)系統(tǒng)中,當聯(lián)系2個節(jié)點的“心跳線"斷開時,本來為一整體、動作協(xié)調(diào)的HA系統(tǒng),就分裂成為2個獨立的個體。由于相互失去了聯(lián)系,都以為是對方出了故障。兩個節(jié)點上的HA軟件像“裂腦人"一樣,爭搶“"共享資源"、爭起“應(yīng)用服務(wù)",就會發(fā)生嚴重后果——或者共享資源被瓜分、2邊"服務(wù)"都起不來了"或者2邊"服務(wù)"都起來了,但同時讀寫“共享存儲",導致數(shù)據(jù)損壞(常見如數(shù)據(jù)庫輪詢著的聯(lián)機日志出錯)。
腦裂解決方案:1.添加冗余的心跳線 2.啟用磁盤鎖 3. 設(shè)置仲裁機制 4. 腦裂的監(jiān)控報警

其他高可用方案:heartbeat、pacemaker、piranha(web頁面)

Keepalived

keepalived是什么?
keepalived是集群管理中保證集群高可用的一個服務(wù)軟件,用來防止單點故障.

keepalived工作原理

keepalived是以VRRP協(xié)議為實現(xiàn)基礎(chǔ)的,VRRP全稱Virtual Router Redundancy Protocol,即虛擬路由冗余協(xié)議。

將N臺提供相同功能的服務(wù)器組成一個服務(wù)器組,這個組里面有一個master和個backup,master上面有一個對外提供服務(wù)的vip(該服務(wù)器所在局域網(wǎng)內(nèi)其他機器的默認路由為該vip) ,master會發(fā)組播,當backup收不到vrrp包時就認為master宕掉了,這時就需要根據(jù)VRRP的優(yōu)先級來選舉一個backup當master

keepalived主要有三個模塊

分別是core. check和vrrp。
core模塊為keepalived的核心,負責主進程的啟動、維護以及全局配置文件的加載和解析。check負責健康檢查,包括常見的各種檢查方式。vrrp模塊是來實現(xiàn)VRRP協(xié)議的。

實戰(zhàn)案例1 keepalived + nginx

準備:server1 server2 關(guān)閉防火墻 selinux

server1:

yum install -y keepalived
cp /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf-backup  //備份原文件
vim /etc/keepalived/keepalived.conf  //把內(nèi)容全刪了 ggdG 然后配置如下
! Configuration File for keepalived
global_defs {
router_id 1
}

#vrrp_script chk_nginx {
#script "/etc/keepalived/ck_ng.sh"
#interval 2
#weight -5
#fall 3
#}

vrrp_instance VI_1 {
state MASTER
interface ens33
mcast_src_ip 192.168.70.130
virtual_router_id 55
priority 100
advert_int 1

authentication {
auth_type PASS
auth_pass 123456
}

virtual_ipaddress {
192.168.70.140
}

#track_script {
#chk_nginx
#}

}
yum install -y nginx
systemctl enable nginx
systemctl start nginx
vim /var/share/nginx/html/index.html  //自行修改頁面 以便區(qū)分server2的nginx
curl -i 192.168.70.130
systemctl start keepalived
systemctl enable keepalived

server2:

yum install -y keepalived
cp /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf-backup  //備份原文件
vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
router_id 2
}

#vrrp_script chk_nginx {
#script "/etc/keepalived/ck_ng.sh"
#interval 2
#weight -5
#fall 3
#}

vrrp_instance VI_1 {
state BACKUP
interface ens33
mcast_src_ip 192.168.70.132
virtual_router_id 55
priority 99
advert_int 1

authentication {
auth_type PASS
auth_pass 123456
}

virtual_ipaddress {
192.168.70.140
}

#track_script {
#chk_nginx
#}

}
yum install -y nginx
systemctl enable nginx
systemctl start nginx
curl -i localhost
systemctl start keepalived
systemctl enable keepalived

測試:

[root@localhost local]# curl -i 192.168.70.140  //返回的應(yīng)該是server1 nginx的內(nèi)容

可以試著把server1斷網(wǎng),vmware設(shè)置 取消網(wǎng)絡(luò)連接 再測試訪問 這時候返回的應(yīng)該是server2 nginx的內(nèi)容

關(guān)于keepalived對nginx狀態(tài)未知的問題

恢復之前的實驗。啟動兩臺主機的keepalived和nginx。確保頁面訪問正常。關(guān)閉master的nginx服務(wù)。systemctl stop nginx繼續(xù)訪問VIP,請問頁面是否會切換到backup呢?keepalived并不會關(guān)心nginx的狀態(tài),原因是keepalived監(jiān)控的是接口ip狀態(tài)。無法監(jiān)控nginx服務(wù)狀態(tài)。解決方案:

1、監(jiān)控腳本

server1 server2 添加nginx監(jiān)控腳本

vim /etc/keepalived/ck_ng.sh
#!/bin/bash
#檢查nginx進程是否存在
counter=`ps -C nginx --no-heading | wc -l`
if [ ${counter} = 0 ] ;then
        systemctl restart nginx
        sleep 5
        counter2=`ps -C nginx --no-heading | wc -l`
        if [ ${counter2} = 0 ] ;then
                systemctl stop keepalived
        fi
fi
chmod +x /etc/keepalived/ck_ng.sh

修改keepalived.conf文件 把上述寫的注釋都取消 server1 server2 都取消注釋 其他內(nèi)容不變

vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
router_id 1
}

vrrp_script chk_nginx {
script "/etc/keepalived/ck_ng.sh"
interval 2
weight -5
fall 3
}

vrrp_instance VI_1 {
state BACKUP
interface ens33
mcast_src_ip 192.168.70.130
virtual_router_id 55
priority 100
advert_int 1

authentication {
auth_type PASS
auth_pass 123456
}

virtual_ipaddress {
192.168.70.140
}

track_script {
chk_nginx
}

}
systemctl restart keepalived

測試:

systemctl stop nginx
systemctl status nginx

如果測試結(jié)果并沒按預期執(zhí)行

在vrrp_script chk_nginx{} 中間加debug
tail -f /var/log/messages  //查看日志
如果出現(xiàn)Aug 27 20:59:44 localhost Keepalived_vrrp[51703]: /etc/keepalived/ck_ng.sh exited due to signal 15
說明生命探測advert_int設(shè)置時間太短了 增加5秒試試 相應(yīng)interval必須大于advert_int的時間設(shè)置6秒試試,兩臺server都必須改過來!

實戰(zhàn)案例2 keepalived + lvs集群

1.在master上安裝配置keepalived ipvsadm

yum install keepalived ipvsadm -y

2.在master上修改配置文件

vim /etc/keepalived/keepalived.conf

! Configuration File for keepalived
global_defs {
router_id Director 1
}

#Keepalived
vrrp_instance VI_1 {
state MASTER
interface ens33
virtual_router_id 51
priority 100
advert_int 1

authentication {
auth_type PASS
auth_pass 123456
}

virtual_ipaddress {
192.168.70.140/24 dev ens33
}
}

#LVS
virtual_server 192.168.70.140 80 {
delay_loop 3  # 將 Keepalived 故障轉(zhuǎn)移時的延遲檢測循環(huán)次數(shù)設(shè)置為 5 次
lb_algo rr
lb_kind DR
protocol TCP

real_server 192.168.70.133 80 {
weight 1
TCP_CHECK {
connect_timeout 5
}
}

real_server 192.168.70.134 80 {
weight 1
TCP_CHECK{
connect_timeout 3
}
}

}

3.在backup安裝配置keepalived ipvsadm

yum install keepalived ipvsadm -y

4.在backup上修改配置文件

vim /etc/keepalived/keepalived.conf

! Configuration File for keepalived
global_defs {
router_id Director 2
}

#Keepalived
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 51
priority 99
advert_int 1

authentication {
auth_type PASS
auth_pass 123456
}

virtual_ipaddress {
192.168.70.140/24 dev ens33
}
}

#LVS
virtual_server 192.168.70.140 80 {
delay_loop 3  # 將 Keepalived 故障轉(zhuǎn)移時的延遲檢測循環(huán)次數(shù)設(shè)置為 5 次
lb_algo rr
lb_kind DR
protocol TCP

real_server 192.168.70.133 80 {
weight 1
TCP_CHECK {
connect_timeout 5
}
}

real_server 192.168.70.134 80 {
weight 1
TCP_CHECK{
connect_timeout 3
}
}

}

5.啟動兩臺設(shè)備的keepalived

systemctl start keepalived
systemctl enable keepalived

6.兩臺realserver 安裝并啟動httpd

yum install -y httpd
systemtl start httpd
systemtl enable httpd

7.新建lo:0文件 回環(huán)接口

vim /etc/sysconfig/network-scripts/ifcfg-lo:0  //配置如下

DEVICE=lo:0
IPADDR=192.168.70.140
NETMASK=255.255.255.255
ONBOOT=yes

8.配置路由 讓每次開機都配置上回環(huán)接口
不管誰訪問140 都讓回環(huán)接口來處理

vim /etc/rc.local  //添加如下

/sbin/route add -host 192.168.70.140 dev lo:0

9.配置 sysctl.conf文件

vim /etc/sysctl.conf

net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2

10.將lo:0文件拷貝到另一臺realserver

scp /etc/sysconfig/network-scripts/ifcfg-lo:0 192.168.70.134:/etc/sysconfig/network-scripts/ifcfg-lo:0
scp /etc/sysctl.conf 192.168.70.134:/etc/sysctl.conf

10.另一臺一樣配置rc.local文件

vim /etc/rc.local  //添加

/sbin/route add -host 192.168.70.140 dev lo:0

11.一樣配置sysctl.conf文件

vim /etc/sysctl.conf

net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2

12.測試

瀏覽器訪問192.168.70.140 再關(guān)閉master的網(wǎng)絡(luò)再試試 還能訪問表示我們實驗成功了

LVS+Keepalived 常見面試題

1.什么是集群?集群分為哪些類型?列舉代表的產(chǎn)品。2.有些負載均衡集群服務(wù)?他們有什么區(qū)別?
3.LVS-DR和LVS-NAT的工作原理。
4.keepalived的工作原理。
5.高可用集群有哪些產(chǎn)品。他們的區(qū)別。
6.負載均衡集群的策略有哪些?能否舉例說明?文章來源地址http://www.zghlxwxcb.cn/news/detail-690551.html

到了這里,關(guān)于Keepalived高可用集群、Keepalive+LVS的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • LVS+KeepAlived高可用負載均衡集群

    LVS+KeepAlived高可用負載均衡集群

    高可用集群只需要在調(diào)度器上多進行一臺或兩臺(服務(wù)器本身的價格比較昂貴,一般備用的服務(wù)器的數(shù)量會和當前業(yè)務(wù)創(chuàng)造的價值對等)的設(shè)置,就可避免因調(diào)度器癱瘓業(yè)務(wù)中斷的風險,所以實現(xiàn)了真正的高可用的效果。 1.普通群集 普通的群集的部署是通過一臺度器控制調(diào)配

    2024年02月09日
    瀏覽(22)
  • LVS+Keepalived架構(gòu)(負載均衡高可用集群)

    LVS+Keepalived架構(gòu)(負載均衡高可用集群)

    普通的群集的部署是通過 一臺調(diào)度器控制調(diào)配多臺節(jié)點服務(wù)器 進行業(yè)務(wù)請求的處理,但是僅僅是一臺調(diào)度器,就會存在極大的單點故障風險,當該調(diào)度器的鏈路或則調(diào)度器本身出現(xiàn)故障時,就會導致整個業(yè)務(wù)的無法正常進行 ?而高可用集群是由 一臺主調(diào)度器和一臺或多臺備

    2024年02月12日
    瀏覽(25)
  • 如何部署LVS + keepalived 負載均衡高可用集群

    如何部署LVS + keepalived 負載均衡高可用集群

    一、LVS架構(gòu) 概念 L4和L7負載均衡的區(qū)別 keepalive故障自動切換 搶占與非搶占 二、keepalived管理LVS負載均衡器 LVS集中節(jié)點的健康檢查 三、部署LVS + keeplived 高可用集群 第一步 關(guān)閉防火墻和安全機制 ? ? ? ? ?第二步 安裝工具 第三步 手動配置模塊 第四步 編輯策略配置文件 第五

    2024年02月13日
    瀏覽(25)
  • 使用keepalived解決lvs的單點故障高可用集群

    功能強大 轉(zhuǎn)發(fā)策略比較多 適合大型的網(wǎng)絡(luò)高可用 使用keepalived解決lvs的單點故障高可用集群 準備6臺虛擬機,2臺做LVS主備調(diào)度器,2臺做web服務(wù)器,1臺做存儲,1臺客戶機驗證 LVS主備調(diào)度器 master(192.168.1.225)backup(192.168.1.226) web1(192.168.1.221)web2(192.168.1.223) 存儲(192.

    2024年02月11日
    瀏覽(18)
  • nginx-2-講解與使用
Keepalived+LVS+nginx搭建nginx高可用集群

    nginx-2-講解與使用 Keepalived+LVS+nginx搭建nginx高可用集群

    1:配置文件優(yōu)化,達到nginx最大性能。 2:日志文件 /usr/local/nginx/logs/access.log 會一直增大,所有日志都會記錄在這。磁盤滿了會出現(xiàn)各種問題。定時器腳本清除各種日志。 3:整個訪問流程,負載均衡,主從搭建(keepalived)組合 , 單機+(keepalived)組合,郵件發(fā)送,靜態(tài)資源訪問

    2024年02月06日
    瀏覽(24)
  • lvs DR模式+基于五臺服務(wù)器部署keepalived + lvs DR模式架構(gòu)(前端帶路由)負載均衡的高可用集群

    lvs DR模式+基于五臺服務(wù)器部署keepalived + lvs DR模式架構(gòu)(前端帶路由)負載均衡的高可用集群

    lvs DR 模式+基于五臺服務(wù)器部署keepalived + lvs DR模式架構(gòu)(前端帶路由)負載均衡的高可用集群 DR 模式一: 客戶端:172.20.26.167 LVS服務(wù)器:172.20.26.198 后端服務(wù)器:172.20.26.218 后端服務(wù)器:172.20.26.210 兩臺后端服務(wù)器 yum install nginx tcpdump -y echo \\\"this is 26.218 page\\\" /usr/share/nginx/html/index

    2024年02月19日
    瀏覽(37)
  • LVS+Keepalived 高可用群集

    LVS+Keepalived 高可用群集

    一.背景 ? 企業(yè)應(yīng)用中,單點服務(wù)器承擔應(yīng)用存在單點故障的危險 ? 單點故障一旦發(fā)生,企業(yè)服務(wù)將發(fā)生中斷,造成極大的危害 ? 為解決單點故障,而引入keepalived 專為LVS和HA設(shè)計的一款健康檢查工具 支持故障自動切換(Failover) 支持節(jié)點健康狀態(tài)檢查(Health Checking) 判斷LVS負載

    2024年04月12日
    瀏覽(27)
  • keepalived+lvs實現(xiàn)高可用

    目錄 環(huán)境 1.配置real-server服務(wù)器 2.配置keepalived和lvs 3.測試: keepalived+lvs實現(xiàn)高可用: lvs可以監(jiān)控后端服務(wù)器,當服務(wù)器宕機之后可以對其進行故障切換。 keepalived是對VIP進行檢測,當某一個主機的vip錯誤,則會將vip漂移到另一個節(jié)點上。 5臺主機---(兩臺主機--keeplived,lvs?

    2024年02月12日
    瀏覽(25)
  • LVS +Keepalived高可用群集

    LVS +Keepalived高可用群集

    Keepalived是一種用于實現(xiàn)高可用性的軟件,它主要用于服務(wù)器和網(wǎng)絡(luò)設(shè)備的故障轉(zhuǎn)移和負載均衡。Keepalived使用VRRP協(xié)議來實現(xiàn)故障轉(zhuǎn)移,并結(jié)合健康檢查和負載均衡算法來確保服務(wù)的高可用性。 Keepalived 是一個基于VRRP協(xié)議來實現(xiàn)的LVS服務(wù)高可用方案,可以解決靜態(tài)路由出現(xiàn)的單

    2024年02月13日
    瀏覽(18)
  • LVS +Keepalived 高可用群集部署

    LVS +Keepalived 高可用群集部署

    在這個高度信息化的 IT 時代,企業(yè)的生產(chǎn)系統(tǒng)、業(yè)務(wù)運營、銷售和支持,以及日常管理等環(huán)節(jié)越來越依賴于計算機信息和服務(wù),對高可用(HA)技術(shù)的應(yīng)用需求不斷提高,以便提供持續(xù)的、不間斷的計算機系統(tǒng)或網(wǎng)絡(luò)服務(wù)。 Keepalived是一個基于VRRP協(xié)議來實現(xiàn)的LVS服務(wù)高可用方

    2024年02月09日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包