成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁技術文章
文章詳情頁

CentOS7安裝GlusterFS集群的全過程

瀏覽:283日期:2023-03-07 14:39:59
目錄
  • 環境說明:
  • 服務器:
  • client:
  • 安裝:
  • 配置 GlusterFS 集群:
  • 查看集群狀態:
  • 創建數據存儲目錄:
  • 查看volume 狀態:
  • 創建GlusterFS磁盤:
  • GlusterFS 幾種volume 模式說明:
  • 再查看 volume 狀態:
  • gluster 性能調優:
  • 測試:
  • 其他的維護命令:
  • 總結

CentOS 7 GlusterFS

環境說明:

3臺機器安裝 GlusterFS 組成一個集群。

使用 docker volume plugin GlusterFS

服務器:

10.6.0.140
10.6.0.192
10.6.0.196

配置 hosts

10.6.0.140 swarm-manager
10.6.0.192 swarm-node-1
10.6.0.196 swarm-node-2

client:

10.6.0.94 node-94

安裝:

CentOS 安裝 glusterfs 非常的簡單

在三個節點都安裝glusterfs

yum install centos-release-glusteryum install -y glusterfs glusterfs-server glusterfs-fuseglusterfs-rdma

配置 GlusterFS 集群:

啟動 glusterFS

systemctl start glusterd.servicesystemctl enable glusterd.service

在 swarm-manager 節點上配置,將 節點 加入到 集群中。

[root@swarm-manager ~]#gluster peer probe swarm-managerpeer probe: success. Probe on localhost not needed[root@swarm-manager ~]#gluster peer probe swarm-node-1peer probe: success.[root@swarm-manager ~]#gluster peer probe swarm-node-2peer probe: success.

查看集群狀態:

[root@swarm-manager ~]#gluster peer statusNumber of Peers: 2Hostname: swarm-node-1Uuid: 41573e8b-eb00-4802-84f0-f923a2c7be79State: Peer in Cluster (Connected)Hostname: swarm-node-2Uuid: da068e0b-eada-4a50-94ff-623f630986d7State: Peer in Cluster (Connected)

創建數據存儲目錄:

[root@swarm-manager ~]#mkdir -p /opt/gluster/data[root@swarm-node-1 ~]# mkdir -p /opt/gluster/data[root@swarm-node-2 ~]# mkdir -p /opt/gluster/data

查看volume 狀態:

[root@swarm-manager ~]#gluster volume infoNo volumes present

創建GlusterFS磁盤:

[root@swarm-manager ~]#gluster volume create models replica 3 swarm-manager:/opt/gluster/data swarm-node-1:/opt/gluster/data swarm-node-2:/opt/gluster/data forcevolume create: models: success: please start the volume to access data

GlusterFS 幾種volume 模式說明:

一、 默認模式,既DHT, 也叫 分布卷: 將文件已hash算法隨機分布到 一臺服務器節點中存儲。

gluster volume create test-volume server1:/exp1 server2:/exp2

二、 復制模式,既AFR, 創建volume 時帶 replica x 數量: 將文件復制到 replica x 個節點中。

gluster volume create test-volume replica 2 transport tcp server1:/exp1 server2:/exp2

三、 條帶模式,既Striped, 創建volume 時帶 stripe x 數量: 將文件切割成數據塊,分別存儲到 stripe x 個節點中 ( 類似raid 0 )。

gluster volume create test-volume stripe 2 transport tcp server1:/exp1 server2:/exp2

四、 分布式條帶模式(組合型),最少需要4臺服務器才能創建。 創建volume 時 stripe 2 server = 4 個節點: 是DHT 與 Striped 的組合型。

gluster volume create test-volume stripe 2 transport tcp server1:/exp1 server2:/exp2 server3:/exp3 server4:/exp4

五、 分布式復制模式(組合型), 最少需要4臺服務器才能創建。 創建volume 時 replica 2 server = 4 個節點:是DHT 與 AFR 的組合型。

gluster volume create test-volume replica 2 transport tcp server1:/exp1 server2:/exp2 server3:/exp3 server4:/exp4

六、 條帶復制卷模式(組合型), 最少需要4臺服務器才能創建。 創建volume 時 stripe 2 replica 2 server = 4 個節點: 是 Striped 與 AFR 的組合型。

gluster volume create test-volume stripe 2 replica 2 transport tcp server1:/exp1 server2:/exp2 server3:/exp3 server4:/exp4

七、 三種模式混合, 至少需要8臺 服務器才能創建。 stripe 2 replica 2 , 每4個節點 組成一個 組。

gluster volume create test-volume stripe 2 replica 2 transport tcp server1:/exp1 server2:/exp2 server3:/exp3 server4:/exp4 server5:/exp5 server6:/exp6 server7:/exp7 server8:/exp8

再查看 volume 狀態:

[root@swarm-manager ~]#gluster volume infoVolume Name: modelsType: ReplicateVolume ID: e539ff3b-2278-4f3f-a594-1f101eabbf1eStatus: CreatedNumber of Bricks: 1 x 3 = 3Transport-type: tcpBricks:Brick1: swarm-manager:/opt/gluster/dataBrick2: swarm-node-1:/opt/gluster/dataBrick3: swarm-node-2:/opt/gluster/dataOptions Reconfigured:performance.readdir-ahead: on

啟動 models

[root@swarm-manager ~]#gluster volume start modelsvolume start: models: success

gluster 性能調優:

開啟 指定 volume 的配額: (models 為 volume 名稱)

gluster volume quota models enable

限制 models 中 / (既總目錄) 最大使用 80GB 空間

gluster volume quota models limit-usage / 80GB#設置 cache 4GBgluster volume set models performance.cache-size 4GB#開啟 異步 , 后臺操作gluster volume set models performance.flush-behind on#設置 io 線程 32gluster volume set models performance.io-thread-count 32#設置 回寫 (寫數據時間,先寫入緩存內,再寫入硬盤)gluster volume set models performance.write-behind on

部署GlusterFS客戶端并mount GlusterFS文件系統 (客戶端必須加入 glusterfs hosts 否則報錯。)

[root@node-94 ~]#yum install -y glusterfs glusterfs-fuse[root@node-94 ~]#mkdir -p /opt/gfsmnt[root@node-94 ~]#mount -t glusterfs swarm-manager:models /opt/gfsmnt/[root@node-94 ~]#df -h文件系統 容量 已用 可用 已用% 掛載點/dev/mapper/vg001-root 98G 1.2G 97G 2% /devtmpfs 32G 0 32G 0% /devtmpfs 32G 0 32G 0% /dev/shmtmpfs 32G 130M 32G 1% /runtmpfs 32G 0 32G 0% /sys/fs/cgroup/dev/mapper/vg001-opt 441G 71G 370G 17% /opt/dev/sda2 497M 153M 344M 31% /boottmpfs 6.3G 0 6.3G 0% /run/user/0swarm-manager:models 441G 18G 424G 4% /opt/gfsmnt

測試:

DHT 模式 客戶端 創建一個 1G 的文件

[root@node-94 ~]#time dd if=/dev/zero of=hello bs=1000M count=1記錄了1+0 的讀入記錄了1+0 的寫出1048576000字節(1.0 GB)已復制,9.1093 秒,115 MB/秒real 0m9.120suser 0m0.000ssys 0m1.134s

AFR 模式 客戶端 創建一個 1G 的文件

[root@node-94 ~]#time dd if=/dev/zero of=hello.txt bs=1024M count=1錄了1+0 的讀入記錄了1+0 的寫出1073741824字節(1.1 GB)已復制,27.4566 秒,39.1 MB/秒real 0m27.469suser 0m0.000ssys 0m1.065s

Striped 模式 客戶端 創建一個 1G 的文件

[root@node-94 ~]#time dd if=/dev/zero of=hello bs=1000M count=1記錄了1+0 的讀入記錄了1+0 的寫出1048576000字節(1.0 GB)已復制,9.10669 秒,115 MB/秒real 0m9.119suser 0m0.001ssys 0m0.953s

條帶復制卷模式 (Number of Bricks: 1 x 2 x 2 = 4) 客戶端 創建一個 1G 的文件

[root@node-94 ~]#time dd if=/dev/zero of=hello bs=1000M count=1記錄了1+0 的讀入記錄了1+0 的寫出1048576000字節(1.0 GB)已復制,17.965 秒,58.4 MB/秒real 0m17.978suser 0m0.000ssys 0m0.970s

分布式復制模式 (Number of Bricks: 2 x 2 = 4) 客戶端 創建一個 1G 的文件

[root@node-94 ~]#time dd if=/dev/zero of=haha bs=100M count=10記錄了10+0 的讀入記錄了10+0 的寫出1048576000字節(1.0 GB)已復制,17.7697 秒,59.0 MB/秒real 0m17.778suser 0m0.001ssys 0m0.886s

針對 分布式復制模式還做了如下測試:

4K隨機寫 測試:

安裝 fio (yum -y install libaio-devel (否則運行fio 會報錯engine libaio not loadable, 已安裝需重新編譯,否則一樣報錯))

[root@node-94 ~]#fio -ioengine=libaio -bs=4k -direct=1 -thread -rw=randwrite -size=10G -filename=1.txt -name="EBS 4KB randwrite test" -iodepth=32 -runtime=60write: io=352204KB, bw=5869.9KB/s, iops=1467, runt= 60002msecWRITE: io=352204KB, aggrb=5869KB/s, minb=5869KB/s, maxb=5869KB/s, mint=60002msec, maxt=60002msec

4K隨機讀 測試:

fio -ioengine=libaio -bs=4k -direct=1 -thread -rw=randread -size=10G -filename=1.txt -name="EBS 4KB randread test" -iodepth=8 -runtime=60read: io=881524KB, bw=14692KB/s, iops=3672, runt= 60001msecREAD: io=881524KB, aggrb=14691KB/s, minb=14691KB/s, maxb=14691KB/s, mint=60001msec, maxt=60001msec

512K 順序寫 測試:

fio -ioengine=libaio -bs=512k -direct=1 -thread -rw=write -size=10G -filename=512.txt -name="EBS 512KB seqwrite test" -iodepth=64 -runtime=60write: io=3544.0MB, bw=60348KB/s, iops=117, runt= 60135msecWRITE: io=3544.0MB, aggrb=60348KB/s, minb=60348KB/s, maxb=60348KB/s, mint=60135msec, maxt=60135msec

其他的維護命令:

1. 查看GlusterFS中所有的volume:

[root@swarm-manager ~]#gluster volume list

2. 刪除GlusterFS磁盤:

[root@swarm-manager ~]#gluster volume stop models #停止名字為 models 的磁盤[root@swarm-manager ~]#gluster volume delete models #刪除名字為 models 的磁盤

注: 刪除 磁盤 以后,必須刪除 磁盤( /opt/gluster/data ) 中的 ( .glusterfs/ .trashcan/ )目錄。

否則創建新 volume 相同的 磁盤 會出現文件 不分布,或者 類型 錯亂 的問題。

3. 卸載某個節點GlusterFS磁盤

[root@swarm-manager ~]#gluster peer detach swarm-node-2

4. 設置訪問限制,按照每個volume 來限制

[root@swarm-manager ~]#gluster volume set models auth.allow 10.6.0.*,10.7.0.*

5. 添加GlusterFS節點:

[root@swarm-manager ~]#gluster peer probe swarm-node-3[root@swarm-manager ~]#gluster volume add-brick models swarm-node-3:/opt/gluster/data

注:如果是復制卷或者條帶卷,則每次添加的Brick數必須是replica或者stripe的整數倍

6. 配置卷

[root@swarm-manager ~]# gluster volume set

7. 縮容volume:

先將數據遷移到其它可用的Brick,遷移結束后才將該Brick移除:

[root@swarm-manager ~]#gluster volume remove-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data start

在執行了start之后,可以使用status命令查看移除進度:

[root@swarm-manager ~]#gluster volume remove-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data status

不進行數據遷移,直接刪除該Brick:

[root@swarm-manager ~]#gluster volume remove-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data commit

注意,如果是復制卷或者條帶卷,則每次移除的Brick數必須是replica或者stripe的整數倍。

擴容:

gluster volume add-brick models swarm-node-2:/opt/gluster/data

8. 修復命令:

[root@swarm-manager ~]#gluster volume replace-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data commit -force

9. 遷移volume:

[root@swarm-manager ~]#gluster volume replace-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data startpause 為暫停遷移[root@swarm-manager ~]#gluster volume replace-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data pauseabort 為終止遷移[root@swarm-manager ~]#gluster volume replace-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data abortstatus 查看遷移狀態[root@swarm-manager ~]#gluster volume replace-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data status遷移結束后使用commit 來生效[root@swarm-manager ~]#gluster volume replace-brick models swarm-node-2:/opt/gluster/data swarm-node-3:/opt/gluster/data commit

10. 均衡volume:

[root@swarm-manager ~]#gluster volume models lay-outstart[root@swarm-manager ~]#gluster volume models start[root@swarm-manager ~]#gluster volume models startforce[root@swarm-manager ~]#gluster volume models status[root@swarm-manager ~]#gluster volume models stop

總結

到此這篇關于CentOS7安裝GlusterFS集群的文章就介紹到這了,更多相關CentOS7安裝GlusterFS內容請搜索以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持!

標簽: Linux Apache
成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久
久久女同精品一区二区| 久久99伊人| 国产麻豆日韩| 国产精品伦理在线| 99久久精品国产麻豆演员表| 日韩一区二区在线免费观看| 国产原创一区二区| 欧美在线999| 日本sm残虐另类| 99国产精品久久久久久久成人热| 国产精品福利电影一区二区三区四区| 91网址在线看| 久久久久亚洲综合| 91在线一区二区| 国产亚洲婷婷免费| 91蜜桃在线免费视频| 国产亚洲综合在线| 欧美日韩国语| 中文字幕亚洲欧美在线不卡| 亚洲成人直播| 艳妇臀荡乳欲伦亚洲一区| 国产精品尤物| 午夜电影网一区| 欧洲生活片亚洲生活在线观看| 日一区二区三区| 欧洲精品在线观看| 国产一区二区视频在线播放| 日韩欧美一级二级三级久久久| 成人免费毛片高清视频| 久久亚区不卡日本| 午夜天堂精品久久久久| 国产精品久久久久久久久免费桃花| 亚洲国产1区| 亚洲成人一区二区在线观看| 91久久精品一区二区| 国内精品写真在线观看| 在线综合亚洲欧美在线视频| 成人禁用看黄a在线| 国产日韩欧美高清在线| 国产精品豆花视频| 亚洲欧美成人一区二区三区| 午夜亚洲精品| 久久国产精品第一页| 日韩欧美国产综合| 欧美高清一区| 亚洲视频免费观看| 美女视频一区免费观看| 狠狠色狠狠色综合系列| 欧美一卡2卡三卡4卡5免费| 高清国产一区二区三区| 国产亚洲欧美日韩日本| 亚洲三级视频| 日韩成人免费在线| 91麻豆精品国产综合久久久久久| jlzzjlzz亚洲女人18| 亚洲国产精品v| 免费亚洲一区| 久久精品国产精品亚洲综合| 欧美美女黄视频| 色综合色综合色综合色综合色综合 | 中文字幕在线不卡一区二区三区 | 一区二区av| 日韩**一区毛片| 在线视频中文字幕一区二区| 成人永久看片免费视频天堂| 国产精品久久久久久久久动漫| 久久精品二区三区| 国产精品99久| 国产精品久久久久久一区二区三区 | 99re视频精品| 亚洲一区二区av电影| 欧美精品一级二级| 欧美成人国产| 舔着乳尖日韩一区| 欧美一区二区在线看| 欧美色综合网| 亚洲1区2区3区视频| 91麻豆精品国产无毒不卡在线观看 | 精品在线你懂的| 中文字幕国产一区| 色婷婷亚洲婷婷| 丁香啪啪综合成人亚洲小说 | 成人免费的视频| 亚洲精品高清视频在线观看| 欧美高清精品3d| 亚洲韩日在线| 国产精品一区二区久激情瑜伽| 国产精品久久毛片| 欧美另类变人与禽xxxxx| 国产精品国产一区二区| 美女性感视频久久| 中文字幕久久午夜不卡| 欧美性极品少妇| 欧美午夜精品久久久久免费视| 日韩电影免费在线看| 国产三区在线成人av| 久久亚洲欧洲| 欧美日韩综合精品| 国产一区在线不卡| 伊人色综合久久天天人手人婷| 欧美一级高清片在线观看| 国产精品久久久久久久久久直播| 成人免费毛片嘿嘿连载视频| 天天操天天色综合| 中文字幕免费不卡| 51午夜精品国产| 免费视频一区| 欧美少妇一区| 国产91丝袜在线播放九色| 亚洲午夜电影网| 久久蜜臀中文字幕| 欧美三区在线视频| 亚洲开发第一视频在线播放| 成人免费视频视频在线观看免费| 午夜av一区二区三区| 国产精品久久久久久户外露出| 91麻豆精品国产自产在线观看一区| 亚洲女同同性videoxma| 女人天堂亚洲aⅴ在线观看| 激情五月激情综合网| 亚洲一区二区视频| 中文字幕+乱码+中文字幕一区| 91精品国产综合久久香蕉的特点| 久久不射网站| 在线日本成人| 色综合中文字幕国产 | 欧美日韩一区二区在线观看视频 | 91亚洲精华国产精华精华液| 国产一区二区视频在线播放| 亚洲成av人片www| 日韩理论电影院| 国产欧美日韩卡一| 日韩精品一区国产麻豆| 欧美日韩五月天| 久久综合九色| 国产偷国产偷亚洲高清97cao| 欧美二区视频| 粉嫩aⅴ一区二区三区四区五区| 日本不卡高清视频| 亚洲免费视频中文字幕| 国产亚洲欧洲一区高清在线观看| 日韩美女天天操| 欧美日韩你懂得| 91久久精品一区二区三| 亚洲一区二区三区午夜| 激情婷婷久久| 欧美午夜在线| 欧美人与禽猛交乱配| av不卡免费在线观看| 国产经典欧美精品| 精品亚洲成a人| 麻豆91在线播放| 五月天久久比比资源色| 一区二区三区四区蜜桃| 亚洲三级在线看| 国产精品女上位| 国产欧美一区二区精品久导航| 日韩午夜小视频| 欧美精品国产精品| 欧美日韩视频在线一区二区 | 欧美三日本三级三级在线播放| 久久综合给合久久狠狠色| 噜噜爱69成人精品| 亚洲欧美不卡| 亚洲欧美视频| 久久国产精品99国产| 亚洲影院免费| 国产精品美女诱惑| 亚洲影视在线| 免费在线国产精品| 久久精品人人| 色婷婷狠狠综合| 91福利在线播放| 欧美色视频一区| 欧美色图激情小说| 欧美一区二区在线视频| 91精品国产综合久久精品app| 7777女厕盗摄久久久| 日韩美女视频一区二区在线观看| 欧美一区二区久久久| 日韩精品专区在线| 久久久久久久综合| 国产精品区一区二区三区| 国产精品不卡在线| 亚洲一区二区三区中文字幕在线| 亚洲一二三四在线| 亚洲高清免费在线| 日韩高清在线不卡| 韩国三级中文字幕hd久久精品| 国产精品一区不卡| 97久久超碰精品国产| 韩国亚洲精品| 国产日韩欧美一区| 久久国产一区| 欧美日韩国产首页| 精品毛片乱码1区2区3区| 中文字幕欧美激情| 亚洲国产精品久久人人爱| 日本三级亚洲精品| 国产传媒一区在线|