GFS分布式存储

2023-09-13 11:09:57

glusterFS 简介

GFS 是一个分布式文件系统,只在扩展存储容量,提高性能,并且通过多个互联网络的存储节点的数据进行冗余,以确保数据的可用性和一致性

GFS由三个部分组成:

  1. 存储服务器

  2. 客户端以及 FNS/Samba 存储网关组成

  3. 无元数据服务器 :就是保存数据的地方

glusterFS特点

  1. 扩展性和高性能 :分布式的特性

  2. 高可用性 :冗余和备灾的能力

  3. 全局统一命名空间 :

  4. 弹性卷管理 :raid0、1、5、6、10

  5. 基于标准协议 :【NFS、CIFS、HTTP、FTP、SMB……】

glusterFS术语

  • brick :块

  • volume :逻辑卷 (分区/组)

  • fuse :内核模块,允许用户创建自己的文件系统(伪文件系统)

  • vfs :虚拟接口,内核空间对用户空间提供的访问磁盘接口

  • glusterd (后台管理进程):服务端 ,在存储集群中每个节点上都要运行

glusterFS工作原理

  1. 客户端或应用程序通过 GFS 的挂载点访问数据。

  2. linux系统内核通过 vfs API 收到请求并处理。

  3. vfs 将数据递交给 fuse 内核文件系统,并向系统注册一个实际的文件系统 fuse,而 fuse文件系统则是将数据通过 /dev/fuse 设备文件递交给了 GFS client 端。可以将 fuse文件系统理解为一个代理

  4. GlusterFS client 收到数据后,客户端根据配置文件的配置对数据进行处理

  5. 经过 GlusterFS client 处理后,通过网络将数据传递至远端的 GlusterFS Server,并且将数据写入到服务器存储设备上

  6. 通过虚拟接口,直接存入到文件系统

 

弹性HASH算法:

  • 通过HASH算法得到一个32为整数

  • 划分为N个连续的子空间,每个空间对应一个brick

弹性HASH算法的优点

  • 保证数据平均分布在每一个brick中

  • 解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈

glusterFS卷类型

  1. 分布式卷:以文件为单位通过 hash算法散列在各个brick中不具备冗余能力

    特点 :
    • 文件分布在不同的服务器,不具备冗余性

    • 更容易和廉价地扩展卷的大小

    • 单点故障会造成数据丢失

    • 依赖底层的数据保护

      要求:创建一个名为dis-volume的分布式卷,文件将根据HASH分布在server1:/dir1、server2:/dir2中:
      命令:gluster volume create  dis-volume serber1:/dir1 server2:/dir2

  2. 条带卷:把文件数据进行分块,轮询的分布在各个brick中,不具备冗余能力

    特点:
    • 数据被分割成更小块分布到块服务器群中的不同条带区

    • 分布减少了负载且更小的文件加速了存取的速度

    • 没有数据冗余

      要求:创建了一个名为stripe-volume的条带卷,文件将被分块轮询的存储在Server1:/dir1和Server2:/dir2两个Brick中
      命令:gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2
  3. 复制卷:把文件在各个brick中做镜像存储 ,具备冗余能力

    特点:
    • 卷中所有的服务器均保存一个完整的副本

    • 卷的副本数量可由客户创建的时候决定

    • 至少有两个块服务器或更多服务器

    • 具备冗余性

      要求:创建名为rep-volume的复制卷,文件将同时存储两个副本,分别在Server1:/dir1和Server2:/dir2两个Brick中
      命令:gluster volume create rep-volume replica 2 transport tcp serverl:/dirl server2:/dir2
  4. 分布式条带卷:不具备冗余能力,至少要4个brick【brick数量 >= 条代数的两倍 】

    特点:兼具分布式卷和条带卷的特点 

  5. 分布式复制卷:具备冗余能力,至少要4个brick【brick数量 >= 副本数的两倍 】

    特点 :兼具分布式卷和复制卷的特点

  6. 条带复制卷

  7. 分布式条带复制卷

扩展其他的维护命令:

1.查看卷列表(卷名):gluster volume list
2.查看所有卷的信息:gluster volume info
3.查看所有卷的状态:gluster volume status
4,停止一个卷:gluster volume stop dis-stripe
5,删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功:
   gluster yolume delete dis-stripe
6,设置卷的访问控制 
#仅拒绝:
   gluster volume set dis-rep auth,deny 192.168.86.11
#仅允许:
   gluster volume set dis-rep auth.allow 192.168.86.*
#设置192.168.86.0网段的所有IP地址都能访间dis-rep卷(分布式复制卷)

部署 glusterFS 集群

Node1节点:node1/192.168.86.11		  磁盘:/dev/sdb1		    挂载点:/data/sdb1
											/dev/sdc1					/data/sdc1
											/dev/sdd1					/data/sdd1
											/dev/sde1					/data/sde1
Node2节点:node2/192.168.86.22		  磁盘:/dev/sdb1			挂载点:/data/sdb1
											/dev/sdc1					/data/sdc1
											/dev/sdd1					/data/sdd1
											/dev/sde1					/data/sde1
Node3节点:node3/192.168.86.33		  磁盘:/dev/sdb1			挂载点:/data/sdb1
											/dev/sdc1					/data/sdc1
											/dev/sdd1					/data/sdd1
											/dev/sde1					/data/sde1
Node4节点:node4/192.168.86.66		  磁盘:/dev/sdb1			挂载点:/data/sdb1
											/dev/sdc1					/data/sdc1
											/dev/sdd1					/data/sdd1
											/dev/sde1					/data/sde1
客户端节点:192.168.86.77

准备环境(所有node节点上操作)

1.关闭防火墙
systemctl stop firewalld
setenforce 0

2.磁盘分区,并挂载
vim /opt/fdisk.sh
#!/bin/bash
NEWDEV=`ls /dev/sd* | grep -o 'sd[b-z]' | uniq`
for VAR in $NEWDEV
do
   echo -e "n\np\n\n\n\nw\n" | fdisk /dev/$VAR &> /dev/null
   mkfs.xfs /dev/${VAR}"1" &> /dev/null
   mkdir -p /data/${VAR}"1" &> /dev/null
   echo "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0" >> /etc/fstab
done
mount -a &> /dev/null
wq!
chmod +x /opt/fdisk.sh
cd /opt/
./fdisk.sh

3.修改主机名,配置/etc/hosts文件(#以Node1节点为例:)
hostnamectl set-hostname node1
su
echo "192.168.86.11 node1" >> /etc/hosts
echo "192.168.86.22 node2" >> /etc/hosts
echo "192.168.86.33 node3" >> /etc/hosts
echo "192.168.86.66 node4" >> /etc/hosts

安装、启动GlusterFS(所有node节点上操作)

cd /etc/yum.repos.d/
mkdir repo.bak
mv *.repo repo.bak
vim glfs.repo
[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1
yum clean all && yum makecache
yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
systemctl start glusterd.service 
systemctl enable glusterd.service
systemctl status glusterd.service

添加节点到存储信任池中(在 node1 节点上操作)(192.168.86.11)

#只要在一台Node节点上添加其它节点即可
gluster peer probe node1
gluster peer probe node2
gluster peer probe node3
gluster peer probe node4
#在每个Node节点上查看群集状态
gluster peer status

 创建卷

#根据规划创建如下卷:
卷名称 				卷类型				Brick
dis-volume			分布式卷			node1(/data/sdb1)、node2(/data/sdb1)
stripe-volume		条带卷			node1(/data/sdc1)、node2(/data/sdc1)
rep-volume			复制卷			node3(/data/sdb1)、node4(/data/sdb1)
dis-stripe			分布式条带卷		node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1)
dis-rep				分布式复制卷		node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1)
创建分布式卷
#创建分布式卷,没有指定类型,默认创建的是分布式卷
gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force	
#查看卷列表:gluster volume list
#启动新建分布式卷:gluster volume start dis-volume
#查看创建分布式卷信息:gluster volume info dis-volume

创建条带卷
#指定类型为 stripe,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是条带卷
gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
gluster volume start stripe-volume
gluster volume info stripe-volume

创建复制卷
#指定类型为 replica,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是复制卷
gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
gluster volume start rep-volume
gluster volume info rep-volume

创建分布式条带卷
#指定类型为 stripe,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式条带卷
gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
gluster volume start dis-stripe
gluster volume info dis-stripe

创建分布式复制卷
指定类型为 replica,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式复制卷
gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
gluster volume start dis-rep
gluster volume info dis-rep

 部署 Gluster 客户端(192.168.86.77)

1.安装客户端软件
#将gfsrepo 软件上传到/opt目下 
cd /etc/yum.repos.d/
mkdir repo.bak
mv *.repo repo.bak
vim glfs.repo
[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1
yum clean all && yum makecache
yum -y install glusterfs glusterfs-fuse
2.创建挂载目录
mkdir -p /test/{dis,stripe,rep,dis_stripe,dis_rep}
ls /test
3.配置 /etc/hosts 文件
echo "192.168.86.11 node1" >> /etc/hosts
echo "192.168.86.22 node2" >> /etc/hosts
echo "192.168.86.33 node3" >> /etc/hosts
echo "192.168.86.66 node4" >> /etc/hosts
4.挂载 Gluster 文件系统
#临时挂载
mount.glusterfs node1:dis-volume /test/dis
mount.glusterfs node1:stripe-volume /test/stripe
mount.glusterfs node1:rep-volume /test/rep
mount.glusterfs node1:dis-stripe /test/dis_stripe
mount.glusterfs node1:dis-rep /test/dis_rep
df -Th

 

测试 Gluster 文件系统 ,客户端操作 

cd /opt
dd if=/dev/zero of=/opt/demo1.log bs=1M count=40
dd if=/dev/zero of=/opt/demo2.log bs=1M count=40
dd if=/dev/zero of=/opt/demo3.log bs=1M count=40
dd if=/dev/zero of=/opt/demo4.log bs=1M count=40
dd if=/dev/zero of=/opt/demo5.log bs=1M count=40

ls -lh /opt

 

cp /opt/demo* /test/dis
cp /opt/demo* /test/stripe/
cp /opt/demo* /test/rep/
cp /opt/demo* /test/dis_stripe/
cp /opt/demo* /test/dis_rep/

2.查看文件分布

#查看分布式文件分布
[root@node1 ~]# ls -lh /data/sdb1
总用量 160M				
-rw-r--r-- 2 root root 40M 12月 18 14:50 demo1.log
-rw-r--r-- 2 root root 40M 12月 18 14:50 demo2.log
-rw-r--r-- 2 root root 40M 12月 18 14:50 demo3.log
-rw-r--r-- 2 root root 40M 12月 18 14:50 demo4.log

[root@node2 ~]# ll -h /data/sdb1
总用量 40M
-rw-r--r-- 2 root root 40M 12月 18 14:50 demo5.log
#查看条带卷文件分布
[root@node1 ~]# ls -lh /data/sdc1		#数据被分片50% 没副本 没冗余
总用量 101M
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo1.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo2.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo3.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo4.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo5.log

[root@node2 ~]# ll -h /data/sdc1		#数据被分片50% 没副本 没冗余
总用量 101M
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo1.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo2.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo3.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo4.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo5.log
#查看复制卷分布
[root@node3 ~]# ll -h /data/sdb1	#数据没有被分片 有副本 有冗余     
总用量 201M
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo1.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo2.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo3.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo4.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo5.log

[root@node4 ~]# ll -h /data/sdb1	#数据没有被分片 有副本 有冗余
总用量 201M
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo1.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo2.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo3.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo4.log
-rw-r--r-- 2 root root 40M 12月 18 14:51 demo5.log
#查看分布式条带卷分布
[root@node1 ~]# ll -h /data/sdd1	#数据被分片50% 没副本 没冗余
总用量 81M
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo1.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo2.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo3.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo4.log

[root@node2 ~]# ll -h /data/sdd1
总用量 81M
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo1.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo2.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo3.log
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo4.log

[root@node3 ~]# ll -h /data/sdd1
总用量 21M
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo5.log

[root@node4 ~]# ll -h /data/sdd1
总用量 21M
-rw-r--r-- 2 root root 20M 12月 18 14:51 demo5.log
#查看分布式复制卷分布				#数据没有被分片 有副本 有冗余
[root@node1 ~]# ll -h /data/sde1
总用量 161M
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo1.log
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo2.log
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo3.log
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo4.log

[root@node2 ~]# ll -h /data/sde1
总用量 161M
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo1.log
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo2.log
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo3.log
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo4.log

[root@node3 ~]# ll -h /data/sde1
总用量 41M
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo5.log

[root@node4 ~]# ll -h /data/sde1
总用量 41M
-rw-r--r-- 2 root root 40M 12月 18 14:52 demo5.log

破坏性测试:挂起 node2 节点

#在客户端上查看文件是否正常
分布式卷数据查看   
[root@localhost test]# ll /test/dis/		#在客户机上发现少了demo5.log文件,这个是在node2上的
总用量 163840
-rw-r--r-- 1 root root 41943040 12月 18 14:50 demo1.log
-rw-r--r-- 1 root root 41943040 12月 18 14:50 demo2.log
-rw-r--r-- 1 root root 41943040 12月 18 14:50 demo3.log
-rw-r--r-- 1 root root 41943040 12月 18 14:50 demo4.log

#条带卷
[root@localhost test7]# ll /test/stripe/		#无法访问,条带卷不具备冗余性
总用量 0

#分布式条带卷
[root@localhost test7]# ll /test/dis_stripe/		#无法访问,分布条带卷不具备冗余性
总用量 40960
-rw-r--r-- 1 root root 41943040 12月 18 14:51 demo5.log

#分布式复制卷
[root@localhost test7]# ll /test/dis_rep/	#可以访问,分布式复制卷具备冗余性
总用量 204800
-rw-r--r-- 1 root root 41943040 12月 18 14:52 demo1.log
-rw-r--r-- 1 root root 41943040 12月 18 14:52 demo2.log
-rw-r--r-- 1 root root 41943040 12月 18 14:52 demo3.log
-rw-r--r-- 1 root root 41943040 12月 18 14:52 demo4.log
-rw-r--r-- 1 root root 41943040 12月 18 14:52 demo5.log

 

更多推荐

vue如何实现多页面应用网页

Vue通常用于构建单页面应用(SPA),但是如果你需要构建多页面应用的话,也可以使用Vue。以下是实现多页面应用的一些建议:创建多个Vue实例为每个页面创建一个Vue实例,这样每个页面都可以拥有自己独立的Vue实例,它们之间不会相互影响。在每个页面上,你可以使用Vue组件来组织和管理该页面的所有逻辑。使用路由管理多页面

【吴恩达】prompt engineering(原则 迭代 文本概括 推断、订餐机器人)

简介Introduction基础的LLM训练的模型,问法国的首都什么,可能会将答案预测为“法国最大的城市是什么,法国的人口是多少”许多LLMs的研究和实践的动力正在指令调整的LLMs上。指令调整的LLMs已经被训练来遵循指令。因此,如果你问它,“法国的首都是什么?”,它更有可能输出“法国的首都是巴黎”。指令调整的LLM

设计模式-命令模式

“小度,小度,热死了请打开空调~”,“小度,小度,主人回家了~”,“小度,小度,播放一首炸雷~”,像小度类似的智能产品正在逐步改善我们的生活,只要我们一声令下,产品立马执行,毫不拖延。就如同老板的命令一样,系统需接收到命令后经过一系列分析后,会自动选择执行哪些命令,而发令者完全不关心内部是执行了哪些动作以及哪个具体方法

【校招VIP】排序算法之高级排序

考点介绍:在校招面试中,排序算法是经常被问到的。排序算法又比较多,很容易遗忘和混淆。有相当同学校招卡在排序的实现上,要么是核心代码实现不了,要么是实现方法串台。大厂的考察重点在快速排序等高级排序上。排序算法之高级排序-相关题目及解析内容可点击文章末尾链接查看!一、考点试题1.以下哪种不是非稳定排序算法A.归并排序B.快

分库分表知识点

分库分表专题1.概述1.1分库分表是什么小明是一家初创电商平台的开发人员,他负责卖家模块的功能开发,其中涉及了店铺、商品的相关业务,设计如下数据库:通过以下SQL能够获取到商品相关的店铺信息、地理区域信息SELECTp.*,r.[地理区域名称],s.[店铺名称],s.[信誉]FROM[商品信息]pLEFTJOIN[地理

【论文解读】Faster sorting algorithm

一、简要介绍基本的算法,如排序或哈希,在任何一天都被使用数万亿次。随着对计算需求的增长,这些算法的性能变得至关重要。尽管在过去的2年中已经取得了显著的进展,但进一步改进这些现有的算法路线的有效性对人类科学家和计算方法都是一个挑战。在这里,论文展示了人工智能是如何通过发现迄今为止未知的算法路线来超越目前的最先进的方法。为

你能想象在亚运赛场打《王者荣耀》吗?

作者:April叶快评:20年前,没人敢相信电竞加入亚运会,但在今年的杭州亚运会,电竞不仅正式成为官方竞赛项目,首次登场还一举成了亚运会“顶流”。你以为打游戏只会毁了你但其实打游戏也能为国争光要说今年杭州亚运会最大的“顶流”是谁那必须是这个项目不仅呼声最高门票价格也最高还是唯一要抽签才能买票的项目门票比演唱会的还难抢哪

自己实现一个简单的vhost-net

框架vhost在网络中的位置如图:要学习具体的框架可以看我之前的文章vhost-net--------深入了解Virtio-networking和vhost-net接下来,我们自己实现一个vhost.vhost-net代码在代码中写了详细注释,就直接上代码了#include<stdio.h>#include<strin

新消费降温,良品铺子还能走多远?

如果时间倒退到多年前,杨红春应该不会料到现在良品铺子的境遇。从2006年创立至今,前半段良品铺子经历了品牌升级,从线下发展到平台电商、社交电商,做APP客户端进行全渠道的营销,把一家曾入不敷出的小店,养成年利润过亿的高端零食大公司,似乎每一步都精准地踏在时代的节骨眼上。行业层面,国内零食市场规模也从杨红春刚创业时的数千

Next.js 13 服务器组件和应用目录完整指南

通过关于使用服务器组件和应用程序目录的最完整和最权威的教程,释放Next.js13的全部潜力。目录Next.js13带来了什么?服务器组件(RSC)布局ServerActions服务器操作EnhancedRouter增强型路由器什么是服务器组件?服务器组件与客户端组件定义服务器组件定义客户端组件App应用目录文件结构托

Docker 架构解析:理解 Docker 引擎和容器运行时

🌷🍁博主猫头虎带您GotoNewWorld.✨🍁🦄博客首页——猫头虎的博客🎐🐳《面试题大全专栏》文章图文并茂🦕生动形象🦖简单易学!欢迎大家来踩踩~🌺🌊《IDEA开发秘籍专栏》学会IDEA常用操作,工作效率翻倍~💐🌊《100天精通Golang(基础入门篇)》学会Golang语言,畅玩云原生,走遍大

热文推荐