Ceph分布式存储工作部署仪表盘及测试

举报
tea_year 发表于 2025/08/23 07:20:03 2025/08/23
【摘要】 Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系统的项目。经过多年的发展之后,已得到众多云计算和存储厂商的支持,成为应用最广泛的开源分布式存储平台。随着云计算的发展,ceph乘上了OpenStack的春风,进而成为了开源社区受关注较高的项目之一。Ceph可以将多台服务器组成一个超大集群,把这些机器中的磁盘资源整合到一块儿,形成一个大的资源池(PB级别),...






Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系统的项目。经过多年的发展之后,已得到众多云计算和存储厂商的支持,成为应用最广泛的开源分布式存储平台。随着云计算的发展,ceph乘上了OpenStack的春风,进而成为了开源社区受关注较高的项目之一。Ceph可以将多台服务器组成一个超大集群,把这些机器中的磁盘资源整合到一块儿,形成一个大的资源池(PB级别),然后按需分配给应用使用。

新加磁盘

把ceph1-3 关机 poweroff

在mon新加两块磁盘,不分区,专门使用(前面讲过,如何增加磁盘)

部署 osd 存储节点(ceph-1...3)

查看磁盘:

lsblk 

#如果是利旧的硬盘,则需要先擦净(删除分区表)磁盘(可选) 无数据的新硬盘跳过

disk zap:这是 ceph-deploy 的子命令,作用是清除指定磁盘上的分区表和数据,使其恢复为原始状态(类似于初始化磁盘)。这个操作会彻底删除磁盘上的所有数据,包括分区信息。

#ceph-1...3

cd /etc/ceph

ceph-deploy disk zap ceph-1 /dev/sdb
ceph-deploy disk zap ceph-1 /dev/sdc
ceph-deploy disk zap ceph-2 /dev/sdb
ceph-deploy disk zap ceph-2 /dev/sdc
ceph-deploy disk zap ceph-3 /dev/sdb
ceph-deploy disk zap ceph-3 /dev/sdc


11)添加osd节点(在admin操作)

整个命令成功在 ceph-1 -2 -3 节点上用 /dev/sdb 磁盘创建了 ID 为 0 的 OSD,采用 LVM 管理磁盘、Bluestore 作为存储引擎,并完成了权限配置、密钥生成、服务启动等所有必要步骤。日志中的警告多为临时状态或配置路径问题,未影响最终结果,OSD 已可正常加入集群提供存储服务。

ceph-deploy --overwrite-conf osd create ceph-1 --data /dev/sdb
ceph-deploy --overwrite-conf osd create ceph-1 --data /dev/sdc
ceph-deploy --overwrite-conf osd create ceph-1 --data /dev/sdd

ceph-deploy --overwrite-conf osd create ceph-2 --data /dev/sdb
ceph-deploy --overwrite-conf osd create ceph-2 --data /dev/sdc
ceph-deploy --overwrite-conf osd create ceph-2 --data /dev/sdd

ceph-deploy --overwrite-conf osd create ceph-3 --data /dev/sdb
ceph-deploy --overwrite-conf osd create ceph-3 --data /dev/sdc
ceph-deploy --overwrite-conf osd create ceph-3 --data /dev/sdd


在每个ceph-1 -2 -3查看/var/lib/ceph/osd/ceph-0ceph-0 表示 OSD ID 为 0)目录挂载临时文件系统(tmpfs),用于临时存储 OSD 配置

#通过查看 ceph 集群状态,验证上方OSD节点添加是否成功

ceph -s

查看OSD状态:

ceph osd stat

部署 mgr(admin操作)

cd /etc/ceph

ceph-deploy mgr create ceph-1 ceph-2

#扩容 mgr 节点

ceph-deploy mgr create ceph-3

开启监控模块

在ceph-1,2,3上操作

#查看active

ceph -s | grep mgr

active上安装 ceph管理的仪表盘

yum install -y ceph-mgr-dashboard

(以下步骤都是在admin操作)

进入配置目录

cd /etc/ceph

列出mgr的模块 :

ceph mgr module ls

筛选

ceph mgr module ls | grep dashboard

 #开启 dashboard 模块

ceph mgr module enable dashboard --force

#禁用 dashboard 的 ssl (安全验证功能)功能

ceph config set mgr mgr/dashboard/ssl false

#配置 dashboard 监听的地址和端口(1024-49151)

ceph config set mgr mgr/dashboard/server_addr 0.0.0.0

ceph config set mgr mgr/dashboard/server_port 18000

#重启 dashboard

ceph mgr module disable dashboard

ceph mgr module enable dashboard --force

#确认访问 dashboard 的 url

ceph mgr services

#设置 dashboard 账户以及密码

echo "tiger" > dashboard_passwd.txt

cat dashboard_passwd.txt

ceph dashboard set-login-credentials admin -i dashboard_passwd.txt

web 测试

浏览器访问:

http://192.168.170.141:18000/#/login?returnUrl=%2Fdashboard

问题在于允许不安全的全局ID回收。全局ID在Ceph中用于唯一标识对象,不安全的回收可能导致数据不一致。建议保持禁止不安全的全局ID回收以维护数据一致性。

ceph status

ceph config set mon auth_allow_insecure_global_id_reclaim false

auth_allow_insecure_global_id_reclaim用于控制是否允许在不安全的情况下重新声明全局ID

ceph -s

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。