openstack使用ceph的问题

查看数: 12046 | 评论数: 4 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2015-1-6 15:38

正文摘要:

使用juno版本的openstack和giant的ceph。openstack使用标准的3节点安装,ceph集群有1个mon和2个osd,开启了cephex验证,备份数为2 管理网络和ceph的存储网络都是使用交换机搭建的局域网 标准的控制节点上安装了cep ...

回复

bysui 发表于 2015-1-8 20:45:38
谢谢,我去钻研一下
muyannian 发表于 2015-1-6 23:27:38
bysui 发表于 2015-1-6 22:28
网卡和交换机端口都是是支持千兆的,测试过单纯的scp复制,10G也就1分半左右,速度为110M/s,瓶颈在磁盘的I ...
只看从原理入手了,这里有些源码,可能会对你有些帮助

Glance 源码分析(2) – 配置文件

相关:
Glance 源码分析(1) – 框架

Glance 源码分析(3) – WSGI 框架


更多
Glance源码架构分析(一)

Glance源码架构分析(二)


Glance源码架构分析(三)


Glance源码架构分析(四)


bysui 发表于 2015-1-6 22:28:07
网卡和交换机端口都是是支持千兆的,测试过单纯的scp复制,10G也就1分半左右,速度为110M/s,瓶颈在磁盘的IO,而ceph的存储网络和服务网络分开了,所以理论上上传到ceph中的速度在2分半到3分钟之间应该没问题(备份数为2,相当于上传20G,再加上ceph的存储算法计算的消耗)
所以应该是glance源代码的问题吗?
nextuser 发表于 2015-1-6 16:49:07
这个就需要看源码了,10G 2分钟半,这个是真快,咱们使用磁盘复制10G的软件,也没有这么快,更何况是上传。
比如百度网盘的秒传用的MD5 这是百G也可能几秒钟。
但是从另外角度来讲,10G单纯的复制确实是需要时间的




关闭

推荐上一条 /2 下一条