感谢支持
我们一直在努力

Fedora 14上安装 Ceph 0.24

花了很长时间安装ceph,中间走得弯路实在走得太多太多,确实有必要记下来总结一下。期间我也参考不少他人的资料,最后还是在ceph官网的mail-list上热心人的帮助下才顺利把雏形搭建起来。


Ceph系统总共有4个角色,client、mon、mds和osd,我看的资料mon和mds都是装在了一起。我在Vmware上进行搭建测试。本来搭了三台机子,后来为了中间遇到了些问题,为了排除osd的连接的问题,把mon、mds和osd直接都装在了一台机子上。这个不影响初期的安装探索。


准备条件:要求几台主机能够免密码且能根据hostname访问。具体实现可以参考http://www.linuxidc.com/Linux/2011-01/31579.htm


步骤如下:


1,  首先是client,这是需要ceph.ko这个模块的支持的。对于老版本的内核,可能要自己手动编译,把模块加载进来。如果想知道正在运行着的OS是否已经包含该模块,cd到目录/lib/modules/***/kernel/fs/查看当前内核支持的文件类型,如果有ceph这个文件那表示已经包含了该模块。modprobe ceph加载一下就可以了。$modprobe -l|grep ceph,


kernel/fs/ceph/ceph.ko //返回类似这样的信息就表示已经加载成功了,客户端这边ok了。


2,  如果step 1 已经ok,可以跳过这一步。对于诸如RedHat这样的系统,选用的内核比较老,需要升级内核至少到2.6.34。因为新版本的内核对ceph提供直接支持。方法有两个都是直接从别人那里cpoy来的。


第一种方法


$git clone git://git.kernel.org/pub/scm/linux/kernel/git/sage/ceph-client.git


$cd ceph-client


$make menuconfig


//搜索ceph,可以发现有两个关于ceph的选项,选上就好.编译内核的方法这里//就不在赘述,直接上命令了


$make && make modules && make modules_install && make install && reboot


//上述编译内核的命令只在redhat系列系统上试过有效,其他发行版可能稍有不同,自己google一下吧。


第二种方法:


$下载源代码


$ git clone git://ceph.newdream.net/git/ceph-client-standalone.git


$ git branch master-backport origin/master-backport


$ git checkout master-backport


$编译


$ make or make KERNELDIR=/usr/src/… $前者表示用于当前在用内核,后者其它路径


$ 编译成功后会产生ceph.ko


$ make install


$ modprobe ceph or inmod ceph.ko


安装OSD,这些步骤需要在每个OSD上重复操作。


3.1,去官网下载最新版本源代码http://ceph.newdream.net/


3.2,解压安装。


$tar –xzvf ceph-0.24.tar.gz


$ ./autogen.sh


$ ./configure


$ make


在configure时一般会提示缺少一些包,一次安装一下就行了,Fedora 14基本都可以用yum来直接安装。


3.3,准备OSD空间,用fdisk之类的工具分配出一块独立分区


3.4,对新分区进行btrfs的格式化


$yum install btrfs-progs.i686


$mkfs.btrfs /dev/sda3


3.5挂载分区


$mkdir –p /mnt/btrfs/osd0


$ mount -t btrfs /dev/cciss/c0d2p1 /mnt/btrfs/osd0/


$ df –h


/dev/sda1             9.7G  4.6G  5.0G  48% /


/dev/sda3             9.3G  4.4M  9.3G   1% /mnt/btrfs/osd0


4,  mon和mds安装


4.1,重复3.1和3.2


4.2,配置ceph.conf和fetch_config配置文件


ceph.conf:


; global


[global]


        ; enable secure authentication


        ;auth supported = cephx


 


; monitors


;  You need at least one.  You need at least three if you want to


;  tolerate any node failures.  Always create an odd number.


[mon]


        mon data = /data/mon$id


 


        ; logging, for debugging monitor crashes, in order of


        ; their likelihood of being helpful 🙂


        ;debug ms = 1


        ;debug mon = 20


        ;debug paxos = 20


        ;debug auth = 20


 


[mon0]


        host = cephosd


        mon addr = 192.168.178.160:6789


 


; mds


;  You need at least one.  Define two to get a standby.


[mds]


        ; where the mds keeps it’s secret encryption keys


        ;keyring = /data/keyring.$name


 


        ; mds logging to debug issues.


        ;debug ms = 1


        ;debug mds = 20


 


[mds.alpha]


        host = cephosd


 


; osd


;  You need at least one.  Two if you want data to be replicated.


;  Define as many as you like.


[osd]


        sudo = true


        ; This is where the btrfs volume will be mounted.


        osd data =/mnt/btrfs/osd0$id


 


        ; Ideally, make this a separate disk or partition.  A few


        ; hundred MB should be enough; more if you have fast or many


        ; disks.  You can use a file under the osd data dir if need be


        ; (e.g. /data/osd$id/journal), but it will be slower than a


        ; separate disk or partition.


 


        ; This is an example of a file-based journal.


        osd journal = /mnt/btrfs/osd$id/journal


        osd journal size = 1000 ; journal size, in megabytes


 


        ; osd logging to debug osd issues, in order of likelihood of being


        ; helpful


        ;debug ms = 1


        ;debug osd = 20


        ;debug filestore = 20


        ;debug journal = 20


 


[osd0]


        host = cephosd


 


        ; if ‘btrfs devs’ is not specified, you’re responsible for


        ; setting up the ‘osd data’ dir.  if it is not btrfs, things


        ; will behave up until you try to recover from a crash (which


        ; usually fine for basic testing).


        btrfs devs = /dev/sda3


        osd data = /mnt/btrfs/osd0


 


 


; access control


[group everyone]


; you probably want to limit this to a small or a list of


; hosts. clients are fully trusted.


addr = 0.0.0.0/0


 [mount /]


allow = %everyone


 


fetch_config:


 


#!/bin/sh


conf=”$1″


 


## fetch ceph.conf from some remote location and save it to $conf.


##


## make sure this script is executable (chmod +x fetch_config)


 


##


## examples:


##


 


## from a locally accessible file


# cp /path/to/ceph.conf $conf


 


## from a URL:


# wget -q -O $conf http://somewhere.com/some/ceph.conf


 


## via scp


# scp -i /path/to/id_dsa user@host:/path/to/ceph.conf $conf


scp qw@cephosd:/qw/ceph-0.24/src/ceph.conf .


 


Ceph.config是比较重要的,mon要通过他来连接各个osd所以一定要配置正确,很多功能也需要在这里设置。由于先在测试安装,所以就选择了最简单的配置。fetch_config:在这个文件里面,我们使用scp的方法,除此还可以使用nfs把ceph.conf文件共享,总之目的就是将在整个集群里面使用同一份ceph.conf。安装完了之后,会在/etc/local/etc/下产生ceph文件夹,把这两个配置文件放在这里。


4.3 /etc/init.d/ceph 脚本


该脚本在编译ceph的时候,会在src/里生成一个init-ceph文件,由init-ceph.in模板来生成


如果需要开机自动启动ceph集群的话,将该脚本复制到/etc/init.d/目录下,并使用chkconfig命令来添加该服务.


这个服务应该只需要在monitor端上安装即可.


4.4创建文件系统,在monitor端执行


$ mkcephfs -c /etc/local/etc/ceph/ceph.conf –allhosts –mkbtrfs -k keyring.bin


它会根据ceph.conf里面的配置自动的去各个节点上进行相应的配置. 这里要说一下的是keyring.bin文件,他一开始不存在,其实默认配置下并不需要,可以在src目录下运行./vstart.sh -n -x会自动产生。


4.5 启动ceph文件系统


在mon执行


$/etc/init.d/ceph –a start


5.客户端,挂在系统


$ mkdir /mnt/ceph


$ mount –t ceph 192.168.178.160:/ /mnt/ceph


$df –h


Filesystem            Size  Used Avail Use% Mounted on


/dev/mapper/vg_client-lv_root


                       18G  9.0G  8.3G  53% /


/dev/sda1             485M   51M  409M  12% /boot


192.168.178.160:/     9.3G  5.0M  9.3G   1% /mnt/ceph


很多问题会导致出在mount时,无法挂载成功。


1)  mount error 5 = Input/output error,这个问题很可能是因为在虚拟机上安装时host OS的防火墙导致的。


2)  can’t read superblock,出现这个问题原因很多,可能是osd和mon的防火墙没关,也可能端口配置文档里修改。还有就是一旦配置文档发生改变的话,最好mkcephfs重新执行一遍,因为这个命令会生成一些文件还是对应着原先的配置文件。


3)  有问题实在解决不了,还是去ceph的mail-list问,只要你把问题描述清楚。作者还是很热心的。

赞(0) 打赏
转载请注明出处:服务器评测 » Fedora 14上安装 Ceph 0.24
分享到: 更多 (0)

听说打赏我的人,都进福布斯排行榜啦!

支付宝扫一扫打赏

微信扫一扫打赏