مفروضات : ۶ عدد دیسک از جنس HDD موجود بوده و Ceph Cluster متشکل از یک Node است.
به منظور پیکربندی ceph و ارائهی CephFS به گونهای که همانند Raid 5 عمل کند، (تحمل خطای ۱ دیسک) به صورت زیر عمل نمایید.
نکته : فرض این مستند بر حداکثر کارایی و IOPS است.
# ceph config set mon mon_max_pg_per_osd 300 # ceph osd pool create cephfs_data 512 512 replicated # ceph osd pool set cephfs_data size 2 # ceph osd pool set cephfs_data min_size 1 # ceph osd pool set cephfs_data crush_rule replicated_rule
در مرحلهی دوم به صورت زیر عمل نمایید.
# ceph osd pool create cephfs_meta 256 256 replicated # ceph osd pool set cephfs_meta size 2 # ceph osd pool set cephfs_meta crush_rule replicated_rule
در مرحلهی سوم به صورت زیر عمل نمایید.
# ceph osd pool set cephfs_data bulk true # ceph fs new cephfs cephfs_meta cephfs_data
در نهایت یک MDS به صورت زیر ایجاد نمایید.
# ceph orch apply mds cephfs --placement=ceph18
به منظور مشاهدهی وضعیت CephFS به صورت زیر عمل نمایید.
# ceph fs status
به منظور مشاهدهی وضعیت دقیق MDS به صورت زیر عمل نمایید.
# ceph mds stat
به منظور اتصال دیسک به یک Client به صورت زیر عمل نمایید.
# mkdir -p /mnt/cephfs # ceph auth get-key client.admin > /etc/ceph/admin.keyring # mount -t ceph 172.16.223.200:6789:/ /mnt/cephfs -o name=admin,secret=$(cat /etc/ceph/admin.keyring)
تست شده بر روی Ceph Version 18