مفروضات این مستند : راهاندازی ceph به صورت تک Node به همراه ۱۲ عدد هارد دیسک HDD و یک پارتیشن SSD
در مرحلهی اول یک Hostname مناسب برای سیستم در نظر بگیرید. (در این مستند ceph18 در نظر گرفته شده است.)
حال نسبت به اضافه نمودن Hostname به پروندهی etc/hosts/ به صورت زیر اقدام نمایید.
|
1 |
# echo '172.16.223.200 ceph18' >> /etc/hosts |
در مرحلهی اول نسبت به راهاندازی Cluster اقدام نمایید.
|
1 |
# cephadm bootstrap --mon-ip 172.16.223.200 --cluster-network 172.16.223.200/32 |
به منظور مشاهدهی تمامی دیسکهای در دسترس به صورت زیر عمل نمایید.
|
1 |
# ceph orch device ls |
فرض مسئله بر آن بود که ۱۲ عدد هارد HDD موجود است لذا انتظار میرود خروجی دستور بالا برابر با ۱۲ عدد هارد در دسترس باشد.
در مرحلهی بعد اقدام به ساخت OSD برای تمامی دیسکها انجام دهید. با توجه به این که میخواهیم از مسیر dev/sda3/ به عنوان cache استفاده کنیم. ابتدا به صورت زیر اقدام به ساخت پروندهی yaml کنید.
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
service_type: osd service_id: osd_spec placement: hosts: - ceph18 method: raw data_devices: paths: - /dev/sdb - /dev/sdc - /dev/sdd - /dev/sde - /dev/sdf - /dev/sdg - /dev/sdh - /dev/sdi - /dev/sdj - /dev/sdk - /dev/sdl - /dev/sdm db_devices: paths: - /dev/sda3 |
در نهایت به صورت زیر اقدام به اجرای پروندهی yaml اقدام نمایید.
|
1 |
# ceph orch apply -i osd_spec.yaml |
در صورتی که دستورات بالا به درستی اجرا شود با خروجی مشابه زیر روبهرو خواهید شد.
|
1 |
Scheduled osd.osd_spec update... |
لازم به ذکر است که به ازای هر یک از OSDها یک Container ایجاد خواهد شد.
سپس