مفروضات این مستند به شرح زیر است.
- شبکهی Mgt مربوط به Ceph به صورت 172.16.223.0/24 میباشد.
- شبکهی Cluster مربوط به Ceph به صورت 10.10.10.0/24 میباشد.
- سرور اول تنها یک VM بوده و به شبکهی Mgt دسترسی دارد.
- سرورهای دوم و سوم به شبکهی Mgt و Cluster دسترسی دارند.
مشخصات سرور اول به شرح زیر است.
|
1 2 3 4 |
ceph-1 ens33:172.16.223.101/24 No Hdd - just mgt server |
مشخصات سرور دوم به شرح زیر است.
|
1 2 3 4 5 |
ceph-2 ens33:172.16.223.102/24 ens34:10.10.10.102/24 6 x 2.2 TB HDD |
مشخصات سرور سوم به شرح زیر است.
|
1 2 3 4 5 |
ceph-3 ens33:172.16.223.103/24 ens34:10.10.10.103/24 6 x 2.2 TB HDD |
در ادامه مستند به نحوهی راهاندازی Cluster و اتصال سرورها پرداخته خواهد شد.
راهاندازی Cluster در سرور ceph-1
در Node اول و اصلی دستور cephadm را به صورت زیر اجرا نمایید.
|
1 2 3 4 5 |
# cephadm bootstrap \ --mon-ip 172.16.223.101 \ --initial-dashboard-user admin \ --initial-dashboard-password 'STRONG_PASSWORD' \ --skip-monitoring-stack |
در دستور بالا ، آدرس 172.16.223.101 مربوط به سرور اول و شبکهی مدیریتی آن میباشد.
حتما نیاز است که تنظیمات زیر نیز اعمال شود.
|
1 2 |
# ceph config set global public_network 172.16.223.0/24 # ceph config set global cluster_network 10.10.10.0/24 |
اتصال سرور ceph-2 و ceph-3 به Cluster
در مرحلهی اول محتویات پروندهی زیر را کپی نمایید.
|
1 |
# cat /etc/ceph/ceph.pub |
محتویات پروندهی بالا را درون فایل root/.ssh/authorized_keys/ در دو سرور ceph-2 و ceph-3 قرار دهید.
در مرحلهی بعد دستور زیر را در سرور ceph-1 وارد نمایید.
|
1 |
# cephadm shell |
سپس به صورت زیر اتصال را برقرار کنید
|
1 2 |
# ceph orch host add ceph-2 10.10.10.102 # ceph orch host add ceph-3 10.10.10.103 |
در صورتی که اتصال موفقیت آمیز باشد با خروجی مشابه زیر روبهرو خواهید شد.
|
1 2 |
Added host 'ceph-2' with addr '10.10.10.102' Added host 'ceph-3' with addr '10.10.10.103' |
به منظور مشاهدهی سرورهای موجود در Cluster به صورت زیر عمل نمایید.
|
1 |
# ceph orch host ls |
انتظار میرود خروجی دستور بالا مشابه زیر باشد.
|
1 2 3 4 5 |
HOST ADDR LABELS STATUS ceph-1 172.16.223.101 _admin ceph-2 10.10.10.102 ceph-3 10.10.10.103 3 hosts in cluster |
به منظور مشاهدهی وضعیت کلاستر به صورت زیر عمل نمایید.
|
1 |
# ceph -s |
انتظار میرود خروجی دستور بالا به صورت زیر باشد.
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
cluster: id: 5563a940-d99b-11f0-a581-17c1a68770d6 health: HEALTH_WARN OSD count 0 < osd_pool_default_size 3 services: mon: 2 daemons, quorum ceph-1,ceph-2 (age 0.562636s) mgr: ceph-1.hmqaqw(active, since 5m) osd: 0 osds: 0 up, 0 in data: pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 0 B used, 0 B / 0 B avail pgs: |
مطابق با تصویر بالا ، وضعیت کلاستر بر روی warn است که مربوط به پیکربندی نبودن OSD ها است.
نکته : به خط مربوط به mon توجه کنید ، در خروجی بالا تنها به ceph-1 و ceph-2 اشاره شده است. انتظار میرود با گذشت زمان ceph-3 هم وارد مدار شود.
انتظار میرود کانتینرهای mon-ceph-2 و mgr-ceph-2-paeqlx و crash-ceph-2 بر روی ceph-2 و معادل آنها در ceph-3 ایجاد شده باشند.