مفروضات این مستند به شرح زیر است.
- شبکهی Mgt مربوط به Ceph به صورت 172.16.223.0/24 میباشد.
- شبکهی Cluster مربوط به Ceph به صورت 10.10.10.0/24 میباشد.
مشخصات سرور اول به شرح زیر است.
|
1 2 3 4 5 |
ceph-1 ens33:172.16.223.101/24 ens34:10.10.10.101/24 No Hdd - just mgt server |
مشخصات سرور دوم به شرح زیر است.
|
1 2 3 4 5 |
ceph-2 ens33:172.16.223.102/24 ens34:10.10.10.102/24 6 x 2.2 TB HDD |
مشخصات سرور سوم به شرح زیر است.
|
1 2 3 4 5 |
ceph-3 ens33:172.16.223.103/24 ens34:10.10.10.103/24 6 x 2.2 TB HDD |
در ادامه مستند به نحوهی راهاندازی Cluster و اتصال سرورها پرداخته خواهد شد.
ابتدا دستور زیر را بزنید تا تمامی دیسکهای موجود در سرورها رو مشاهده بفرمایید.
|
1 |
# ceph orch device ls |
انتظار میرود خروجی دستور بالا به صورت زیر باشد.
|
1 2 3 4 5 6 7 8 9 10 11 12 13 |
HOST PATH TYPE DEVICE ID SIZE AVAILABLE REFRESHED REJECT REASONS ceph-2 /dev/sdb hdd 20.0G Yes 13m ago ceph-2 /dev/sdc hdd 20.0G Yes 13m ago ceph-2 /dev/sdd hdd 20.0G Yes 13m ago ceph-2 /dev/sde hdd 20.0G Yes 13m ago ceph-2 /dev/sdf hdd 20.0G Yes 13m ago ceph-2 /dev/sdg hdd 20.0G Yes 13m ago ceph-3 /dev/sdb hdd 20.0G Yes 12m ago ceph-3 /dev/sdc hdd 20.0G Yes 12m ago ceph-3 /dev/sdd hdd 20.0G Yes 12m ago ceph-3 /dev/sde hdd 20.0G Yes 12m ago ceph-3 /dev/sdf hdd 20.0G Yes 12m ago ceph-3 /dev/sdg hdd 20.0G Yes 12m ago |
به منظور مشاهدهی دیسکهای در دسترس یک سرور خاص به صورت زیر عمل نمایید.
|
1 |
# ceph orch device ls ceph-2 |
انتظار میرود خروجی دستور بالا به صورت زیر باشد.
|
1 2 3 4 5 6 7 |
HOST PATH TYPE DEVICE ID SIZE AVAILABLE REFRESHED REJECT REASONS ceph-2 /dev/sdb hdd 20.0G Yes 15m ago ceph-2 /dev/sdc hdd 20.0G Yes 15m ago ceph-2 /dev/sdd hdd 20.0G Yes 15m ago ceph-2 /dev/sde hdd 20.0G Yes 15m ago ceph-2 /dev/sdf hdd 20.0G Yes 15m ago ceph-2 /dev/sdg hdd 20.0G Yes 15m ago |
در ادامه برای ساخت OSD از روی تمامی دیسکهای موجود در سرورها ، کاقیست به صورت زیر عمل نمایید.
|
1 |
# ceph orch apply osd --all-available-devices |
انتظار میرود خروجی دستور بالا به صورت زیر باشد.
|
1 |
Scheduled osd.all-available-devices update... |
به منظور مشاهدهی وضعیت ساخت OSD ها به صورت زیر عمل نمایید.
|
1 |
# ceph orch ps --daemon-type osd |
با اجرای دستور بالا ابتدا با خروجیای مشابه زیر روبهرو خواهید شد.
|
1 2 3 4 5 6 7 |
NAME HOST PORTS STATUS REFRESHED AGE MEM USE MEM LIM VERSION IMAGE ID osd.0 ceph-2 starting - - - 4096M <unknown> <unknown> osd.1 ceph-3 starting - - - 4096M <unknown> <unknown> osd.2 ceph-3 starting - - - 4096M <unknown> <unknown> osd.3 ceph-2 starting - - - 4096M <unknown> <unknown> osd.10 ceph-3 starting - - - 4096M <unknown> <unknown> osd.11 ceph-2 starting - - - 4096M <unknown> <unknown> |
انتظار میرود با گذشت حداکثر ۱ دقیقه ، تمامی OSD ها ساخته شده و خروجی مشابه زیر شود.
|
1 2 3 4 5 6 7 8 9 10 11 12 13 |
NAME HOST PORTS STATUS REFRESHED AGE MEM USE MEM LIM VERSION IMAGE ID CONTAINER ID osd.0 ceph-2 running (115s) 74s ago 2m 54.0M 4096M 19.2.3 aade1b12b8e6 275dd350f5f7 osd.1 ceph-3 running (110s) 74s ago 2m 53.7M 4096M 19.2.3 aade1b12b8e6 8dc211c8e2e4 osd.2 ceph-3 running (93s) 74s ago 118s 49.3M 4096M 19.2.3 aade1b12b8e6 60a7675366b4 osd.3 ceph-2 running (99s) 74s ago 116s 49.1M 4096M 19.2.3 aade1b12b8e6 f1b468cd36e7 osd.4 ceph-3 running (88s) 74s ago 113s 51.4M 4096M 19.2.3 aade1b12b8e6 230154b5716d osd.5 ceph-2 running (95s) 74s ago 112s 50.0M 4096M 19.2.3 aade1b12b8e6 a9b110c2fdc2 osd.6 ceph-3 running (84s) 74s ago 108s 54.5M 4096M 19.2.3 aade1b12b8e6 be981bb60f86 osd.7 ceph-2 running (91s) 74s ago 108s 50.7M 4096M 19.2.3 aade1b12b8e6 f00ab6298628 osd.8 ceph-3 running (81s) 74s ago 104s 22.0M 4096M 19.2.3 aade1b12b8e6 9ed6576d5b45 osd.9 ceph-2 running (88s) 74s ago 103s 50.2M 4096M 19.2.3 aade1b12b8e6 43d5e7f08023 osd.10 ceph-3 running (98s) 74s ago 2m 50.1M 4096M 19.2.3 aade1b12b8e6 b122d52224bf osd.11 ceph-2 running (106s) 74s ago 2m 52.4M 4096M 19.2.3 aade1b12b8e6 943c1fbd3ff1 |
پیشنهاد میشود یک مرتبه وضعیت کلاستر را توسط دستور ceph -s بررسی نمایید.
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
# ceph -s cluster: id: 5563a940-d99b-11f0-a581-17c1a68770d6 health: HEALTH_OK services: mon: 3 daemons, quorum ceph-1,ceph-2,ceph-3 (age 2h) mgr: ceph-1.hmqaqw(active, since 2h), standbys: ceph-2.qsdhqg osd: 12 osds: 12 up (since 2m), 12 in (since 3m); 1 remapped pgs data: pools: 1 pools, 1 pgs objects: 2 objects, 449 KiB usage: 322 MiB used, 240 GiB / 240 GiB avail pgs: 1 active+clean |
همان طور که در خروجی بالا مشخص است ، وضعیت کلاستر بر روی HEALTH_OK قرار گرفته است.