Kaip sinchronizuoti sankaupos konfigūraciją ir patikrinti perjungimo sąranką mazguose - 4 dalis


Sveiki žmonės. Visų pirma, atsiprašau už paskutinės šios grupių serijos dalies vėlavimą. Pradėkime dirbti daugiau nevėluodami.

Kadangi mes daugelis iš jūsų baigėme visas tris ankstesnes dalis, aš jums trumpai pasakysiu, ką mes jau atlikome. Dabar mes jau turime pakankamai žinių, kad galėtume įdiegti ir sukonfigūruoti dviejų mazgų sankaupų paketus ir įgalinti aptvėrimą ir perjungimą grupuotoje aplinkoje.

Galite nepamiršti ankstesnių mano dalių, nes paskutinės dalies paskelbimas užtruko šiek tiek ilgiau.

Pradėsime pridėdami išteklius į klasterį. Tokiu atveju galime pridėti failų sistemą ar žiniatinklio paslaugą kaip jūsų poreikį. Dabar turiu/dev/sda3 skaidinį, prijungtą prie/x01, kurį noriu pridėti kaip failų sistemos šaltinį.

1. Aš naudoju žemiau esančią komandą, kad pridėčiau failų sistemą kaip šaltinį:

# ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3

Be to, jei norite pridėti paslaugą, galite tai padaryti naudodami žemiau pateiktą metodiką. Išduokite šią komandą.

# ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1

Tai galite patikrinti peržiūrėdami failą cluster.conf , kaip tai darėme ankstesnėse pamokose.

2. Dabar įveskite šį įrašą faile cluster.conf, kad pridėtumėte nuorodos žymą į paslaugą.

<fs ref="my_fs"/>

3. Viskas nustatyta. Ne, mes pamatysime, kaip galime sinchronizuoti konfigūracijas, kurias atlikome susitelkdami tarp 2 turimų mazgų. Vykdydami komandą atliksite reikalingus dalykus.

# ccs -h 172.16.1.250 --sync --activate

Pastaba: Įveskite slaptažodžius, kuriuos „ricci“ nustatėme ankstyvose stadijose, kai diegėme paketus.

Galite patikrinti savo konfigūracijas naudodami žemiau esančią komandą.

# ccs -h 172.16.1.250 --checkconf

4. Dabar atėjo laikas pradėti viską. Galite naudoti vieną iš žemiau pateiktų komandų, kaip norite.

Norėdami paleisti tik vieną mazgą, naudokite komandą su atitinkamu IP.

# ccs -h 172.16.1.222 start

Arba, jei norite paleisti visus mazgus, naudokite parinktį --startall taip.

# ccs -h 172.16.1.250 –startall

Jei reikia sustabdyti grupę, galite naudoti stop arba --stopall .

Tokiu atveju, jei norėtumėte paleisti sankaupą neįjungdami išteklių (ištekliai bus automatiškai įjungti, kai bus paleista grupė), pvz., Kai tyčia išjungėte tam tikro mazgo išteklius, kad išjungtumėte aptvėrimo kilpas, nenorite įgalinti tų išteklių, kai klasteris prasideda.

Tuo tikslu galite naudoti žemiau esančią komandą, kuri paleidžia grupę, bet neįgalina išteklių.

# ccs -h 172.16.1.250 --startall --noenable 

5. Paleidus klasterį, galite peržiūrėti statistiką, išleisdami komandą clustat.

# clustat

Virš išvesties sakoma, kad klasteryje yra du mazgai ir abu šiuo metu veikia ir veikia.

6. Galite prisiminti, kad ankstesnėse pamokose pridėjome perėjimo prie mechanizmo mechanizmą. Norite patikrinti, ar jis veikia? Tai jūs darote tai. Priverstinai išjunkite vieną mazgą ir ieškokite sankaupos statistikos, naudodami komandą „clustat“, kad būtų užtikrintas perjungimas.

Aš išjungiau „node02server“ (172.16.1.223) naudodamas komandą „shutdown -h now“. Tada vykdė komandą clustat iš mano „cluster_server“ (172.16.1.250).

Virš išvesties paaiškinama, kad 1 mazgas yra prisijungęs, o 2 mazgas išjungtas, kai jį išjungiame. Vis dėlto paslauga ir failų sistema, kuria dalijomės, vis dar yra prisijungę, nes galite pamatyti, ar ją patikrinote prisijungę node01.

# df -h /x01

Peržiūrėkite failą cluster.conf su visu konfigūracijos rinkiniu, atitinkančiu mūsų sąranką, naudojamą „tecmint“.

<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
        <fence_daemon post_join_delay="10"/>
        <clusternodes>
                <clusternode name="172.16.1.222" nodeid="1">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="172.16.1.223" nodeid="2">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_virt" name="tecmintfence"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
                                <failoverdomainnode name="172.16.1.222" priority="1"/>
                                <failoverdomainnode name="172.16.1.223" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
                </resources>
                <service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
                <fs ref="my_fs"/>
       </rm>
</cluster>

Tikiuosi, kad jums patiks visa grupių pamokų serija. Palaikykite ryšį su „tecmint“, kad kasdien rastumėte patogesnių vadovų, ir nedvejodami komentuokite savo idėjas ir klausimus.