Vyhledávání na webu

Jak synchronizovat konfiguraci klastru a ověřit nastavení převzetí služeb při selhání v uzlech – část 4


Ahoj lidi. Předně se omlouvám za zpoždění posledního dílu této klastrové série. Pusťme se do práce bez dalšího zdržování.

Protože jsme mnozí z vás dokončili všechny tři předchozí díly, stručně vás seznámím s tím, co jsme zatím dokončili. Nyní již máme dostatek znalostí k instalaci a konfiguraci clusterových balíčků pro dva uzly a povolení oplocení a převzetí služeb při selhání v clusterovém prostředí.

Pokud si nepamatujete, můžete se odkázat na mé předchozí díly, protože odeslání posledního dílu trvalo trochu déle.

Úvod do klastrování Linuxu a výhody/nevýhody klastrování – část 1

Jak nainstalovat a nakonfigurovat cluster se dvěma uzly v Linuxu – část 2

Oplocení a přidání převzetí služeb při selhání do shlukování – část 3

Začneme přidáním zdrojů do clusteru. V tomto případě můžeme přidat souborový systém nebo webovou službu podle vašich potřeb. Nyní mám oddíl /dev/sda3 připojený k /x01, který chci přidat jako prostředek souborového systému.

1. K přidání systému souborů jako prostředku používám níže uvedený příkaz:

ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3

Navíc, pokud chcete přidat také službu, můžete použít níže uvedenou metodologii. Zadejte následující příkaz.

ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1

Můžete to ověřit zobrazením souboru cluster.conf stejně jako v předchozích lekcích.

2. Nyní zadejte následující záznam do souboru cluster.conf a přidejte do služby referenční značku.

<fs ref="my_fs"/>

3. Vše nastaveno. Ne, uvidíme, jak můžeme synchronizovat konfigurace, které jsme provedli pro cluster mezi 2 uzly, které máme. Následující příkaz udělá potřebné.

ccs -h 172.16.1.250 --sync --activate

Poznámka: Zadejte hesla, která jsme pro ricci nastavili v raných fázích instalace balíčků.

Své konfigurace můžete ověřit pomocí níže uvedeného příkazu.

ccs -h 172.16.1.250 --checkconf

4. Nyní je čas začít. Podle potřeby můžete použít jeden z níže uvedených příkazů.

Pro spuštění pouze jednoho uzlu použijte příkaz s příslušnou IP.

ccs -h 172.16.1.222 start

Nebo pokud chcete spustit všechny uzly, použijte volbu --startall následovně.

ccs -h 172.16.1.250 –startall

Pokud jste potřebovali cluster zastavit, můžete použít stop nebo --stopall.

Ve scénáři, jako kdybyste chtěli spustit cluster bez povolení zdrojů (prostředky budou automaticky povoleny při spuštění clusteru), jako je situace, kdy jste záměrně zakázali zdroje v konkrétním uzlu, abyste deaktivovali smyčky oplocení, nechcete povolit tyto prostředky při spouštění clusteru.

Pro tento účel můžete použít níže uvedený příkaz, který spustí cluster, ale nepovolí prostředky.

ccs -h 172.16.1.250 --startall --noenable 

5. Po spuštění clusteru můžete zobrazit statistiky zadáním příkazu clustat.

clustat

Výše uvedený výstup říká, že v clusteru jsou dva uzly a oba jsou v tuto chvíli v provozu.

6. Můžete si vzpomenout, že jsme v předchozích lekcích přidali mechanismus převzetí služeb při selhání. Chcete zkontrolovat, zda to funguje? Takto se to dělá. Vynuťte vypnutí jednoho uzlu a vyhledejte statistiky clusteru pomocí příkazu clustat pro výsledky převzetí služeb při selhání.

Vypnul jsem svůj node02server(172.16.1.223) pomocí příkazu shutdown -h now. Poté byl proveden příkaz clustat z mého cluster_server(172.16.1.250).

Výše uvedený výstup vám objasňuje, že uzel 1 je online, zatímco uzel 2 přešel do režimu offline, když jsme jej vypínali. Služba a systém souborů, který jsme sdíleli, jsou však stále online, jak můžete vidět, když je zkontrolujete na node01, který je online.

df -h /x01

Podívejte se do souboru cluster.conf s celou konfigurační sadou relevantní pro naše nastavení používané pro tecmint.

<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
        <fence_daemon post_join_delay="10"/>
        <clusternodes>
                <clusternode name="172.16.1.222" nodeid="1">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="172.16.1.223" nodeid="2">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_virt" name="tecmintfence"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
                                <failoverdomainnode name="172.16.1.222" priority="1"/>
                                <failoverdomainnode name="172.16.1.223" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
                </resources>
                <service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
                <fs ref="my_fs"/>
       </rm>
</cluster>

Doufám, že se vám celá série lekcí shlukování bude líbit. Zůstaňte v kontaktu se společností tecmint pro další praktické průvodce každý den a neváhejte komentovat své nápady a dotazy.