Jak synchronizovat konfiguraci klastru a ověřit nastavení převzetí služeb při selhání v uzlech – část 4
Ahoj lidi. Předně se omlouvám za zpoždění posledního dílu této klastrové série. Pusťme se do práce bez dalšího zdržování.
Protože jsme mnozí z vás dokončili všechny tři předchozí díly, stručně vás seznámím s tím, co jsme zatím dokončili. Nyní již máme dostatek znalostí k instalaci a konfiguraci clusterových balíčků pro dva uzly a povolení oplocení a převzetí služeb při selhání v clusterovém prostředí.
Pokud si nepamatujete, můžete se odkázat na mé předchozí díly, protože odeslání posledního dílu trvalo trochu déle.
Úvod do klastrování Linuxu a výhody/nevýhody klastrování – část 1
Jak nainstalovat a nakonfigurovat cluster se dvěma uzly v Linuxu – část 2
Oplocení a přidání převzetí služeb při selhání do shlukování – část 3
Začneme přidáním zdrojů do clusteru. V tomto případě můžeme přidat souborový systém nebo webovou službu podle vašich potřeb. Nyní mám oddíl /dev/sda3 připojený k /x01, který chci přidat jako prostředek souborového systému.
1. K přidání systému souborů jako prostředku používám níže uvedený příkaz:
ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3
Navíc, pokud chcete přidat také službu, můžete použít níže uvedenou metodologii. Zadejte následující příkaz.
ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1
Můžete to ověřit zobrazením souboru cluster.conf
stejně jako v předchozích lekcích.
2. Nyní zadejte následující záznam do souboru cluster.conf a přidejte do služby referenční značku.
<fs ref="my_fs"/>
3. Vše nastaveno. Ne, uvidíme, jak můžeme synchronizovat konfigurace, které jsme provedli pro cluster mezi 2 uzly, které máme. Následující příkaz udělá potřebné.
ccs -h 172.16.1.250 --sync --activate
Poznámka: Zadejte hesla, která jsme pro ricci nastavili v raných fázích instalace balíčků.
Své konfigurace můžete ověřit pomocí níže uvedeného příkazu.
ccs -h 172.16.1.250 --checkconf
4. Nyní je čas začít. Podle potřeby můžete použít jeden z níže uvedených příkazů.
Pro spuštění pouze jednoho uzlu použijte příkaz s příslušnou IP.
ccs -h 172.16.1.222 start
Nebo pokud chcete spustit všechny uzly, použijte volbu --startall
následovně.
ccs -h 172.16.1.250 –startall
Pokud jste potřebovali cluster zastavit, můžete použít stop nebo --stopall
.
Ve scénáři, jako kdybyste chtěli spustit cluster bez povolení zdrojů (prostředky budou automaticky povoleny při spuštění clusteru), jako je situace, kdy jste záměrně zakázali zdroje v konkrétním uzlu, abyste deaktivovali smyčky oplocení, nechcete povolit tyto prostředky při spouštění clusteru.
Pro tento účel můžete použít níže uvedený příkaz, který spustí cluster, ale nepovolí prostředky.
ccs -h 172.16.1.250 --startall --noenable
5. Po spuštění clusteru můžete zobrazit statistiky zadáním příkazu clustat.
clustat
Výše uvedený výstup říká, že v clusteru jsou dva uzly a oba jsou v tuto chvíli v provozu.
6. Můžete si vzpomenout, že jsme v předchozích lekcích přidali mechanismus převzetí služeb při selhání. Chcete zkontrolovat, zda to funguje? Takto se to dělá. Vynuťte vypnutí jednoho uzlu a vyhledejte statistiky clusteru pomocí příkazu clustat pro výsledky převzetí služeb při selhání.
Vypnul jsem svůj node02server(172.16.1.223) pomocí příkazu shutdown -h now. Poté byl proveden příkaz clustat z mého cluster_server(172.16.1.250).
Výše uvedený výstup vám objasňuje, že uzel 1 je online, zatímco uzel 2 přešel do režimu offline, když jsme jej vypínali. Služba a systém souborů, který jsme sdíleli, jsou však stále online, jak můžete vidět, když je zkontrolujete na node01, který je online.
df -h /x01
Podívejte se do souboru cluster.conf
s celou konfigurační sadou relevantní pro naše nastavení používané pro tecmint.
<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
<fence_daemon post_join_delay="10"/>
<clusternodes>
<clusternode name="172.16.1.222" nodeid="1">
<fence>
<method name="Method01">
<device name="tecmintfence"/>
</method>
</fence>
</clusternode>
<clusternode name="172.16.1.223" nodeid="2">
<fence>
<method name="Method01">
<device name="tecmintfence"/>
</method>
</fence>
</clusternode>
</clusternodes>
<cman/>
<fencedevices>
<fencedevice agent="fence_virt" name="tecmintfence"/>
</fencedevices>
<rm>
<failoverdomains>
<failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
<failoverdomainnode name="172.16.1.222" priority="1"/>
<failoverdomainnode name="172.16.1.223" priority="2"/>
</failoverdomain>
</failoverdomains>
<resources>
<fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
</resources>
<service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
<fs ref="my_fs"/>
</rm>
</cluster>
Doufám, že se vám celá série lekcí shlukování bude líbit. Zůstaňte v kontaktu se společností tecmint pro další praktické průvodce každý den a neváhejte komentovat své nápady a dotazy.