This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
vmware:vsan [2019/04/17 09:26] – [Netzwerk checken] mschubi | vmware:vsan [2025/04/02 15:59] (current) – [VSAN] mschubi | ||
---|---|---|---|
Line 5: | Line 5: | ||
https:// | https:// | ||
+ | TBD | ||
+ | https:// | ||
+ | https:// | ||
+ | |||
+ | ===== TRIM/UNMAP ===== | ||
+ | |||
+ | https:// | ||
+ | ===== vSAN mit CLI ohne vCenter ===== | ||
+ | |||
+ | https:// | ||
+ | ====== vSAN Cluster Partitions beheben ====== | ||
+ | |||
+ | Im vSAN Cluster kann es dazu kommen, dass die einzelnen Nodes partitioniert sind. | ||
+ | Meist ist nur eine einzelne Node weg, manchmal aber auch alle :-( | ||
+ | Auch wenn auf den vSAN Kernelport alle Hosts sich sehen können, finden sich die Partitions nicht zusammen. | ||
+ | |||
+ | {{: | ||
+ | Im schlimmsten Fall sieht das so aus. | ||
+ | |||
+ | Erst mal sollte man alle vSAN Ports testen, ob die sich untereinander pingen lassen. | ||
+ | |||
+ | <code bash> | ||
+ | [root@esx-4: | ||
+ | PING 192.168.4.11 (192.168.4.11): | ||
+ | 7008 bytes from 192.168.4.11: | ||
+ | 7008 bytes from 192.168.4.11: | ||
+ | 7008 bytes from 192.168.4.11: | ||
+ | |||
+ | --- 192.168.4.11 ping statistics --- | ||
+ | 3 packets transmitted, | ||
+ | round-trip min/avg/max = 0.615/ | ||
+ | </ | ||
+ | |||
+ | Was sagt der Cluster? | ||
+ | <code bash> | ||
+ | [root@esx-4: | ||
+ | Cluster Information | ||
+ | | ||
+ | | ||
+ | Local Node UUID: 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | Local Node Type: NORMAL | ||
+ | Local Node State: MASTER | ||
+ | Local Node Health State: HEALTHY | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | Sieht auf jedem Cluster so aus. Jeweils nur ein Member. Aber sie " | ||
+ | Überall ist '' | ||
+ | |||
+ | Mal sehen wir die UniCast Agenten sich fühlen. Da gibts bei mir eine Überraschung | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | NodeUuid | ||
+ | ------------------------------------ | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | |||
+ | [root@esx-2: | ||
+ | NodeUuid | ||
+ | ------------------------------------ | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | 5d0cca61-c2bb-4270-a20e-54b2031c044c | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | |||
+ | [root@esx-3: | ||
+ | NodeUuid | ||
+ | ------------------------------------ | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | 5d0cca61-c2bb-4270-a20e-54b2031c044c | ||
+ | |||
+ | [root@esx-4: | ||
+ | NodeUuid | ||
+ | ------------------------------------ | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | 5d0cca61-c2bb-4270-a20e-54b2031c044c | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | |||
+ | </ | ||
+ | Die haben die aktuellen IOs *.4.11 bis *.4.14 gar nicht " | ||
+ | Zum Thema UniCast Agent gibt es einen VMware KB https:// | ||
+ | |||
+ | Gehen wir mal die Liste durch. | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | Interface | ||
+ | | ||
+ | IP Protocol: IP | ||
+ | | ||
+ | Agent Group Multicast Address: 224.2.3.4 | ||
+ | Agent Group IPv6 Multicast Address: ff19::2:3:4 | ||
+ | Agent Group Multicast Port: 23451 | ||
+ | | ||
+ | | ||
+ | | ||
+ | Host Unicast Channel Bound Port: 12321 | ||
+ | | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | Überall gut. Die Kernelport IP Config sieht auch gut aus. | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | vmk2 192.168.4.11 | ||
+ | </ | ||
+ | |||
+ | Für das weitere Vorgehen benötigen wir die UUID. | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | 5d0cca61-c2bb-4270-a20e-54b2031c044c | ||
+ | [root@esx-2: | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | [root@esx-3: | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | [root@esx-4: | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | </ | ||
+ | |||
+ | Damit unsere folgenden manuellen Änderungen nicht durch ein Update des vCenters gestört wird, ignorieren wir die vCenter Settings temporär. | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | Value of IgnoreClusterMemberListUpdates is 1 | ||
+ | </ | ||
+ | **Wichtig! Niemals auf einem Host die eigene Agent IP hinzufügen!** | ||
+ | VMware: //" | ||
+ | Also "Augen auf" bei den folgenden Schritten! | ||
+ | |||
+ | Für den esx1 Host müssen 2, 3 und 4 Hinzugefügt werden | ||
+ | <code bash> | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cc5d7-070b-ff59-7be6-54b20319c59c -U true -a 192.168.4.12 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 -U true -a 192.168.4.13 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cc03c-de7b-b94f-b016-54b2031c0494 -U true -a 192.168.4.14 -p 12321 | ||
+ | </ | ||
+ | Ein Check des Hosts bringt noch nicht ganz die 100%ige Überzeugung. | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | NodeUuid | ||
+ | ------------------------------------ | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | </ | ||
+ | |||
+ | Aber zum Glück kann man " | ||
+ | <code bash> | ||
+ | esxcli vsan cluster unicastagent remove -a 192.168.4.232 | ||
+ | esxcli vsan cluster unicastagent remove -a 192.168.4.149 | ||
+ | esxcli vsan cluster unicastagent remove -a 192.168.4.151 | ||
+ | </ | ||
+ | So sieht es nun gut aus. | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | NodeUuid | ||
+ | ------------------------------------ | ||
+ | 5d0cc03c-de7b-b94f-b016-54b2031c0494 | ||
+ | 5d0cc5d7-070b-ff59-7be6-54b20319c59c | ||
+ | 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 | ||
+ | </ | ||
+ | |||
+ | Exemplarisch noch für die weiteren Hosts | ||
+ | |||
+ | ESX2: | ||
+ | <code bash> | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cca61-c2bb-4270-a20e-54b2031c044c -U true -a 192.168.4.11 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 -U true -a 192.168.4.13 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cc03c-de7b-b94f-b016-54b2031c0494 -U true -a 192.168.4.14 -p 12321 | ||
+ | </ | ||
+ | |||
+ | ESX3: | ||
+ | <code bash> | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cca61-c2bb-4270-a20e-54b2031c044c -U true -a 192.168.4.11 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cc5d7-070b-ff59-7be6-54b20319c59c -U true -a 192.168.4.12 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cc03c-de7b-b94f-b016-54b2031c0494 -U true -a 192.168.4.14 -p 12321 | ||
+ | </ | ||
+ | |||
+ | ESX4: | ||
+ | <code bash> | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cca61-c2bb-4270-a20e-54b2031c044c -U true -a 192.168.4.11 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0cc5d7-070b-ff59-7be6-54b20319c59c -U true -a 192.168.4.12 -p 12321 | ||
+ | esxcli vsan cluster unicastagent add -t node -u 5d0ccefe-e4a3-f316-ea35-54b2031bfc15 -U true -a 192.168.4.13 -p 12321 | ||
+ | </ | ||
+ | |||
+ | Danach natürlich wieder Kontrolle mit | ||
+ | <code bash> | ||
+ | | ||
+ | </ | ||
+ | und ggf. Löschen mit | ||
+ | <code bash> | ||
+ | esxcli vsan cluster unicastagent remove -a | ||
+ | </ | ||
+ | |||
+ | Kaum macht man es richtig, schon geht' | ||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | Cluster Information | ||
+ | | ||
+ | | ||
+ | Local Node UUID: 5d0cca61-c2bb-4270-a20e-54b2031c044c | ||
+ | Local Node Type: NORMAL | ||
+ | Local Node State: BACKUP | ||
+ | Local Node Health State: HEALTHY | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | |||
+ | Zum Schluss nicht vergessen, den Advanced Parameter zu ersetzen: | ||
+ | <code bash> | ||
+ | esxcfg-advcfg -s 0 / | ||
+ | </ | ||
+ | |||
+ | |||
+ | ===== vSAN Services checken und starten ===== | ||
+ | |||
+ | <code bash> | ||
+ | / | ||
+ | |||
+ | / | ||
+ | </ | ||
+ | ====== ESXi Infos in der RVC ====== | ||
+ | |||
+ | <code bash> | ||
+ | / | ||
+ | </ | ||
+ | |||
+ | ===== Samsung 970 EVO PlusFirmware===== | ||
+ | |||
+ | Bei den 970er Evos wird bei neueren vSAN Releases evtl. die Firmware angemeckert. | ||
+ | {{: | ||
+ | |||
+ | <code bash> | ||
+ | [root@esx-1: | ||
+ | | ||
+ | Model Number: Samsung SSD 970 EVO Plus 250GB | ||
+ | | ||
+ | </ | ||
+ | |||
+ | Richtig wäre hier aber FW EDA7402Q. | ||
+ | |||
+ | Die Firmware findet man unter https:// | ||
+ | Aber da ist keine EDA7402Q zu finden :-( | ||
+ | Die höchste Version ist 2B2QEXM7. | ||
+ | Weitere Infos für den firmware Download können auch unter https:// | ||
+ | |||
+ | |||
+ | Also wird der Healthcheck nach https:// | ||
+ | RVC: | ||
+ | <code bash> | ||
+ | vsan.health.silent_health_check_configure -a controllerfirmware . | ||
+ | </ | ||
+ | {{: | ||
===== Netzwerk checken ===== | ===== Netzwerk checken ===== | ||
- | esxcli network ip interface set -m 9000 -i vmk3 | + | <code bash> |
+ | esxcli network ip interface set -m 9000 -i vmk3 | ||
esxcli vsan health cluster list | esxcli vsan health cluster list | ||
Line 14: | Line 287: | ||
esxcli vsan network ip add -i vmk0 -T=witness | esxcli vsan network ip add -i vmk0 -T=witness | ||
+ | </ | ||
+ | |||
+ | Durchsatz mit iperf checken: | ||
+ | |||
+ | * Firewall ausschalten auf dem Ziel - <code bash> | ||
+ | * iperf im Listen Modus unter Angabe der horchenden IP Angeben - <code bash>/ | ||
+ | * auf der Quelle die Firewall ausschalten - <code bash> | ||
+ | * Auf der Quelle iperf unter Angabe der Ziel-IP starten - <code bash>/ | ||
+ | * nach dem Test nicht vergessen, die Firewall wieder einzuschalten - <code bash> | ||
+ | |||
Line 40: | Line 323: | ||
https:// | https:// | ||
+ | https:// | ||
+ | |||
+ | https:// | ||
Line 211: | Line 497: | ||
Value of SwapThickProvisionDisabled is 1 | Value of SwapThickProvisionDisabled is 1 | ||
</ | </ | ||
+ | |||
+ | ====== Cluster Shutdown ====== | ||
+ | |||
+ | https:// | ||
+ | |||
+ | https:// | ||
+ | |||
+ | https:// | ||
+ | |||
+ |