Linux Hochverfügbarkeit

Einsatzszenarien und Praxislösungen für Linux-Server

Oliver Liebel

Buch (gebundene Ausgabe)
Buch (gebundene Ausgabe)
51,30
51,30
inkl. gesetzl. MwSt.
inkl. gesetzl. MwSt.
Versandfertig innerhalb 48 Stunden Versandkostenfrei
Versandfertig innerhalb 48 Stunden
Versandkostenfrei

Weitere Formate

Beschreibung

Hochverfügbarkeit ist ein zentrales und ebenso komplexes Thema für jeden Administrator. Profitieren Sie jetzt von den praxiserprobten Setup-Lösungen und dem technischen Background, die der langjährige Linux-Experte Oliver Liebel für Sie zusammengestellt hat. So sorgen Sie einfach und mit moderaten Hardware-Ressourcen dafür, dass Ihre Linux-Server lokal und im Netz stets hochverfügbar sind und zudem optimal skalieren. Das Buch beleuchtet die wichtigsten Aspekte der lokalen Hochverfügbarkeit und die Sicherstellung der Redundanz der wichtigsten Serverkomponenten: Disk-Monitoring mit SMART, SSD's und Hybrid-Disks im Server-Einsatz, ausfallsichere Bonding-Netzdevices, redundante (Soft-)Raids, skalierbare Logical Volumes, die Auswahl des passenden Linux-Journaling-Dateisystems und ausführliche Praxis-Einblicke in das kommende Standard-Dateisystem unter Linux das Raid-, Resizing- und Snapshot-Fähigkeiten in sich vereinigt: BTRFS. Zur Sicherstellung der Hochverfügbarkeit auf Cluster-Ebene werden zahlreiche aktuelle und praxiserprobte Cluster-Setups mit Corosync/CMAN und Pacemaker anschaulich erläutert, das ganze ergänzt durch Storage-Verwaltung im Cluster: DRBD 8 und das neue DRBD 9.0 mit Mesh-/Multi-Node-Replication, traditionelle Cluster-Dateisysteme wie OCFS2 und GFS2, Distributed Storage Cluster mit GlusterFS, die "Next Generation" des Distributed Storage Clustering mit CEPH, und vieles andere mehr. Des Weiteren wird gezeigt, wie Pacemaker Cluster in verschiedenen Konfigurationen als hochskalierbare und -verfügbare Storage-Backends für vSphere/ESXi-Umgebungen eingesetzt werden können. Zur optimalen Ausnutzung und Verfügbarkeit der Ressourcen wird zudem das Setup von virtuellen XEN- und KVM-Maschinen im Cluster und auf verschiedenen Storage-Backends, wie z.B. Ceph-RBD oder DRBD im Dual-Primary-Mode, eingängig erläutert, sowie deren Live-Migration, damit Sie die optimale Verfügbarkeit der VMs in jeder Situation sicherstellen können.

Aus dem Inhalt:

HA-Grundlagen
Lokale Hochverfügbarkeit
Raid, LVM, BTRFS, Snapshots
HA-Cluster
Corosync, Heartbeat, CMAN und Pacemaker
Hot-Failover-Cluster
Cluster-Administration, crm-Shell, pcs Stonith, Debugging, Backup/Disaster-Recovery
HA-Storage-Cluster
DRBD 8/9, GFS2, OCFS2, Ceph, Gluster, HA-Storage-Backends für VMware ESXi/vSphere
VMs im Cluster
Xen, KVM, VMs auf Ceph-RBD, Live-Migration im Cluster

Die Fachpresse zur Vorauflage:

IT Administrator: »Der Administrator ist nach dieser Lektüre Garant für den unterbrechungsfreien Geschäftsablauf.«

SearchSecurity.de: »Ein wirklich lohnenswertes Buch für Linux-Admins im Unternehmen.«

Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte und
offizieller Business Partner von SUSE und Red Hat. Als Dozent, Autor, Berater und Projektleiter ist er seit vielen Jahren für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Dabei blickt er auf 25 Jahre Berufserfahrung zurück.

Produktdetails

Einband gebundene Ausgabe
Seitenzahl 848
Erscheinungsdatum 28.09.2013
Sprache Deutsch
ISBN 978-3-8362-2542-7
Reihe Galileo Computing
Verlag Rheinwerk
Maße (L/B/H) 24,6/17,4/5,5 cm
Gewicht 1714 g
Auflage 2. Auflage

Kundenbewertungen

Es wurden noch keine Bewertungen geschrieben.

  • Artikelbild-0


  •   Vorwort ... 19

      1.  Mission Critical -- ausfallsichere Server ... 26

           1.1 ... Grundsätzliche Überlegungen zur Redundanz ... 27

           1.2 ... Tool-Time zum Ersten: Das richtige Werkzeug ... 34

      Teil I -- Hochverfügbarkeit (HA) auf Server-Ebene ... 39

      2.  Lokale Hochverfügbarkeit ... 40

           2.1 ... Vorbetrachtungen ... 40

           2.2 ... Netzteile, CPUs und mehr ... 42

      3.  Lokaler Storage ... 74

           3.1 ... Vorbetrachtungen ... 74

           3.2 ... The road ahead -- SSDs im Servereinsatz ... 78

           3.3 ... Disk-Überwachung: Clever mit SMART ... 83

      4.  Raid ... 90

           4.1 ... Raid-Level ... 91

           4.2 ... Exkurs: Raid-Kombilevel ... 97

           4.3 ... Hard- oder Software-Raids ... 98

           4.4 ... Softraids unter Linux ... 102

      5.  LVM -- Storage-Virtualisierung mit dem Logical Volume Manager ... 160

           5.1 ... LVM -- How it works ... 161

           5.2 ... Bitte lächeln -- Snapshots ... 173

           5.3 ... Spieglein, Spieglein … LVM-Raid statt unterliegendem Raid ... 183

      6.  BTRFS in der Praxis ... 194

           6.1 ... BTRFS: Vorbetrachtungen ... 194

           6.2 ... Ab in den Untergrund: Subvolumes ... 196

           6.3 ... BTRFS-Datenvolumen: Redundanz, Resizing und Snapshots ... 197

           6.4 ... BTRFS im Distributions-Einsatz als Root-FS/Subvolume ... 206

           6.5 ... Fazit ... 217

      Teil II -- Hochverfügbarkeits-Cluster ... 219

      7.  HA-Cluster -- Vorbetrachtungen ... 220

           7.1 ... How it works ... 220

           7.2 ... Clustertypen ... 221

           7.3 ... Cluster-Reigen: n-Node Cluster ... 226

           7.4 ... Cluster-Lobotomie: Split-Brain, Fencing und STONITH ... 226

           7.5 ... Volksentscheid: Cluster-Quorum ... 229

           7.6 ... Exkurs: Alles oder nichts -- Shared-all-/Shared-nothing-Cluster ... 230

      8.  HA-Basics ... 231

           8.1 ... Ressourcen und Agenten ... 232

           8.2 ... Alles eine Frage der Kommunikation: konzeptionelle ClusterÜbersicht ... 234

      9.  Clustersoftware ... 240

           9.1 ... Heartbeat ... 240

           9.2 ... Corosync ... 241

           9.3 ... Pacemaker ... 244

           9.4 ... Exkurs: CMAN und die roten Hüte ... 250

           9.5 ... Installation der Cluster-spezifischen Software ... 251

    10.  NTPD -- The Time Machine ... 256

           10.1 ... Setup ... 257

           10.2 ... NTP in VMs ... 260

    11.  Setup der Cluster-Kommunikation ... 265

           11.1 ... Corosync-Setup ... 267

           11.2 ... Exkurs: CMAN ... 282

           11.3 ... Heartbeat-Setup ... 285

    12.  Pacemaker ... 291

           12.1 ... Der Cluster-Monitor crm_mon ... 292

           12.2 ... First Contact ... 294

           12.3 ... Tool-Time zum 2.: Cluster-Admin-Tools ... 301

    13.  Management von Cluster-Ressourcen ... 325

           13.1 ... At your Service -- gestatten: Ihre Service-IP ... 326

           13.2 ... Integration von Ressourcen, Teil 1: Service-IP ... 327

           13.3 ... Örtlichkeiten -- Setzen von (Co-)Location-Constraints ... 336

           13.4 ... Failover-Simulation und Klebrigkeiten ... 338

           13.5 ... Schattenspielchen im Sandkasten -- Testsimulation mit crm_shadow ... 341

           13.6 ... CIB-Templating ... 345

           13.7 ... Ressourcen verwalten ... 346

           13.8 ... Integration von Ressourcen, Teil 2: Apache ... 351

           13.9 ... Colocation- und Ordering-Constraints in der Praxis ... 355

           13.10 ... Gruppentherapie ... 367

           13.11 ... Migration-Threshold und Failure-Timeout ... 369

           13.12 ... Benutzerrechte und Zugriffskontrollen im Cluster ... 373

    14.  Cluster-Beispiele aus der Praxis ... 377

           14.1 ... The Clone Wars -- Hot-Failover mit Clonesets ... 377

           14.2 ... Hot-Failover-Webservices mit Apache-Cloneset und ServiceIP ... 379

           14.3 ... Exkurs: Namensfragen -- SSL-/TLS-Verbindungen im FailoverFall ... 384

           14.4 ... Die gleiche Hausnummer -- Hot-Failover Apache-Cloneset mit zwei identischen Cluster-IPs ... 385

           14.5 ... Cephalopoden-Kunde, Teil 1: Failover-Proxy-Cluster mit Squid ... 391

           14.6 ... Maximum HA-Scaling: Hochverfügbares, applikationsunabhängiges Loadbalancing im Cluster ... 396

           14.7 ... »Geben Sie mir ein ›Ping‹, Wassili …«: Voll vernetzt -- die ping-/pingd-Ressource ... 418

           14.8 ... Inspector Gadget -- Ressourcen-Platzierung auf Basis von nodespezifischen System-Informationen ... 425

           14.9 ... Gruppentherapie zum Zweiten -- Failover einer Samba-3-Ressource ... 429

    15.  Pacemaker 1.1.8, Corosync 2.x und pcs ... 446

           15.1 ... Vorbetrachtungen ... 446

           15.2 ... Corosync-Konfiguration per pcs ... 447

           15.3 ... Fire it up … ... 450

           15.4 ... Pacemaker-Konfiguration per pcs ... 451

    16.  … und noch einmal Tool-Time: Eigene OCF-Ressource-Agenten erstellen ... 455

           16.1 ... Vorbetrachtungen ... 455

      Teil III -- Hochverfügbare Storage-Cluster ... 461

    17.  Ausfallsichere Shared-Nothing-Cluster mit DRBD ... 462

           17.1 ... DRBD -- Vorbetrachtungen ... 463

           17.2 ... DRBD-Standalone-Setup ... 470

           17.3 ... DRBD-Master/Slave-Ressource im S3/LDAP-Cluster ... 484

           17.4 ... Schnappschüsse zum Zweiten: DRBD-Backups per BTRFS oder LVM ... 491

           17.5 ... To Clone or not to DRBD -- hochverfügbare MySQL-Cluster ... 499

           17.6 ... Exkurs: Groß und wenig -- oder lieber klein und viel? Cluster-Storage-Export via NFS oder iSCSI ... 509

           17.7 ... DRBD-Master/Slave mit NFS-Clone als hochverfügbares Storage-Backend für VMware vSphere/ESXi-Hosts ... 510

           17.8 ... DRBD Dual-Primary Mode ... 516

           17.9 ... Cluster-Dateisysteme ... 523

           17.10 ... Die Cluster-FS-»Klassiker«: GFS2 und OCFS2 ... 527

           17.11 ... Pacemaker und Cluster-Filesysteme ... 528

           17.12 ... DRBD Dual-Primary mit OCFS2 im Pacemaker-Stack als S3-Storage-Backend ... 531

           17.13 ... DRBD Dual-Primary mit OCFS2 im eigenen O2CB-Stack ... 542

           17.14 ... DRBD Dual-Primary mit OCFS2 im CMAN-Stack ... 546

           17.15 ... Bitte lächeln -- Teil 3: Snapshots und Resizing mit DRBD DualPrimary und OCFS2 ... 547

           17.16 ... DRBD Dual-Primary mit OCFS2 und CLVM ... 551

           17.17 ... DRBD Dual-Primary mit GFS2 ... 558

           17.18 ... DRBD Dual-Primary mit GFS2 und NFS-Clone als Hot-Failover Storage-Backend für VMware ESXi/vSphere -- Hosts ... 561

           17.19 ... DRBD-Online-Device-Verification ... 565

           17.20 ... DRBD Replication Traffic Integrity Checking ... 566

           17.21 ... Stacked Fun? ... 567

    18.  The Road ahead -- DRBD 9.x ... 568

           18.1 ... Setup ... 569

           18.2 ... DRBD 9 -- Fazit ... 573

    19.  Gerechte Verteilung -- Distributed Storage Cluster mit GlusterFS und Ceph ... 575

           19.1 ... Hoch? Oder lieber breit? Scale-Out anstelle von Scale-Up ... 577

           19.2 ... GlusterFS ... 578

           19.3 ... Ceph(FS) ... 578

    20.  Alles nur Kopfsache -- Distributed Storage Cluster mit Ceph ... 580

           20.1 ... Vorbetrachtung ... 580

           20.2 ... Setup und Verwaltung unseres Ceph-Clusters ... 587

           20.3 ... Troubleshooting und Debugging ... 625

           20.4 ... Rhythmischer Octopus -- Ceph/Samba 4 Storage Cluster ... 627

           20.5 ... Hochverfügbares Ceph-RBD-Storage-Backend für S4 ... 642

    21.  Distributed Storage Cluster mit GlusterFS ... 647

           21.1 ... GlusterFS -- Installationsvoraussetzungen ... 648

           21.2 ... Setup der Gluster-Nodes ... 649

           21.3 ... Pacemaker-Integration von Gluster ... 655

           21.4 ... Begegnung der dritten Art: UFO -- Objektbasierter Gluster-Storage ... 658

    22.  Geo-Site-/Multi-Site-(DFS-)Cluster für Datacenter ... 659

           22.1 ... Konzeptionelles Setup einer 2-Datacenter-Ceph-Multi-Site-Replication via LAN ... 660

           22.2 ... Geo-Replication mit Gluster ... 666

           22.3 ... Ticket am Start? Geo-Site-/Multi-Site-Cluster mit Tickets und Boothd ... 668

           22.4 ... Cluster-Storage -- Fazit ... 672

    23.  iSCSI im Cluster ... 675

           23.1 ... iSCSI-Basics ... 675

           23.2 ... Setup der iSCSI-Ressourcen (DRBD im Primary/Secondary) ... 676

           23.3 ... Einrichtung des iSCSI-Initiators ... 679

           23.4 ... DRBD-Master/Slave mit iSCSITarget als hochverfügbarem Storage-Backend für VMware ESXi/vSphere-Hosts ... 682

           23.5 ... DRBD im DualPrimary mit Cluster-FS als iSCSITarget für multiple Initiatoren ... 685

           23.6 ... Ceph/RBD als hochredundantes iSCSITarget ... 687

      Teil IV -- STONITH und Debugging im Cluster ... 689

    24.  Node-Fencing mit STONITH ... 690

           24.1 ... Vorbetrachtungen ... 690

           24.2 ... Einfaches STONITH-Test-Setup mit external/ssh ... 691

           24.3 ... Watchdog ... 695

           24.4 ... SBD -- STONITH per Split-Brain-Detector ... 695

           24.5 ... Quorum-Disk ... 697

           24.6 ... STONITH per external/ibmrsa-telnet ... 702

           24.7 ... STONITH per external/riloe und external/ipmi ... 704

           24.8 ... Fencing von virtualisierten Pacemaker-Clusternodes auf ESXi/vSphere-Hosts ... 705

    25.  Debugging im Cluster ... 711

    26.  Virtualisierung im Cluster ... 718

           26.1 ... Virtualisierungskonzepte -- oder: Die wundersame Welt der Zwiebel ... 721

           26.2 ... Xen ... 725

           26.3 ... KVM/qemu ... 752

    27.  Backup und Disaster Recovery ... 774

           27.1 ... Analyse ... 775

           27.2 ... Umsetzung ... 777

      Anhang ... 791

           A.1 ... Beispieldateien ... 791

           A.2 ... Paketlisten ... 791

           A.3 ... Manpages ... 807

      Index ... 831