Warenkorb

>>Bis zu 80% sparen* - Der großer Bücher SALE zu Weihnachten

Neuronale Netze programmieren mit Python

Schneller Einstieg mit allen Python- und Mathegrundlagen. Lernalgorithmen, Aktivierungsfunktionen, Backpropagation. Inkl. Online-Lernumgebung und Einstieg in TensorFlow. Alle Beispielprojekte zum Download

Geniale Ideen einfach erklärt



  • Schneller Einstieg mit allen Python- und Mathegrundlagen

  • Lernalgorithmen, Aktivierungsfunktionen, Backpropagation

  • Inkl. Online-Lernumgebung und Einstieg in TensorFlow


Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht. Sie revolutionieren derzeit die verschiedensten Anwendungsgebiete vom Strategiespiel bis zur Bild- und Spracherkennung.
Um sie gewinnbringend einzusetzen oder um zu verstehen, worauf ihr Erfolg beruht, lernen Sie sie gründlich kennen: Programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse.

Aus dem Inhalt:


  • Die Grundidee hinter Neuronalen Netzen

  • Ein einfaches Neuronales Netz aufbauen

  • Neuronale Netze trainieren

  • Überwachtes und unüberwachtes Lernen

  • Einführung in TensorFlow

  • Kompaktkurs Python

  • Wichtige mathematische Grundlagen

  • Reinforcement Learning

  • Verschiedene Netzarten und ihre Anwendungsbereiche

  • Back Propagation

  • Deep Learning

  • Werkzeuge für Data Scientists

Portrait
Schwaiger, Roland
Dr. Roland Schwaiger studierte an der Bowling Green State University, OH (USA) Computer Science und an der Universität Salzburg (Österreich) Angewandte Informatik und Mathematik und promovierte dort im Bereich Mathematik. Nach mehrjähriger Assistententätigkeit an der Universität Salzburg kam er 1996 als Softwareentwickler zur SAP AG und entfaltete dort seine Fähigkeiten für drei Jahre im Bereich Human Resources in einem anregenden und inspirierenden Umfeld. Seit 1999 ist er als freiberuflicher Trainer, Lektor, Berater und Entwickler tätig (Zertifizierter Development Consultant SAP NetWeaver 2004 - Application Development Focus ABAP). Er setzt seine akademische Vorbildung und das bei SAP erworbene Wissen, abgerundet durch einen MBA in Prozess- und Projektmanagement, für die Softwareentwicklung in konkreten Entwicklungsprojekten und SAP-Schulungen ein. Die dort wiederum erworbenen Erkenntnisse trägt er zurück in die akademische Welt und verknüpft so Theorie und Praxis.

Steinwendner, Joachim
Dr. Joachim Steinwendner ist wissenschaftlicher Projektleiter am Laboratory of Web Science an der Fernfachhochschule Schweiz.
… weiterlesen
  • Artikelbild-0


  •   Materialien zum Buch ... 12

      Vorwort ... 13

      1.  Einleitung ... 17

           1.1 ... Wozu neuronale Netze? ... 17

           1.2 ... Über dieses Buch ... 18

           1.3 ... Der Inhalt kompakt ... 19

           1.4 ... Ist die Biene eine Königin? ... 23

           1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 24

           1.6 ... Von der Biologie zum künstlichen Neuron ... 28

           1.7 ... Einordnung und der Rest ... 33

           1.8 ... Zusammenfassung ... 40

           1.9 ... Referenzen ... 41

    Teil I  Up and running ... 43

      2.  Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 45

           2.1 ... Die technische Entwicklungsumgebung ... 45

           2.2 ... Zusammenfassung ... 62

      3.  Ein einfaches neuronales Netz ... 63

           3.1 ... Vorgeschichte ... 63

           3.2 ... Her mit dem neuronalen Netz! ... 63

           3.3 ... Neuron-Zoom-in ... 67

           3.4 ... Stufenfunktion ... 71

           3.5 ... Perceptron ... 73

           3.6 ... Punkte im Raum - Vektorrepräsentation ... 75

           3.7 ... Horizontal und vertikal - Spalten- und Zeilenschreibweise ... 81

           3.8 ... Die gewichtete Summe ... 84

           3.9 ... Schritt für Schritt - Stufenfunktionen ... 84

           3.10 ... Die gewichtete Summe reloaded ... 85

           3.11 ... Alles zusammen ... 86

           3.12 ... Aufgabe - Roboterschutz ... 88

           3.13 ... Zusammenfassung ... 91

           3.14 ... Referenzen ... 91

      4.  Lernen im einfachen Netz ... 93

           4.1 ... Vorgeschichte: Man lässt planen ... 93

           4.2 ... Lernen im Python-Code ... 95

           4.3 ... Perceptron-Lernen ... 95

           4.4 ... Trenngerade für einen Lernschritt ... 99

           4.5 ... Perceptron-Lernalgorithmus ... 100

           4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 105

           4.7 ... scikit-learn-kompatibler Estimator ... 109

           4.8 ... scikit-learn-Perceptron-Estimator ... 116

           4.9 ... Adaline ... 118

           4.10 ... Zusammenfassung ... 126

           4.11 ... Referenzen ... 128

      5.  Mehrschichtige neuronale Netze ... 129

           5.1 ... Ein echtes Problem ... 129

           5.2 ... XOR kann man lösen ... 131

           5.3 ... Vorbereitungen für den Start ... 135

           5.4 ... Der Plan für die Umsetzung ... 137

           5.5 ... Das Setup (»class«) ... 138

           5.6 ... Die Initialisierung (»__init__«) ... 140

           5.7 ... Was für zwischendurch (»print«) ... 142

           5.8 ... Die Auswertung (»predict«) ... 143

           5.9 ... Die Verwendung ... 145

           5.10 ... Zusammenfassung ... 147

      6.  Lernen im mehrschichtigen Netz ... 149

           6.1 ... Wie misst man einen Fehler? ... 149

           6.2 ... Gradientenabstieg an einem Beispiel ... 151

           6.3 ... Ein Netz aus sigmoiden Neuronen ... 160

           6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Multiplikation ... 162

           6.5 ... Ein »fit«-Durchlauf ... 175

           6.6 ... Zusammenfassung ... 184

           6.7 ... Referenz ... 184

      7.  Convolutional Neural Networks ... 185

           7.1 ... Aufbau eines CNN ... 187

           7.2 ... Der Detektionsteil ... 188

           7.3 ... Der Identifikationsteil ... 195

           7.4 ... Trainieren von Convolutional Neural Networks ... 197

           7.5 ... Zusammenfassung ... 206

           7.6 ... Referenzen ... 206

      8.  Programmierung von Convolutional Neural Networks mit TensorFlow ... 207

           8.1 ... Einführung in TensorFlow ... 207

           8.2 ... Convolutional Networks zur Handschriftenerkennung ... 215

           8.3 ... Transfer Learning mit Convolutional Neural Networks ... 228

           8.4 ... Zusammenfassung ... 237

           8.5 ... Referenzen ... 237

    Teil II  Deep Dive ... 239

      9.  Vom Hirn zum Netz ... 241

           9.1 ... Ihr Gehirn in Aktion ... 241

           9.2 ... Das Nervensystem ... 242

           9.3 ... Das Gehirn ... 243

           9.4 ... Neuronen und Gliazellen ... 245

           9.5 ... Eine Übertragung im Detail ... 247

           9.6 ... Darstellung von Zellen und Netzen ... 250

           9.7 ... Zusammenfassung ... 252

           9.8 ... Referenzen ... 253

    10.  Die Evolution der neuronalen Netze ... 255

           10.1 ... 1940er ... 255

           10.2 ... 1950er ... 258

           10.3 ... 1960er ... 260

           10.4 ... 1970er ... 260

           10.5 ... 1980er ... 261

           10.6 ... 1990er ... 274

           10.7 ... 2000er ... 275

           10.8 ... 2010er ... 275

           10.9 ... Zusammenfassung ... 277

           10.10 ... Referenzen ... 278

    11.  Der Machine-Learning-Prozess ... 279

           11.1 ... Das CRISP-DM-Modell ... 279

           11.2 ... Feature Engineering ... 283

           11.3 ... Zusammenfassung ... 312

           11.4 ... Referenzen ... 312

    12.  Lernverfahren ... 313

           12.1 ... Lernstrategien ... 313

           12.2 ... Werkzeuge ... 350

           12.3 ... Zusammenfassung ... 355

           12.4 ... Referenzen ... 355

    13.  Anwendungsbereiche und Praxisbeispiele ... 357

           13.1 ... Warmup ... 357

           13.2 ... Bildklassifikation ... 360

           13.3 ... Erträumte Bilder ... 381

           13.4 ... Zusammenfassung ... 391

           13.5 ... Referenzen ... 392

      A.  Python kompakt ... 393

      B.  Mathematik kompakt ... 421

      Index ... 435

In den Warenkorb

Beschreibung

Produktdetails

Einband Paperback
Seitenzahl 447
Erscheinungsdatum 26.04.2019
Sprache Deutsch
ISBN 978-3-8362-6142-5
Reihe Rheinwerk Computing
Verlag Rheinwerk Verlag GmbH
Maße (L/B/H) 23,4/17,4/2,9 cm
Gewicht 824 g
Auflage 1
Verkaufsrang 29665
Buch (Paperback)
Buch (Paperback)
30,80
30,80
inkl. gesetzl. MwSt.
inkl. gesetzl. MwSt.
Versandfertig innerhalb 48 Stunden Versandkostenfrei
Versandfertig innerhalb 48 Stunden
Versandkostenfrei
In den Warenkorb
Vielen Dank für Ihr Feedback!
Entschuldigung, beim Absenden Ihres Feedbacks ist ein Fehler passiert. Bitte versuchen Sie es erneut.
Ihr Feedback zur Seite
Haben Sie alle relevanten Informationen erhalten?
Ihr Feedback ist anonym. Wir nutzen es, um unsere Produktseiten zu verbessern. Bitte haben Sie Verständnis, dass wir Ihnen keine Rückmeldung geben können. Wenn Sie Kontakt mit uns aufnehmen möchten, können Sie sich aber gerne an unseren Kundenservice wenden.

Kundenbewertungen

Es wurden noch keine Bewertungen geschrieben.