Sie haben noch keine Produkte im Warenkorb.

Neuronale Netze und Deep Learning kapieren

29,99 €
Auf Lager.
0
Ihre Kundenmeinung hinzufügen Artikelnummer 2175513 Veröffentlicht am 29.11.2019
Versand per:
Deutsche Post DHL UPS pin MAIL
Verlag MITP-Verlag Bindung Taschenbuch ISNB / EAN 9783747500156 Gewicht 608 Maße 171x241x20 von Andrew W. Trask

Produktbeschreibung

Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-Algorithmen
Anschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPy
Keine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich
Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht.

Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz.

Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen.
Aus dem Inhalt:

Parametrische und nichtparametrische Modelle
Überwachtes und unüberwachtes Lernen
Vorhersagen mit mehreren Ein- und Ausgaben
Fehler messen und verringern
Hot und Cold Learning
Batch- und stochastischer Gradientenabstieg
Überanpassung vermeiden
Generalisierung
Dropout-Verfahren
Backpropagation und Forward Propagation
Bilderkennung
Verarbeitung natürlicher Sprache (NLP)
Sprachmodellierung
Aktivierungsfunktionen

Sigmoid-Funktion
Tangens hyperbolicus
Softmax
Convolutional Neural Networks (CNNs)
Recurrent Neural Networks (RNNs)
Long Short-Term Memory (LSTM)
Deep-Learning-Framework erstellen


Weitere beliebte Produkte

Bewertungen

0

Schreiben Sie als erster eine Rezension

Ihre Meinung interessiert uns – und hilft anderen Kunden bei der Auswahl.