Deep Learning

Aus AnthroWiki
Geschichtete Repräsentation von Bildern auf mehreren Abstraktionsebenen[1]
Links: Eingangsschicht (input layer) mit in diesem Fall drei Eingangsneuronen. Rechts: Ausgabeschicht mit den Ausgangsneuronen, in diesem Bild zwei. Die mittlere Schicht wird als verborgen bezeichnet (hidden layer), da ihre Neuronen weder Eingänge noch Ausgänge sind. Hier ist nur eine verborgene Schicht zu sehen, aber viele Netzwerke haben deutlich mehr. Die notwendige Anzahl von Ebenen, ab denen man von „Deep Learning“ spricht, ist nicht genau festgelegt.

Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem künstliche neuronale Netze mit vielen Schichten (tiefen Netzen) verwendet werden, um komplexe Muster in großen Datenmengen zu erkennen und zu lernen.

Im Gegensatz zu flachen Netzwerken, die nur eine oder zwei Schichten haben, sind tiefe neuronale Netze in der Lage, hierarchische Merkmale aus den Daten zu extrahieren. Jede Schicht des Netzes transformiert die Eingabe auf eine Art und Weise, die es dem Netzwerk ermöglicht, immer abstraktere Merkmale der Daten zu lernen. Zum Beispiel kann eine erste Schicht in einem Bilderkennungsnetzwerk Kanten und Linien erkennen, während spätere Schichten komplexere Merkmale wie Formen, Texturen und Objekte erkennen.

Deep-Learning-Modelle werden typischerweise durch Training mit einem großen Datensatz von Eingabe- und Zielbeispielen erstellt. Während des Trainings wird das Netzwerk aufgefordert, die korrekten Ausgaben für jede Eingabe zu generieren. Durch die Anpassung der Gewichte in den Neuronen des Netzes wird das Modell so angepasst, dass es in der Lage ist, genaue Vorhersagen für neue, bisher ungesehene Eingabedaten zu machen.

Eines der bemerkenswertesten Merkmale von Deep Learning ist, dass es in vielen Anwendungen besser abschneidet als traditionelle Machine-Learning-Modelle. Deep-Learning-Modelle haben zum Beispiel in der Bilderkennung, der Spracherkennung, der Sprachübersetzung, der Textgenerierung und der Robotik beeindruckende Ergebnisse erzielt.

Voraussetzungen und Grundlagen

Die in der Anfangszeit der künstlichen Intelligenz gelösten Probleme waren für den Menschen intellektuell schwierig, aber für Computer einfach zu verarbeiten. Diese Probleme ließen sich durch formale mathematische Regeln beschreiben. Die wahre Herausforderung an die künstliche Intelligenz bestand jedoch in der Lösung von Aufgaben, die für die Menschen leicht durchzuführen sind, deren Lösung sich aber nur schwer durch mathematische Regeln formulieren lassen. Dies sind Aufgaben, die der Mensch intuitiv löst, wie zum Beispiel Sprach- oder Gesichtserkennung.[2][3]

Eine computerbasierte Lösung für diese Art von Aufgaben beinhaltet die Fähigkeit von Computern, aus der Erfahrung zu lernen und die Welt in Bezug auf eine Hierarchie von Konzepten zu verstehen. Hierbei ist jedes Konzept durch seine Beziehung zu einfacheren Konzepten definiert. Durch das Sammeln von Wissen aus der Erfahrung vermeidet dieser Ansatz die Notwendigkeit für die menschlichen Bediener, all das Wissen, das der Computer für seine Arbeit benötigt, formal spezifizieren zu müssen. Die Hierarchie der Konzepte erlaubt es dem Computer, komplizierte Konzepte zu erlernen, indem er sie aus einfacheren zusammensetzt. Wenn man ein Diagramm zeichnet, das zeigt, wie diese Konzepte übereinander aufgebaut werden, dann ist das Diagramm tief, mit vielen Schichten. Aus diesem Grund wird dieser Ansatz in der künstlichen Intelligenz „Deep Learning“ genannt.[2][4]

Es ist schwierig für einen Computer, die Bedeutung von rohen sensorischen Eingangsdaten zu verstehen, wie beispielsweise in der Handschrifterkennung, wo ein Text zunächst nur als eine Sammlung von Bildpunkten existiert. Die Überführung einer Menge von Bildpunkten in eine Kette von Ziffern und Buchstaben ist sehr kompliziert. Komplexe Muster müssen aus Rohdaten extrahiert werden. Das Lernen oder Auswerten dieser Zuordnung scheint unüberwindbar schwierig, wenn sie manuell programmiert werden würde.[2]

Eine der häufigsten Techniken in der künstlichen Intelligenz ist maschinelles Lernen. Maschinelles Lernen ist ein selbstadaptiver Algorithmus. Deep Learning, eine Teilmenge des maschinellen Lernens, nutzt eine Reihe hierarchischer Schichten bzw. eine Hierarchie von Konzepten, um den Prozess des maschinellen Lernens durchzuführen. Die hierbei benutzten künstlichen neuronalen Netze sind wie das menschliche Gehirn gebaut, wobei die Neuronen wie ein Netz miteinander verbunden sind. Die erste Schicht des neuronalen Netzes, die sichtbare Eingangsschicht, verarbeitet eine Rohdateneingabe, wie beispielsweise die einzelnen Pixel eines Bildes. Die Dateneingabe enthält Variablen, die der Beobachtung zugänglich sind, daher „sichtbare Schicht“.[2]

Diese erste Schicht leitet ihre Ausgaben an die nächste Schicht weiter. Diese zweite Schicht verarbeitet die Informationen der vorherigen Schicht und gibt das Ergebnis ebenfalls weiter. Die nächste Schicht nimmt die Informationen der zweiten Schicht entgegen und verarbeitet sie weiter. Diese Schichten werden als versteckte Ebenen (eng. hidden layers) bezeichnet. Die in ihnen enthaltenen Merkmale werden zunehmend abstrakt. Ihre Werte sind nicht in den Ursprungsdaten angegeben. Stattdessen muss das Modell bestimmen, welche Konzepte für die Erklärung der Beziehungen in den beobachteten Daten nützlich sind. Dies geht über alle Ebenen des künstlichen neuronalen Netzes so weiter. Das Ergebnis wird in der sichtbaren letzten Schicht ausgegeben. Hierdurch wird die gewünschte komplizierte Datenverarbeitung in eine Reihe von verschachtelten einfachen Zuordnungen unterteilt, die jeweils durch eine andere Schicht des Modells beschrieben werden.[2][5][4][6]

Siehe auch

Literatur

  •  François Chollet: Deep Learning mit Python und Keras: Das Praxis-Handbuch vom Entwickler der Keras-Bibliothek. mitp, 2018, ISBN 978-3-95845-838-3.
  • Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep Learning: Adaptive Computation and Machine Learning. MIT Press, Cambridge USA 2016, ISBN 978-0-262-03561-3.
  • Jürgen Schmidhuber: Deep learning in neural networks: An overview. In: Neural Networks, 61, 2015, S. 85, arxiv:1404.7828 [cs.NE].
  • Rob F. Walker: Artifical Intelligence in Business: Balancing Risk and Reward, 2017, Seite 1–23.

Einzelnachweise

  1.  Hannes Schulz, Sven Behnke: Deep Learning: Layer-Wise Learning of Feature Hierarchies. In: KI - Künstliche Intelligenz. 26, Nr. 4, 2012, ISSN 0933-1875, S. 357–363, doi:10.1007/s13218-012-0198-z (http://link.springer.com/10.1007/s13218-012-0198-z).
  2. Hochspringen nach: 2,0 2,1 2,2 2,3 2,4 Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep Learning. MIT Press, abgerufen am 19. Februar 2017 (english).
  3. Mathias Schuh, Lukas Friehoff: Deep Learning im Rechtsmarkt. In: LEGAL REVOLUTIONary. 23. Mai 2019, abgerufen am 23. August 2021.
  4. Hochspringen nach: 4,0 4,1 Michael Nielsen: Neural Networks and Deep Learning. Determination Press, abgerufen am 21. Februar 2017 (english).
  5. David Kriesel: Ein kleiner Überblick über Neuronale Netze. (PDF; 6,1 MB) In: dkriesel.com. 2005, abgerufen am 21. Januar 2019.
  6.  Li Deng, Dong Yu: Deep Learning: Methods and Applications. In: Foundations and Trends in Signal Processing Volume 7 Issues 3-4. 1. Mai 2014, ISSN 1932-8346 (https://www.microsoft.com/en-us/research/publication/deep-learning-methods-and-applications/).
Dieser Artikel basiert auf einer für AnthroWiki adaptierten Fassung des Artikels Deep Learning aus der freien Enzyklopädie de.wikipedia.org und steht unter der Lizenz Creative Commons Attribution/Share Alike. In Wikipedia ist eine Liste der Autoren verfügbar.