top of page
  • Reto Wittmer

Was sind künstliche neuronale Netze?

Die Welt der Technologie und Innovation wird immer faszinierender. Eine der aufregendsten Entwicklungen in den letzten Jahrzehnten ist die Nutzung von künstlichen neuronalen Netzen (KNN) für maschinelles Lernen und künstliche Intelligenz. Diese fortschrittlichen Systeme, die sich an den Strukturen des menschlichen Gehirns orientieren, haben die Fähigkeit, komplexe Problemstellungen zu lösen, die für uns Menschen fast unüberwindlich wären.

Was sind künstliche neuronale Netze?

Künstliche neuronale Netze sind Algorithmen, die in der Lage sind, eine Vielzahl von komplexen Aufgaben aus Bereichen wie Statistik, Informatik und Wirtschaft zu bewältigen. Der grundlegende Aufbau eines KNN besteht aus drei Hauptschichten: der Eingabeschicht (Input), den verborgenen Schichten und der Ausgabeschicht (Output).

Eingabeschicht

Die Eingabeschicht versorgt das neuronale Netz mit notwendigen Informationen. Eingegebene Daten werden von sogenannten Input-Neuronen verarbeitet und an die nächste Schicht gewichtet weitergeführt.

Verborgene Schicht

Diese Schicht befindet sich zwischen Eingabeschicht und Ausgabeschicht. Während Ein– und Ausgabeschicht aus einer Ebene bestehen, können in der verborgenen Schicht beliebig viele Ebenen an Neuronen vorhanden sein. Empfangene Informationen werden erneut gewichtet und von Neuron zu Neuron bis zur Ausgabeschicht weitergeleitet. Obwohl eine Gewichtung in jeder Ebene der verborgenen Schicht stattfindet, ist die genaue Prozessierung der Informationen nicht sichtbar. Aus diesem Grund hat diese Ebene den Namen “verborgene Schicht”. Der innere Bereich des neuronalen Netzes ist im Prinzip eine Black Box.

Ausgabeschicht

Die Ausgabeschicht ist die letzte Schicht im neuronalen Netz und schließt unmittelbar an die letzte Ebene der verborgenen Schicht. Die Output-Neuronen beinhalten die resultierende Entscheidung, die als Informationsfluss hervorgeht.


Wie funktionieren KNN?

Eine Hauptfunktion eines künstlichen neuronalen Netzes ist das so genannte Deep Learning. Bei einer vorhandenen Netzstruktur erhält jedes Neuron ein zufälliges Anfangsgewicht. Die Eingangsdaten werden dann in das Netz aufgenommen und von jedem Neuron individuell gewichtet. Ein gesammeltes Ergebnis dieser Berechnung wird an die nächsten Neuronen der folgenden Schicht weitergegeben. Bei diesem Vorgang spricht man auch von der Aktivierung der Neuronen. Die Berechnung des Gesamtergebnisses erfolgt dann in der Ausgangsschicht.


Wie bei maschinellen Lernmethoden üblich, sind nicht alle Outputs richtig und es treten Fehler auf. Diese Fehler sind berechenbar und der Beitrag jedes Neurons zum Fehler kann ermittelt werden. Im nächsten Lernzyklus werden die Gewichte der betroffenen Neuronen angepasst, um den Fehler zu minimieren. Dieser iterative Prozess ermöglicht es dem KNN, von den Eingabedaten auf bekannte Ausgabedaten zu schließen.

Anwendungsbereiche

Die Anwendungsbereiche von künstlichen neuronalen Netzen sind vielfältig. Typischerweise werden sie vor allem in Bereichen eingesetzt, bei denen wenig systematisches Wissen vorliegt, aber eine große Menge unpräziser, unstrukturierter Daten verarbeitet werden muss. Dies umfasst Gebiete wie autonomes Fahren, Frühwarnsysteme, Bilderkennung, Betrugserkennung, Wettervorhersagen und vieles mehr.

Arten


Perceptron

Das Perceptron ist das einfachste und älteste neuronale Netz. Bei diesem Verfahren werden die Eingabeparameter addiert, und nach Anwendung der Aktivierungsfunktion wird das Ergebnis an die Ausgabeschicht gesendet. Dieses Ergebnis ist binär, also entweder 0 oder 1 und mit einer menschlichen Ja- oder Nein-Entscheidung vergleichbar, indem der Wert der Aktivierungsfunktion mit einem Schwellwert verglichen wird.

Eine Überschreitung des Schwellwertes wird mit dem Ergebnis “1” zugeordnet, bei einer Unterschreitung erfolgt das Ergebnis “0”.

Basierend auf diesem System wurden weitere neuronale Netze und Aktivierungsfunktionen entwickelt, welche es ermöglichen, mehrere Ausgaben mit Werten zwischen 0 und 1 zu erhalten.

Feed Forward Neural Networks

Dieses Prinzip findet seinen Ursprung bereits im Jahr 1950 und zeichnet sich damit aus, dass die Schichten lediglich mit der nächsthöheren Schicht verbunden sind.


Der Ablauf des Trainingsprozesses sieht wie folgt aus:

  1. Alle Knoten sind miteinander verbunden

  2. Die Aktivierung verläuft von der Eingangsschicht bis zur Ausgangsschicht

  3. Es befindet sich mindestens eine Schicht zwischen Eingangs- und Ausgangsschicht.

Befinden sich besonders viele Schichten zwischen Eingangs- und Ausgangsschicht, spricht man von Deep Feed Forward Neural Networks.

Recurrent Neural Networks (RNN)

Bei dem RNN werden dem künstlichen neuronalen Netz wiederkehrende Zellen hinzugefügt, wodurch neuronale Netze ein Gedächtnis erhalten. Diese Methode wird vor allem dann verwendet, wenn der Kontext zu beachten ist. Denn dann beeinflussen Entscheidungen aus vergangenen Iterationen oder Proben die aktuellen. Ein entscheidender Nachteil von Recurrent Neural Networks ist jedoch, dass sie mit der Zeit instabil werden. Inzwischen ist es gang und gäbe, sogenannte Long Short-Term Memory Units zu verwenden. Diese stabilisieren das RNN auch für Abhängigkeiten, die über einen längeren Zeitraum bestehen.

Ein Beispiel hierfür ist die Verarbeitung von Videos, beispielsweise beim autonomen Fahren, wo Objekte innerhalb von Bildsequenzen erkannt und über die Zeit verfolgt werden.

19 Ansichten0 Kommentare

Ähnliche Beiträge

Alle ansehen
bottom of page