Das Gehirn ist von Natur aus darauf ausgelegt, zu lernen, Beziehungen herzustellen und Schlüsse daraus zu ziehen. Das geht so automatisch, dass Kinder laufen lernen und Erwachsene sich noch bis ins hohe Alter neue Sprachen aneignen.
Maschinen oder Computer haben es da nicht so einfach, ihnen etwas beizubringen ist immer mit hohem Aufwand verbunden und nur mit viel menschlichem zutun möglich.
Zumindest war das bisher so. Neue Techniken und Methoden sind in den letzten Jahren dabei unser Verständnis davon, wie man Maschinen etwas beibringen, kann über den Haufen zu werfen.
In der Vergangenheit war es immer so, dass man dem Computer explizit erklären musste, wie er eine Aufgabe lösen sollte, das geschieht mit sogenannten Algorithmen, Anweisungen und Entscheidungsbäumen, die vorgeben, wie mit Daten umzugehen ist. Ein Beispiel dafür ist die Mustererkennung bei Sprache oder handgeschriebenen Texten. In der Vergangenheit mussten die Zeichen bei handgeschriebenen Wörtern zunächst im Computer bearbeitet werden, die Ränder mussten herausgefiltert werden und man musste die Zeichen auf möglichst einfache Formen herunterrechnen, damit der Computer die Details in einer Datenbank abgleichen konnte. Im nächsten Schritt konnte man dann versuchen das Wort in einem Lexikon zu finden und evtl. Korrekturen vornehmen. Jeder einzelne Schritt erforderte einen enormen Programmieraufwand, der die Programme langsam machte und während das ganze mit Druckbuchstaben noch ganz gut funktionierte, war krakelige Handschrift kaum verlässlich zu entziffern.
Schon in den späten sechziger Jahren kam man deshalb auf die Idee, dass es gut wäre, wenn sich Computer dieses Wissen selbst aneignen könnten, wie das lebende Gehirn auch.
Ideal dafür sind künstliche neuronale Netze, sie sind den natürlichen nachgebildet und wie diese in Schichten aufgebaut sind. So können verschachtelte Eigenschaften auf einander gründend erfassen werden.
In der ersten Ebene werden zum Beispiel grundlegende Formen erkannt. Die künstlichen Neuronen reagieren zum Beispiel auf Kannten und darauf, ob diese horizontal oder vertikal ausgerichtet sind. Die nächste Schicht integriert diese Erkenntnis zu einfachen Formen, Linien, Kreise und so weiter bis hin zu Buchstaben und dann zusammenhängende Wörter oder einzelnen Silben und schließlich ganze Sätze.
Die Idee Neuronale Netzte, wie im Gehirn nachzubilden und zu nutzen, um Computern das Lernen beizubringen, ist nicht neu. 1969 schrieben Marvin Minsky und Seymour A. Papert das Buch Perceptrons und untersuchten die Möglichkeiten und Beschränkungen neuronaler Netzwerke. Ein großes Hemmnis war damals das ausschließende oder (dies, oder das, aber nicht beides).
Erst in den 1980 gelang es Geoff Hinton die aufgezeigten Schwierigkeiten in einem Netzwerk künstlicher Neuronen zu umgehen, indem er versteckte Neuronen in die Architektur einbrachte. Aber sie lernten noch immer viel zu langsam und noch lange nicht so gut, wie ein echtes Gehirn und in den 1990ern sank das Interesse an Neuronalen Netzen wieder.
Mit Fortschreiten der Computertechnik wurden sie wieder interessant, dann man musste keine Netzwerke mehr nachbauen, sondern konnte sie auf schnellen Rechnern simulieren.
2006 führte Hinton dann das Konzept des Deep Learning ein. Das Netzwerk aus mehren schichten simulierter Neuronen sollte selbstständig lernen, indem man es mit einem großen Datensatz konfrontierte.
Und das tat es. 2011 brauchte das Google Brain drei Tage um zehn Millionen Bilder zu durchforsten und festzustellen, menschliche Gesichter, Körper und Katzen einen Großteil der Bilderflut im Internet ausmachten.
Damit waren Neuronale Netzte wieder zurück auf der Bildfläche und das Interesse größer als je zuvor. Denn genau diese Methode war es, die man brauchte, um den gigantischen Datenmengen heutzutage überhaupt noch Herr werden zu können. Ganz zu schweigen von den Anwendungen im Bereich Spracherkennung und Bildverarbeitung.
Die grundlegende Vorgehensweise des Neuronalen Netzes ist dabei, Ähnlichkeiten zu gruppieren und zusammenzufassen. Das funktioniert inzwischen sehr gut, dort wo Merkmale erkannt werden können. Es ist aber noch ein sehr weiter weg von hier bis zu dem Punkt, bei dem die Maschine tatsächlich versteht, was da zum Beispiel an Text geschrieben wird.
Deep Learning wird eingesetzt um Apples Siri, Microsofts Cortona und auch Android Geräte menschliche Sprache erkennen zu lassen und das klappt erstaunlich gut.
Diese Erkennung von Mustern, seien das Gesichter, Texte oder gesprochene Sprache macht zu zeit große fortschritte und computerisierte Autos lernen zurzeit, sich im Stadtverkehr zurechtzufinden.
Nur bis der Computer wirklich versteht und eigenen logische Schlüsse daraus ziehen kann, wird es wohl noch ein wenig mehr Zeit brauchen.
Kommentare, Fragen und Anmerkungen (Forum)