Die Eignung Neuronaler Netze für die Mining-Funktionen Clustern und Vorhersage
Diplomica Verlag
9783958509863 (ISBN)
Die Literatur über Data Mining dokumentiert zahlreiche Versuche, aus verschiedenartigsten Datenbeständen neue Erkenntnisse zu gewinnen. Hierbei werden unterschiedliche Algorithmen des Data Mining beschrieben. Ziel hierbei ist es, die Eignung Neuronaler Netze, oft auch als Künstliche Neuronale Netze bezeichnet, als Mining-Algorithmen für die Mining-Funktionen Clustern und Vorhersage zu untersuchen. Dabei begrenzt sich die Sichtweise auf Backpropagation- und Kohonen-Netze, da diese Neuronalen Netze für Clustern und Vorhersagen prädestiniert sind.
Textprobe:
Kapitel 2, Neuronale Netze:
2.1, Hintergrund - Eine kurze Geschichte der Neuroinformatik:
Die Ursprünge der Neuroinformatik sind die Arbeiten von WARREN MCCULLOCH und WALTER PITTS (1943) und von DONALD HEBB (1949). MCCULLOCH und PITTS beschreiben in ihrem Aufsatz eine mathematisch formalisierte Version eines Neurons, das Schwellenwertneuron: Die Ausgabe des Neurons ist 1, wenn die gewichtete Summe der Eingaben den Schwellenwert des Neurons überschreitet, und 0 andernfalls. MCCULLOCH und PITTS zeigen, dass Netze aus solchen Neuronen beliebige boolesche Funktionen berechnen können. Diesem diskreten Ansatz stehen andere gegenüber, die ein Kontinuum betrachten und auf Differentialgleichungen basieren, um Aussagen über globales Verhalten zu machen; am bekanntesten sind die Arbeiten von Wiener.
Auf diesen theoretischen Grundlagen baut die primitive Phase der Neuroinformatik auf, die etwa Mitte der 50er Jahre beginnt. Ausdrücklich als Versuch zur Modellierung des Gehirns wird eine Reihe von Varianten einer Klasse von Maschinen für optische Wahrnehmung untersucht, die Perceptrons. Ein Perceptron berechnet im einfachsten Fall aus einer festen Menge von lokalen Prädikaten über begrenzte Teilbereiche einer (gedachten) Netzhaut ein globales Prädikat über das auf der Netzhaut dargestellte Bild, indem eine gewichtete Summe der einzelnen Prädikate, die die Werte 1 oder 0 besitzen, gegen einen Schwellenwert geprüft wird. Zur Bestimmung der Gewichte wird ein einfacher Algorithmus, Perceptron-Lernregel, der auf schon früher gefundenen mathematischen Grundlagen aufbaut benutzt, die jedoch unter den Neuroinformatikern erst einige Zeit später bekannt werden. Perceptrons und perceptronähnliche Modelle stehen in den folgenden Jahren bei mehreren Gruppen im Mittelpunkt. In dem 1962 von ROSENBLATT veröffentlichten Buch erreicht die Neuroinformatik einen ersten Höhepunkt. Hierin wird neben einer ausführlichen experimentellen Analyse der Fähigkeiten von Perceptrons auch ein Beweis für die Konvergenz der Perceptron-Lernregel aufgeführt. Dieser Beweis besagt, dass die Lernregel für jedes von einem Perceptron darstellbarem Prädikat auch eine Lösung findet. Rosenblatt ist ein begeisterter Advokat des Perceptron. Nicht zuletzt diese Ausstrahlung führt dazu, dass sich mit dem Erscheinen des Buches PRINCIPLES OF NEURODYNAMICS, zahlreiche Forscher für das Perceptron begeistern und eine Welle neuer Arbeiten einsetzt, die allerdings kaum Erfolge hervorbringen. Insbesondere wird keine Lernregel für das mehrstufige Perceptron gefunden. Man weiß aber, dass es im allgemeinen leistungsfähiger als das einstufige Perceptron ist.
Als 1969 MINSKY und PAPERT ihr berühmtes Buch PERCEPTRONS veröffentlichen, kommt es zu einem abrupten Ende der Begeisterung. Sie liefern in diesem Buch die Theorie, dass einstufige Perceptrons manche Probleme nicht lösen können. Die berühmteste Aussage dieser Theorie lautet, dass ein Perceptron der Ordnung 1 (d. h., dass für jedes lokale Prädikat nur 1 Punkt der Netzhaut ausgewertet wird) die Paritätsfunktion nicht berechnen kann. Die Parität ist das Prädikat, welches angibt, ob die Anzahl der elementaren Punkte auf der Netzhaut, die schwarz sind, gerade ist oder nicht. Die einfachste Form dieses Problems ist der Fall von zwei Punkten; die Paritätsfunktion ist in diesem Fall das Exklusiv-Oder (XOR). Allgemeiner lautet die Aussage, dass alle Probleme, deren positive und negativen Fälle nicht durch eine Hyperebene (bei n lokalen Prädikaten: im n-dimensionalen Raum) voneinander getrennt werden können, auch stets nicht mit einem Perceptron einer Ordnung kleiner n (also insbesondere: fester Ordnung) gelöst werden können; Perceptrons können nur die sogenannten linear separierbaren Probleme lösen.
Das Buch von MINSKY und PAPERT wird dahingehend verstanden, dass generell Neuronale Netze keine aussichtsreichen Mechanismen für Lernapparate seien. Die genaue Intention und Rolle des Buches is
| Erscheint lt. Verlag | 12.3.2015 |
|---|---|
| Sprache | deutsch |
| Maße | 190 x 270 mm |
| Gewicht | 238 g |
| Themenwelt | Mathematik / Informatik ► Informatik ► Netzwerke |
| Schlagworte | Data Mining |
| ISBN-13 | 9783958509863 / 9783958509863 |
| Zustand | Neuware |
| Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
| Haben Sie eine Frage zum Produkt? |
aus dem Bereich