Diplomarbeit - Konstruktion von NN für Regressionsanalysen - Ausblick

von Daniel Schwamm (09.11.2000)

4. Erweiterungsvorschläge und Ausblick

Die vorliegende Arbeit hat gezeigt, dass der Ansatz der Neurometrie, d.h. die Synthese von neuronalen Netzwerken und ökonometrischen Methoden zur Approximation von wahren Zusammenhängen zwischen unabhängigen und abhängigen Variablen vielversprechend ist und einer näheren Betrachtung in der Zukunft lohnt. In diesem Sinne stellt die Entwicklung des neurometrischen Werkzeugs Neurometricus nur einen ersten Schritt dar, um die in Kapitel 2 gewonnen theoretischen Erkenntnisse, die neuronale Netzwerke als universelle Approximatoren und damit auch als Oberklasse der Regressionsmodelle ausweisen, in praktischer Weise umsetzen zu können. Im folgenden werden daher einige Erweiterungsvorschläge gegeben, die die bisher eingeschlagene Richtung konsequent weiterverfolgen. Sie basieren auf Überlegungen des Verfassers, als auch auf Anregungen von Dritten, die sich mit der Thematik und Neurometricus näher beschäftigt haben.

Von zunächt eher theoretischem Interesse ist der Vorschlag, statt vorwärtsgekoppelten neuronaler Netzwerken mit monotonen Aktivierungs- und Ausgabefunktionen auch andere neuronale Netzwerktypen auf ihre Fähigkeit hin zu untersuchen, unbekannte Zusammenhänge zwischen Variablen zu approximieren. Es sind darüber hinaus Modelle denkbar, die sich durch Kombination von neurometrischen Konnektions-, Fuzzy- und/oder Expertensystemen bilden lassen. Besonders vielversprechend wäre dabei der Sachverhalt, dass die Ergebnisse der subsymbolischen Systeme erstmals einer direkten Interpretation durch die symbolischen Systeme zugänglich sind, da sie nicht - wie bei derartigen Modellen sonst üblich - auf unscharfen Heuristiken, sondern auf strengen statistischen Kriterien basieren.

Sicherlich einfacher zu realisieren als die oben aufgeführten grundlegenden Systemänderungen sind die Vorschläge, die den neurometrischen Modellbildungsprozess von Neurometricus betreffen. Bei der Datenidentifikation wäre beispielsweise eine tiefer gehende Varianzanalyse angebracht, die die Trainingsmenge, Validierungsmenge und Prüfmenge nicht nur bezüglich des hypothetischen gemeinsamen arithmetischen Mittels testet, sondern auch die Momente höherer Ordnung berücksichtigt. Eine in Abhängigkeit von der Schicht- und Funktionsstruktur generierte Zufallsinitialisierung der Parameter bei der Spezifikation könnte die Bestimmung des globalen Minimums der Kostenfunktion erleichtern. Momentan werden die Intervalle je Parametertyp nämlich vom Benutzer vorgegeben oder auf einen Standardbereich festgelegt, der nur für den Tangens Hyperbolicus und die identische Funktion optimiert ist (vergleiche Abschnitt 3.2.2). Auf die Möglichkeit alternativer Kostenfunktionen, die bei der Maximum-Likelihood-Schätzung Verwendung finden können, wurde bereits in Abschnitt 3.2.2.2 hingewiesen. Des Weiteren lassen sich die Gradientenverfahren dahin gehend verbessern, dass im Wert oszillierende Parameter erkannt und verhindert werden, woraus ein stabileres Konvergenzverhalten resultiert. Ebenfalls erwähnt wurde bereits, dass das Vorhandensein mehrer lokaler beziehungsweise globaler Minima der Kostenfunktion unter Umständen Probleme bei der Diagnose der Resampling-Schätzungen verursacht (vergleiche Abschnitt 3.2.4). Rüger/Ossen. (1995) stellen hierzu ein Verfahren vor, mit dessen Hilfe sich aus den multimodalen Verteilungen der Parameter Häufgkeitscluster bestimmen lassen, auf deren Grundlage die angestrebten optimalen Parameter a posterori ermittelt werden können (vergliche Abschnitt 3.2.3.7). In nächster Zukunft wird dieses sogenannte Cluster-Verfahren ebenso in Neurometricus integriert werden, wie das von Anders (1995) entwickelte Konzept der Zwei-Stufen-Schätzung. Dahinter steht die Idee, die bei der Diagnose gewonnenen Erkenntnisse auszunutzen, indem ein Submodell spezifiziert und geschätzt wird, welches die Residuen approximiert. Die sich dadurch ergebenden Ergebnisse erlauben eine gezielte Schätzung der Kovarianzmatrix der Parameter, die dann bei einer weiteren Schätzung als Gewichtungsfaktor in die Kostenfunktion eingeht, sodass die gelieferten Ergebnisse nicht nur konsistent, sondern auch asympotisch effizient sind.

Die Entwicklung von Neurometricus ist noch lange nicht abgeschlossen. Im ZEW werden bereits Mitarbeiter im Umgang mit dieser Software geschult, um sie einerseits bedienen, und andererseits auch in Zukunft auf dem aktuellen Stand der Forschung halten zu können. In der vorliegenden Arbeit ist nur relativ knapp auf die praktischen Anwendungsmöglichkeiten der Neurometrie eingegangen worden, denn aus Platzgründen lag das Gewicht vor allem auf der Darstellung der technischen Durchführbarkeit. Das rege Interesse, dass im ZEW an dieser Diplomarbeit besteht, weist jedoch daraufhin, dass die hier vorgestellte Software Neurometricus auch in Zukunft im Zusammenhang mit realen ökonomischen Problemstellungen eingesetzt werden wird.