Wissensbasierte Systeme

Geschwurbel von Daniel Schwamm (04.08.1994 bis 05.08.1994)

Inhalt

1. Künstliche Intelligenz-Übersicht

Eine eindeutige Definition des Begriffs "Künstliche Intelligenz" kann nicht gegeben werden, weil bereits der Begriff "Intelligenz" keiner eindeutigen Definition zugänglich ist. Zu bemerken ist aber, dass der englische Begriff "intelligence" ohnehin nicht mit dem deutschen Begriff "Intelligenz" gleichzusetzen ist. Eine "Definition" von Künstlicher Intelligenz" muss also notwendigerweise unscharf und offen sein. Wir schliessen uns dem Vorschlag von Minsky an:

"Künstliche Intelligenz ist eine Technik, die Maschinen Dinge ausführen lässt, die, wenn sie ein Mensch machen würde, den Einsatz von Intelligenz verlangte."

1.1. Entwicklung der KI

Wir wollen die Entwicklung der KI in die folgenden vier Perioden einteilen:

  1. Vorklassische Periode (ab 1950): Die nicht-strukturierten Probleme der "Real World" werden erkannt. Computer-Pioniere wie von Neumann und Turing entwerfen theoretische Konzepte, wie solche Probleme maschinell bearbeitet werden können.
  2. Klassische Periode (1955): Autoren wie Minsky und McCarthy entwickeln praktische Werkzeuge zur maschinellen Lösung von Problemen. Im Raum steht die Idee vom "General Problem Solver", einem Programm, welches ein Problemlösungsverhalten simulieren soll, welches auf beliebige Probleme angewendet werden kann. Der Anspruch der Allgemeinheit der Lösungsfindungsstrategien lässt sich nicht halten.
  3. Romantische Periode (1965): Die nötige Spezialisierung der Lösungsfindungsstrategien wird erkannt, ebenso wird die Bedeutung der Darstellung der Problemdomäne erkannt, die mit einer Vereinfachung (Modellierung) der Realwelt einhergeht (Stichwort: "Klötzchenwelt").
  4. Moderne Periode (1975): Man erkennt, dass nicht die Problemlösungsstrategien der eigentliche Kern der KI ist, sondern die Verarbeitung von problemspezifischen Wissen. Dieses wird in einem ingenieursmässigen Prozess von Experten erhoben und in XPS implementiert, obwohl die grundsätzlichen Schwächen der von Neumann-Architektur erkannt wurden (die sich auch nicht mit Parallelität überwinden lässt, sondern konnektionistische Modelle erfordert). Die harte KI, die von einer kognitiven Äquivalenz von Mensch und Maschine ausgeht, hat an Gewicht verloren. Es gilt:
    Experte besitzt         Expertise ist           Wissen
    Faehigkeit              Grundlage
    zur                     fuer
    

Einen anderen Weg als den ingenieursmässigen gehen die Anhänger des Konnektionismus, die mit ihren Neuronalen Netzen die Natur zu imitieren suchen. Eine neue Richtung weist die Fuzzy Logic auf, sowie die Virtual Reality, die Objekte in Wissensbasen ablegt. Auch wenn der erste grosse Innovationsschub vorbei ist, so sind in Deutschland doch derzeit ca. 1000 Wissenschaftler im Bereich der KI tätig - weltweit sind es sogar über 10.000 Wissenschaftler! Wer weiss: Vielleicht übernimmt die KI mit ihrer stark interdisziplinären Ausrichtung einmal die Führung in der Informatik.

1.2. Teilgebiete der KI

Die Teilgebiete der KI lassen sich folgendermassen schematisieren:

Psychologie  Logik  Informatik  Linguistik  Pädagogik  Biologie  ...

                                KI

        Methoden                                Anwendungen

        Lernen                                  XPS
        Wissenserwerb                           KI-Sprachen
        Wissensrepraesentation                  Robotik
        Kognitionsmodelle                       Sprachverarbeitung
        Heuristiken                             Deduktive Systeme
                                                Automatische Programmierung
                                                Computervision

Natürlichsprachliche Systeme arbeiten folgendermassen:

                          NS
Spracheingabe in          Darstellung        Wissens-       Sinnvolle
geschriebener oder        des Sachverhalts   basis          Antworten
verbaler Form                                               zum Sachverhalt

Deduktionssysteme arbeiten folgendermassen:

                              DS
* Mathematische               Beweis des                 * Aufgezeigte
  Aussage                     mathematischen               Beweisführung
* Prädikatenlogik             Theorems über              * Sinnvolle Aussage
* DB-Abfrage                  Deduktion (neues           * Datenmenge
* Programmspezifikation       Wissen aus altem           * fertiges Programm
                              ableiten)

Die Bilderkennung (Computervision) läuft folgendermassen ab:

Bild    Bilddarstellung       Segmentierung        Objekt-        Analyse
        z.B. Grauwerte-       Welche Linie         Erkennung
        Matrix                gehört wohin?

Bei der Robotik ist zu beachten, dass nicht jeder Roboter künstliche Intelligenz benötigt. Auszeichnen tun sich Roboter hauptsächlich dadurch, dass sie über Sensoren und/oder Effektoren verfügen.

2. Wissensbasierte Systeme

2.1. Abgrenzung und Einordnung von Wissensbasierte Systemen

Auch konventionelle SW-Systeme wie PPS enthalten Wissen, z.B. über diverse Planungsmethoden. Allerdings ist dieses Wissen anders als bei Wissensbasierte Systemen (WS( in den Code integriert. WS zeichnen sich dadurch aus, dass in ihnen nur das allgemeine, anwendungsunabhängige Wissen, die Inferenzmaschine, in den Code integriert ist, während das anwendungsspezifische Wissen in einer unabhängigen Komponente, der Wissensbasis, untergebracht ist. WS sind auch nicht mit XPS gleichzusetzen, sondern stellen eine Übermenge von XPS dar. Grund: XPS erfüllen das Kriterium der WS - die Trennung von Wissen und System, die übrigens auch bei einigen Informations-Systemen gegeben ist -, aber sie erfüllen darüber hinaus auch das Kriterium, für nur sehr begrenzte Problemdomänen ein konzeptionelles Wissensmodell zur Verfügung zu stellen.

Die Einordnung von Informatik, KI, WS und XPS kann man sich folgendermassen vorstellen:

Informatik: Basis-Technologie

        KI: Keine Alternativ-Informatik!

                WS: Trennung von Wissensbasis und System

                        XPS: Regelwissen für enge Problemdomänen

2.2. Merkmale von Expertensysteme

XPS kommen dann zum Einsatz, wenn es um die Lösung von schlecht-strukturierten Problemen geht, die mit konventioneller EDV oder Operation Research-Methoden wie Simplex-Verfahren für Lineare Programme nicht bearbeitet werden können. Als schlecht-strukturiert gilt ein Problem dann, wenn gilt:

  • Das Problem lässt sich nicht über numerische Grössen berechnen.
  • Das Problem ist nicht durch eine eindeutige Zielfunktion zu lösen.

Wir können XPS folgendermassen definieren: Ein XPS ist ein Programm, das in einem eng abgegrenzten Anwendungsbereich die spezifische Problem-Lösungsfähigkeit eines menschlichen Experten zumindest annähernd erreicht bzw. übertrifft.

Betrachten wir in einer Gegenüberstellung, was Experten auszeichnet, und inwieweit diese Merkmale von XPS erfüllt werden (können):

  • Experten können Probleme lösen -> können XPS auch.
  • XP können Ergebnisse erklären -> können XPS nur bedingt.
  • XP können hinzulernen -> können XPS nur selten (ist aber wichtiges Zunkunftsziel).
  • XP können ihr Wissen modifizieren -> können XPS nur selten.
  • XP können ihre Erkenntnisse infrage stellen -> können XPS nicht.
  • XP erkennen, ob sie in ihrer Expertise urteilen -> können XPS nicht.
  • XP machen Fehler -> machen XPS auch.

Wie wir sehen können, erreichen XPS (bisher) nur in einigen wenigen Punkten die Anforderungen, die an menschliche Experten gestellt werden. Dennoch haben sie auch einige Vorteile gegenüber Experten anzubieten:

  • XPS sind jederzeit verfügbar.
  • XPS sind über Netze von überall erreichbar.
  • XPS erlauben die Unabhängigkeit von Experten für ein Unternehmen.
  • XP sind knapp, XPS fast beliebig reproduzierbar.
  • Probleme werden zunehmend komplexer, dass XPS XP sogar übertreffen können.
  • XPS etablieren transparentere Standardvorgehen bei der Lösungsfindung.

Die Architektur von XPS sieht üblicherweise folgendermassen aus:

             Benutzer                        Experte und KE

XP-        Dialog-           Erklärungs-         Wissenserwerbs-      XP-
Fakten-    Komponente        Komponente          Komponente           Regel-
Wissen                                                                Wissen
                        Problemlösungskomponente

                   Zwischenergebnis und Problemloesung

2.3. Darstellung von Wissen

  1. Wissensrepräsentation:

    Die Repräsentation von Wissen in XPS kann auf zwei grundlegende Arten geschehen:

    1. Passiv-deklarativ: Wissen in Form von Fakten speichern.
    2. Aktiv-prozedural: Wissen mit ihrem funktionellen Gebrauch speichern.

    Es gilt das folgende Paradigma:

    DEKLARATIVE WISSENSREPRÄSENTATION        PROZEDURALE WISSENSREPRÄSENTATION
    
    Praedikatenlogik                  Frames        Produktionsregeln (PR)
    Semantische Netze(SN)                                               OOP
    Objekt-Attribut-Wert-Tripel
    

    Im betrieblichen Umfeld gilt auch folgendes Paradigma:

    Unsicherheit            Top Management
    Unschaerfe                                 
    Komplexitaet            Techno-                      Stäbe
                            Struktur
    
                            Middle Management
    
    Sicherheit
    Schaerfe                Operativer Kern
    Simplizität
                                                         SN    Frames   PR
    

    Sehen wir uns die einzelnen Formen der Wissensrepräsentation einmal etwas näher an:

    • Semantische Netze: Gerichtete Graphen mit Vererbungsmechanismen, die v.a. bei stabiler Taxonomie (Klassifizierbarkeit) zum Einsatz kommen. Beispiel:
                                     Auto
      
      HAT             HAT            IST_EIN        IST_EIN
      
      Lenkrad         Motor          PKW            LKW
      
                      HAT            IST_EIN        IST_EIN        HAT
      
                      Motorblock     Limousine      Tankwagen      Kabine
      
    • Objekt-Attribut-Wert-Tripel: Diese Wissensrepräsentation basiert konzeptionell auf den semantischen Netzen. Es gilt z.B.:
      PC        HAT       Prozessor      IST_EIN        80486
      
      ==> (PC, Prozessor, 80484)
      
    • Objektorientierte Programmierung/Frames: Die Kapselung von Daten und Funktionen ist hier wesentliches Element. Wir diese Kapselung aufgehoben, gleich sich Objekte und Frames in vieler Hinsicht. Auch die Erweiterung zu semantischen Netzen stellt kein Problem dar, wenn die entsprechenden Beziehungen vermerkt werden. Schwieriger ist da schon die praktische Umsetzung, da nur wenige Programmiersprachen "Procedure Attachment" und Vererbungsmechanismen unterstützen. Beispiel eines Frames:
      FRAME-NAME
      
        Slot 1                 Wert 1    Prozedur (Löschen)
        Slot 2                 Wert 2    Prozedur (Löschen)
        normales Attribut                Prozedur (Hinzufügen)
        Default-Wert
        Referenz auf Sub-Frames
      
    • Prädikatenlogik erster Ordnung: Bei dieser Wissensrepräsentationsform besitzen die einzelnen Aussagen einen eindeutigen Wahrheitswert, der über die alternativen Schliessverfahren "Resolution" und "Modem ponens" aus den Fakten logisch gefolgert wird. Zwei Beispiele:

      Für alle x gilt: PKW(x) => Fahrzeug(x).

      Es existiert genau ein y, für das gilt: Erfinder(y, Ottomotor).

    • Regelbasiertes Wissen: Diese Form der Wissensrepräsentation ist die für XPS üblichste. Auf den ersten Blick ähneln die Wenn-dann-Aussagen den Aussagen der Prädikatenlogik, aber hier muss die Konklusion keine Aussage mit Wahrheitsgehalt sein, sondern kann auch eine Aktion bedeuten. UND-Operatoren (Konjunktionen) sind im Prämissen- und Konklusionsteil möglich, während ODER-Operationen (Disjunktionen) nur im Wenn-Teil zulässig sind.

    Regelbasierte Systeme werden auch Produktionssysteme genannt, weil aus den gegebenen Fakten über die relativ stabile Regelbasis neue Fakten produziert werden können, die die Faktenbasis erweitern. Faktenbasis und Regelbasis zusammen ergeben die Wissensbasis. Achtung: Die Regelbasis ist nicht mit der Inferenzmaschine zu verwechseln, welches die Strategien vorgibt, über die die Fakten und Regeln abgearbeitet werden. Beispiel:

    Faktenbasis:  Kunde K kauft für 11.000 DM ein.
    Regelbasis:   Wenn Auftragsvolumen>10.000 DM, dann Kunde=Grosskunde.
    Neues Faktum: Kunde K ist ein Grosskunde.
    
  2. Abarbeitungsstrategien des repräsentierten Wissens:

    Inferenz bedeutet: Schliessen aus vorhandenem Wissen. Daher nennt man die Problemlösungskomponente von XPS auch Inferenzmaschine. Auf folgende Arten kann grundsätzlich gefolgert werden:

    • Deduktives Folgern: Bei XPS üblich.
    • Induktives Folgern: Lernen. Bei XPS nicht üblich.
    • Approximatives Folgern: Bei XPS relativ selten.
    • Analoges Folgern: Menschen-, aber nicht XPS-üblich.

    Beim deduktiven Folgern kann auf zwei Arten vorgegangen werden:

    • Vorwärtsverkettung: Gegebene Fakten werden auf den Prämissen-Teil angewandt, d.h. die Regeln "feuern", wenn die Prämissen stimmen, und bringen neue Fakten hervor, bis sich eine oder mehrere Konklusionen herauskristallisieren.
    • Rückwärtsverkettung: Gegebene Fakten werden auf ihren Konklusionsteil untersucht. Dann werden die dafür nötigen Fakten rückwärts erschlossen und mit den eingegebenen Fakten verglichen.

    Auch die Art, wie der Produktionsregel-Baum durchlaufen wird, kann alternativ gestaltet werden:

    • Breitensuche: Alle Regeln, deren Prämissen bzw. Konklusionen mit den Falldaten übereinstimmen, "feuern". Im nächsten Schritt wird untersucht, welche Regeln durch die neuen Fakten wiederum "feuern" können, usw. Hier werden auch viele "Seitenzweige" untersucht, bei denen ein Meta-Wissen als Selektionsmechanismus nötig wäre, um eine Untersuchung dieser Möglichkeiten zu verhindern (Konfliktlösungsstrategie als Teil der Wissensbasis gegen zu breite "Feuerung").
    • Tiefensuche: Die erste Prämisse bzw. Konklusion, die mit den Falldaten übereinstimmt, wird "abgefeuert". Danach wird die Faktenbasis erneut durchsucht, und die nächste passende Regel "abgefeuert", usw. Hierbei kann relativ zielgerichtet vorgegangen werden, wobei sich das v.a. bei einem Dialog-Betrieb mit dem XPS als sinnvoll erweisen kann.

Das XPS bedient sich zur Lösungsfindung sogenannter opportunistischer Strategien. Dies sind heuristische Suchmethoden, die nicht den Anspruch erheben, die optimale Lösung zu finden, sondern sich auch mit der scheinbar besten Lösung abfinden, wodurch dieser Ansatz erhebliche Geschwindigkeitsvorteile mit sich bringt. Die Wahl der Suchstrategie obliegt der Agenda-Kontrolle, die so bei einer NN-Ankopplung z.B. auch die Lösung des NN gegenüber der Lösung des XPS bevorzugen kann. Weiterhin kann die Lösungsfindung noch durch Einsatz von Vorverarbeitungssystemen und Evidenz-Systemen verbessert werden, indem zusätzliche Fakten automatisch herangezogen werden und die Wahrscheinlichkeit für die gefundene "optimale" Lösung abgeschätzt wird. All diese zusätzlichen Selektionsmechanismen haben wesentlichen Einfluss auf die Qualität eines XPS, tauchen aber nicht in der üblichen Angabe der Menge der Regeln auf, mit der man die Leistung eines XPS zu beschreiben versucht!

3. Entwicklung von WS

Die Entwicklung von XPS ist keine einfache Sache. Waren früher noch über 10 Mannjahre dafür nötig, kann man heute bereits nach zwei bis sechs Mannjahren brauchbare Ergebnisse, sprich: korrektes Antwortverhalten, vorweisen. Grund: Der Wiederverwendungseffekt ist bei XPS relativ stark ausgeprägt, zumindest was die Methodik und das allgemeine Problemlösungsverhalten angeht (weniger, was die Wissensbasis angeht). Doch im Prinzip ist die Entwicklung eines XPS nie abgeschlossen, denn die Wissensbasis ist ständig zu aktualisieren und zu erweitern. Folgende Aspekte sind bei der XPS-Entwicklung zu beachten:

  1. Rollenbildung: Um ein XPS zu entwickeln, müssen zunächst die Akteure bestimmt werden. Dies sind üblicherweise:
    • Knowledge Engineer -> am besten nur einer!
    • Fachexperte -> am besten nur einer!
    • Werkzeugentwickler
    • Endbenutzer -> Stichwort: Benutzerpartizipation.

    Achtung: Es hat wenig Sinn, die Mannschaft zur XPS-Entwicklung wesentlich aufzustocken, denn Zeitvorteile erwachsen daraus kaum, denn besonders die Integration von verschiedenem Expertenwissen ist ein fast aussichtsloses Unterfangen für den KE.

    Der KE muss ein wahres Allroundtalent sein. Zu seinen Aufgaben gehört:

                                          KE
    
             Wissensakquisition        Interpretation                Wartung
    
    Wissenserhebung              Wissensrepräsentation
    
  2. Wissensakquisition:
    • Direkt: Implementiert selbst sein Wissen.
    • Indirekt: KE implementiert XP-Wissen.
    • Automatisch: Induktionsprogramm zum Lernen.

    Üblich ist die indirekte Akquisition, wobei der KE folgende Techniken anwendet, um das Wissen vom XP zu extrahieren: Er beobachtet den XP, er befragt den XP, er analysiert Texte von XP oder er lässt sich Fälle schildern und erkennt daraus selbst das Problemlösungsverhalten.

    Nachteilig an der Wissensakquisition ist ihre Unvollkommenheit, denn:

    • XP lösen Probleme nach fallspezifischen Regeln, nicht nach allgemeinen.
    • Menschen lösen Probleme oft durch XPS-fremde Analogieschlüsse.
    • XP können durch den gesunden Menschenverstand innovative Lösungen erfinden. Dabei gilt: Dieses Hintergrundwissen wird nicht erschlossen, sondern physisch erfahren (und das können XPS nicht nachvollziehen)!

    Verbesserungen in der Wissensakquisition, die derzeit den Flaschenhals in der XPS-Nutzung darstellt, lassen sich vielleicht erreichen, wenn die automatische Akquisition verbessert wird, wenn ein induktives Lernen erreicht werden kann, wenn es bessere Mensch-Maschine-Schnittstellen entwickelt wird, oder wenn es eine Fall-Komponente gibt, die anhand der Fall-Eingaben Analogie-Schlüsse ermöglicht, wodurch die Regeln kontextspezifischer eingesetzt werden können (ähnlich wie bei den Eröffnungsbibliotheken der Schachcomputern).

  3. Entwicklungsmethodik: Die klassischen, linearen Phasenmodelle (modellbasierte Entwicklung) eignen sich für wohl-strukturierte Probleme, die sich top-down-gesteuert in viele Teilprobleme zerlegen lassen, nicht aber für die Entwicklung von XPS. Für XPS eignet sich v.a. das Prototyping (Verzicht auf Spezifikationen; Learning-by-doing-Ansatz; auch evolutionäre Entwicklung genannt) in mehreren Durchläufen, wobei sich hier die folgenden Stufungen unterscheiden lassen:
    • Demonstrationsprototyp: Um Ressourcengeber zu überzeugen.
    • Forschungsprototyp: Um mit der Materie vertraut zu werden.
    • Feldprototyp: Einsatz bereits vor Ort.
    • Produktionsprototyp: Reimplementierung in schneller Programmiersprache.
    • Kommerzielles System: Verkaufbares, ausgereiftes Produkt.

    Charakteristisch für das Prototyping ist sein iterativer Ablauf, weswegen man auch häufig von Prototyping-Spiralen spricht. Unten sehen wir, wie ein solcher Zyklus aufgebaut ist, wobei gilt: Der erste Durchlauf benötigt ca. 6 Monate, der zweite Durchlauf 3 Monate, der dritte Durchlauf 2 Monate, usw.

                             Analyse (Akquisition)
    
    Implementierung                                        Design
    
    Integration (neu zu alt)                        Einwände bearbeiten
    
                               Test (Validierung)
    

    Übrigens: Die Menge der Regeln als Leistungskriterium eines XPS heranzuziehen ist bedenklich, da dabei nicht die Grösse der Regeln bekannt ist. Ein XPS mit 2000 Regeln würde als leistungsstark eingeschätzt werden, jedoch kann es sein, dass es keine Disjunktion im Wenn-Teil erlaubt, und die Regeln also auf Einzeiler hinauslaufen. Besser ist es, wenn die Grösse des gesamten Quell- und Faktencodes in Zeilen angegeben wird, evtl. mit dem qualitativen Vermerk versehen, in welcher Programmiersprache die Zeilen verfasst wurden.

  4. Werkzeuge zur Entwicklung:

    LISP (McCarthy, 1958): Die KI-Sprache ist funktionsorientiert, rekursionsorientiert und listenorientiert. Daten und Funktionen werden auf die gleiche Weise dargestellt (Programm-Daten-Äquivalenz), wodurch sich Programme selbst verändern können! Eine Suchstrategie ist nicht vorimplementiert, daher ist LISP flexibler einsetzbar als z.B. PROLOG. Verwendung findet diese Sprache im Wesentlichen in den USA, z.B. ist die KEE-Entwicklungsumgebung (fast Shell) damit programmiert worden. Beispiel:

    (setf(get 'Wissensbasis'Fakten)
            '((MSDOS supports Laufwerk)
              (MSDOS supports Farben)
              (MSDOS supports Drucker)))
    
    (setf(get 'Wissensbasis'Regeln)
            '((($if($and
                    (($any Programm) supports Laufwerk)
                      (($this Programm) supports Farben)
                      (($this Programm) supports Drucker)))
            ($then ($this Programm) is_a Haufen Müll)))
    

    PROLOG: Im Gegensatz zu LISP verfügt PROLOG über eine implizierte Such- bzw. Abarbeitungsstrategie, nämlich die rückwärtsverkettete Tiefensuche, wodurch XPS, die damit implementiert werden, in ihrem Einsatz bereits beschränkt sind. Eingesetzt wird diese KI-Sprache hauptsächlich in Japan und Europa. Beispiel:

    supports(Laufwerk, MSDOS).
    supports(Farben, MSDOS).
    supports(Drucker, MSDOS).
    
    Haufen Müll(Programm) :-
            supports(Laufwerk, MSDOS).
            supports(Farben, MSDOS).
            supports(Drucker, MSDOS).
    

    KI-Sprachen finden nur bei sehr komplexen Problemen einen Einsatz. Bei mässig komplexen Problemen kann der KE bzw. KI-Programmierer auf wissensbasierte Systeme wie KEE zurückgreifen, und bei relativ einfachen Problemen genügt auch die Shell bzw. die Akquisitionskomponente der Shell.

4. Anwendungsgebiete

XPS sind in den folgenden Problemkreisen einsetzbar:

  • Diagnoseprobleme: Ursachen-Erklärung von Gegebenheiten.
  • Planungsprobleme
  • Lehrprobleme: Computer-based Training.
  • Beratungsprobleme: Handlungsempfehlungen.
  • Interpretationsprobleme von empirischen Befunden
  • Konfigurationsprobleme: Komplexe Gebilde aufbauen.
  • Überwachungsprobleme: Andere Systeme kontrollieren.

XPS dominieren in der Medizin, kommen jedoch auch beim Militär und IT-Unternehmen zum Einsatz. In der Wirtschaft werden sie meistens im Bereich der Forschung eingesetzt oder der Produktion. Industriebetriebe haben hier klar die Nase vorne; nur selten lassen sich XPS in Banken oder Versicherungen finden. Im folgenden seien nur einige ausgewählte XPS vorgestellt:

  • MYCIN ist das bekannteste medizinische XPS. Es wurde 1972 von Feigenbaum entwickelt und hilft bei der Diagnostik von Infektionskrankheiten, indem es Symptome erkennt und auf die ursächliche Krankheit zurückfolgert. Es ist anzumerken, dass in der Medizin nur wenig "harte" Gesetze existieren, denn die Diagnose basiert im Wesentlichen auf der Assoziation zwischen Symptomen und Krankheiten. XPS lassen sich ca. 90 Fragen vom behandelnden Arzt beantworten, dann entwerfen sie Hypothesen über die Ursachen, die sie über ihre Wissensbasis zu verifizieren versuchen.
  • CARGEX (Cargo Expert System) ist ein XPS im Luftfracht-Bereich. Es hat die Aufgabe, zu entscheiden, ob neben Passagieren auch noch Fracht mit an Bord genommen werden kann. Es entscheidet dabei auf Grundlage von der Wichtigkeit des Kunden, den Anschlussmöglichkeiten und Lagerräumen für die Fracht, oder ob es nicht billigere Transportmöglichkeiten gibt.
  • Bei einigen Banken prüfen XPS, ob einem Kunden, dessen Konto leer ist, ein Kredit zugesprochen werden kann. Die Entscheidung berücksichtigt dabei folgende Aspekte:
                                 Kreditwürdigkeit
    
       Unternehmensleistung   Liquidität    Ertragslage  Personalkosten
    
    Absatzleistung            Produktionsleistung
    
            Materialaufwand                       Leistung pro Kopf
    
  • XPS sind sehr anwendungsspezifisch, daher können sie umfassende Systeme wie PPS niemals ersetzen, jedoch in einigen Punkten erweitern. So kommen z.B. einige XPS zum Einsatz, wenn es um die Frage der Priorität von Aufträgen geht. Den Entscheidungsablauf kann man sich dazu etwa so vorstellen:
    PPS liefert       XPS waehlt               der sinnvollste Auftrag
    Schlange von      einen Auftrag            wird vom PPS als Nächstes
    Auftraegen        aus                      bearbeitet
    
                      Prioritätsregeln
    
                      Ziele                    Restriktionen
    
  • Besonders beliebt sind auch Konfigurationsexpertensysteme wie "Klasse-PC", welches unter Berücksichtigung folgender Aspekte eine für den Anwender optimale Konfiguration von HW, SW und Peripherie zusammenstellt:
                                            PC
    
          HW                                SW                    Peripherie
    
                            AP                    System-SW
    
    Grafikkarte             Textsystem            BS              Drucker
    Monitor                 Tabellenkalkulation   GUI             Maus
    Soundkarte              DBS                   Utilities
                            Grafikprogrammierung
    
  • Einkaufs-Beratung-XPS helfen den Einkäufern, für jede Bestellmenge den besten Lieferanten zu ermitteln, wobei ausdrücklich nicht nur der Preis, die Qualität und die Liefertreue als einziges Kriterium herangezogen wird, sondern auch das Image des Lieferanten, welches sich ständig ändern kann. Es ist üblich, dass dabei das XPS mit betrieblichen Daten (Fakten) aus den DBS gefüttert wird.

5. Schwachstellen von XPS

5.1. Anbindung von XPS an klassische EDV-Systeme

XPS sollten in das betriebliche Umfeld eingebunden werden, d.h. die Daten, die auf konventionellen EDV-Systemen wie DBS vorhanden sind, sollten dem XPS zugänglich gemacht werden. Ein Stand-Alone-XPS würde die gesonderte Eingabe aller relevanten Daten verlangen, was angesichts der bisher eher mässigen Wissensbasis-Verarbeitungskomponenten ein schweres Stück Arbeit bedeuten würde. Die Anbindung von DBS an XPS ist jedoch nicht unproblematisch, denn beide Systeme weisen grosse Unterschiede bzgl. der HW und SW auf. So kommen bei XPS häufig LISP-Maschinen zum Einsatz, die sich nicht ohne weiteres an herkömmliche Digital-Rechner anschliessen lassen, und die regelorientierten KI-Sprachen vertragen sich auch nur selten mit den konventionellen prozeduralen Programmiersprachen. Hauptproblem ist, das XPS normalerweise alle Fakten und Regeln im Hauptspeicher halten, die DBS aber mit Massendaten operieren, die auf Platte ausgelagert werden müssen. Die Zugriffsmechanismen von DBS auf Massendaten sind wesentlich ausgereifter, als diese von XPS zu realisieren wäre; daher sendet das XPS üblicherweise seine Anfragen in Form von SQL-Statements an das DBMS, welches dann die Fakten aus der DB ausliest. Eine Anbindung von DBS an XPS können wir uns folgendermassen vorstellen:

XPS     Schnittstelle, die die         DBS
        XPS-Anfragen an das DBS        DBMS                DB
        entgegennimmt

Ein Vorteil einer solchen Kopplung wäre, dass dass Antwortverhalten von IS verbessert werden könnte, denn gerade wenn XPS auch Fuzzy-Logic-Techniken verwenden, genügen wenige Fuzzy-Logic-Regeln, die in unterschiedlicher Intensität "feuern" können, um hohe Problemlösungsquoten zu erreichen, während konventionelle IS stets mit exakten Massendaten operieren müssen. Zudem sind Fuzzy-Logic-Regeln gegenüber Änderungen wesentlich unempfindlicher als exakte Regeln, wodurch sich der Adaptionsgrad der IS erhöht.

Auch Kopplungen von XPS und NN sind interessant, den Low-Level-Tasks, die z.B. mit nicht-linearen Funktionen operieren müssen, lassen sich über NN am effektivsten realisieren. Häufig sieht die XPS-NN-Kopplung folgendermassen aus:

XPS      kontrolliert        Ergebnisse        liefert        NN

Der Grad der Kopplung ist nahezu beliebig skalierbar. So können XPS und NN bzw. IS physisch integriert werden, z.B. horizontal als XPS-Server oder vertikal als eigenständige XPS-Komponente. Wesentlich ist, dass bei Verwendung der Schnittstellen keine Semantik verloren geht, wodurch die Ergebnisse negativ beeinflusst werden würden.

5.2. Schwierigkeiten bei der Entwicklung/beim Einsatz

Mit folgenden Problemen haben Entwickler und Einsetzer von XPS zu kämpfen:

  • Das qualifizierte Entwicklungspersonal fehlt. Die Hochschulabsolventen reichen nicht aus, um für alle XPS-Entwicklungsprojekte die nötigen Fachkräfte zur Verfügung zu haben. Häufig müssen Unternehmen daher auf die Selbstschulung zurückgreifen.
  • Die Verfügbarkeit der Experten ist begrenzt. Je besser ein Experte ist, desto geeigneter ist er für die Entwicklung von XPS, desto mehr wird er aber auch in seinem Tagesgeschäft benötigt.
  • Die Entwicklungszeit liegt pro XPS bei zwei bis sechs Jahren. Selbst die Rekrutierung zusätzlichen Personals bringt kaum Zeitvorteile, weil dadurch die Integrationsschwierigkeiten der verschiedenen Experten-Meinungen anwachsen.
  • Der Kostenaufwand für ein XPS darf nicht unterschätzt werden - v.a. Personalkosten fallen hier ins Gewicht. Und ausserdem sind XPS nur selten nach einem Entwicklungsdurchlauf einsatzbereit; i.d.R. müssen mehrere aufeinander aufbauende Versionen erstellt werden, bis ein ausgereiftes Produkt entsteht.
  • Die Wissensextraktion des KE vom Experten ist keine einfache Aufgabe. Oft genug weiss ein Experte nicht, wie er auf eine Lösung kommt - dies umso mehr, je vertrauter er mit seiner Materie geworden ist. Oftmals will der Experte sein Wissen auch gar nicht Preisgeben. Weitere Mängel bei der Extraktion: Die Regeln, die der Experte benennt, werden vom KE falsch implementiert. Die Motivation der Experten nimmt mit der Zeit rapide ab. Die Regeln werden zu allgemein oder zu speziell formuliert. Die Meinung vieler Experten ist schwer zu integrieren.
  • Die zur Verfügung stehenden Werkzeuge erlauben keine problemgerechte Lösungsstrategien. Dieser Fall ist z.B. gegeben, wenn PROLOG mit seiner integrierten rückwärtsverketteten Tiefensuche zum Einsatz kommt, stattdessen aber eine vorwärtsverkettete Breitensuche angebrachter wäre.
  • Die Korrektheit des XPS ist schwerlich prüfbar, wie ja auch ein Experte nur schwer überprüfbar ist. Da Experten Fehler machen, muss dies auch einem XPS zugestanden werden. Ein Vergleich mit den Ergebnisse von Experten führt auch nicht zum Ziel, denn bekanntlich können verschiedene Experten auch ganz unterschiedliche Meinungen vertreten, oder ein Experte wehrt sich gegen einen Vergleich. Ein Pflichtenheft darüber, was ein XPS alles können sollte, ist vor Projektbeginn nicht formulierbar; erst im Einsatz zeigt sich, welchen Anforderungen es gerecht werden sollte.

Um XPS effektiv betreiben zu können, müssen zunächst einige Voraussetzungen in der Organisation erfüllt sein. So müssen instrumentelle (Werkzeuge vorhanden?), personelle (Fachkräfte vorhanden?) und strukturelle (enge, schlecht-strukturierte Probleme vorhanden?) Aspekte berücksichtigt werden.

5.3. Gründe für Misserfolge von XPS

  • Die Wissenspflege (Wartung; wenig bug fixing) erweist sich als zu aufwendig.
  • Der Fachexperte, KI-Programmierer oder KE geht => das Projekt stirbt.
  • PPS oder andere Lösungen erweisen sich als effektiver.
  • Die Firma scheut die Kosten beim praktischen Einsatz.
  • Die Motivation konnte nicht aufrecht erhalten werden.
  • Die Akzeptanz ist wegen schlechter Bedienerführung zu gering.

5.4. Grenzen von XPS

  • Grosse Problemdomänen können XPS nicht bearbeiten.
  • Ein XPS weiss nicht, was es nicht weiss, gibt aber immer Ratschläge.
  • Ein XPS fehlt der gesunde Menschenverstand, der Kontexte aufzeigt.
  • Ein XPS reflektiert nicht sein Wissen, sondern glaubt es stur.
  • Ein XPS beurteilt das Problemmodell, nicht das reale Problem.
  • Ein XPS weiss nicht mehr, als Menschen.
  • Ein XPS funktioniert erst dann zu 100% korrekt, wenn das Problemfeld so klein ist, dass man kein XPS mehr braucht.

Neben all diesen Nachteilen von XPS soll jedoch ein grosser Vorteil von ihnen nicht verschwiegen werden: XPS befinden sich vielerorts bereits im Einsatz - und sie funktionieren!