Wissensbasierte Systeme
Geschwurbel von Daniel Schwamm (04.08.1994 bis 05.08.1994)
Inhalt
Eine eindeutige Definition des Begriffs "Künstliche
Intelligenz" kann nicht gegeben werden, weil bereits der Begriff "Intelligenz"
keiner eindeutigen Definition zugänglich ist. Zu bemerken ist aber,
dass der englische Begriff "intelligence" ohnehin nicht mit dem deutschen
Begriff "Intelligenz" gleichzusetzen ist. Eine "Definition" von
Künstlicher Intelligenz" muss also notwendigerweise unscharf und
offen sein. Wir schliessen uns dem Vorschlag von Minsky an:
"Künstliche Intelligenz ist eine Technik, die Maschinen
Dinge ausführen lässt, die, wenn sie ein Mensch machen
würde, den Einsatz von Intelligenz verlangte."
Wir wollen die Entwicklung der KI in die folgenden vier
Perioden einteilen:
-
Vorklassische Periode (ab 1950): Die nicht-strukturierten
Probleme der "Real World" werden erkannt. Computer-Pioniere wie von Neumann und
Turing entwerfen theoretische Konzepte, wie solche Probleme maschinell
bearbeitet werden können.
-
Klassische Periode (1955): Autoren wie Minsky und McCarthy
entwickeln praktische Werkzeuge zur maschinellen Lösung von Problemen. Im
Raum steht die Idee vom "General Problem Solver", einem Programm, welches ein
Problemlösungsverhalten simulieren soll, welches auf beliebige Probleme
angewendet werden kann. Der Anspruch der Allgemeinheit der
Lösungsfindungsstrategien lässt sich nicht halten.
-
Romantische Periode (1965): Die nötige
Spezialisierung der Lösungsfindungsstrategien wird erkannt, ebenso wird
die Bedeutung der Darstellung der Problemdomäne erkannt, die mit einer
Vereinfachung (Modellierung) der Realwelt einhergeht (Stichwort:
"Klötzchenwelt").
-
Moderne Periode (1975): Man erkennt, dass nicht die
Problemlösungsstrategien der eigentliche Kern der KI ist, sondern die
Verarbeitung von problemspezifischen Wissen. Dieses wird in einem
ingenieursmässigen Prozess von Experten erhoben und in XPS
implementiert, obwohl die grundsätzlichen Schwächen der von
Neumann-Architektur erkannt wurden (die sich auch nicht mit Parallelität
überwinden lässt, sondern konnektionistische Modelle erfordert).
Die harte KI, die von einer kognitiven Äquivalenz von Mensch und Maschine
ausgeht, hat an Gewicht verloren. Es gilt:
Experte besitzt Expertise ist Wissen
Faehigkeit Grundlage
zur fuer
Einen anderen Weg als den ingenieursmässigen gehen die Anhänger des
Konnektionismus, die mit ihren Neuronalen Netzen die Natur zu imitieren
suchen. Eine neue Richtung weist die Fuzzy Logic auf, sowie die Virtual
Reality, die Objekte in Wissensbasen ablegt. Auch wenn der erste grosse
Innovationsschub vorbei ist, so sind in Deutschland doch derzeit ca. 1000
Wissenschaftler im Bereich der KI tätig - weltweit sind es sogar über
10.000 Wissenschaftler! Wer weiss: Vielleicht übernimmt die KI mit
ihrer stark interdisziplinären Ausrichtung einmal die Führung in der
Informatik.
Die Teilgebiete der KI lassen sich folgendermassen schematisieren:
Psychologie Logik Informatik Linguistik Pädagogik Biologie ...
KI
Methoden Anwendungen
Lernen XPS
Wissenserwerb KI-Sprachen
Wissensrepraesentation Robotik
Kognitionsmodelle Sprachverarbeitung
Heuristiken Deduktive Systeme
Automatische Programmierung
Computervision
Natürlichsprachliche Systeme arbeiten folgendermassen:
NS
Spracheingabe in Darstellung Wissens- Sinnvolle
geschriebener oder des Sachverhalts basis Antworten
verbaler Form zum Sachverhalt
Deduktionssysteme arbeiten folgendermassen:
DS
* Mathematische Beweis des * Aufgezeigte
Aussage mathematischen Beweisführung
* Prädikatenlogik Theorems über * Sinnvolle Aussage
* DB-Abfrage Deduktion (neues * Datenmenge
* Programmspezifikation Wissen aus altem * fertiges Programm
ableiten)
Die Bilderkennung (Computervision) läuft folgendermassen ab:
Bild Bilddarstellung Segmentierung Objekt- Analyse
z.B. Grauwerte- Welche Linie Erkennung
Matrix gehört wohin?
Bei der Robotik ist zu beachten, dass nicht jeder Roboter künstliche
Intelligenz benötigt. Auszeichnen tun sich Roboter hauptsächlich
dadurch, dass sie über Sensoren und/oder Effektoren verfügen.
Auch konventionelle SW-Systeme wie PPS enthalten Wissen, z.B.
über diverse Planungsmethoden. Allerdings ist dieses Wissen anders als bei
Wissensbasierte Systemen (WS( in den Code integriert. WS zeichnen sich dadurch
aus, dass in ihnen nur das allgemeine, anwendungsunabhängige Wissen, die
Inferenzmaschine, in den Code integriert ist, während das anwendungsspezifische
Wissen in einer unabhängigen Komponente, der Wissensbasis, untergebracht ist.
WS sind auch nicht mit XPS gleichzusetzen, sondern stellen eine Übermenge von
XPS dar. Grund: XPS erfüllen das Kriterium der WS - die Trennung von Wissen und
System, die übrigens auch bei einigen Informations-Systemen gegeben ist -,
aber sie erfüllen darüber hinaus auch das Kriterium, für nur sehr
begrenzte Problemdomänen ein konzeptionelles Wissensmodell zur
Verfügung zu stellen.
Die Einordnung von Informatik, KI, WS und XPS kann man sich
folgendermassen vorstellen:
Informatik: Basis-Technologie
KI: Keine Alternativ-Informatik!
WS: Trennung von Wissensbasis und System
XPS: Regelwissen für enge Problemdomänen
XPS kommen dann zum Einsatz, wenn es um die Lösung von
schlecht-strukturierten Problemen geht, die mit konventioneller EDV oder
Operation Research-Methoden wie Simplex-Verfahren für Lineare Programme
nicht bearbeitet werden können. Als schlecht-strukturiert gilt ein Problem
dann, wenn gilt:
-
Das Problem lässt sich nicht über numerische Grössen berechnen.
-
Das Problem ist nicht durch eine eindeutige Zielfunktion zu lösen.
Wir können XPS folgendermassen definieren: Ein XPS
ist ein Programm, das in einem eng abgegrenzten Anwendungsbereich die
spezifische Problem-Lösungsfähigkeit eines menschlichen Experten
zumindest annähernd erreicht bzw. übertrifft.
Betrachten wir in einer Gegenüberstellung, was Experten
auszeichnet, und inwieweit diese Merkmale von XPS erfüllt werden
(können):
-
Experten können Probleme lösen -> können XPS auch.
-
XP können Ergebnisse erklären -> können XPS nur bedingt.
-
XP können hinzulernen -> können XPS nur selten
(ist aber wichtiges Zunkunftsziel).
-
XP können ihr Wissen modifizieren -> können XPS nur selten.
-
XP können ihre Erkenntnisse infrage stellen -> können XPS nicht.
-
XP erkennen, ob sie in ihrer Expertise urteilen -> können XPS nicht.
-
XP machen Fehler -> machen XPS auch.
Wie wir sehen können, erreichen XPS (bisher) nur in
einigen wenigen Punkten die Anforderungen, die an menschliche Experten gestellt
werden. Dennoch haben sie auch einige Vorteile gegenüber Experten
anzubieten:
-
XPS sind jederzeit verfügbar.
-
XPS sind über Netze von überall erreichbar.
-
XPS erlauben die Unabhängigkeit von Experten für ein Unternehmen.
-
XP sind knapp, XPS fast beliebig reproduzierbar.
-
Probleme werden zunehmend komplexer, dass XPS XP sogar
übertreffen können.
-
XPS etablieren transparentere Standardvorgehen bei der Lösungsfindung.
Die Architektur von XPS sieht üblicherweise folgendermassen aus:
Benutzer Experte und KE
XP- Dialog- Erklärungs- Wissenserwerbs- XP-
Fakten- Komponente Komponente Komponente Regel-
Wissen Wissen
Problemlösungskomponente
Zwischenergebnis und Problemloesung
-
Wissensrepräsentation:
Die Repräsentation von Wissen in XPS kann auf zwei
grundlegende Arten geschehen:
-
Passiv-deklarativ: Wissen in Form von Fakten speichern.
-
Aktiv-prozedural: Wissen mit ihrem funktionellen Gebrauch speichern.
Es gilt das folgende Paradigma:
DEKLARATIVE WISSENSREPRÄSENTATION PROZEDURALE WISSENSREPRÄSENTATION
Praedikatenlogik Frames Produktionsregeln (PR)
Semantische Netze(SN) OOP
Objekt-Attribut-Wert-Tripel
Im betrieblichen Umfeld gilt auch folgendes Paradigma:
Unsicherheit Top Management
Unschaerfe
Komplexitaet Techno- Stäbe
Struktur
Middle Management
Sicherheit
Schaerfe Operativer Kern
Simplizität
SN Frames PR
Sehen wir uns die einzelnen Formen der Wissensrepräsentation einmal etwas näher an:
-
Semantische Netze: Gerichtete Graphen mit Vererbungsmechanismen, die v.a. bei
stabiler Taxonomie (Klassifizierbarkeit) zum Einsatz kommen. Beispiel:
Auto
HAT HAT IST_EIN IST_EIN
Lenkrad Motor PKW LKW
HAT IST_EIN IST_EIN HAT
Motorblock Limousine Tankwagen Kabine
-
Objekt-Attribut-Wert-Tripel: Diese
Wissensrepräsentation basiert konzeptionell auf den semantischen Netzen.
Es gilt z.B.:
PC HAT Prozessor IST_EIN 80486
==> (PC, Prozessor, 80484)
-
Objektorientierte Programmierung/Frames: Die Kapselung von
Daten und Funktionen ist hier wesentliches Element. Wir diese Kapselung
aufgehoben, gleich sich Objekte und Frames in vieler Hinsicht. Auch die
Erweiterung zu semantischen Netzen stellt kein Problem dar, wenn die
entsprechenden Beziehungen vermerkt werden. Schwieriger ist da schon die
praktische Umsetzung, da nur wenige Programmiersprachen "Procedure Attachment"
und Vererbungsmechanismen unterstützen. Beispiel eines Frames:
FRAME-NAME
Slot 1 Wert 1 Prozedur (Löschen)
Slot 2 Wert 2 Prozedur (Löschen)
normales Attribut Prozedur (Hinzufügen)
Default-Wert
Referenz auf Sub-Frames
-
Prädikatenlogik erster Ordnung: Bei dieser
Wissensrepräsentationsform besitzen die einzelnen Aussagen einen
eindeutigen Wahrheitswert, der über die alternativen
Schliessverfahren "Resolution" und "Modem ponens" aus den Fakten logisch
gefolgert wird. Zwei Beispiele:
Für alle x gilt: PKW(x) => Fahrzeug(x).
Es existiert genau ein y, für das gilt: Erfinder(y, Ottomotor).
-
Regelbasiertes Wissen: Diese Form der
Wissensrepräsentation ist die für XPS üblichste. Auf den ersten
Blick ähneln die Wenn-dann-Aussagen den Aussagen der Prädikatenlogik,
aber hier muss die Konklusion keine Aussage mit Wahrheitsgehalt sein,
sondern kann auch eine Aktion bedeuten. UND-Operatoren (Konjunktionen) sind im
Prämissen- und Konklusionsteil möglich, während
ODER-Operationen (Disjunktionen) nur im Wenn-Teil zulässig sind.
Regelbasierte Systeme werden auch Produktionssysteme genannt,
weil aus den gegebenen Fakten über die relativ stabile Regelbasis neue
Fakten produziert werden können, die die Faktenbasis erweitern.
Faktenbasis und Regelbasis zusammen ergeben die Wissensbasis. Achtung: Die
Regelbasis ist nicht mit der Inferenzmaschine zu verwechseln, welches die
Strategien vorgibt, über die die Fakten und Regeln abgearbeitet werden.
Beispiel:
Faktenbasis: Kunde K kauft für 11.000 DM ein.
Regelbasis: Wenn Auftragsvolumen>10.000 DM, dann Kunde=Grosskunde.
Neues Faktum: Kunde K ist ein Grosskunde.
-
Abarbeitungsstrategien des repräsentierten Wissens:
Inferenz bedeutet: Schliessen aus vorhandenem Wissen.
Daher nennt man die Problemlösungskomponente von XPS auch Inferenzmaschine.
Auf folgende Arten kann grundsätzlich gefolgert werden:
-
Deduktives Folgern: Bei XPS üblich.
-
Induktives Folgern: Lernen. Bei XPS nicht üblich.
-
Approximatives Folgern: Bei XPS relativ selten.
-
Analoges Folgern: Menschen-, aber nicht XPS-üblich.
Beim deduktiven Folgern kann auf zwei Arten vorgegangen werden:
-
Vorwärtsverkettung: Gegebene Fakten werden auf den
Prämissen-Teil angewandt, d.h. die Regeln "feuern", wenn die
Prämissen stimmen, und bringen neue Fakten hervor, bis sich eine oder
mehrere Konklusionen herauskristallisieren.
-
Rückwärtsverkettung: Gegebene Fakten werden auf
ihren Konklusionsteil untersucht. Dann werden die dafür nötigen
Fakten rückwärts erschlossen und mit den eingegebenen Fakten
verglichen.
Auch die Art, wie der Produktionsregel-Baum durchlaufen wird,
kann alternativ gestaltet werden:
-
Breitensuche: Alle Regeln, deren Prämissen bzw.
Konklusionen mit den Falldaten übereinstimmen, "feuern". Im nächsten
Schritt wird untersucht, welche Regeln durch die neuen Fakten wiederum "feuern"
können, usw. Hier werden auch viele "Seitenzweige" untersucht, bei denen
ein Meta-Wissen als Selektionsmechanismus nötig wäre, um eine
Untersuchung dieser Möglichkeiten zu verhindern
(Konfliktlösungsstrategie als Teil der Wissensbasis gegen zu breite
"Feuerung").
-
Tiefensuche: Die erste Prämisse bzw. Konklusion, die
mit den Falldaten übereinstimmt, wird "abgefeuert". Danach wird die
Faktenbasis erneut durchsucht, und die nächste passende Regel
"abgefeuert", usw. Hierbei kann relativ zielgerichtet vorgegangen werden, wobei
sich das v.a. bei einem Dialog-Betrieb mit dem XPS als sinnvoll erweisen
kann.
Das XPS bedient sich zur Lösungsfindung sogenannter
opportunistischer Strategien. Dies sind heuristische Suchmethoden, die nicht
den Anspruch erheben, die optimale Lösung zu finden, sondern sich auch mit
der scheinbar besten Lösung abfinden, wodurch dieser Ansatz erhebliche
Geschwindigkeitsvorteile mit sich bringt. Die Wahl der Suchstrategie obliegt
der Agenda-Kontrolle, die so bei einer NN-Ankopplung z.B. auch die Lösung
des NN gegenüber der Lösung des XPS bevorzugen kann. Weiterhin kann die
Lösungsfindung noch durch Einsatz von Vorverarbeitungssystemen und
Evidenz-Systemen verbessert werden, indem zusätzliche Fakten automatisch
herangezogen werden und die Wahrscheinlichkeit für die gefundene
"optimale" Lösung abgeschätzt wird. All diese zusätzlichen
Selektionsmechanismen haben wesentlichen Einfluss auf die Qualität
eines XPS, tauchen aber nicht in der üblichen Angabe der Menge der Regeln
auf, mit der man die Leistung eines XPS zu beschreiben versucht!
Die Entwicklung von XPS ist keine einfache Sache. Waren
früher noch über 10 Mannjahre dafür nötig, kann man heute
bereits nach zwei bis sechs Mannjahren brauchbare Ergebnisse, sprich: korrektes
Antwortverhalten, vorweisen. Grund: Der Wiederverwendungseffekt ist bei XPS
relativ stark ausgeprägt, zumindest was die Methodik und das allgemeine
Problemlösungsverhalten angeht (weniger, was die Wissensbasis angeht).
Doch im Prinzip ist die Entwicklung eines XPS nie abgeschlossen, denn die
Wissensbasis ist ständig zu aktualisieren und zu erweitern. Folgende
Aspekte sind bei der XPS-Entwicklung zu beachten:
-
Rollenbildung: Um ein XPS zu entwickeln, müssen
zunächst die Akteure bestimmt werden. Dies sind üblicherweise:
- Knowledge Engineer -> am besten nur einer!
- Fachexperte -> am besten nur einer!
- Werkzeugentwickler
- Endbenutzer -> Stichwort: Benutzerpartizipation.
Achtung: Es hat wenig Sinn, die Mannschaft zur XPS-Entwicklung
wesentlich aufzustocken, denn Zeitvorteile erwachsen daraus kaum, denn
besonders die Integration von verschiedenem Expertenwissen ist ein fast
aussichtsloses Unterfangen für den KE.
Der KE muss ein wahres Allroundtalent sein. Zu seinen Aufgaben gehört:
KE
Wissensakquisition Interpretation Wartung
Wissenserhebung Wissensrepräsentation
-
Wissensakquisition:
-
Direkt: Implementiert selbst sein Wissen.
-
Indirekt: KE implementiert XP-Wissen.
-
Automatisch: Induktionsprogramm zum Lernen.
Üblich ist die indirekte Akquisition, wobei der KE
folgende Techniken anwendet, um das Wissen vom XP zu extrahieren: Er beobachtet
den XP, er befragt den XP, er analysiert Texte von XP oder er lässt
sich Fälle schildern und erkennt daraus selbst das
Problemlösungsverhalten.
Nachteilig an der Wissensakquisition ist ihre Unvollkommenheit, denn:
-
XP lösen Probleme nach fallspezifischen Regeln, nicht nach allgemeinen.
-
Menschen lösen Probleme oft durch XPS-fremde Analogieschlüsse.
-
XP können durch den gesunden Menschenverstand
innovative Lösungen erfinden. Dabei gilt: Dieses Hintergrundwissen wird
nicht erschlossen, sondern physisch erfahren (und das können XPS nicht
nachvollziehen)!
Verbesserungen in der Wissensakquisition, die derzeit den
Flaschenhals in der XPS-Nutzung darstellt, lassen sich vielleicht erreichen,
wenn die automatische Akquisition verbessert wird, wenn ein induktives Lernen
erreicht werden kann, wenn es bessere Mensch-Maschine-Schnittstellen entwickelt
wird, oder wenn es eine Fall-Komponente gibt, die anhand der Fall-Eingaben
Analogie-Schlüsse ermöglicht, wodurch die Regeln kontextspezifischer
eingesetzt werden können (ähnlich wie bei den
Eröffnungsbibliotheken der Schachcomputern).
-
Entwicklungsmethodik: Die klassischen, linearen
Phasenmodelle (modellbasierte Entwicklung) eignen sich für
wohl-strukturierte Probleme, die sich top-down-gesteuert in viele Teilprobleme
zerlegen lassen, nicht aber für die Entwicklung von XPS. Für XPS
eignet sich v.a. das Prototyping (Verzicht auf Spezifikationen;
Learning-by-doing-Ansatz; auch evolutionäre Entwicklung genannt) in
mehreren Durchläufen, wobei sich hier die folgenden Stufungen
unterscheiden lassen:
-
Demonstrationsprototyp: Um Ressourcengeber zu überzeugen.
-
Forschungsprototyp: Um mit der Materie vertraut zu werden.
-
Feldprototyp: Einsatz bereits vor Ort.
-
Produktionsprototyp: Reimplementierung in schneller Programmiersprache.
-
Kommerzielles System: Verkaufbares, ausgereiftes Produkt.
Charakteristisch für das Prototyping ist sein iterativer
Ablauf, weswegen man auch häufig von Prototyping-Spiralen spricht. Unten
sehen wir, wie ein solcher Zyklus aufgebaut ist, wobei gilt: Der erste
Durchlauf benötigt ca. 6 Monate, der zweite Durchlauf 3 Monate, der dritte
Durchlauf 2 Monate, usw.
Analyse (Akquisition)
Implementierung Design
Integration (neu zu alt) Einwände bearbeiten
Test (Validierung)
Übrigens: Die Menge der Regeln als Leistungskriterium eines XPS
heranzuziehen ist bedenklich, da dabei nicht die Grösse der Regeln
bekannt ist. Ein XPS mit 2000 Regeln würde als leistungsstark
eingeschätzt werden, jedoch kann es sein, dass es keine Disjunktion
im Wenn-Teil erlaubt, und die Regeln also auf Einzeiler hinauslaufen. Besser
ist es, wenn die Grösse des gesamten Quell- und Faktencodes in Zeilen
angegeben wird, evtl. mit dem qualitativen Vermerk versehen, in welcher
Programmiersprache die Zeilen verfasst wurden.
-
Werkzeuge zur Entwicklung:
LISP (McCarthy, 1958): Die KI-Sprache ist funktionsorientiert,
rekursionsorientiert und listenorientiert. Daten und Funktionen werden auf die gleiche
Weise dargestellt (Programm-Daten-Äquivalenz), wodurch sich Programme
selbst verändern können! Eine Suchstrategie ist nicht
vorimplementiert, daher ist LISP flexibler einsetzbar als z.B. PROLOG.
Verwendung findet diese Sprache im Wesentlichen in den USA, z.B. ist die
KEE-Entwicklungsumgebung (fast Shell) damit programmiert worden. Beispiel:
(setf(get 'Wissensbasis'Fakten)
'((MSDOS supports Laufwerk)
(MSDOS supports Farben)
(MSDOS supports Drucker)))
(setf(get 'Wissensbasis'Regeln)
'((($if($and
(($any Programm) supports Laufwerk)
(($this Programm) supports Farben)
(($this Programm) supports Drucker)))
($then ($this Programm) is_a Haufen Müll)))
PROLOG: Im Gegensatz zu LISP verfügt PROLOG über eine
implizierte Such- bzw. Abarbeitungsstrategie, nämlich die
rückwärtsverkettete Tiefensuche, wodurch XPS, die damit implementiert
werden, in ihrem Einsatz bereits beschränkt sind. Eingesetzt wird diese
KI-Sprache hauptsächlich in Japan und Europa. Beispiel:
supports(Laufwerk, MSDOS).
supports(Farben, MSDOS).
supports(Drucker, MSDOS).
Haufen Müll(Programm) :-
supports(Laufwerk, MSDOS).
supports(Farben, MSDOS).
supports(Drucker, MSDOS).
KI-Sprachen finden nur bei sehr komplexen Problemen einen
Einsatz. Bei mässig komplexen Problemen kann der KE bzw.
KI-Programmierer auf wissensbasierte Systeme wie KEE zurückgreifen, und
bei relativ einfachen Problemen genügt auch die Shell bzw. die
Akquisitionskomponente der Shell.
XPS sind in den folgenden Problemkreisen einsetzbar:
- Diagnoseprobleme: Ursachen-Erklärung von Gegebenheiten.
- Planungsprobleme
- Lehrprobleme: Computer-based Training.
- Beratungsprobleme: Handlungsempfehlungen.
- Interpretationsprobleme von empirischen Befunden
- Konfigurationsprobleme: Komplexe Gebilde aufbauen.
- Überwachungsprobleme: Andere Systeme kontrollieren.
XPS dominieren in der Medizin, kommen jedoch auch beim
Militär und IT-Unternehmen zum Einsatz. In der Wirtschaft werden sie
meistens im Bereich der Forschung eingesetzt oder der Produktion.
Industriebetriebe haben hier klar die Nase vorne; nur selten lassen sich XPS in
Banken oder Versicherungen finden. Im folgenden seien nur einige
ausgewählte XPS vorgestellt:
-
MYCIN ist das bekannteste medizinische XPS. Es wurde 1972
von Feigenbaum entwickelt und hilft bei der Diagnostik von
Infektionskrankheiten, indem es Symptome erkennt und auf die ursächliche
Krankheit zurückfolgert. Es ist anzumerken, dass in der Medizin nur
wenig "harte" Gesetze existieren, denn die Diagnose basiert im Wesentlichen auf
der Assoziation zwischen Symptomen und Krankheiten. XPS lassen sich ca. 90
Fragen vom behandelnden Arzt beantworten, dann entwerfen sie Hypothesen
über die Ursachen, die sie über ihre Wissensbasis zu verifizieren
versuchen.
-
CARGEX (Cargo Expert System) ist ein XPS im Luftfracht-Bereich. Es hat die
Aufgabe, zu entscheiden, ob neben Passagieren auch noch Fracht mit an Bord
genommen werden kann. Es entscheidet dabei auf Grundlage von der Wichtigkeit
des Kunden, den Anschlussmöglichkeiten und Lagerräumen für
die Fracht, oder ob es nicht billigere Transportmöglichkeiten gibt.
-
Bei einigen Banken prüfen XPS, ob einem Kunden, dessen
Konto leer ist, ein Kredit zugesprochen werden kann. Die Entscheidung
berücksichtigt dabei folgende Aspekte:
Kreditwürdigkeit
Unternehmensleistung Liquidität Ertragslage Personalkosten
Absatzleistung Produktionsleistung
Materialaufwand Leistung pro Kopf
-
XPS sind sehr anwendungsspezifisch, daher können sie
umfassende Systeme wie PPS niemals ersetzen, jedoch in einigen Punkten
erweitern. So kommen z.B. einige XPS zum Einsatz, wenn es um die Frage der
Priorität von Aufträgen geht. Den Entscheidungsablauf kann man sich
dazu etwa so vorstellen:
PPS liefert XPS waehlt der sinnvollste Auftrag
Schlange von einen Auftrag wird vom PPS als Nächstes
Auftraegen aus bearbeitet
Prioritätsregeln
Ziele Restriktionen
-
Besonders beliebt sind auch Konfigurationsexpertensysteme wie "Klasse-PC", welches
unter Berücksichtigung folgender Aspekte eine für den Anwender optimale Konfiguration
von HW, SW und Peripherie zusammenstellt:
PC
HW SW Peripherie
AP System-SW
Grafikkarte Textsystem BS Drucker
Monitor Tabellenkalkulation GUI Maus
Soundkarte DBS Utilities
Grafikprogrammierung
-
Einkaufs-Beratung-XPS helfen den Einkäufern, für
jede Bestellmenge den besten Lieferanten zu ermitteln, wobei ausdrücklich
nicht nur der Preis, die Qualität und die Liefertreue als einziges
Kriterium herangezogen wird, sondern auch das Image des
Lieferanten, welches sich ständig ändern kann. Es ist üblich,
dass dabei das XPS mit betrieblichen Daten (Fakten) aus den DBS
gefüttert wird.
XPS sollten in das betriebliche Umfeld eingebunden werden,
d.h. die Daten, die auf konventionellen EDV-Systemen wie DBS vorhanden sind,
sollten dem XPS zugänglich gemacht werden. Ein Stand-Alone-XPS würde
die gesonderte Eingabe aller relevanten Daten verlangen, was angesichts der
bisher eher mässigen Wissensbasis-Verarbeitungskomponenten ein
schweres Stück Arbeit bedeuten würde. Die Anbindung von DBS an XPS
ist jedoch nicht unproblematisch, denn beide Systeme weisen grosse
Unterschiede bzgl. der HW und SW auf. So kommen bei XPS häufig
LISP-Maschinen zum Einsatz, die sich nicht ohne weiteres an herkömmliche
Digital-Rechner anschliessen lassen, und die regelorientierten KI-Sprachen
vertragen sich auch nur selten mit den konventionellen prozeduralen
Programmiersprachen. Hauptproblem ist, das XPS normalerweise alle Fakten und
Regeln im Hauptspeicher halten, die DBS aber mit Massendaten operieren, die auf
Platte ausgelagert werden müssen. Die Zugriffsmechanismen von DBS auf
Massendaten sind wesentlich ausgereifter, als diese von XPS zu realisieren
wäre; daher sendet das XPS üblicherweise seine Anfragen in Form von
SQL-Statements an das DBMS, welches dann die Fakten aus der DB ausliest. Eine
Anbindung von DBS an XPS können wir uns folgendermassen
vorstellen:
XPS Schnittstelle, die die DBS
XPS-Anfragen an das DBS DBMS DB
entgegennimmt
Ein Vorteil einer solchen Kopplung wäre, dass
dass Antwortverhalten von IS verbessert werden könnte, denn gerade
wenn XPS auch Fuzzy-Logic-Techniken verwenden, genügen wenige
Fuzzy-Logic-Regeln, die in unterschiedlicher Intensität "feuern"
können, um hohe Problemlösungsquoten zu erreichen, während
konventionelle IS stets mit exakten Massendaten operieren müssen. Zudem
sind Fuzzy-Logic-Regeln gegenüber Änderungen wesentlich unempfindlicher
als exakte Regeln, wodurch sich der Adaptionsgrad der IS erhöht.
Auch Kopplungen von XPS und NN sind interessant, den
Low-Level-Tasks, die z.B. mit nicht-linearen Funktionen operieren müssen,
lassen sich über NN am effektivsten realisieren. Häufig sieht die
XPS-NN-Kopplung folgendermassen aus:
XPS kontrolliert Ergebnisse liefert NN
Der Grad der Kopplung ist nahezu beliebig skalierbar. So
können XPS und NN bzw. IS physisch integriert werden, z.B. horizontal als
XPS-Server oder vertikal als eigenständige XPS-Komponente. Wesentlich ist,
dass bei Verwendung der Schnittstellen keine Semantik verloren geht,
wodurch die Ergebnisse negativ beeinflusst werden würden.
Mit folgenden Problemen haben Entwickler und Einsetzer von XPS zu kämpfen:
-
Das qualifizierte Entwicklungspersonal fehlt. Die
Hochschulabsolventen reichen nicht aus, um für alle
XPS-Entwicklungsprojekte die nötigen Fachkräfte zur Verfügung
zu haben. Häufig müssen Unternehmen daher auf die Selbstschulung
zurückgreifen.
-
Die Verfügbarkeit der Experten ist begrenzt. Je besser
ein Experte ist, desto geeigneter ist er für die Entwicklung von XPS,
desto mehr wird er aber auch in seinem Tagesgeschäft benötigt.
-
Die Entwicklungszeit liegt pro XPS bei zwei bis sechs
Jahren. Selbst die Rekrutierung zusätzlichen Personals bringt kaum
Zeitvorteile, weil dadurch die Integrationsschwierigkeiten der verschiedenen
Experten-Meinungen anwachsen.
-
Der Kostenaufwand für ein XPS darf nicht
unterschätzt werden - v.a. Personalkosten fallen hier ins Gewicht. Und
ausserdem sind XPS nur selten nach einem Entwicklungsdurchlauf
einsatzbereit; i.d.R. müssen mehrere aufeinander aufbauende Versionen
erstellt werden, bis ein ausgereiftes Produkt entsteht.
-
Die Wissensextraktion des KE vom Experten ist keine einfache
Aufgabe. Oft genug weiss ein Experte nicht, wie er auf eine Lösung
kommt - dies umso mehr, je vertrauter er mit seiner Materie geworden ist.
Oftmals will der Experte sein Wissen auch gar nicht Preisgeben. Weitere
Mängel bei der Extraktion: Die Regeln, die der Experte benennt, werden vom KE
falsch implementiert. Die Motivation der Experten nimmt mit der Zeit rapide ab.
Die Regeln werden zu allgemein oder zu speziell formuliert. Die Meinung vieler
Experten ist schwer zu integrieren.
-
Die zur Verfügung stehenden Werkzeuge erlauben keine
problemgerechte Lösungsstrategien. Dieser Fall ist z.B. gegeben, wenn
PROLOG mit seiner integrierten rückwärtsverketteten Tiefensuche zum
Einsatz kommt, stattdessen aber eine vorwärtsverkettete Breitensuche
angebrachter wäre.
-
Die Korrektheit des XPS ist schwerlich prüfbar, wie ja
auch ein Experte nur schwer überprüfbar ist. Da Experten Fehler
machen, muss dies auch einem XPS zugestanden werden. Ein Vergleich mit den
Ergebnisse von Experten führt auch nicht zum Ziel, denn bekanntlich
können verschiedene Experten auch ganz unterschiedliche Meinungen
vertreten, oder ein Experte wehrt sich gegen einen Vergleich. Ein Pflichtenheft
darüber, was ein XPS alles können sollte, ist vor Projektbeginn nicht
formulierbar; erst im Einsatz zeigt sich, welchen Anforderungen es gerecht
werden sollte.
Um XPS effektiv betreiben zu können, müssen
zunächst einige Voraussetzungen in der Organisation erfüllt sein. So
müssen instrumentelle (Werkzeuge vorhanden?), personelle (Fachkräfte
vorhanden?) und strukturelle (enge, schlecht-strukturierte Probleme vorhanden?)
Aspekte berücksichtigt werden.
- Die Wissenspflege (Wartung; wenig bug fixing) erweist sich als zu aufwendig.
- Der Fachexperte, KI-Programmierer oder KE geht => das Projekt stirbt.
- PPS oder andere Lösungen erweisen sich als effektiver.
- Die Firma scheut die Kosten beim praktischen Einsatz.
- Die Motivation konnte nicht aufrecht erhalten werden.
- Die Akzeptanz ist wegen schlechter Bedienerführung zu gering.
- Grosse Problemdomänen können XPS nicht bearbeiten.
- Ein XPS weiss nicht, was es nicht weiss, gibt aber immer Ratschläge.
- Ein XPS fehlt der gesunde Menschenverstand, der Kontexte aufzeigt.
- Ein XPS reflektiert nicht sein Wissen, sondern glaubt es stur.
- Ein XPS beurteilt das Problemmodell, nicht das reale Problem.
- Ein XPS weiss nicht mehr, als Menschen.
-
Ein XPS funktioniert erst dann zu 100% korrekt, wenn das
Problemfeld so klein ist, dass man kein XPS mehr braucht.
Neben all diesen Nachteilen von XPS soll jedoch ein
grosser Vorteil von ihnen nicht verschwiegen werden: XPS befinden sich
vielerorts bereits im Einsatz - und sie funktionieren!