Informationsmanagement

Geschwurbel von Daniel Schwamm (10.05.1994)

Inhalt

1. Einführung in das Informationsmanagement

Das Informationsmanagement setzt sich in den Unternehmen immer stärker durch. Kieser und Kubicek beschreiben, wie die Informationstechnologie (IT), die durch das Informationsmanagement verwaltet wird, im Laufe der Zeit ihre deterministische Wirkung auf die Organisationsstrukturen verloren hat. Fand man in den 70ern noch weitgehend grosse Rechenzentren vor, die eine aufwendige Abstimmung einzelner Abteilungen erforderten, um reibungslos funktionieren zu können, so kam mit den Timesharing-Betriebssystemen ein Dezentralisierungsprozess in Gang, der durch die leistungsstarken PCs bis heute anhält. Aufgabenintegration wurde dadurch ebenso möglich wie die technokratische Ausweitung der Arbeitsabläufe.

Die neuen Informationstechnologien erhöhen demnach die Spielräume, die den Gestalter der Organisationsstrukturen zur Verfügung stehen, und dies fordert geradezu die Beteiligung der Betroffenen heraus - zumal die Auswirkungen der neuen Informationstechnologien noch gar nicht absehbar sind. Sicher scheint jedoch zu sein, dass Kommunikationssysteme die Face-to-Face-Kommunikation nicht gänzlich unterlaufen werden; zu gross sind die Unterschiede (z.B. fehlt die Hierarchie, wodurch der Konsens länger dauert, Junk Mails werden durch die Anonymität möglich, und Gestik sowie sonstige nichtsprachliche Kommunikationsmittel fallen weg). Die Experten lassen sich ebenfalls nicht durch Expertensysteme ersetzen. Und die starke Dezentralisierung birgt die Gefahren von Insellösungen und Wildwuchs, eine verstärkte Zentralisation dagegen die Gefahr einer erhöhten EDV-Abhängigkeit. Ob die Informationstechnologie letztlich ein Fluch oder Segen ist, hängt massgeblich vom Informationsmanagement ab, das Thema dieser Arbeit ist.

Insbesondere die Auswirkungen des Informationsmanagements auf die Arbeitsplätze ist ein sensitives Thema. Kieser und Hildebrand stellen heraus, dass v.a. für die Einführung neuer Informationstechnologien ein spezielles Management von Nöten ist. Der Produktionsbereich hat eindeutig Vorteile aus den Errungenschaften der Technik gewonnen, die Hoffnung besteht, dass sich dieser Erfolg auch auf die Büros wird übertragen lassen können. Fest steht, dass die neuen Informationstechnologien ganz massiv die Inhalte der Arbeitsplätze oder die Arbeitsplätze selbst ändern können. Sie wirken rationalisierend, integrativ oder zentralisierend, sie fördern die dequalifizierende Spezialisierung, aber auch die Professionalisierung, sie können die Motivation erhöhen oder Akzeptanzprobleme schaffen. Ein umsichtiges Informationsmanagement muss all diese Faktoren Beachtung schenken, wenn es erfolgreich sein will (wobei sich dieser Erfolg in Wettbewerbsvorteilen wie z.B. besserer Ressourcenausnutzung und organisationsübergreifender Vernetzung widerspiegeln kann).

1.1. Begriff des Informationsmanagements

Informationen in Unternehmen sind maschinell verarbeitbare Daten, die an einen bestimmten Zweck gebunden sind.

Das Management ist ein Unternehmens-Instrument, welches die Funktionen Planung, Entscheidung, Kontrolle und Organisieren innehat. Institutionalisiert erscheint das Management in Form von Managern.

Datenmanagement bedeutet die Verwaltung von Informationen. Es umschliesst die Speicherung, Beschaffung und Aufbereitung von Informationen, die Hardware, die Software, die Manware und die Orgaware, und auch die Gestaltung von Formularen und Rechtsfragen. Das Datenmanagement ist aber nur ein Teil des Informationsmanagements. Denn es beachtet v.a. die nicht-technischen Seiten der Bedeutung von Informationen. Da z.B. der technische Wandel immer schneller vonstattengeht, können Informationstechnologien Ängste und Akzeptanzprobleme beim Personal verursachen, denen entgegenzuwirken ist.

Das Informationsmanagement versorgt das Unternehmen mit bedarfsgerechten Informationen. Es hat eine strategische und eine operative Ausrichtung. Die strategische Ausrichtung resultiert aus den Unternehmensstrategien, die den langfristigen Erfolg des Unternehmens sichern sollen. Die operative Ausrichtung resultiert aus der Konkretisierung der strategischen Ziele in operative Ziele.

1.2. Notwendigkeit des Informationsmanagements

Informationstechnologien haben das Potenzial, organisatorische Gestaltungsspielräume zu schaffen. Gestaltungsspielräume, die bei geeigneter Ausnutzung einem Unternehmen überlebenswichtige Wettbewerbsvorteile schafft. Die Information ist derweilen zum Produktionsfaktor geworden, ja, mehr noch, zum eigenständigen wirtschaftlichen Gut (auch wenn das noch nicht alle wahrhaben wollen; noch ist dafür nicht ein eigenes Vorstandsressort eingerichtet worden), auch wenn Informationen schwer monetär abzuwägen und i.d.R. zeitgebunden sind. Moderne Organisationen sind nicht länger nur leistungsorientiert, sondern informationsorientiert. Denn Wissen heisst Macht. Doch das Plus an Informationen muss auch verwaltet werden, denn wie wir im folgenden Abschnitt sehen, bergen Informationstechnologien ein Potenzial, dessen Auswirkung nicht in jedem Fall dem Unternehmen zum Vorteil gereicht. Aus diesem Grund ist ein Informationsmanagement (neben einem rein technisch orientierten Datenmanagement) unbedingt notwendig.

1.2.1. Gefahren und Chancen von Informationstechnologien

Neue Informationstechnologien bewirken tendenziell eine Zunahme der Kommunikation, eine Minderung der Arbeitsteilung, eine Verringerung von Wartezeiten (z.B. muss bei Verwendung von Mailboxen anders als beim Telefon nicht auf den Kommunikationspartner gewartet werden) und die Vermeidung von mehrfacher Informationsverarbeitung. All dies fördert sicher die Arbeit und macht sie effizienter. Doch neue Informationstechnologien können ebenso missbraucht werden, von den Vorgesetzten, den Mitarbeitern und von Externen. Sie können auch ganz einfach störanfällig sein, oder sie ändern die Qualitätsstruktur des Personals in unvorhergesehener Weise (z.B. Polarisierung). Das Informationsmanagement hat daher die Gefahren der Informationstechnologien gleichermassen im Auge zu behalten wie ihre Chancen.

Anders ausgedrückt: Die Chance der Informationstechnologien liegt darin, mit ihnen Informationen effizienter als bisher nutzen zu können. Die Gefahr liegt im fehlenden oder falschen Einsatz von Informationstechnologie.

1.2.2. Auswirkung der Informationstechnologie

Die Einführung neuer Informationstechnologien wirkt sich auf die Arbeitsplätze aus. Entweder schafft sie neue Berufe, wie z.B. den Informatiker-Beruf, oder sie ändert die Inhalte der Arbeit, macht sie z.B. autonomer, befreit sie von diversen Sachzwängen und erlaubt mehr Rationalisierung. Die Qualitätsstruktur der Ausbildung ändert sich dahin gehend, dass Professionalisierung und Spezialisierung zunehmen, oder dass die Spezialisierung abnimmt und das allgemeine Qualitätsniveau zunimmt. Die Arbeitsabläufe ändern sich dahin gehend, dass es z.B. zu vertikaler und horizontaler Integration kommt (Leaning!), oder dass das Informiertsein die klassische Stellungsautorität untergräbt.

Von den Auswirkungen neuer Informationstechnologien sind alle Hierarchiestufen gleichermassen betroffen. Das Top-Management muss z.B. lernen, wie IT-Alternativen gegeneinander abgewägt werden können. Dieser Qualifizierungsprozess kann formell, halbformell oder informell (autodidaktisch) geschehen. Dabei sollten fachliche Details zunächst ausgespart und nur die direkten Auswirkungen der Informationstechnologien erfahren werden. Üblicherweise wird dieses Wissen dem Top-Management durch Externe vermittelt. Das mittlere Management hat dagegen v.a. für eine schonende Einführung neuer Informationstechnologien zu sorgen, etwa durch Mehrphasenprozesse, um so Akzeptanzprobleme möglichst zu umgehen; auch hier ist aber ein Wissen um die Auswirkungen der Informationstechnologien unumgänglich. Die Mitarbeiter können wiederum über die Informationstechnologien selbst etwas über deren Auswirkungen erfahren. So bieten z.B. Computerprogramme Lernkurse für bestimmte Software an (Computer-Based Training, CBT). Dadurch können die Betroffenen wirksam vor Überforderung geschützt werden.

Zusammengefasst wirken sich Informationstechnologien aus auf:

  • die Organisation: Zentralisierung bzw. Dezentralisierung wird verstärkt.
  • die Mitarbeiterqualifikation.
  • die Motivation und Arbeitszufriedenheit aufgrund Akzeptanzresultate.
  • das Informationsangebot.
  • das Controlling (Qualität darf ruhig etwas teurer sein).
  • die Aufgabenstrukturen durch Integrationstendenz.
  • die Unternehmensstrategien (z.B. aufgrund von CIM-Einsatzes).
  • die Wertschöpfungskette (z.B. durch JIT, PPS und CAM/CAD).
  • die Wettbewerbsstruktur.

Es bleibt zu sagen, dass zwischen den Möglichkeiten der Informationstechnologien und ihrer bisherigen anwendungsorientierten Umsetzung eine noch wachsende (!) Lücke klafft. Der technische Wandel geht schneller vonstatten, als die Manager folgen können. Eine Gap-Analyse veranschaulicht diese Lücke und zeigt einmal mehr die Notwendigkeit von Informationsmanagement.

1.2.3. Gap-Analyse

Die Informationstechnologien in Organisationen werden häufig nicht wirklich voll ausgenutzt. Die Gap-Analyse zeigt auf, wo genau es noch hapert:

  • Strategielücke: Es ist oft keine passende Informationsstrategie auf Grundlage der Unternehmensstrategien vorhanden. Statt eines punktuellen und temporären Denkens ist vielmehr ein übergreifendes Denken nötig.
  • Gestaltungslücke: Was strategisch nötig ist, ist oft organisatorisch noch nicht umgesetzt worden. Ebenso oft ist noch nicht organisatorisch umgesetzt worden, was technisch möglich wäre. Nötig ist daher eine der Informationsstrategie angepasste Organisationsstruktur.
  • Akzeptanzlücke bzw. Führungslücke: Nur technologiefreundliche Vorgesetzte, die die neuen Informationstechnologien umsichtig einführen, können Akzeptanz und Arbeitszufriedenheit bei den Mitarbeitern ernten.

1.3. Zielsystem des Informationsmanagements

Das Informationsmanagement hat Ziele auf strategischer, administrativer und operationaler Ebene, wobei die administrativen Ziele kaum von den operationalen Zielen zu trennen sind. Zur Verwirklichung dieser Ziele müssen gewisse Voraussetzungen geschaffen werden, so muss u.a. genau geklärt werden, wem wo wann welche informationsorientierten Aufgaben bzw. Kompetenzen zukommen. Wichtig dabei ist, dass auf allen Ebenen die Bedeutung der IT erkannt wird.

Allgemeines Ziel ist die Entwicklung, Erhaltung und Nutzung einer unternehmensindividuellen Informationsinfrastruktur zur Erfüllung der Informationsbedürfnisse aller Mitarbeiter (und der Externen).

1.3.1. Strategische Ziele

Gebildet werden beim Informationsmanagement vorrangig strategische Ziele, aus denen dann die administrativen bzw. operationalen Ziele abgeleitet werden können. Das Informationsmanagement hat z.B. die strategischen Ziele bzw. Aufgaben:

  • Informationsinfrastruktur: siehe später.
  • Systementwicklung im Grossen:: siehe später.
  • Personalmanagement im Grossen:: siehe später.
  • Akzeptanzmanagement im Grossen:: siehe später.
  • (De)Zentralisierungsmanagement:: siehe später.
  • Sicherheitsmanagement im Grossen:: siehe später bei operativem Informationsmanagement.
  • Innovationsmanagement:: Technologische Neuerungen im Auge behalten.
  • Datenmanagement im Grossen.:
  • Informationsstrategie:: Überbau gegen PC-Wildwuchs und Insellösungen.

1.3.2. Operative Ziele

Die operativen Ziele umfassen i.d.R. auch die administrativen Ziele, daher werden sie hier in einem Abschnitt dargestellt. Dennoch lassen sie sich einigermassen abgrenzen. Ziele bzw. Aufgaben auf eher administrativer (realisierender) Ebene sind:

  • Systementwicklung im Kleinen: siehe später bei strategischem Management.
  • IT-Projektmanagement: Zeit- und Ressourcenplanung zu beachten.
  • Konfigurationsmanagement: Pflichtenheft für Hardware bzw. Software gemäss strategischem Informationsmanagement.
  • Hardware- bzw. Software-Beschaffung: insbesondere Auswahl der Lieferanten sowie Vertragsgestaltung.
  • Sicherungsmanagement im Kleinen: siehe später.
  • Datenmanagement im Kleinen
  • Personalmanagement im Kleinen: siehe später beim strategischen Informationsmanagement.

Ziele bzw. Aufgaben auf eher operationaler (in Betrieb nehmender) Ebene sind:

  • Betrieb und Wartung von Hardware und Software.
  • Anwendungssysteme.
  • Datenmanagement im Kleinsten.
  • Benutzerservice: siehe später.
  • Individuelle Datenverarbeitung: siehe später.
  • Sicherungsmanagement im Kleinsten: siehe später.
  • Abrechnung: siehe später.

1.3.3. Strategien eines Informationsmanagements

Zur Realisierung der Ziele bzw. Aufgaben des Informationsmanagements sind verschiedenen Strategien denkbar. Diese können nach Intensität des Durchsetzungswillens folgendermassen kategorisiert werden:

  • Explosive (plötzliche) Strategie.
  • Aggressive (hartnäckige) Strategie.
  • Moderate (geruhsame) Strategie.
  • Retardierende (Bewährung abwartende) Strategien.
  • Defensive (Althergebrachtes bevorzugende) Strategie.
  • Destruktive (abwehrende) Strategie.

2. Strategisches Informationsmanagement

Die Ziele bzw. Aufgaben des Informationsmanagements wurden weiter oben beschrieben. Wir wollen nun auf einige der dort aufgeführten Ziele noch etwas näher eingehen.

2.1. Informationsinfrastruktur

Die Informationsinfrastruktur dient der Produktion von Informationen. Sie lässt sich unterteilen in:

  1. technische Systeme: Diese umfassen das Komponenten-, Technologie- und Architektur-Management. Es muss geklärt werden, welche Hardware im Unternehmen insgesamt Verwendung findet: proprietäre Systeme oder offene Systeme? Fremdbezug oder Eigenherstellung? Eigene EDV oder Outsourcing? Zentrale Mainframes oder dezentrale Rechnernetze?
  2. Anwendungssysteme: Standard-Software oder individuelle Datenverarbeitung? Ein oder mehrere Entwickler der Software? Eine oder mehrere Programmiersprache? Wie lassen sich die Anwendungssysteme verknüpfen?
  3. Konzeptionen: Einbettungsmuster für (1) und (2). Hierzu gehören auch Überlegungen bezüglich des Technisierungsgrades, des Automatisierungsgrades und des Durchdringungsgrades.

2.2. Organisatorische Gestaltung der Systementwicklung

2.2.1. Traditionelles Phasenschema

Traditionell wird bei der Systementwicklung in mehreren Phasen vorgegangen, wobei für jede Phase bestimmte Meilensteine aufgestellt werden, die angegeben, wie weit ein Projekt schon fortgeschritten ist. Dadurch wird der Kommunikationsaufwand minimiert, worin wohl auch der Erfolg der Phasenmodelle begründet liegt. Solche Phasen der Systemeinführung unter Einbeziehung der Betroffenen (eher untypisch bei traditionellen Phasenschemata) können nach Kieser sein:

  1. Spannungsabbau zwischen Experten+Fachabteilung mittels Konfrontationsmeetings.
  2. Problemanalysen: Sind überhaupt Ist-Probleme vorhanden?
  3. Vorläufiges Design: Soll-Vorstellungen ergründen.
  4. Projektorganisation aufbauen: Mitgliederrekrutierung, Struktur festlegen.
  5. Ist-Analyse: Phase (1) detaillieren.
  6. Zielplanung: Phase (2) detaillieren.
  7. Alternative Grobkonzeptentwürfe (eventuell plus Prototyp) entwickeln.
  8. Grobkonzeptbewertung und Entscheidung, z.B. mittels Kosten-Nutzen-Analyse.
  9. EDV-Einrichtung durch Experten, organisatorische Faktoren-Einrichtung (Schulung, Stellenbildung, Ablaufoptimierung usw.) durch Gestalter und Fachabteilungen.
  10. Testphase: Nicht nur Fehler, auch Mängel aufdecken.
  11. Optimierte Systemeinführung: Parallelbetrieb, Crash oder Pilotbetrieb.
  12. Wartungsphase: God save CASE-Tools.

Durch neuartige Informationstechnologien lassen sich in den verschiedenen Phasen Automatisierungspotenziale einbringen. Bei der anfänglichen Spannungsabbau- und Analysephase sind diese noch wenig gegeben (ausser bei der objektorientierten Analyse). Die Designphasen jedoch kennen Entity Relation Diagrams, Petrinetze, Flussdiagramme u.ä.m. In der Implementierungsphase kann dann richtig stark automatisiert werden: Ein Compiler z.B. findet Syntax-Errors und kann Cross-Reference-Tabellen erstellen. Es sind 4GL (Fourth Generation Languages) einsetzbar. Auch Tests lassen sich stark automatisieren, ebenso die Wartung über Debugging-Programme, Monitore und Reverse Engineering zur Modul-Wiederverwendung.

2.2.2. Benutzerpartizipation bei der Systementwicklung

Welche Rechte sollen den Betroffenen eingeräumt werden? Mögliche Stufungen sind:

  • Rechtlos: Beispiel Winfried Wintersteins Programm für das Prüfungsamt.
  • Informationsrecht: User werden vorgewarnt.
  • Vorschlagsrecht: User können Ideen einbringen, aber nicht durchsetzen.
  • Passive Mitwirkung: Von User werden Vorschläge verlangt.
  • Aktive Mitwirkung: User können über Abstimmungen Vorschläge durchsetzen.
  • Selbstgestaltung (hier kommen die Endbenutzersprachen von Niedereichholz zur Geltung).

Vorteilhaft an der Benutzerpartizipation ist die Effizienzsteigerung der Systeme, da sie den Bedürfnissen der Anwender gerechter werden, die dann auch eher motiviert sind, damit zu arbeiten (Requirement Engineering). Zuerst muss allerdings das Misstrauen zwischen Experten und Fachabteilungsmitgliedern gemildert werden, wie dies im obigen Phasenmodell in Phase 0 geschieht. Dies gelingt natürlich nicht, wenn die Experten die Betroffenen einfach ausquetschen wie Zitronen und danach den Rest der Arbeit alleine gestalten. Nein, die Betroffenen sind in jeder Phase mehr oder weniger zu beteiligen.

2.2.3. Systemauswahl

Am ehesten wird die Partizipation gewährleistet, wenn die Betroffenen die Wahl zwischen mehreren Alternativen (Grobkonzepten/Prototypen) haben. Dabei wird u.a. auch im besonderen Masse das Erfahrungspotenzial der Betroffenen genutzt. Allerdings muss aufgepasst werden, dass das Grobkonzept/der Prototyp nicht als fertiges Produkt gepriesen wird, da dies die späteren Anwender leicht schocken könnte.

Neben dem schnellen, auf Dokumentation verzichtendem Prototyping gibt es auch noch das Versionskonzept zur Systemauswahl. Wir wollen diese Verfahren kurz gegenüberstellen:

Prototypen werden i.d.R. nach ihrem für gut befunden komplett neu entworfen und implementiert (Rapid Prototyping), während Versionen nach ihrem für gut befunden direkt eingeführt werden. Anders als Prototypen, die bei nicht gut befunden ein anderes Grobkonzept implementieren oder sogar nur die Implementierung des alten Prototyps verfeinern, werden abgelehnte Versionen komplett verworfen und aus der Problemdefinition eine neue Version entwickelt. Insgesamt gesehen scheint uns das Prototyping der effektivere Weg zu sein, da hier die Betroffenen frühen und wesentlichen Einfluss auf das Endergebnis haben.

Wird Software gekauft, kann ein dreistufiges Evaluierungsverfahren angewendet werden:

  • Stufe 1: Ein Vorfilter selektiert die Marktangebote für EDV-Anlagen. Eine Rolle spielt dabei Proprietät, Hersteller-Image, Service-Leistungen und Leistungseinschränkungen.
  • Stufe 2: Ein Grobfilter selektiert die übrigen Angebote nach den Muss-Anforderungen, nach der nötigen Software, dem Preis und den Ausbaumöglichkeiten.
  • Stufe 3: Die übrige Menge durchläuft einen Feinfilter, d.h., jedes Angebot wird gewichtet, es werden Benchmark-Tests durchgeführt und gesehen, ob auch noch Wunschziele damit realisierbar sind. Danach trifft man seine Wahl für ein Produkt.

2.3. Personalmanagement und Qualifikationsstruktur

Zum strategischen Personal-Management im Bereich Information und Kommunikation gehören die folgenden Aufgaben:

  • strategische Stellenplanung.
  • Festlegung der Qualifikationsprofile.

Daraus kann eine Personal-Beschaffungsstrategie abgeleitet werden.

2.3.1. Die Managementpyramide

Früher gab es eine Manager-Pyramide, die von der zahlenmässigen Verteilung ein ebenmässiges dreieckiges Bild ergab. Sie bestand aus den Ebenen:

  • obere Führung (Top-Management).
  • mittlere Führung (Abteilungsleiter).
  • untere Führung (Gruppenleiter).
  • Geführte (Ausführende).

Im Laufe der Zeit hat sich den Parkinsonschen Gesetzen folgend ein Strukturwandel vollzogen: Die mittlere Führung und v.a. die untere Führung haben sich aufgebläht, während die Ausführenden immer weniger wurden. Nur das Top-Management blieb, wie es war. Kein Wunder also, dass das organisatorische Leaning schnell als Notwendigkeit erkannt wurde, welches über die horizontale und v.a. vertikale Integration, welche die neuen Informationstechnologien bieten, am leichtesten zu erreichen ist - auf Kosten allerdings von Macht der Manager, die sich dagegen natürlich erheblich sperren.

2.3.2. Aufgabenstrukturen

Die neuen Informationstechnologien haben das Potenzial, die Aufgabenstrukturen grundlegend zu ändern. Es können mehr Spezialisten und Professionalisten nötig werden (bei mehr Arbeitsteilung), oder aber auch mehr allgemein hoch qualifizierte Allround-Sachbearbeiter (bei horizontaler/vertikaler Integration). Die allgemeine Qualifizierung scheint uns der bessere Weg zu sein, um die neuartigen Informationstechnologien voll auszuschöpfen. Wird vertikal integriert (Minderung der Arbeitsteilung), dann lässt sich die Organisation als Autarkiemodell verstehen. Wird horizontal integriert (nur Änderung der Arbeitsteilung), dann lässt sich die Organisation als Kooperationsmodell verstehen.

2.3.3. Qualifikationsstruktur des Managements

Das Management muss lernen, die Potenziale der neuen verschiedenen Informationstechnologien gegeneinander abzuwägen, um so strategisch günstige Entscheidungen für ein Konzept treffen zu können. Das mittlere Management muss lernen, wie die neuen Informationstechnologien am geschicktesten eingeführt werden, um Akzeptanzprobleme zu minimieren. Das untere Management schliesslich muss wissen, wie es die Geführten motivieren kann, um die Fähigkeiten der Informationstechnologie auf die beste mögliche Weise auszunutzen.

2.3.4. Qualifikationsmassnahmen

Das Top-Management muss v.a. um die Auswirkungen der IT-Alternativen wissen. Detailwissen ist bei ihnen nicht gefragt. Qualifizieren können sie sich:

  • informell (autodidaktisches Lernen).
  • halbformell (freiwillige Fortbildungskurse besuchen).
  • formell (Pflichtseminare besuchen).

Das mittlere und untere Management lässt sich von (externen) Stäben beraten, und spezialisiert auf die Systeme, die die Führung ausgesucht hat. Schulungen sind nicht unüblich.

Die Geführten können sich ebenfalls schulen lassen. Inzwischen gibt es aber auch ein computerbasiertes Lernen, CBT genannt, welches ein kostengünstigeres autodidaktisches Lernen ermöglicht. Man muss allerdings darauf achten, dass die Geführten dabei nicht überfordert werden.

2.4. Akzeptanzproblematik

Die Akzeptanz neuer Informationstechnologien hängt von vielen Bedingungen ab. Diese Bedingungen sind von der Führung zu erkennen und als Programm umzusetzen, wobei eine frühzeitige Einbeziehung der Betroffenen und ein ganzheitliches Gestaltungskonzept von wesentlicher Relevanz sind. Die alten Informationstechnologien können jedoch durch die neuen Informationstechnologien zumeist (noch) nicht völlig ersetzt werden.

2.4.1. Zusammenhang zwischen Wirkungen und Akzeptanz

Bisher existieren wenige empirische Untersuchungen über die Auswirkungen der neuen Informationstechnologien und der damit zusammenhängenden Akzeptanz bei den Benutzern. Diesen Zusammenhang zu analysieren ist nicht einfach. Ein kurzes Brainstorming soll zeigen, was einem spontan zur Arbeit mit neuen Informationstechnologien einfällt:

  • die Arbeitsgeschwindigkeit nimmt zu.
  • Entlassungen drohen.
  • Routine wird vereinfacht.
  • die Arbeitsinhalte werden formaler.
  • die Quantität und Qualität der Informationen nimmt zu.
  • Datenschutz bzw. Datensicherheit sind wichtig, aber schwer realisierbar.

Der ökonomische Nutzen von Informationstechnologien steht und fällt mit der Akzeptanz der Nutzer und Bediener, ohne dass diese sich dessen bewusst sein müssen.

2.4.2. Arbeitszufriedenheit

Steigt die Arbeitszufriedenheit nach Einführung von neuen Informationstechnologien? Ergebnisse laut einer Vorher-Nachher-Umfrage:

  • Die Arbeitszufriedenheit steigt, aber unterschwellig überwiegt dennoch der Wunsch nach persönlichen Kontakten.
  • Die Arbeitszufriedenheit steigt erst nach einer gewissen Umgewöhnungszeit bzw. Umstellungszeit.
  • Die Art der IT-Einführung bestimmt im Wesentlichen die Arbeitszufriedenheit.
  • Ärgern sich die Vorgesetzte über die Informationstechnologien, dann auch deren Mitarbeiter.
  • Je grösser der Sprung von alten auf neuen Informationstechnologien ist, desto geringer ist die Arbeitszufriedenheit.
  • Beamte verlangen andere Informationstechnologien als Kreative, damit die Arbeitszufriedenheit gegeben bleibt.
  • Die gesellschaftliche Akzeptanz der Informationstechnologie bewirkt eher Arbeitszufriedenheit in der Organisation.

2.4.3. Akzeptanzebenen

Es sind bei Einführung neuer Informationstechnologien drei Ebenen der Akzeptanz zu beachten:

  1. Gesellschaftliche Ebene: Ist die Arbeitsmarktsituation durch Informationstechnologien besser geworden? Wie ist die Ausprägung der allgemeinen Technikfreundlichkeit?
  2. Organisatorische Ebene: Ist die Produktivität durch Informationstechnologien höher geworden? Kann ich die Ergebnisse besser überwachen? Der Wirtschaftlichkeitsnachweis ist hier wichtig. Arbeitsplatzeinsparungen fallen bei wachsenden (Büro-)Aufgaben eher nicht an.
  3. Individuelle Ebene der Nutzer bzw. Bediener: Sind die Arbeitsabläufe effizienter geworden? Sind meine Arbeitsinhalte attraktiver als zuvor? Habe ich mehr Mitsprachemöglichkeiten? Werde ich nicht stärker überwacht? Wird die Belastung durch die Informationstechnologie weniger?

2.4.4. Allgemeine Akzeptanz fördernde Massnahmen

Die Akzeptanz der Informationstechnologie durch die Nutzer lässt sich steigern durch:

  • bessere Präsentationsmöglichkeiten aufgrund neuer Technologien (z.B. Briefköpfe).
  • höhere Erreichbarkeit von Ansprechpartnern (z.B. durch E-Mail-Systeme).
  • vertikale Aufgabenintegration (autonome Arbeitsplätze).
  • horizontale Aufgabenintegration (erhöhte laterale Kooperation).
  • bedienerfreundliche Technik.
  • unterstützendes Verhalten der Vorgesetzten.
  • geeignete organisatorische Einsatzbedingungen, wie dezentrale Verfügbarkeit.
  • Schulungen und Einweisungen.

2.4.5. Akzeptanz bestimmende Faktoren bei den Anwendern

Ob neue Informationstechnologien von den Anwendern akzeptiert werden, hängt von der persönlichen Einstellung der Mitarbeiter ab (sind sie begeistert oder lehnen sie die IT ab?) und vom Verhalten der Führung (werden die Informationstechnologien den Mitarbeitern aufgezwungen oder freiwillig zur Verfügung gestellt?). Unnötige, weil vermeidbare Belastungsfaktoren sind:

  • von Informationstechnologien nicht-begeisterte Vorgesetzte.
  • unergonomische IT-Gestaltung.
  • Nichtbeteiligung in der Implementierungsphase der Informationstechnologien.
  • keine Schulungen.
  • der Zugriff auf die Informationstechnologien ist umständlich.
  • die Aufgabeninhalte ändern sich nicht.

2.4.6. Akzeptanz bei Top-Manager

Die Nutzung neuer Informationstechnologien beim Top-Management ist stark altersgebunden. Die jüngeren Manager greifen viel eher zu Informationstechnologien als ältere Manager. Dies hat aber weniger mit der Akzeptanz zu tun, als dem Glauben der Älteren, nichts von den neuen Informationstechnologien zu verstehen. Und auch bei den Jüngeren ist die Akzeptanz wesentlich höher (97%), als die tatsächliche Nutzung (55%). Gründe hierfür sind fehlende Kenntnisse bezüglich der EDV sowie der Gedanke der Delegation ("Das ist Aufgabe der Geführten").

Im Vergleich zu anderen IT-Nutzern herrscht bei Top-Managern geradezu eine Technik-Euphorie vor, auch wenn sich das in realen Implementierungen nicht immer widerspiegelt. Bei den Nutzern, v.a. Studenten, wurde der Computer vom Heilsbringer (1980) zum Jobkiller (1983) und dann erneut zum Heilsbringer (1988) erklärt; die IT-Akzeptanz ist hier also starken Schwankungen unterlegen. Es fällt auf: Die Manager nutzen Informationstechnologien weit weniger, als sie dies von ihrer Einstellung her machen müssten, wobei hier die oben erwähnten Altersunterschiede zu beachten sind.

2.5. Dezentralisierungsproblematik

In den 70ern bedingten die neuen Informationstechnologien noch eine Zentralisation in den Organisationen. Doch durch die stetige Ausarbeitung der Informationstechnologien ergeben sich heute vielfältige Gestaltungsspielräume, die eine verstärkte Dezentralisation nahelegen.

2.5.1. Dezentralisierungsbegriffe

Die Zentralisierungsphilosophie besagt: "Wissen ist Macht. Verteile ich das Wissen nicht, dann bleibt auch die Macht in einer Hand."

Die Dezentralisierung geht mit einer Verteilung der Macht einher. Die Führung muss den Entscheidungsspielraum ihrer Geführten vergrössern und muss ihnen mehr Mitspracherechte zugestehen. Dafür ist den dezentral arbeitenden Mitarbeitern ein flexibleres und kundennäheres Arbeiten möglich, was sich letztlich positiv auf den Erfolg eines Unternehmens auswirkt (und dadurch auch das erfolgsgebundene Einkommen des Top-Managements erhöht).

Die Dezentralisierung kann räumlich sein - effizientere Verteilung von Abteilungen im Raum -, oder sie kann rein organisatorisch sein, d.h., es geht nur um die Verteilung von Entscheidungsbefugnissen. Eine räumliche Dezentralisierung impliziert keine organisatorische Dezentralisierung und umgekehrt!

2.5.2. Entscheidungsautomation

Autonomen Entscheidungen sind selten in Organisationen. Entschieden wird i.d.R. nach Absprachen und Abstimmungsverfahren. Dies täuscht aber eine Demokratie vor, die faktisch nicht gegeben ist. Entscheidungen, die in Konferenzen u.ä.m. getroffen werden, sind üblicherweise von bestimmten Personen herbeigeführt worden. Dies sind z.B. Personen, die besonders redegewandt und selbstsicher sind, nicht aber unbedingt auch sonderlich fachwissend. Die Entscheidung ist zentral und top-down gelagert.

Informationstechnologien erlauben hierarchiefreiere Entscheidungsprozesse. Im Rechnernetz z.B. ist jeder gleich, dort hat jeder die gleichen Ausdrucksmöglichkeiten. Bei Verwendung neuer Informationstechnologien setzt sich daher fachliches Wissen eher gegen mikropolitische Bestrebungen durch. Dadurch sind Entscheidungen möglich, die dezentral und bottom-up gelagert sind. Eine entsprechende Personalqualifikation muss vorausgesetzt werden. Dann ist auch ein Ausdünnen der mittleren Managementebene im Bereich des möglichen.

2.5.3. Partizipation

Je höher die Partizipation in einem Unternehmen ist, desto verteilter (autonomer) wird in ihr entschieden. Informationstechnologien unterstützen die verteilte Entscheidung und damit die Partizipation, allerdings nicht zwingend. Genauso gut können sie zentrale Entscheidungshilfen anbieten, die eher dem Zentralismus förderlich sind. I.d.R. verstärken Informationstechnologien die Partizipation v.a. bei den introvertierten Mitarbeitern und mildern sie bei den extrovertierten Mitarbeitern. Dadurch wird zwar eine flächendeckendere Infrastruktur geschaffen, jedoch leidet häufig das mittlere Management.

2.5.4. Dezentrale Informationsversorgung

Informationstechnologien können Informationen aktiv oder passiv in alle Bereiche einer Organisation liefern. Die Informationsversorgung nimmt also zu - dies gilt für Qualität, wie Quantität, wie Geschwindigkeit. Insbesondere in der Frühphase von Informationstechnologien, in der "Spielphase", kommt es sogar häufig zu einem Information-Overloading. Hier muss Selbstorganisation das richtige Quantum bestimmen, dass als Grundlage für optimale Entscheidungen dienen kann.

2.5.5. Räumliche Dezentralisierung

Die neuen Informationstechnologien bieten zahlreiche Möglichkeiten zur Verteilung von Abteilungen (räumliche Dezentralisation). So kann durch sie z.B. die Heimarbeit gefördert werden - durch ISDN wären sogar bereits die technischen Möglichkeiten dafür gegeben. Auch Nachbarschaftsbüros, d.h. die Zusammenlegung von Telearbeitsplätzen, sind derweilen realisierbar geworden. Mobile Telearbeit (Stichwort: Laptop und Funktelefon) gibt es bereits häufiger als man vermuten mag. Besonders gerne werden auch autonome Spezialabteilungen aus der Hauptorganisation räumlich ausgegliedert.

Die Heimarbeit kann erhebliche Effizienzgewinne für ein Unternehmen bedeuten. Einige Prognosen wollen die Heimarbeit bis zum Jahre 2050 bereits als den Normalfall ansehen. Doch ist dies überhaupt wünschenswert?

Bisher gilt, dass die Möglichkeit zur räumlichen Dezentralisierung innerhalb gewachsener Organisationen auch mittels neuer Informationstechnologien schwierig ist - ausser an den Rändern. In Organisationen werden oftmals Informationen transportiert, die auch mittels neuer Informationstechnologien nicht transportiert werden können; hier ist Face-to-Face-Kommunikation oder physischer Güteraustausch von Nöten. Standardaufgaben wie Schreibdienste, Programmierung u.ä.m. kann jedoch relativ leicht räumlich dezentralisiert werden.

Sicher wird sich die Geschäftstätigkeit von Unternehmen räumlich ausweiten. Statt regionaler Verflechtung kommt es zur internationalen Verflechtung. Face-to-Face-Kommunikation wird nur dann betrieben, wenn Vertrautheit gefordert ist oder Güter ausgetauscht werden müssen, wodurch Zeit gespart wird.

2.5.6. Grenzen der räumlichen Dezentralisierung

Vorteile der Heimarbeit sind:

  • Fahrzeiten fallen weg, d.h. Energieeinsparung und weniger Verkehr.
  • Privatatmosphäre wächst.
  • die Arbeitszeiten werden flexibler.
  • ohne Chef arbeitet es sich stressfreier.
  • Fluktuation und Krankenstand gehen zurück.
  • Bürofläche kleiner dimensionierbar.
  • Mitarbeiter sind nicht unbedingt fest angestellt, d.h., sie sind leichter zu entlassen.

Nachteile sind aber:

  • soziale Versicherung durch Arbeitgeber entfällt durch Selbstständigkeit.
  • soziale Isolation (ausser in der Familie).
  • mikropolitische Anfechtungen bleiben unbemerkt.
  • die Face-to-Face-Kommunikation ist beliebter, bringt schneller Ergebnisse.
  • Teamarbeit mit Telearbeitern ist schwer.
  • Arbeitsbewertung als Lohngrundlage schwierig.
  • Gefahr des in die eigene Tasche wirtschaften.

3. Operatives Informationsmanagement

Unter den operativen Aufgaben eines Informationsmanagements werden alle Tätigkeiten und Verantwortlichkeiten zusammengefasst, die den laufenden Betrieb in diesem Bereich betreffen. Im Einzelnen sind dies Hardware-Aufgaben, der Rechenzentrum-Betrieb, Software-Aufgaben, Benutzerservices, laufende Sicherung, Abrechnungsfragen u.ä.m.

3.1. Hardware-Aufgaben

  • Hardware-Beschaffung und Hardware-Beratung: Fremd- oder Eigenbezug?
  • Hardware-Wartung: interner Reparaturdienste u.ä.m.
  • Rechenzentrum-Betrieb: Dadurch bedingt auch Produkt- und Netzmanagement nötig.

3.2. Software-Aufgaben

  • Betrieb der Anwendungssysteme über den gesamten Lebenszyklus hinweg.
  • Software-Entwicklung.
  • zentraler Beratungsdienst, v.a. bei ausgeprägter individueller Datenverarbeitung nötig.

3.3. Zentrum für individuelle Datenverarbeitung

Individuelle Datenverarbeitung (Personal Computing) nimmt ständig zu, wobei v.a. dem Endbenutzer verstärkt die persönliche Nutzung von IV möglich gemacht wird. Der Endanwender kann hierzu selbstständig Lösungen ermitteln, er verfügt über Rechenzeit und SW-Tools (Tabellenkalkulation, Datenbanksysteme, Branchen-Software usw.), und er kann diverse (zentrale) Benutzerservice in Anspruch nehmen. Die individuelle Datenverarbeitung ist gleichermassen arbeitsplatzbezogen wie personenbezogen, die Beratung und Betreuung jedoch häufig in zentrale Benutzerservice-Zentren untergebracht.

3.3.1. Aufgaben

Die wichtigsten Aufgabenbereiche/Anwendungsmöglichkeiten der individuellen Datenverarbeitung sind:

  • selbstständige Informationsverwaltung (Anlegen, Speichern, Finden).
  • selbstständige Problemlösung (Analyse, Aufbereitung, Berechnung).
  • Textverarbeitung.
  • Kommunikation.
  • Remote Office Work, was z.B. durch Rechnernetze möglich wird.
  • Verwaltung persönlicher Ressourcen (Kalender u.ä.m.)

3.3.2. Richtlinien der individuellen Datenverarbeitung

Aus Sicht des operativen Informationsmanagements ergeben sich für die individuelle Datenverarbeitung folgende Forderungen:

  • Die Endanwender müssen erkennen, ob Probleme über individuelle Datenverarbeitung lösbar sind.
  • Die Endanwender müssen die Potenziale der individuellen Datenverarbeitung kennen und nutzen können.
  • Für die individuelle Datenverarbeitung muss eine zentrale Betreuung installiert sein.
  • Arbeitsplatzrechner müssen in das globale Datenkonzept passen.
  • Datenredundanz ist zu vermeiden, v.a. wegen der Inkonsistenz-Problematik.
  • Regelmässige Schulung soll die Akzeptanzproblematik mildern helfen.
  • Ergonomievorschriften sind zu beachten.

3.4. Wirtschaftlichkeitskontrolle

Wirtschaftlichkeit bedeutet günstige Kosten-Nutzen-Relation. Diese ist bei neuen Informationstechnologien schwer zu bestimmen, da ihre Nutzen hauptsächlich aus Personalentlastung bestehen, die sich nicht monetär berechnen lassen. Doch die Kosten von Informationstechnologien stellen eine beträchtliche Investition dar, die untersucht werden muss.

3.4.1. Begriff der strategischen Kosten

Kosten können in Kostenarten, Kostenstellen und Kostenträger untergliedert werden. Sehen wir uns die Kosten im Bereich der Informationsinfrastruktur an, die von strategischer Bedeutung für dieselbe sind.

3.4.2. Kosten der Informationsverarbeitung

Einteilung in Kostenarten:

  • EDV-Material (z.B. Disketten).
  • Personal- und Personalnebenkosten (z.B. Löhne).
  • Betriebskosten für Hardware und Software.
  • Grundstücke und Gebäude (für Rechenzentren).
  • allgemeine Kosten (Steuern, Gebühren usw.).
  • kalkulatorische Kosten (Abschreibung, Zinsen).

Kostenstellen sind zum einen Stellen, die Leistungen für den Produktionsbetrieb erbringen, und zum anderen Stellen, die Leistungen für die Entwicklung und Beratung erbringen.

Kostenträger können aufgrund ihrer Heterogenität schwer klassifiziert werden. Das liegt v.a. daran, weil Informationen der IV immaterielle Güter sind, daher müssen Ersatzgrössen wie CPU-Zeit oder Beratungszeit als Zwischenkostenträger herangezogen werden. Geeignete Kostenträger sind dann die verschiedenen EDV-Anwendungssysteme.

Getrennt untersucht werden können auch Einmalkosten (z.B. Gebäudekosten) und laufende Kosten (z.B. Mieten für die Gebäudenutzung).

3.4.3. Leistungen der Informationsverarbeitung

Die Informationsverarbeitung kann Kosten einsparen, durch:

  • direkte Einsparungen wie z.B. Personalkosten.
  • indirekte Einsparungen wie z.B. durch effizientere Arbeitsflüsse.
  • Liquiditätsverbesserungen durch z.B. Lagerbestandsreduzierung.

Neben quantitativen Leistungsmerkmalen wie Zeitersparnis besitzen Informationstechnologien v.a. qualitative Leistungsmerkmale, so z.B.:

  • besserer Servicegrad im Unternehmen.
  • höhere Kundenzufriedenheit.
  • höhere Arbeitszufriedenheit und Motivation.
  • schnelleres Reaktionsverhalten.
  • bessere Markteinschätzung.
  • höheres Innovationspotenzial.
  • informationsgestärkte Entscheidungen.
  • besserer Informationszugriff.
  • mehr Autonomie und Partizipation.
  • effizientere Kommunikationskanäle.

3.4.4. Werkzeuge der Wirtschaftlichkeitsrechnung

Investitionsrechnungen gibt es viele. Gebräuchlich sind z.B.:

  • Kostenvergleichsrechnung.
  • Rentabilitätsrechnung.
  • Amortisationsrechnung.
  • Barwertrechnung.
  • interne Zinsfussmethode.

3.5. Sicherheitsmanagement und Datenschutz

3.5.1. Begriffliche Unterscheidung

Der Begriff Datensicherheit ist im allgemeinen Sprachgebrauch vom Begriff Datenschutz dahin gehend zu trennen, dass unter Datensicherheit eher die Verhinderung der Zerstörung von Daten fällt und unter Datenschutz die Verhinderung des Missbrauchs von Daten. Personenbezogenen Daten werden also von der Datensicherheit und dem Datenschutz gleichermassen berührt.

3.5.2. Zweck und Anwendungsbereich des Bundesdatenschutzgesetzes

Das Bundesdatenschutzgesetz (BDSG) fasst den Begriff Datenschutz enger als die Informatiker. Während bei den Informatikern der Datenschutz den Missbrauch von allgemeinen Daten berührt, berührt beim BDSG der Datenschutz nur den Missbrauch von personenbezogenen Daten. Da der Staat heute nicht mehr nur "Nachtwächterfunktion" im Sinne John Lockes hat, weil er auch die Ausbildung und Altersversorgung der Bürger usw. übernimmt, kann die Aufrechterhaltung der "Schneckenhaus"-Intimsphäre des Bürgers gegenüber dem Staat nicht mehr aufrechterhalten werden. Aus diesem Grund existieren einige Regelungen, welche die Daten über Personen einer weiteren Verarbeitung zugänglich machen.

3.5.3. Regelungen des Bundesdatenschutzgesetzes

  • Daten dürfen nur zu dem Zweck verwendet werden, zu dem sie erhoben wurden (z.B. dürfen Bücherei-Daten nicht an eine Buchhandlung weitergegeben werden).
  • Daten dürfen erst bei Richtigkeit Geltung erlangen (eine Bank darf keinen Kredit ablehnen aufgrund eines noch offenen Kredits).
  • Daten dürfen nicht von einer Stelle an eine andere weitergegeben werden, zumindest nicht wahllos (z.T. lässt sich dies nicht ganz verhindern, z.B. zwischen Sozialamt und Arbeitsamt).
  • Neben dem allgemeinen BDSG gibt es auch noch ein Landesdatenschutzgesetz.
  • Das Allgemeinwohl steht über dem Individualwohl - u.U. darf der Gesetzgeber daher personenbezogene Daten zum Schutz anderer einsetzen.
  • Nicht nur elektronisch gespeicherte Daten fallen unter das BDSG, sondern auch von Computern ausgedruckte Daten (erst seit 1991!).
  • Ab fünf Mitarbeitern muss ein Unternehmen seine Daten aktiv zu einem Datenschutz-Beauftragten bringen (Bring-Schuld).
  • Der Bürger hat bezüglich der Speicherung personenbezogener Daten
    • Auskunftsrechte.
    • Zustimmungsrechte.
    • Einspruchsrechte.
    • Geheimhaltungsrechte.
    • Benachrichtigungsrechte (!). Ausnahme: Adresshändler.
    • Richtigkeitsrechte.

Es steht im Gesetz nirgends bindend geschrieben, wie personenbezogene Daten zu löschen sind, nur: Es ist nach dem Stand der technischen Möglichkeiten zu verfahren - demnach sind die Daten wohl physisch zu löschen, wobei auch Backups nicht vergessen werden dürfen.

3.5.4. Bedeutung des Bundesdatenschutzgesetzes

Durch die zunehmende Verwendung von Informationstechnologien in Unternehmen und in der Öffentlichkeit weitet sich das Gebiet der Computerkriminalität immer stärker aus. Und darin liegt eine steigende Bedeutung des BDSG begründet.

3.5.5. Datensicherungsmassnahmen

  • Unbefugte dürfen das Rechenzentrum nicht betreten, d.h., es wird Wachpersonal benötigt.
  • Datenträgerkontrolle - kein Datenträger darf verschwinden.
  • Speicherkontrolle: Prozessfremde Speicherbereiche sind tabu.
  • Übermittlungskontrolle an andere Rechner.
  • Weitergabebeschränkungen (z.B. Amtsgeheimnis, Insider-Wissen).
  • Sicherheitsaggregate gegen Stromausfall.
  • Klimaschutz.
  • korrigierende Codes für die Datenübertragung.
  • Qualitätskriterien beachten wie Zuverlässigkeit und Robustheit.
  • Kryptologie.
  • Plausibilitätskontrollen von Ergebnissen.
  • Personalqualifikation.
  • Kompetenzabgrenzung.
  • Backups.

3.5.6. PC-Sicherheit

  • Passwortschutz-Verfahren auf Betriebssystem-Ebene.
  • Passwortschutz-Verfahren auf Datenbanksystem-Ebene.
  • Schutzbits für Dateien.
  • Rechnerschloss.
  • Viren-Scanner.
  • unterbrechungsfreie Stromversorgung.
  • gespiegelte Platten.
  • Streamer-Backups.

3.5.7. Bösartige Software

Hacker, Cracker und Crasher produzieren bisweilen bösartige Software wie z.B.:

  • Viren: medizinisch "das" Virus, aber "der" Computer-Virus.
  • Würmer: Vermehren sich nur im Speicher, infizieren keine Dateien.
  • Trojanische Pferde: Programme mit versteckten Funktionen.

4. Institutionalisiertes Informationsmanagement

4.1. Organisatorische Eingliederung des Informationsmanagements

4.1.1. Die traditionelle EDV-Abteilung

Die Funktionen der EDV-Abteilungen dezentralisierten sich im Laufe der Zeit immer mehr:

  • in 60ern: Rechenzentrum und System-Entwicklung.
  • in 70ern: Datenverwaltung.
  • in 80ern: Benutzerservice-Zentren.

Ein Benutzerservice-Zentrum, das kooperativ mit autonomen Arbeitsgruppen arbeitet, hat die Aufgaben: EDV-Beurteilung, Beratung, SW-Beschaffung, Schulung, Fehlerbeseitigung, SW-Anpassung, Marktbeobachtung, Vereinheitlichung und EDV-Marketing. Ein zentrales Informationsmanagement sorgt für Aufrechterhaltung bestimmter Richtlinien, Standards und Kommunikationskanälen.

4.1.2. Informationsmanagement als neuer Funktionsbereich

Das Informationsmanagement ist ein eigenständiger Funktionsbereich neben Absatz, Produktion, Beschaffung, usw. Sie benötigt Verantwortungen und Kompetenzen, um Entscheidungen treffen zu können. Daher ist sie möglichst hoch in der Hierarchie anzuordnen, am besten als eigener Funktionsbereich (dies gilt nur für grosse Unternehmen). Die Informationsmanagement-Abteilung kann folgendermassen strukturiert sein:

  1. verrichtungsorientiert: Dem Informationsmanagement sind die Verrichtungseinheiten Planung, Entwicklung und Betrieb untergeordnet.
  2. objektorientiert: Dem Informationsmanagement sind die Objekte Rechenzentrum, Systemplanung und EDV-Ablauforganisation untergeordnet.
4.1.2.1. Aufbauorganisatorische Eingliederung des Informationsmanagements

Folgende aufbauorganisatorischen Strukturen des Informationsmanagements sind denkbar:

  1. Ergänzung: Das Informationsmanagement ergänzt die Funktionsbereiche Produktion, Organisation und EDV integrativ in Form von Stäben.
  2. Addition: Neben dem Funktionsbereich EDV kommt noch das Informationsmanagement als eigenständiger Bereich (z.B. als Benutzerservice-Zentrum) hinzu, um alle EDV-Aufgaben zu übernehmen, die der EDV-Funktionsbereich nicht abdeckt.
  3. Fusion: Das Informationsmanagement fusioniert mit der Datenverarbeitung und dem Organisationsfunktionsbereich und ersetzt diese.
  4. Integration: Das Informationsmanagement taucht als eigenständige Funktionseinheit auf, ist aber auch in alle anderen Funktionsbereiche teilweise integriert. Dies wird allgemein als das beste Konzept der Eingliederung des Informationsmanagements empfunden.

4.1.3. Zusammenhang zwischen Strategie und Struktur

Je nach Struktur des Informationsmanagements eignet sich eine andere Einführungsstrategie von Informationstechnologien, wie wir sie in einem früheren Abschnitt bereits besprochen haben. Es gilt:

  1. Die Ergänzungsstruktur bevorzugt die defensive Einführung.
  2. Die Additionsstruktur bevorzugt die retardierende (verzögerte) Einführung.
  3. Die Fusionsstruktur bevorzugt die moderate Einführung.
  4. Die Integrationsstruktur bevorzugt die aggressive Einführung.

4.2. Berufsbilder des Informationsmanagements

4.2.1. Der Informationsmanager

Der Vorgänger des Informationsmanagers war der EDV-Leiter. Der EDV-Leiter war noch alleiniger Besitzer des EDV-Know-hows, er schuf die verschiedenen Insellösungen. Der Informationsmanager ist dagegen mehr im Spannungsfeld zwischen Wirtschaftlichkeitsgebot und den Benutzern, die hohe Anforderungen an die Systeme stellen, mit denen sie arbeiten sollen. Die Qualifikation eines Informationsmanagers ist ungleich breiter angelegt, als die des EDV-Leiters. Aus diesem Grund gibt es auch den Wirtschaftsinformatiker, der die Sprache der BWL genauso versteht wie die Sprache der Informatiker.

4.2.2. Traditionelle EDV-Berufsbilder

  • EDV-Leiter.
  • Programmierer.
  • Operator.
  • EDV-Berater.

4.2.3. Neuere EDV-Berufsbilder

  • Wirtschaftsinformatiker.
  • Informationsmanager.
  • computerbasierte Sachbearbeitung.
  • CAM-Ingenieur (Computer Aided Manufacturing).

4.3. Auswirkungen des Informationsmanagements

Informationsmanagement wirkt in viele Aufgabenfelder hinein, daher sind seine Auswirkungen auch sehr breit ausgelegt. Mögliche Auswirkungen werden in den folgenden Abschnitten besprochen.

4.3.1. Stärken und Chancen

Stärken von Informationsmanagement sind Vorteile, die gegenwärtig bereits vorhanden sind. Dazu gehört, dass die übergreifende Koordinationsstelle für ein einheitliches Datenkonzept sorgt, für Integration von Insellösungen, für Standards, für offene Systeme, Wegfall von Doppelarbeit, bessere Datentransparenz und Kosteneinsparung in Personal, Material, Kapital und Service.

Chancen von Informationsmanagement sind Vorteile, die in Zukunft gegeben sein werden. So sorgt z.B. effizientes Informationsmanagement für Wettbewerbsvorteile aufgrund schnellerer Bearbeitungszeit und ständiger Verfügbarkeit. Eine kundenspezifische Marktbearbeitung wird realisierbarer. Die Mitarbeiter werden höher qualifiziert. Durch die Reorganisation zur Eingliederung des Informationsmanagements können gleichzeitig alte Fehler ausgemerzt werden. Know-how auf dem Gebiet des Informationsmanagements kann u.U. Externen in Form von Beratungen angeboten werden (Informationsmanagement als Profitcenter).

4.3.2. Schwächen und Bedrohungen

Schwächen von Informationsmanagement sind Probleme, die gegenwärtig bereits vorhanden sind. Die übergreifende Koordinationsstelle kann sich unverzichtbar machen, bewährte Konzepte fehlen ihr noch aufgrund ihres Alters, sie reagiert zu träge angesichts der Marktdynamik und zur Realisation sind i.d.R. umfassende Reorganisationsmassnahmen nötig.

Bedrohungen von Informationsmanagement sind Probleme, die in Zukunft gegeben sein werden. Wird Informationsmanagement unter falschen Einschätzungen installiert, weil nur die Hard Facts, nicht aber Soft Facts wie Arbeitszufriedenheit und Motivation berücksichtigt wurden; reines Wunschdenken kann daneben gehen. Das Informationsmanagement kann auch unerwünschte Machtbündelungen hervorrufen. Ein bestehendes Informationsmanagement verhindert u.U. eine strategische Umorientierung, obwohl diese aufgrund einer schlechten Marktposition dringend geboten ist. Vernetzte Computer können die Anwender von ihrer eigentlichen Arbeit ablenken - vielleicht zocken sie lieber oder sehen sich die Sex-Seiten des Internets an.

5. Informationstechnologie

Der Informationsprozess umfasst alle Aktivitäten an und mit Informationen, z.B. Verarbeitung, Aufbereitung und Archivierung. Eine Technologie umfasst das materielle Produkt und seine Anwendungsmöglichkeiten. Unter Informationstechnologien werden wir also alle Produkte plus ihrer Verfahrensweisen verstehen, die den Informationsprozess unterstützen. Insbesondere heisst dies die Betrachtung aller Computersysteme und Rechnernetze in einem Unternehmen.

5.1. Telekommunikation

Die Telekommunikation ist gross im Kommen in den Unternehmen. Problem: Kompatibilität ist bei den verschiedenen Systemen bisher nicht gegeben. Ausweg: ISO/OSI-Referenzmodell für offene Systeme.

5.1.1. Begriffsdefinition

Kommunikation gibt es zwischen Mensch-Mensch, zwischen Mensch-Maschine und zwischen Maschine-Maschine. Die Mensch-Mensch-Kommunikation ist technisch und nichttechnisch möglich, gestört werden kann sie durch psychologische Elemente genauso wie durch technische. Die Maschine-Maschine-Kommunikation muss technisch erfolgen, wodurch auch der Störungsraum allein technischer Natur sein kann. Die Mensch-Maschine-Kommunikation bildet wird durch die gleichen Techniken unterstützt und von den gleichen Störungsformen betroffen wie die Mensch-Mensch-Kommunikation. Generell steht Kommunikation für den Austausch von Informationen. Abgewickelt wird dieser Austausch über Kommunikationskanäle, die duplex, halbduplex oder simplex sein können.

Telekommunikation heisst der Austausch von Informationen (über grössere Strecken) hinweg, der technisch unterstützt wird. Dieser Austausch kann z.B. genauso über das Telefon wie auch über Computernetzwerke erfolgen. Alle nichttechnischen Kommunikationskanäle fallen nicht unter den Begriff Telekommunikation.

5.1.2. Netzwerk- und Transporttechnik

Netzwerktechnik und Transporttechnik müssen aufeinander abgestimmt sein, damit die Telekommunikationsdienste wirkungsvoll unterstützt werden können. Alte Transporttechniken wie Trommelschlagen oder Rauchzeichen sind z.B. für die moderne geschäftliche Kommunikation kaum das adäquate Mittel. Die Netzwerktechnik sitzt unter der Transporttechnik und beschreibt, wie u.a. Verbindungen zwischen Teilnehmern aufgebaut werden können. Netzwerk- und Transporttechnik dienen dabei der Realisation von Transportdiensten.

5.1.3. Rechnernetze

Rechnernetze verbinden mehrere selbstständige Rechner miteinander. Sie bauen sich nach dem ISO/OSI-Referenzmodell aus drei Hauptschichten auf:

  1. Netzwerktechnik (Hardware): Bitübertragungsschicht, Sicherungsschicht, Vermittlungsschicht
  2. Transporttechnik (Software): Transportschicht, Sitzungssicht
  3. Transportdienste (Software): Darstellungsschicht, Anwendungsschicht

Der Trend geht hin zu neuen Übertragungsmedien wie z.B. Lichtwellenleitern für High-Speed-Netze. Diese Übertragungsmedien sind störungsfreier, abhörsicherer als ältere Medien; zudem gestatten sie riesige Datenraten.

5.1.4. Fernmeldenetze

Fernmeldenetze bedeuten die den Rechnernetzen zugrunde liegende Hardware. Topologisch können dies Ringe, Sterne, Busse, Bäume oder (vollständig) vermaschte Netze sein. Man unterscheidet LANs und WANs. LANs sind in privater Hand, relativ klein, bieten Telekommunikationsdienste an, betreiben Broadcast-Übertragung und sind digital. WANs werden öffentlich verwaltet, sind international, bieten neben Kommunikationsdiensten auch reine Trägerdienste an, sind vermittlungsorientiert und analog oder digital. Folgende öffentlichen Fernmeldenetze betreibt die Telekom:

  • Fernsprechnetz (ein analoges Schmalbandnetz).
  • Telenetz (für Fernschreiber, Direktruf, Rundschreiben u.ä.m.)
  • Datex-Netz (Datex-Paketvermittlung, Datex-Leitungsvermittlung).
  • IDN (Integrated Data Net; alle Datendienste auf einem Kabel).
  • ISDN (Integrated Service Data Net; alles auf einem Kabel).
  • B-ISDN (Breitband-ISDN für Voice-E-Mails, Bilder u.a.).

5.1.5. Netzintegration über ISDN

ISDN bietet alle bisherigen Fernmeldedienste der Telekom auf nur einem Kabel an, und zwar grundsätzlich in digitaler Form. Es stellt sich die Frage, ob bereits ein Sachzwang zur Anschaffung von ISDN besteht, denn zu ISDN besteht praktisch keine Alternative, ausser natürlich den Status quo zu halten.

5.1.6. Telekommunikationsdienste

Dienste der Telekom sind: Telefon, Telefax, Telex, Teletext, BTX, Dateldienste, Temex, Datex-P und Datex-L. Dienste basieren auf anerkannten Standards, wodurch ein Nachrichtenaustausch zwischen zwei Endteilnehmern überhaupt erst möglich wird. Häufig existieren in diesem Zusammenhang die Wahl zwischen verschiedenen Dienst-Qualitätsstufen sowie die Suche nach Teilnehmern in Teilnehmerverzeichnissen.

5.2. Bürokommunikation

5.2.1. Begriffsdefinition

Bürokommunikation bedeutet Austausch, Beschaffung, Weitergabe und Archivierung von büroaufgabenbezogenen Informationen.

5.2.2. Die Büroarbeit

Das Büro eines Unternehmens ist eine zentrale Schaltstelle. Sie hat das Ziel, betriebliche Funktionen zu koordinieren und zu steuern. Voraussetzung dazu ist, dass Informationen zur rechten Zeit am richtigen Ort vorliegen. Und dies kann am besten über Bürokommunikationssysteme gewährleistet werden.

5.2.3. Die Rolle der Kommunikation im Büro

80% aller büroaufgabenbezogenen Informationen werden intern in der Organisation ausgetauscht und nur 20% nach aussen zu externen Teilnehmern. Daher spielt die Bürokommunikation für ein Unternehmen eine grössere Rolle als die Telekommunikation. Die Bürokommunikation kann zwei wesentliche Funktionen abdecken:

  1. Inhaltliche Funktion: aufgabenbezogener Informationsaustausch.
  2. Soziale Funktion: Schmiermittel der informellen Organisation. Diese Funktion wird gerne übersehen, weil sie sich schlecht monetär ausdrücken lässt.

5.2.4. Anforderungen an Bürokommunikationssysteme

Die Bürokommunikation soll die Tätigkeiten der wesentlichen Arbeiten im Büro durch folgende Hilfsmittel ermöglichen:

  • Besprechungen über Telefon/Computer (Kommunikation).
  • Abrechnen über Computer/BTX (Datenverarbeitung).
  • Sammeln und Speichern über IRS (Information Retrieval System) bzw. Massenspeicher (Archivierung).
  • Überwachen über Terminkalender (Terminbehandlung).

5.2.5. Der Ist-Zustand der Bürotechnik

Die Bürokommunikation erlebt einen rasanten Aufschwung. Es ist eine stetige Zunahme zu beobachten von:

  • PCs.
  • Datendienste (z.B. der Telekom).
  • die allgemeine Digitalisierung.
  • die LANs (Local Area Networks) und WANs (Wide Area Networks).

Es wurde festgestellt, dass je mehr Routineaufgaben im Büro anfallen, umso stärker die Bürokommunikation genutzt wird. Bei Büros, die Einzelfälle bearbeiten, ist der direkte Kontakt nach wie vor dominierend. D.h., verschiedene Tätigkeiten verursachen eine verschiedene Benutzung der Kommunikationskanäle. Derzeit muss jedoch gesagt werden: Die Kostensteigerung durch die Bürokommunikation rechnet sich noch lange nicht, und auch das papierlose Büro ist bisher blosse Utopie geblieben.

Im Schnitt sieht die Nutzung der Bürokommunikation folgendermassen aus:

  • 42% bleiben beim persönlichen Gespräch (für komplexe Probleme).
  • 39% nutzen das Telefon (für schnelle Informationen).
  • 16% benutzen Mailsysteme (meistens zu externen Teilnehmern).
  • 3% greifen auf Faxgeräte zurück (zu externen Partnern).

Mit der Dezentralisierung hapert es derzeit noch, obwohl rein technisch die Möglichkeit für multifunktionale Arbeitsplätze gegeben wäre. Schritte dorthin sind LANs, Informationsmanagement und Kommunikationsanalysen.

5.2.6. Soll-Konzept der Bürokommunikation

Mehr noch als bisher sollen die Bürokommunikationssysteme die Integration verschiedener Informationen gestatten, also Daten, Texte und Bilder über nur ein Medium verwalten können. Ausserdem soll dies auch generell in offener Form geschehen, also systemunabhängig sein, sodass Herstellerabhängigkeiten aufgebrochen werden können. Richtungweisend für die offene Kommunikation ist dabei das ISO/OSI-Referenzmodell. Generell sollen dadurch die Effizienz und die Produktivität gesteigert werden, wie dies auch bei der Fertigungsautomation erreicht worden ist.

Anforderungen an die (neuen) Kommunikationskanäle (die am ehesten durch das Telefon abgedeckt werden): Schnell, bequem, leicht zu bedienen, vertraulich und genau sollen sie sein. Ferner sollen sie auch ein gewisses Kreativitätspotenzial besitzen, Informationen in mehrfacher Weise präsentieren können, ständige Erreichbarkeit garantieren und Konferenzen ermöglichen. Endziel ist der multifunktionale Arbeitsplatz, der in Verbindung mit anderen multifunktionalen Arbeitsplätzen steht.

5.2.7. Einführungsstrategien

Bürokommunikation kann strategisch auf Zentralebene (Host), Abteilungsebene (Midframe) oder Arbeitsplatzebene (Workstation) eingeführt werden. Zählt man auch die öffentlichen Netze und Dienste dazu, kann man auch noch von einer externen Ebene (ISDN-Gerät) sprechen. Die Trennung in mehrere Ebene ist heute aber relativiert aufgrund des integrativen Charakters moderne Informationstechnologien. Ein durchgehendes Client/Server-Konzept z.B. lässt die drei (vier) Ebenen verschwimmen.

Die alleinige Betrachtung der Zentralebene ist Vergangenheit. Dezentralisation heisst die Parole. Dies gilt auch für die Abteilungsrechner. Allenfalls herstellerunabhängige Lösungen können hier auf Dauer noch greifen, obwohl sie sich bisher in der Praxis von grossen Unternehmen gut gehalten haben. Für kleine und mittlere Unternehmen eignet sich am besten die vernetzte PC-Lösung. Jedoch sollten Wildwuchs und Insellösungen vermieden werden, und stattdessen integrative Wege gegangen werden. In einer Organisation die Bürokommunikation ausschliesslich über ISDN mittels Nebenstellenanlagen (PABX, Private Automatic Branch Exchange) zu betreiben, ist wenig sinnvoll; ISDN kann hier allenfalls als Ergänzung Verwendung finden. Das beste Konzept stellt wohl die integrierte Bürokommunikation dar, wobei auf jeder Ebene die typischen Systeme beibehalten werden, diese dann aber über ein Backbone-Netz wie z.B. FDDI nach dem Client/Server-Prinzip verwaltet werden. Nur in diesem Fall kann von echter verteilter Informationsverarbeitung gesprochen werden.

5.3. Datenbanken und Datenbanksysteme

In Datenbanken sind Dateien enthalten, die aus Datensätzen, Datenfeldern und Datenfeldwerten bestehen. Die Daten (Informationen) sind darin in einer standardisierten Form enthalten, die es ermöglicht, dass beliebige Programme auf sie zugreifen können. DB sind Komponenten von Informationssystemen bzw. Datenbanksystemen. Sie liefert das "Rohmaterial" für die Informationssysteme.

5.3.1. Informationssysteme aus Datensicht

Typische Informationssysteme sind Entscheidungsunterstützungssysteme, die in der Lage sind, relevante Informationen zu sammeln und sie Managern als Entscheidungsgrundlage in geeigneter Form zu präsentieren. Informationssysteme werden heutzutage nicht mehr an den EDV-Ressourcen ausgerichtet, sondern orientieren sich an den Daten, die sie verwalten. Dadurch lässt sich leichter eine unternehmensweite Integration der Daten erreichen. Zudem leben Daten auch häufig länger, als die EDV-Systeme eines Unternehmens.

5.3.2. Anforderungen an Datenbanksysteme

Ein Datenbanksystem (DBS) besteht aus einem Datenbank-Management-System (DBMS) und der Datenbank. Das DBMS stellt Mittel zur Verfügung, um die Daten der Datenbank zu manipulieren, sie also zu finden, zu ändern, zu löschen, zu lesen und zu erzeugen. Die Datenbank muss möglichst konsistent gehalten werden, auch wenn Daten aus Effizienzgründen häufig replikativ bzw. redundant gehalten werden. Das DBS sollte das Unternehmen flächendeckend mit Informationen versorgen können, was i.d.R. LANs oder Ähnliches voraussetzt. Sicherheitsaspekte müssen dabei besonders berücksichtigt werden.

5.3.3. Externe Datenbank (Online-Datenbank)

Neben unternehmensinternen Informationen können auch Informationen von externen Anbietern von Interesse sein, so z.B. für einen Investor die allgemeine Wirtschaftslage in Südchina o.ä. Dafür gibt es externe Datenbanken von öffentlichen oder privaten Betreibern, in die man sich über Modem einwählen kann, um dann von dort online relevante Daten zu beziehen.

5.3.4. Einflüsse auf die Unternehmensorganisation

Datenbanksysteme wirken v.a. auf die Ablauf- und Aufbauorganisation ein, weil sich dort die neue Informationsvielfalt am ehesten entfalten kann. Datenbanksysteme sorgen durch ihr globales Datenkonzept dafür, dass Abteilungen im Bezug auf die Daten die gleiche Sprache sprechen (müssen). Arbeitsabläufe lassen sich demnach also leichter lateral (horizontal) integrativ gestalten. Gleichfalls lässt sich auch eine vertikale Integration beobachten, was sich durch das Bild einer Informationspyramide verdeutlichen lässt: Das Top-Management bildet die Spitze mit den Basisinformationen, und die Ebenen darunter garnieren die Informationen jeweils mit neuen Details, sodass sie an Quantität zunehmen.

5.3.5. Wirkung integrierter Datenverarbeitung

Mögliche Wirkungen integrierter Datenverarbeitung können sein:

  • Verbesserung der strukturellen Flexibilität, weil jeder von überall her auf die relevanten Daten zugreifen kann.
  • Integration von Arbeitsaufgaben aufgrund der Computer-Multifunktionalität.
  • Dezentralisierung der Entscheidungsbefugnisse, weil z.B. Kompromisslösungen auf Gruppenebene leichter möglich werden.

5.4. Management-Informationssysteme

Management-Informationssysteme sollen Informationen für bestimmte Aufgaben zum richtigen Zeitpunkt am richtigen Ort in richtiger Form (Verdichtung) bereitstellen. Die Analyse, Aufbereitung und Verarbeitung obliegt nicht den Management-Informationssystemen, wodurch Transparenz nach innen erreicht wird. Dadurch können Kosteneinsparungsmöglichkeiten frühzeitig entdeckt und genutzt werden, was Wettbewerbsvorteile mit sich bringt, v.a. da heutzutage der Käufermarkt vom Verkäufermarkt verdrängt wurde (ausser in Nischen).

5.4.1. Management-Informationsbedürfnisse

Das Management benötigte schon immer Informationen über marktorientierte Vorkommnisse und Informationen über innerbetriebliche Vorgänge. Management-Informationssysteme sind daher nichts Neues; in Form von Terminkalendern haben sie z.B. bereits in der Vergangenheit existiert. Die Navigation des Entscheidungsfeldes ist für das Management der 90er Jahre von zentraler Bedeutung. Daraus resultiert nämlich:

  • Kunden- und Wettbewerbsorientierung.
  • hohe Innovationsfähigkeit und damit Flexibilität.
  • eine Optimierung von Geschäftsprozessen.
  • betriebswirtschaftliche Transparenz.

Im Grunde soll das "Management of Change", z.B. Total-Quality-Management und Leaning, mit dem "Management of Information" ergänzt werden. Nur so wird auch die nötige Infrastruktur geschaffen, die den neuen Management-Konzepten gerecht wird.

5.4.2. Frühere Versuche mit Management-Informationssystemen

Wie bereits erwähnt, gehören im Prinzip schon Terminkalender zu den Management-Informationssystemen. Durch den Einsatz neuer Informationstechnologien nahm die Komplexität der Management-Informationssysteme zu, wobei am Anfang zu viel Wert auf die Quantität der Informationen gelegt wurde. Dadurch kam es zu einer Aufblähung der Datenverarbeitungsabteilungen, was durch Reorganisationsmassnahmen wieder in normale Bahnen gelenkt werden musste. Integrierte Datenverarbeitung und das Client/Server-Konzept, sowie grafische Oberflächen machen Management-Informationssysteme derzeit immer attraktiver und effizienter. Wichtig ist, dass sie in der Lage sind, relevante Daten zu kanalisieren und zu selektieren, und die so ausgewählten Daten in anschaulicher Weise zu präsentieren.

5.4.3. Spektrum der Management-Informationssysteme

Das Spektrum der Management-Informationssysteme reicht von Standard-Berichtssystemen bis hin zu Planungswerkzeugen und Simulationswerkzeugen. Simulationswerkzeugen kann durchaus kritisch gegenübergestanden werden, da sie u.U. über das Ziel hinausschiessen. Sie sind sehr komplex, benötigen eine Unzahl von Parametern, die erst mühsam erhoben werden müssen, sie rechnen tagelang - und werden der Komplexität der Realität letztlich doch nicht gerecht. Nein, der Manager benötigt eher Systeme, die vielleicht ungenau, aber dafür sehr schnell arbeiten. Management-Informationssysteme sollen v.a. handlungsunterstützend sein, weniger planungsunterstützend. Die Wahl des richtigen Management-Informationssystems ist von strategischem Gewicht. Bisher muss hier ein eindeutiger Konservatismus festgestellt werden; nur selten greift ein Top-Management hier neue Ideen auf, i.d.R. verlässt es sich auf bewährte Hardware und Software.

5.4.4. Management-Informationssysteme: Mehr als nur ein neues Datenverarbeitungssystem

Auch wenn Management-Informationssysteme handlungsorientiert sind, also die Führung zum Thema haben, so können sie aufgrund ihrer Komplexität jedoch auch zur Prognostizierung verwendet werden. Management-Informationssysteme decken also die Bereiche Soll, Ist und Wird ab. Wesentlich ausgeprägter als herkömmliche Datenverarbeitungssysteme können Management-Informationssysteme Daten von z.B. betrieblichen Funktionsbereichen oder externen Informationsquellen analysieren, und sie nach bestimmten Bedürfnisinteressen verknüpfen, wobei gewisse systematische oder planerische Aspekte automatisch berücksichtigt werden. Dadurch können für jeden Bereich, z.B. für Projektmanager, für Controller und für den Vorstand, individuelle Sichten auf die Ist-/Soll-/Wird-Daten ermöglicht werden. Grundlage dafür ist allerdings eine integrative Datenverarbeitung, damit eine über alle Bereiche einheitliche und durchgängige Informationskette für Management-Informationssysteme gegeben sein kann.

5.4.5. Komponenten eines Management-Informationssystems

Im Kern eines Management-Informationssystems sitzt sein Entwicklungssystem. An dieses sind die Hypertext-Systeme, die Programmiersprachen, die Spreadsheet-Systeme, die Datenbanksysteme, die Personal-Information-Management-Systeme und die Generatoren für die Benutzeroberflächen angeschlossen. Die Entwicklungsumgebung eines Management-Informationssysteme benötigt dafür Host-Systeme, Netzwerke, Betriebssystem-Plattformen, eine Client/Server-Architektur, PC-Systeme und generalisierte Benutzeroberflächen.

5.4.6. Erfolgskriterien

Der Erfolg von Management-Informationssystemen, wozu auch die Akzeptanz der Benutzer zu zählen ist, wird am ehesten durch eine sachgerechte betriebswirtschaftliche Modellierung der Organisationsrealität erreicht, die am besten im Rahmen eines Projektmanagements entwickelt wird. Die Benutzerpartizipation muss vorausgesetzt werden, wobei vorher genau die Qualitäten, Kompetenzen und Verantwortlichkeiten der Teilnehmer festgestellt bzw. festgelegt werden müssen. Natürlich muss für erfolgreiche Management-Informationssysteme auch eine günstige Basissoftware existieren, die zeitaktuelle Informationen aus allen Ebenen anbieten kann. So ist zu verhindern, dass am Ende des Geldes und der Zeit wegen noch ein gehöriges Stück Projekt übrig bleibt.

5.5. Künstliche Intelligenz

5.5.1. Begriff und Arbeitsgebiet

Intelligenz ist die Fähigkeit, Wissen zu erwerben und darin eine gewisse Ordnung zu erkennen. Darauf zielt auch der Turing-Test ab. Die harte künstliche Intelligenz (KI) glaubt, Denken sei ein mechanischer Prozess, die weiche KI schliesst dabei das Verstehen aus. Wäre harte KI richtig, hätten Maschinen früher oder später auch die Verantwortung für ihr Tun zu übernehmen. Zur KI zu zählen sind: Sprachverarbeitung, Bildinterpretation, Robotik, Deduktionssysteme (zum Beweis mathematischer Sätze), neuronale Netze und Expertensysteme.

5.5.2. Expertensysteme

Expertensysteme sind gebietsspezifische, wissensbasierte Systeme, die sich derzeit ganz gut verkaufen. Sie sollen das Wissen von Experten jederzeit verfügbar (und nachvollziehbar) machen. Ein Experte zeichnet sich gegenüber einem Laien durch angeborene hohe Intuition und grosse erlernte Fähigkeiten auf einem bestimmten Gebiet aus. Diesen Status - v.a. der Intuition - erreichen Expertensysteme nie, jedoch können sie einige Kompetenz vortäuschen.

Ein Expertensystem besteht aus der:

  1. Wissensbasis: Diese Komponente enthält die Regeln und Fakten. Die Fakten sind dabei gesichertes Fachwissen, Heuristiken, unscharfes Fuzzy-Wissen. Die Repräsentation des Wissens erfolgt in Frames (ähnlich den Klassen der Programmiersprache C++), semantischen Netzen (Graph mit "has"- oder "part of"-Kanten) und Wenn-Dann-Regeln. Wie der Mensch hört auch ein Expertensystem nie auf zu lernen - nach ein paar Jahren arbeitet es jedoch zu 95% zuverlässig.
  2. Inferenzmaschine bzw. Problemlösungskomponente: Diese Komponente wendet die Regeln auf die Fakten an und gewinnt so neue Fakten zur Lösung eines Problems. Der Regelinterpreter schliesst entweder aus den Prämissen auf die Konklusion (Forward Chaining) oder ermittelt die nötigen Fakten zu einem bereits vorhandenen Ergebnis (Backward Chaining).
  3. Dialogkomponente: Diese Komponente dient der interaktiven Falldateneingabe bzw. Ergebnisausgabe.
  4. Erklärungskomponente: Das Expertensystem erklärt hiermit, wie es auf das Resultat kam. Das erhöht die Akzeptanz der Lösung. Ausserdem hat die Erklärung auch einen lehrenden Effekt.
  5. Lernkomponente bzw. Wissenserwerbskomponente: Diese Komponente dient der Eingabe der Regeln und Fakten durch einen Experten/Wissensingenieur (passiv). Eine aktive Lernkomponente ist ein Produktionssystem, das selbstständig neue Regeln (nicht Fakten!) erschliesst. Dazu gehört auch, sich frühere Analysen und Synthesen zu merken und Faustregeln darauf zu entwickeln.

Die Expertensysteme haben den neuen Beruf des Wissensingenieurs hervorgebracht. Er ist dafür zuständig, dass das Unternehmenswissen im Expertensystem korrekt abgebildet wird.

Realisiert werden Expertensysteme i.d.R. über KI-Sprachen wie LISP und PROLOG; diese erlauben ein regelbasiertes Programmieren, welches nicht vollständig algorithmisch (prozedural) ist. Die Entwicklungsumgebung wird von sogenannten Shells gestellt, die im Prinzip ein komplettes Expertensystem ohne Wissensbasis darstellen. Die Wissensakquisition verhindert, dass Phasenschemata zum Einsatz bei der Entwicklung kommen.

Vorteile von Expertensystemen:

  • Sie sind nie gestresst (Stress-Stabilität).
  • Sie erlauben schnellen Wissenstransfer zu jeder Zeit.
  • Sie helfen v.a. bei Routineaufgaben und entlasten die Experten.
  • Sie helfen bei der Aus- und Weiterbildung.
  • Sie übersehen keine Regeln, die Wissensbasis wird zu 100% ausgeschöpft.
  • Sie helfen überall dort, wo hinter Entscheidungen keine Verantwortung liegt.

Nachteile von Expertensystemen:

  • Stammtischverhalten: Sie wissen nicht, wann sie keine Ahnung haben.
  • Die regelbasierte Programmierung ist nicht für alle Probleme geeignet.
  • Der Verbesserungsprozess der Antwortfindung ist langwierig.
  • Sie können keine Verantwortung übernehmen, werden dazu aber missbraucht.

Anwendungsgebiete in Organisationen sind: Investitionsplanung, Schulung, Planung, Controlling, Lieferanten-Auswahl, Bilanzanalyse, Steuerberatung, Personalpolitik, usw.

5.5.3. Neuronale Netze

Neuronale Netze simulieren das biologische Gehirn: Eine grosse Anzahl von Neuronen ist untereinander verbunden und reagiert bei entsprechender Reizung (Input) mit der Annahme eines bestimmten Gesamtenergieniveaus, welches als Output interpretiert werden kann. Wie Menschen lernen neuronale Netze Wissen, bekommen es also nicht einprogrammiert. Da gibt es z.B. das Backpropagation-Verfahren, bei dem ein neuronales Netz bestimmte Inputs eingegeben werden sowie der erwartete Output. Bei jedem Lernschritt gewichtet das neuronale Netz die Synapsen zwischen den Neuronen neu, wodurch sich deren Bereitschaft zur Reaktion bzw. Feuerung auf bestimmte Reize hin ändert.

Anwendungsgebiete sind: Spracherkennung, Handschriften-Identifizierung, Bildverarbeitung, Hubschraubersteuerungen, Trennung von Sprache und Rauschen (bei ISDN angewendet) u.ä.m. Häufig werden sie bei nicht-linearen Prozessen benötigt oder bei Berechnungen mit unscharfen Mengen (Fuzzy-Logik).