Informationstechnik-Sammelsurium

Geschwurbel von Daniel Schwamm (07.06.1994 bis 01.08.1994)

Inhalt

1. IT-Seminar (Sommersemester 1992)

1.1. Standardisierungsprozesse in der Datenkommunikation

Problemstellung: Informationen sind für Unternehmen wichtig geworden als Produktionsfaktoren. Der Informationsaustausch erfolgt über Kommunikationssysteme. Kommunikationssysteme kommunizieren untereinander auf Basis von Protokollen. Damit zwei Protokolle von zwei heterogenen Systemen miteinander Informationen austauschen können, müssen sie standardisiert werden.

ISO/OSI-Referenzmodell für offene Systeme: Dieses Modell bildet die strukturelle Basis für standardisierte Protokolle. Ziel ist es, die einzelnen Schichten voneinander zu entkoppeln, um jede für sich Standardisieren zu können.

Standardisierungsgremien: beispielsweise ISO (International Organization for Standardization), ANSI (American National Standards Institute), DIN (Deutsches Institut für Normung), IEEE (Institute of Electrical and Electronics Engineers), ECMA (European Computer Manufacturers Association), IEC (International Electrotechnical Commission) und CCITT (Comité Consultatif International Téléphonique et Télégraphique). Die Protokolle werden jeweils von Technical Committees gebildet.

Politik: Am Standardisierungsprozess sind Anwender und Hersteller gleichermassen interessiert, was diesem Prozess einen eher politischen, als sachlichen Charakter gibt. Wenn auch bis zu einem gewissen Grad Marktmechanismen berücksichtigt werden müssen, finden die Gremien leider häufig statt einfacher Lösungen faule Kompromisse.

Die Apokalypse der zwei Elefanten: David D. Clark zeigt, dass der Zeitpunkt der Normierung nicht zufällig ist. Er liegt im Aktivitätstal zwischen der Forschung (erster Elefant) und der Milliarden-Dollar-Investition (zweiter Elefant). Liegen diese Aktivitäten zu nahe beieinander, kommt es zur Apokalypse, d.h., die Normierung dazwischen wird quasi zerquetscht und kann nicht korrekt ausgearbeitet werden.

Beispiele für faule Kompromisse beim ISO/OSI-Referenzmodell: Das IEEE musste drei Vorschläge in Schicht eins und zwei unter einen Hut bringen, nämlich Ethernet, Token-Ring und Token-Bus. Auch in Schicht drei und vier wurde ein fauler Kompromiss geschlossen, da neben verbindungsabhängiger Kommunikation auch verbindungsunabhängige Kommunikation ermöglicht wird.

1.2. AS/400 und RS/6000 als High-End-Server-Systeme

C/S-Architektur (Client/Server): Standards fehlen in diesem Bereich noch weitgehend, obwohl diese Architektur als die Prozesskommunikationsarchitektur der Zukunft gilt. Bereits jetzt hält sie 40% des Geschäfts der Systemintegratoren.

Midrange-Markt: Dieser Markt betrachtet vernetzte PCs, kleine Hosts und Midframes wie die AS/400 und High-End-Workstations wie die RS/6000 von IBM. Mit 41% Marktanteil führt die AS/400 das Segment an - wohl vor allem aufgrund des riesigen Standard-Software-Angebots -, doch das Volumen des Midrange-Marktes insgesamt geht zurück. Grund dafür ist die fehlende Offenheit der meisten Midrange-Systeme.

AS/400: Dieser Rechner von IBM ist proprietär. Das objektorientierte Betriebssystem OS/400 verschliesst sich gegenüber heterogenen Welten. Noch wächst der Marktanteil der AS/400, jedoch hat auch IBM die Zeichen der Zeit erkannt, und versucht nun, die AS/400 zu öffnen und als High-End-Server für LANs zu platzieren (als ein C/S-Backend-System). Der bisheriger Erfolg der AS/400 beruht im Wesentlichen auf ihr enorm grosses Standard-Software-Angebot.

RS/6000: Dieser RISC-Rechner (Reduced Instruction Set Computer) von IBM verfügt über die POWER-Technologie und Micro Channel-Architektur. Der Prozessor ist geteilt in Subprozessoren, als Benutzeroberfläche wird OSF/Motif angeboten und Betriebssystem ist AIX - die RS/6000 setzt also auf Offenheit. Das scheint sich zu lohnen, denn im hart umkämpften Workstation-Markt besitzt sie bereits einen Marktanteil von 12%, wobei sich ihr Produktlebenszyklus noch in der Wachstumsphase befindet.

1.3. Datenkommunikation in der Fertigungsautomation

Fertigungstechnologie-Automatisierung: Schlagworte in diesem Bereich sind NC (Numerical Control), CNC (Computerized Numerical Control), DNC (Distributed Numerical Control), Roboter, Lagersysteme, dedizierte Steuerungssysteme (kommen nur mit Eckdaten aus) und fahrerlose Transportsysteme.

Fertigungstechnologie-Flexibilisierung: Schlagworte in diesem Bereich sind Bearbeitungszentrum, flexible Fertigungszellen und flexible Fertigungssysteme.

Offene Kommunikation zwischen CIM-Bausteinen (Computer Integrated Manufacturing): Schlagworte hierzu sind CAM (Computer Aided Manufacturing), CAP (Computer-Aided Planning), CAD (Computer-Aided Design), CAQ (Computer-aided Quality Assurance) und PPS (Produktionsplanungssysteme und Steuerungssystem). Alle diese Bausteine von CIM müssen miteinander kommunizieren. So werden z.B. die CAD-Daten beim CAM für die DNC-Maschinen benötigt. Die offene Kommunikation wurde bisher noch nicht stark genug standardisiert.

Offene Kommunikation über alle Hierarchieebenen hinweg: Natürlich muss eine offene Kommunikation in Produktionsbetrieben nicht nur zwischen den CIM-Bausteinen stattfinden, sondern auch zwischen den einzelnen Ebenen.

Offene Kommunikation-Probleme: Wie erwähnt, lassen Standards bei der offenen Kommunikation noch auf sich warten. Weitgehend wird auf herstellerspezifische Einzellösungen zurückgegriffen, was aber der CIM-Philosophie von der generellen Integration der Produktionsstufen widerspricht.

MAP (Manufacturing Automation Protocol): Das ist ein von General Motors initiiertes Fertigungskommunikationsprotokoll mit dem Status eines De-facto-Standards. Es bietet für die Endbenutzer u.a. eine High-End-Benutzeroberfläche (API; Application Programm Interface) und lässt sich auch als Mini-MAP konfigurieren. Der bisherige Erfolg dieses Echtzeit-Kommunikationssystems auf Basis des Token-Busses wird sich wohl auch langfristig positiv auf seine weitere Durchsetzung am Markt auswirken.

1.4. Just-in-Time-Production auf Basis standardisierter Austauschformate

Motivation: Die Dynamik des Marktes wächst, die Produktlebenszyklen werden kürzer. Das verlangt eine neue Beschaffungsphilosophie und Fertigungsphilosophie, wie sie etwa die JIT-Produktion (Just-In-Time) anbieten kann.

JIT-Konzept: Das JIT-Konzept bedeutet Beschaffung, Produktion und Zulieferung auf Abruf, wobei wesentlich kundenorientierter vorgegangen werden kann. Durch produktionssynchrone Lieferung kann auf teure Lagerhaltung verzichtet werden, wodurch die Fertigung allerdings zu einer zeitkritischen Sache wird - eine effiziente Ablauforganisation ist dafür eine notwendige Voraussetzung. Es müssen sogenannte Regelkreise geschaffen werden, wobei hier der Materialfluss stets dem Informationsfluss entgegenläuft.

Branchenstandards: Um den freien Fluss der Marktkräfte ging es wohl bei der Schaffung von Standards im Bereich JIT-Production. Jeder Lieferant sollte mit jedem Unternehmen auf Basis dieser Standards in Kommunikation zwecks einer JIT-Produktion treten können. Als Standards in den einzelnen Branchen haben sich durchgesetzt:

  1. VDA (Verband der Automobilindustrie) für die Automobilindustrie.
  2. SWIFT (Society for Worldwide Interbank Financial Telecommunication) im Bankbereich.
  3. SEDAS (Standardregelungen Einheitlicher Daten-Austausch-Systeme) im Handel.

EDI (Electronic Data Interchange) auf Basis von EDIFACT (Electronic Data Interchange/Electronic Data Interchange For Administration): Im Verwaltungsbereich hat sich dieses Austauschformat für Informationen branchenübergreifend durchgesetzt, vor allem in Grossserien-Produktionen.

Bewertung: Die JIT-Production-Standards sind derzeit nicht branchenübergreifend konzipiert, was ihre Funktionalität und ihre Offenheit einschränkt. EDIFACT dagegen ist in allen Branchen einsetzbar, allerdings zum Preis, dass es dadurch sehr umfangreich geworden ist.

1.5. Datenkommunikation im Bankbereich

Anforderungen an die Kommunikationsdienste im Bankbereich: Die Dienste müssen in erster Linie mit sehr grossen Datenmengen fertig werden können, wie sie u.a. bei allen Zahlungsvorgängen anfallen. Ausserdem müssen sie transaktionsorientiert sein, damit keine katastrophalen Inkonsistenzen auftreten können.

Kommunikationssysteme in Kreditinstituten: Nach Untersuchungen weiss man, dass über 80% der Kommunikation von Kreditinstituten Inhouse-Kommunikation ist. Dies verlangt die Installierung ausgereifter Kommunikationssysteme innerhalb der Institute und ausserhalb zu ihren Filialen. Wie z.Z. überall wird auch hier verstärkt auf offene Systeme gesetzt, nicht zuletzt deswegen, weil dann das interne Kommunikationssystem gleichzeitig auch als externes Kommunikationssystem dienen kann.

1.6. Externe Datenkommunikation im Bankbereich

Datenkommunikation zwischen Bank und Kunden: Die Bedeutung der Informationstechnologie wächst, die Internationalisierung wächst und die Dynamik der Märkte wächst. Daraus ergibt sich eine Änderung des Anforderungsprofils der Kunden, die von Banken entsprechend berücksichtigt werden müssen.

Electronic Banking im Privatbereich:

  • Automatisierte Schalter: Das betrifft i.d.R. nur Geldausgabe und Kontoausdruck.
  • Point of Sale-Banking: Online und offline Computerkassen arbeiten im Handel über Transaktionsverwaltungssysteme.
  • Homebanking (Telebanking): Informationseinholung und Überweisungen von zu Hause aus über Telefon und BTX.

Electronic Banking im Firmenbereich:

  • Datenaustausch im Zahlungsverkehr: z.B. periodisch Massendaten von Subinstituten erhalten.
  • Cash Management Systems: Unterstützung zeitkritischer Finanzierungsdaten. Ermöglicht die Entscheidung von Finanzplänen.

Kommunikationsstandards: Hierunter fallen öffentliche Netze (Telefax, Datex P/L, BTX), internationale Netze (MARK III, TYMNET), Standards wie SWIFT (Bank) und FTAM (File Transfer and Access Management) sowie Kunden-Bank-Kommunikationsstandardsoftware über BTX bzw. Datex-P wie beispielsweise MultiCash.

Trends: ISDN und Datex-J werden BTX und Telefon mittelfristig verdrängen.

1.7. Datenkommunikation unter Einsatz von ISDN

Motivation: Integration von vielen Diensten auf nur einem Medium mit einem einheitlichen, digitalen Übertragungsverfahren.

Technische Aspekte: Zur digitalen Datenübertragung ist die Frequenzmodulation (FM), die Amplitudenmodulation (AM) und die Puls Code Modulation (PCM) relevant. Die dadurch erreichte Kanalzuteilung für rein digitale Daten sieht in ISDN folgendermassen aus:

  1. B-Kanal: 64 kbps (64.000 bit/s), orientiert sich am öffentlichen Netz mit einer Abtastrate von 8 kHz a 8 bit)
  2. D-Kanal: 16 kbps für Out-of-Band-Signaling.

Ein Primärmultiplexanschluss erlaubt die Zusammenschaltung von mehreren ISDN-B-Kanälen für bis zu 1.920 kbps. ISDN bietet Teledienste, kann multifunktionale Endgeräte über eine Nummer ansprechen und ist an LANs anschliessbar. Für die Zukunft ist B-ISDN (Breitband-ISDN) vorgesehen, welches noch wesentlich grössere Datenraten zur Verfügung stellen soll.

Betriebswirtschaftliche Aspekte: ISDN kann virtuelle Oberflächen in stark arbeitsteiligen Betrieben schaffen. Es stellt JIT-Production-Anrufer-Checks zur Verfügung. ISDN bringt relativ wenig Neues mit sich, verbessert aber die bestehenden Systeme. Die Installation macht 130 DM, die Miete 74 DM; bei Primärmultiplexanschluss 200 + 5.180 DM. Aber ISDN lohnt sich weniger organisationsintern, als vielmehr zur Überbrückung grosser Entfernungen, sofern dabei die volle Datenrate genutzt werden kann.

Fazit: Die Integration aller möglichen Dienste auf nur einem (ISDN-)Netz funktioniert nicht vollständig. ISDN ist aber ein gutes Instrument zur Diversifikation. Bei einer weiteren Verbreitung gewinnt dieses Kommunikationssystem sicherlich deutlich an Zugkraft, bisher verkauft es sich jedoch nur in der BRD gut.

1.8. Ergonomie von Benutzerschnittstellen

Software-Ergonomie: Ergonomie ist die Lehre von der Kommunikation zwischen Mensch und Maschine. Sofern sich diese Kommunikation auf die Schnittstelle bzw. Benutzeroberfläche beschränkt, kann von Software-Ergonomie geredet werden. Die Software-Ergonomie erlangt sehr grosse Bedeutung für neue Informationstechnologien durch ihre Akzeptanz fördernde Wirkung.

Probleme der Software-Ergonomie: Lange Zeit mussten sich die Menschen an die Maschinen anpassen, doch dies ist heute umgekehrt. Die Experten allerdings, welche die Maschine an den Menschen anpassen sollen, sind häufig mit Expertenblindheit geschlagen oder benutzen zeitraubende Trial-and-Error-Verfahren zur Findung geeigneter Schnittstellen. Besser wäre es, wenn sie von vorneherein die ergonomischen Gestaltungsgesetze berücksichtigen würden.

Ergonomische Gestaltungsgesetze: Die EDV-Systeme bzw. Dialogkomponenten sollten in sich geschlossen, leicht steuerbar, erwartungskonform, fehlerrobust und von guter, ordentlicher Gestalt sein. Sie sollten sich selbst erklären können und raumzeitliche Nähe durchgehend aufrechterhalten.

Interaktionstechniken: Prompting wie bei MSDOS ist unergonomischer als kommandoorientierte Systeme. Diese sind unergonomischer als der Einsatz von Abfragesprache wie SQL (Structured Query Language). Abfragesprachen sind ihrerseits unergonomischer als Steuerungssysteme, welche wiederum unergonomischer sind als Menüsysteme. Am ergonomischsten verhalten sich Systeme mit Formulardialogen oder gar objektorientierten Oberflächen, die eine direkte Manipulation aller Systemelemente ermöglichen.

Hilfssysteme: Hilfssysteme sind statisch, wenn sie nur unveränderliche Systemeigenschaften aufzeigen. Sie können des Weiteren kontextsensitiv sein, individuell auf den Anwender zugeschnitten und passiv (Benutzer muss Fragen) oder aber auch aktiv (Benutzer wird automatisch informiert) sein.

Zukunft: Der Trend geht zu einer objektorientierten Oberfläche für alle anstehenden Arbeiten. Realisiert wird dies wie im User-Agent-Concept, bei dem der genormte Agent dem Benutzer und seinen individuellen Instrumenten zwischengeschaltet ist.

1.9. Trends zur Standardisierung von Schnittstellen

Allgemeiner Hinweis: Die Standardisierung von Schnittstellen betrifft in erster Linie Graphical User Interfaces (GUI). Eine Ausnahme hierzu bildet das umfassendere SAA-Konzept (System Application Architecture) von IBM. Durch geeignete GUIs möchte man hier ein einheitliches Look & Feel beim Anwender erzeugen. Wichtig ist dazu eine physische, syntaktische und semantische Durchgängigkeit aller Schnittstellen.

Kritik an der Standardisierung: Positiv bei Standards sind die kürzere Einarbeitungszeit, kürzere Entwicklungszeit, der Investitionsschutz für den Anwender, die Herstellerunabhängigkeit und die Chancen, die sich dadurch für Nischen-Produzenten ergeben. Nachteilig an Standards sind dagegen ihre innovationsbremsende Wirkung. Ausserdem sind sie häufig eher politische Produkte denn sachbezogene Produkte - und dadurch meist sehr komplex, weil sie alle Wünsche berücksichtigen müssen.

PC-Oberflächen: Zu nennen wäre hier in erster Linie Microsoft Windows, welches inzwischen den Status eines De-Facto-Betriebssystems besitzt. Bereits in naher Zukunft wird es Windows-NT (New Technology) geben und eventuell Windows ablösen. Im professionellen Bereich dominiert derzeit dagegen noch der OS/2-Presentation Manager, der den SAA-Richtlinien von IBM folgt und damit den ersten Common User Access (CUA) darstellt.

UNIX-Oberflächen: NeWS von SUN gibt es hier, aber v.a. auch den X11-Standard vom MIT. X11 ist eigentlich mehr als ein GUI; der GUI-Part wird alleine vom Window Manager abgedeckt. In Amerika gibt es zudem den Standard Open Look von AT&T und SUN, während in Europa eher OSF/Motif als SAA-CUA vorherrscht.

SAA (System Application Architecture): Die Heterogenität der eigenen Produktpalette zwang IBM zum System Application Architecture-Konzept, welches für alle ihre Produkte gemeinsame Richtlinien ins Leben rief. SAA umfasst das Common Programming Interface (CPI) für Standard-Programmiersprachen (C, FORTRAN, COBOL, DB2, SQL, PL1), den Common Communication Support (CCS) für genormte Datenübertragungsprotokolle (SNA, OSI, DIA-Dokumentenaustausch) und den Common User Access (CUA) für systemübergreifende, proprietäre Schnittstellen. Unter dem SAA-Standard laufen alle Software-Produkte von IBM als Common Applications.

Ausblick: Offene Systeme wie X11 gewinnen in Zukunft am Markt. Welches GUI-Konzept das Rennen letztlich macht, Open Look oder OSF/Motif, bleibt abzuwarten. Das SAA-Konzept durchgängig durchzuführen erweist sich als äusserst schwierig, zumal auch sein proprietärer Charakter beim Kunden eher negativ ankommt (u.a. fehlte dadurch lange Zeit die Implementierung von so etwas Elementaren wie einem TCP/IP-Anschluss). IBM hat dies erkannt und die Open Enterprise-Strategie ins Leben gerufen, die über das eigene Betriebssystem AIX den Anschluss an die offene UNIX-Welt sucht. Bleibt abzuwarten, ob Big Blue mit diesen verspäteten und teilweise auch halbherzigen Massnahmen noch einmal den Kopf aus der Schlinge ziehen kann.

2. IT-Seminar (Wintersemester 93/94)

2.1. Client/Server-Modell für Rightsizing

Abgrenzung: Client/Server-Computing bedeutet nicht offene Kommunikation, nicht eine spezielle Art von Hardware-Konfiguration und auch nicht verteilte (Betriebs-)Systeme. Client/Server-Computing bedeutet einfach nur eine Kommunikationsarchitektur, bei der Server-Prozesse diverse Dienste für Client-Prozesse erledigen.

Umsetzung in die Praxis:

  • OSF/DCE (Open System Foundation/Distributed Computing Environment): Ein verteiltes, offenes Client/Server-System mit RPC-Facility (Remote Procedure Call) in heterogenen Netzen, einer Technik zur Realisierung von Interprozesskommunikation.
  • X11 (auch: X Windows System): GUI, Netzwerkprotokolle und mehr, welche hauptsächlich in der UNIX-Welt eingesetzt werden.
  • NetWare: Das ist die klassische proprietäre Client/Server-Software von Novell. NetWare setzt auf das eigene IPX/SPX als Netzwerkprotokoll.

Unternehmenswirkung: Rückgrat für Rightsizing-Projekte. Rightsizing bedeutet erst Downsizing so viel wie möglich und dann neu strukturiertes Upsizing (Integration) so weit wie nötig.

Tendenzen: Client/Server-Computing folgt der Leitidee "Network is the Computer". Das Rightsizing läuft auf eine unternehmensweite Integration aller Systeme hinaus.

Mögliche Serverleistungen: Disk-, DB-, File-, Presentation-, Print-, Name-, Directory-, Mail- und Retrieval-Server.

2.2. Leistungskennzahlen für Dateiverwaltungssysteme

Leistungskennzahlen von Dateiverwaltungssystemen (DVS): Solche Leistungskennzahlen sind sinnvoll zur Entdeckung von Engpässen in DVS. Sie dient auch zum Vergleich von alternativen DVS.

Mögliche Leistungskennzahlen sind:

  • Prozessor-Leistungsmasse: MIPS (Million Instructions Per Second), MOPS (Million Operations Per Second), FLOPS (Floating point Operations Per Second) und mittlere Befehlszeit.
  • Speicher-Leistungsmasse: Anzahl Bytes im RAM (Read Access Memory), Dichte = bit/Zoll, Zuverlässigkeit = Fehler/bit und Übertragungsrate = bit/s.
  • System-Leistungsmasse: Durchsatz, Kapazität und Auslastung.
  • Benchmarks: Drystone und SPECmarks, sowie Harmonics von PC Bench.

Beurteilung der Benchmarks: Benchmarks bieten nur eine Detailsicht. Bei rekursiven Programmen sind RISC-Architekturen (Reduced Instruction Set Computer) gegenüber CISC-Architekturen (Complex Instruction Set Computer) im Vorteil. Und durch die Standardisierung der Benchmarks kommt es zu Manipulationen, sodass auch eher langsame Rechner bei bestimmten Benchmarks zaubern können.

2.3. Übersicht und Vergleich von Datenbank-Servern

Architekturwandel von Datenbanksystemen (DBS): Moderne Client/Server-Konzepte gestattet (transparente) verteilte Datenbanksysteme mittels DBMS-Server (Datenbankmanagementsysteme).

Datenbank-Server: Datenbank-Server beinhalten ein nicht mehr rein Host-basiertes Architektur-Potenzial. Sie können File-Server zusammen mit SQL-Server stellen, die womöglich in naher Zukunft in verteilten DBS Verwendung finden werden.

Leistungsmessung von Datenbank-Servern: Interoperabilität (transparente Kommunikation zwischen heterogenen Systemen), Datenintegrität, Sicherheit, Transaktionsverwaltung, Optimizer und Benchmark-Tests stehen zur Verfügung.

Systeme am Markt: ORACLE bietet Datenbank-Server an. Ebenso INFORMIX.

2.4. Multimediale Informationssysteme

Prozessor-Änderung: Neben normalen CPUs gibt es für Multimedia auch dedizierte digitale Signalprozessoren (DSP), z.B. für die Kompression und Dekompression von Daten in Echtzeit.

Sonstige Systemänderungen: Optische Speichermedien sind die multimedialen Speicher der Zukunft. Das Betriebssystem muss Tondaten zeitkritischer bearbeiten können als Bildinformationen, weil das menschliche Gehör eher Fehler wahrnimmt als das menschliche Auge. Rechner sind über Highspeed-LANs zu verbinden, z.B. mittels FDDI-Ring.

Kompressionsverfahren: Multimediale Daten sind vor der Übertragung sinnvollerweise zu komprimieren, um nicht kostbare Bandbreite zu verschwenden bzw. damit sie überhaupt in Echtzeit übertragen werden können. Bei Bildern hat sich die JPEG-Kompression (Joint Photographic Experts Group) etabliert, bei Filmen das MPEG-Format (Moving Picture Experts Group). Und ganz neu ist das FIF (Fractal Interchange Format), welches auf Selbstähnlichkeiten in den Daten beruht.

Dokumentationsarchitekturen: relevant nur Open Document Architecture.

Anwendungsgebiete: Hypertext- bzw. Hypermedia-Systeme, z.B. zur Mitarbeiterausbildung einsetzbar. Weitere Märkte: Point of Info, Point of Sale, elektronische Kioske, Personal Home Video und Information-Highways.

2.5. Die Organisation der Informationsverarbeitung in Unternehmen

Informationsverarbeitung und Informationsmanagement: Die Informationsverarbeitung ist der Nachfolger der klassischen Datenverarbeitung. Da Informationen als Produktionsfaktor gelten, wurden Informationsmanagementsysteme für die Informationsverarbeitung eingerichtet, welches die strategischen, administrativen und operationalen Zielsetzungen und Zieldurchsetzungen vornimmt.

Integration der Informationsverarbeitung im Unternehmen:

  • Anforderungen: Structure follows Strategy (oder umgekehrt). Standards sind zu beachten, genauso der Standort, die Flexibilität, die Akzeptanz und die Wirtschaftlichkeit der neuen Informationstechniken.
  • Auswirkungen: Wirkt sich auf die Informationsdatenverarbeitung aus, auf Lean-Bestrebungen im Unternehmen, d.h. auf die Hierarchie, und auf die Qualifikationsstruktur.
  • Strukturmodelle: Es muss eine Wahl getroffen werden zwischen funktionaler bzw. objektorientierter Integration oder Projekt-Matrizen.

Problematik: Gegen die Informationsverarbeitung gibt es mehr politische als sachliche Vorbehalte. Eine Akzeptanz ist schwierig erzeugbar. Kontrolle kann missbraucht werden. Face-to-Face-Kommunikation ist persönlicher. Die Wirtschaftlichkeit ist weniger von der Leistung der Informationssysteme abhängig, als von den Managern, die sie einführen.

3. Vorlesung IT I: Marktposition von IBM

3.1. Marktangebote: Beispiel IBM

IBM bietet folgende Produktpaletten an:

  1. Personal Systems (PS): Anfang der 80er kam der PC heraus, der sich in die PS/1- und PS/2-Serie aufspaltete.
  2. RISC-Systeme (Reduced Instruction Set Computer): Ende der 80er brachte IBM innerhalb dieses Segments die RS/6000 heraus.
  3. Basis-Datenverarbeitungssysteme: Die S/360 und S/380 wurde Mitte der 80er abgespeckt zur proprietären Midframe AS/400.
  4. Mainframes: Die S/360 kam Anfang der 70er auf den Markt, entwickelte sich bis 1972 zur S/370 weiter, die sich dann bis zu den 90ern in die S/390 und die 9000er-Familie aufspaltete.
  5. Prozessrechner: Als Prozessrechner bietet IBM seit 1976 die S/1 an.
  6. Fehlertolerante Systeme: Als sogenanntes Fault Tolerance System führt IBM seit den frühen 80ern die S/88 ein.

Informelles zu IBM: Bei der umfangreichen Produktpalette von IBM blickt kaum noch ein Kunde durch. V.a. auch, weil es Unmengen an Software und Hardware zu jeder Variante gibt, die untereinander nicht kompatibel ist. Aus diesem Grund entwarf IBM 1987 das SAA-Konzept (siehe später), nichts zuletzt, weil IBM Personal abspecken musste - von 400.000 Mann auf 200.000 Mann, was aber relativ einfach ging, weil IBM-Leute in anderen Unternehmen begehrt sind. Auch ihre ethischen Werte musste IBM abspecken: So verkaufen sie heute ihre Anlagen an jeden und arbeiten z.T. sogar mit den Japanern zusammen! Eine Rettung durch Einrichtung von Profit-Center erschwert das SAA-Konzept. Aber gerade die Vielfalt der Angebote und der Service den IBM leistete, um ihre Produkte zu warten, dieses einzigartige Vermarktungskonzept, erklären den Erfolg von IBM.

3.2. Lebenszyklus der 370-Serie

Die S/370 von 1970 basiert auf dem Vorgänger S/360, besitzt aber ein eigenes Architekturprinzip. Dieses wurde zwar stetig erweitert, jedoch wurde parallel dazu 1985 eine neue Architektur, Extended Architecture (XA), von besonderem Status kreiert: die IBM 3090. Dieser Mainframe wurde bis Anfang der 90er zur ESA (Enterprise System Architecture) aufgepeppt, die über einen Adressraum von 48 Bit verfügt und durch das Modell ES/9000 repräsentiert wird. Die 64-Bit-Architektur-Erweiterung wird wohl nicht mehr lange auf sich warten lassen.

Informelles: Architekturen sind nicht mit der Technologie gleichzusetzen. Bei identischem Chipsatz sind verschiedene Architekturen denkbar (und umgekehrt). Die diversen Architekturen (wie z.B. XA und ESA) sind nur aufwärts kompatibel, nicht aber abwärts kompatibel. Dabei musste sich jeweils das I/O-System stark ändern, während das Befehlsformat (die "Herzklappen" des Systems) weitgehend gleich blieb.

Genügte für die S/360 noch ein Programm-Status-Word mit einem Adressraum von 25 bit für 32 MByte (nur durch Notmassnahmen zu erreichen; eigentlich waren 24 bit vorgesehen), wurden beim S/370-Modell schon 32 bit Adressraum für 2^(32-1)=4 Gigabyte Speicher realisiert, der allerdings z.T. im virtuellen Adressraum liegt (woraus dann auch die Nicht-Abwärtskompatibilität folgt; allerdings konnte die XA-Architektur den Prozessor auf die alten Adressformate umschalten - im Supervisor- und im User-Modus).

Wann braucht man eigentlich solche riesigen Speicher? Z.B. für die Berechnungen des Wetters, bei denen der atmosphärische Raum durch ein dreidimensionales Array (1.000, 1.000, 1.000) dargestellt wird.

3.3. Lebenszyklus ausgewählter Modellreihen: Beispiel 3090

Ein Jahr vor Auslieferung kündigte IBM die 3090 an. 1986 kam sie heraus, wo sie durch anfängliche Preisnachlässe sofort hohe Installationszahlen erreichte. Als sich diese Wachstumsphase abzuflachen begann, kam 1987 der erste Leistungsschub durch die E-Modelle. Die Installationszahlen sprangen wieder sprunghaft an, jedoch nur bis 1988, wo dann zusätzliche erweiterte Varianten auf den Markt geworfen wurden. Um etwa 1989 kamen die S-Modelle heraus, doch bis 1990 kam der endgültige Abstieg mit den J-Modellen. Bis 1991 wurden ca. 15.000 3090-Systeme installiert, und IBM geht davon aus, dass ab dann die potenzielle Käuferschaft auf die neue Architektur ES/9000 umspringt, deren Lebenszyklus gerade erst beginnt. Ziel ist es, die 9000-Installationen auf 3090-Niveau zu bringen, was aber noch einige Jahre andauern wird.

Weil die Inter-Cache-Kommunikation bei mehr als zwei Prozessoren sehr teuer ist, wird es wohl auch in Zukunft keine IBM mit mehreren symmetrischen Prozessoren geben. Bei der 3090/600-E gibt es zwei Caches, die von sechs Prozessoren gemeinsam genutzt werden. Die Upgrade-Schemata der einzelnen Varianten sind schwer nachzuvollziehen, aber in ca. fünf Schritten wurden dabei jeweils Leistungsmultiplikationen von 1.5 bis 2.1 erzielt.

Informelles: Um den Lebenszyklus einer Architektur möglichst lange zu erhalten (mindestens vier bis fünf Jahre), muss ein Hersteller gegen eigene Neuerungen, fremde Konkurrenz und öffentliche Kritik ankämpfen. Zur schnellen Etablierung einer Innovation werden frühe Investoren mit Vergünstigungen geködert (First Customer Shipment-Strategie für Referenzkundenschaffung, dazu zusätzlich Early Installation Programs), aber nur kurz. Danach werden von Pilotanwendern hohe Preise verlangt, die nur allmählich abflachen (dies ist bei Mainframes zu ungenügend geschehen, daher gewinnen die Workstations ständig an Markt). Innovationssprünge (Launchings) bestehender Produkte können sein: bessere I/O-Kanäle, Hauptspeicherausbau, höhere Chipintegration, verbessertes Microcoding und Ausbau des Cache-Memories. Der Lebenszyklus lässt sich weiter verlängern durch Produktvariationen und sukzessive Preisnachlässe. Wie weit die Leistungssteigerung zunimmt, verschweigt IBM bei der Ankündigung aufgrund der Fear, Uncertainly and Doubt-Strategie gegen die Konkurrenz. Erfahrungswert ist hier aber ca. 10 bis 20%. Um neue Produkte zu stärken, müssen die alten aufgegeben werden, was IBM durch die Out-of-Release- und Out-of-Service-Politik erreicht.

Sehen wir uns die IBM-Politik im Einzelnen an:

  1. Ankündigungspolitik: Doubt, Uncertainly and Fear-Strategie, d.h., IBM bringt etwas leicht anderes heraus, als die Konkurrenz erwartet, daher kann diese trotz der Freigabe der Principles of Operation nicht wirklich im Voraus produzieren.
  2. Preispolitik: Frühe Investoren locken, Pilotanwender schröpfen, Nachzügler durch Preisnachlass ködern.
  3. Kommunikationspolitik: Vertriebskonzepte für jede Lebensphase für optimale Kundennähe. Serviceleistungen. Motto: "Grossrechnerkauf ist Vertrauenssache". Unterschieden werden die Kunden: Frühe Investoren, Pilotanwender, frühe Mehrheit, späte Mehrheit und Nachzügler (die Second-Hand-Geschäfte oder PCM-Systeme (Plug Compatible Manufactures bzw. IBM-kompatible Systeme) wollen; Strafe: Out-of-Politik).

3.4. Aktuelle Host-Produktpalette: ES/9000

Der Lebenszyklus der ES/9021 beginnt Ende der 90er mit ihrer Ankündigung. Bis Mitte 1992 waren die alten 3090-Modelle ausgelaufen, die Käufer auf die ES/9000 umgestiegen. Die Installationszahlen wuchsen bis Mitte 1993, wo dann eine im Vergleich zur 3090-Architektur frühe Abflachung der Verkaufszahlen einsetzte, trotz laufender Verbesserungen bis hin zur 64-bit-Architektur der ESA-Modelle.

3.5. Plug Compatible Manufactures (PCM): Beispiel Amdahl

Wesentliche PCM-Hersteller: Amdahl ist Entwickler und Vertreiber eigener IBM-Klone. Sie tragen die Bezeichnungen 5890, 5990 und 5595. An der Entwicklung beteiligt ist Fujitsu, deren Modell von Siemens als 7800-Modell vertrieben wurde, bis dieses Geschäft durch COMPAREX aufgelöst wurde. COMPAREX bezieht seine IBM-Klone 7/XX, 8/XX und 9/XXX von Hitachi, die sie in Eigenregie (ohne Amdahl) herstellen. Hitachi-Klone werden ausserdem von Olivetti als 5500-Modell und HDS (Hitachi Data Systems) als EX- bzw. GX-Systeme vertrieben.

PCM-Grundprinzipien: Die PCM-Hersteller halten die POP (Principles of Operations) der S/370 ein. Sie bieten stets etwas mehr Leistung für etwas weniger Geld als IBM an. Die PCM-Hersteller peppen die Klone durch eigene Hardware-Features auf, wie z.B. mit der Virtual Machine von Amdahl. Die Modellsystematik orientiert sich an die IBM-Bezeichnungen, so konkurriert eine Amdahl 5890/200 mit einer IBM 3090/200. Ein wesentlicher Vorteil von PCM-Klonen gegenüber IBM-Originalen sind auch die niedrigeren Betriebskosten, die bisweilen gerade mal die Hälfte durch niedrigere Mietkosten, billigere Kühlung (Luft statt Wasser) u.ä. erreichen. Ausserdem sind Field Upgrades von PCM-Herstellern billiger zu beziehen als von IBM.

Die Situation der Betriebssysteme: Das Betriebssystem der PCM-Klone wird meist von IBM bezogen, wobei der Code noch an die Klone-Architektur angepasst werden muss. Dies geschieht entweder durch Änderung des Mikrocodes oder aber durch spezielle Software-Module. Einige PCM-Hersteller gehen auch den Weg, eigene Betriebssysteme als Ersatz für IBMs Multiple Virtual Storage (MVS) zu entwickeln, die aber so gut wie nie die Fähigkeiten eines originalen MVS erreichen können. Ein Beispiel wäre hier BS3000 von Fujitsu und Siemens, doch beide Firmen bekamen schon bald kalte Füsse und zogen zu MVS zurück. NIDOS von Nixdorf erging es ähnlich kläglich. Erfolgreicher wird mit ganz neuen, offenen Betriebssystemen experimentiert, z.B. führte Amdahl die Mainframe-UNIX-Variante UTS recht erfolgreich ein.

PCM-Hersteller-Abwehr bei IBM: IBM baute gegen Klone-Produzenten Feindbilder auf. War der Feind zunächst Gene Amdahl, dann folgte schon bald Japan generell, dann DEC, bis ihnen in den 90ern die Feinde ausgingen (oder es zu viele wurden). Juristisch war Amdahl nicht beizukommen gewesen (Basispatente sind nicht geschützt), daher hatte IBM MVS-Zusätze in den Mikrocode eingebaut, was die Anpassungen erschweren sollte. Doch v.a. strategisch ging IBM gegen die PCM-Unternehmen vor. Zu nennen wäre da die Preispolitik, die Vermarktungsstrategie, die Ankündigungspolitik, die Modellpolitik und schliesslich die Lieferzeitpolitik.

Status von Amdahl: Die grösste Mainframe von Amdahl, die 5900, bringt 1990 eine Leistung von 113 Mips (Million instructions per second). Der Umsatz von Amdahl verteilt sich zu 80% auf CPUs, 22% auf die Peripherie und 10% auf Schulung, Service etc.

Informelles: Neue Informationstechnologien bringen kundenspezifischere Produkte hervor und unterstützen die Unternehmen in ihrer Strategie, die einen Zeitraum von 5 bis 20 Jahren umfasst. Monopole sind nicht mehr up to date, daher muss auf Standardanwendungen umgeschwenkt werden. In den Markt der Informationstechnologien für herstellerunabhängige Informationssysteme (umfassender als klassische Datenverarbeitungssysteme) führen auch neue Techniken der Künstlichen Intelligenz (z.B. Neuronale Netze) und die nicht-proprietären Netzwerke. Durch das verstärkte Aufkommen von Rechnernetzen bieten sich Downsizing- und Outsourcing-Konzepte an. Outsourcing bringt Vorteile, weil Outsourcer u.U. besser bzw. innovativer sind, weil das Mutterunternehmen sich alleine auf das Kerngeschäft konzentrieren kann, es seine Rechner dadurch besser ausnutzen kann, EDV-Personalkosteneinsparungen möglich werden, die Kapitalbindung sinkt (fixe Kosten werden zu variablen), und das technologische Risiko auf den Outsourcer verlagert wird. Nachteilig beim Outsourcing sind v.a. hohe Switching-Costs, wodurch der Outsourcer bis zu einem gewissen Grad Macht über das Mutterunternehmen erhält. Auch Datensicherheitsaspekte müssen berücksichtigt werden. Das Outsourcing kann aber gestaffelt vorgenommen werden: Es wird nur der Service, die Schulung, die Anwendungsprogrammierung, das Facility Management (Entwicklung, Betrieb, Schulung) oder letztlich doch das ganze System Management (strategische Informationssystemplanung) ausgelagert. Generell sollte nur die Standard-Software ausgelagert werden, sonst erhält der Outsourcer zu viel Einfluss.

Zu den PCM-Herstellern: Es gibt hierzu drei Kundengruppen: IBM-Treue, Zwei-Bein-Philosophen und reine PCM-Installateure (selten). Der Markt hat sich in Richtung Workstations geändert: Heute werden in der Wirtschaft keine schnelleren Rechner mehr benötigt, sondern vielmehr benutzerfreundlichere Systeme, bei denen die Workstations gegenüber den Mainframes eindeutig die Nase vorne haben. Standards geben den Kunden die Chance, sich endlich aus der Politik von IBM auszuklinken - die Sünden der Vergangenheit von IBM sind nicht vergessen worden. Zu diesen Sünden gehören beispielsweise, dass IBM Ankündigungen zurückzog (die 360/90 z.B. erschien nie), dass sie auf Upgrades oder sogar Migrationen drängte, wobei sie günstige Möglichkeiten durch fehlende Hilfen verhinderte, dann noch ihre Verzögerungspolitik bezüglich UNIX, dass sie nur Host-Netze anbietet, den Token-Ring erst unter Druck entwickelte und generell alles zu teuer verkaufte.

Amdahl im Vergleich zu IBM: Amdahl ist mit 1.000 Mann ein Zwerg im Vergleich zu IBM, besitzt dafür aber kurze Reaktionszeiten und ein ungeheures Know-how, ohne dem Amdahl allerdings auch keine Chancen hätte. Joachim Niedereichholz empfiehlt daher, die System-Administratoren (heute: Informations-Manager) bis in den Vorstand zu holen, um so ihre Wichtigkeit zu unterstreichen. PCM-Hersteller besorgen sich als erst Massnahme die IBM-Innovationen, um ihren Mikrocode, der nicht öffentlich ist, zu knacken. Schon im Voraus werden Rohlinge gefertigt, die dann nur noch an die IBM-Originale angepasst werden müssen. Die Software von IBM bleibt unangetastet, allerdings entwickeln die PCM-Hersteller inzwischen auch eigene UNIX-Systeme. IBM wehrt sich gegen PCM-Hersteller, indem sie Kunden androht, bei Problemen keinen Finger zu rühren, sofern auch nur ein einziges PCM-Teil in ihren Anlagen enthalten ist.

3.6. Proprietäre Betriebssysteme: MVS, VSE und VM

Geschichte der MVS-Systeme (Multiple Virtual Storage): 1967 gab es zwei Betriebssysteme von IBM: OS/PCP und OS/MFT. Ersteres ging früh ein, das zweite Betriebssystem hielt sich noch als BPE bis 1983. Erfolgreicher war das MVS-Betriebssystem, welches 1969 in Form des OS/MVT auf den Markt kam und erst ab 1977 MVS/370 heisst, nachdem die TSO (Time-Sharing Option) integriert wurde. 1983 kam die MVS/XA-Variante auf den Markt und 1988 schliesslich MVS/ESA für die 9000er-Modelle.

MVS-Grundarchitektur: MVS heisst Multiple Virtual Storages. Die Basiskomponenten sind die verschiedenen Managereinheiten für den Speicher, die Ressourcen, die Daten und das Sicherheitskonzept. Ein spezieller Job-Scheduler sorgt für einen effizienten Off-Line-Betrieb. Sehen wir uns die einzelnen Komponenten etwas näher an:

  • Job Entry Subsystem (JES): Übernimmt Job-Queuing und Job-Spooling.
  • Job-Scheduler: Teil von JES. Allokiert Ressourcen und startet Jobs.
  • System Resources Manager: Steuerung des Betriebsmitteleinsatzes.
  • Storage Management: Verwaltet virtuellen und realen Speicher. Paging.
  • Data Management: Steuert das Input-Output-System (IOS).
  • Recovery Termination Management: Sorgt für Konsistenz im Fehlerfalle.

In MVS wurde die Zeitscheiben-Technik "rucksackmässig" implementiert (im Gegensatz zu VM). Vorher arbeitete es mit Job-Prioritätsmechanismen. Heute können bis zu 64 Prozesse simultan ausgeführt werden. Bis zu 16 Prozessoren lassen sich betreiben. Etwa 10.000 DM/Monat kommen so an Kosten zusammen.

Zukunft von MVS: MVS/ESA verdrängt alle anderen MVS-Varianten, v.a. die geleasten Einstiegsversionen von MVS. Da der Lebenszyklus der MVS/ESA bald zu Ende geht, ist mit einer Preissenkung zu rechnen. MVS wird in Zukunft wohl das Betriebssystem für High-End-Server werden. Ausserdem kann es zu einem parallelen System für mehr als 16 Prozessoren ausgeweitet werden. Eine Absetzung des erfolgreichen MVS-Systems wäre Selbstmord - 20.000 Mannjahre erfordern eine Evolution von MVS.

VSE-Geschichte: Die Virtual Storage Extended Systems entstand aus dem Betriebssystem DOS/360 von 1965. Die SSX-Variante sorgte 1978 für Verwirrung, doch die VSE/SP-Version trug letztlich den Sieg davon und hat sich bis 1990 zum VSE/ESA-System gemausert.

VSE-MVS-Migration: VSE ist nur der kleine Bruder von MVS, sozusagen ein Mini-MVS für den Einstieg. IBM hat es von vorneherein darauf abgezielt, die VSE-Käufer früher oder später zu MVS zu bekehren. Für verschiedene Teile existieren daher von IBM Migrationshilfen, so kann z.B. mit JCA (J2EE Connector Architecture) die VSE-JCL (Job Control Language) auf die MVS-JCL automatisch migriert werden. Schwieriger wird dies jedoch bei den Online-Programmen und Datenbanken, die mittels TSO gesteuert werden.

VM/ESA: Das Virtual Machine-Betriebssystem ist sehr sauber aufgebaut. Von vorneherein war es auf Zeitscheiben-Technik ausgelegt, ist also vielmehr dialogorientiert als das batchorientierte MVS. VM kann zusammen mit VSE betrieben werden, was aber teurer ist als MVS alleine. VM ist eine Art Hilfssystem für VSE, obwohl nur VM den direkten Zugriff auf die Hardware hat. Im Gegensatz zu allen anderen Betriebssystemen von IBM kann sich VM selbst aufrufen und verwalten, ganz so als wäre es ein eigenständiges Programm.

Zukunft der IBM-Betriebssysteme: Hardware-Preisnachlässe verwöhnen User dahingehen, dass sie auch Software- und Betriebssystem-Preisnachlässe fordern. MVS wird ausgebaut zu einem parallelen Betriebssystem für mehr als 16 Prozessoren, zudem wird die POSIX-Schnittstelle ausgebaut, was die Proprietät mildern soll. VSE wird sich wohl auch noch halten können, während jedoch das VM-System bereits wieder auf dem absteigenden Ast ist, obwohl auch VM/ESA sicher noch eine Weile existieren wird. Sparmassnahmen und personeller Umstrukturierung - z.B. weniger Systementwickler - werden kaum abzuschätzende Wirkung auf die IBM-Betriebssysteme haben.

Informelles: Die 20.000 Mannjahre, die in MVS stecken sollen, sind dem System nicht immer anzumerken. Einiges ist offenbar schief gegangen; ausserdem arbeitet IBM sehr redundant. Derzeit sind auch nur noch 500 Leute damit beschäftigt, MVS weiter zu warten - eine weitere Abspeckung ist zu erwarten. Es gilt: MVS ist zwar sehr leistungsstark, aber auch unnötig komplex. Einige Kunden gelang es jedoch, ihr Betriebssystem so gut kennenzulernen, dass sie die Upgrades von IBM nicht mehr nachvollziehen mussten. Die normale S/370-Architektur verfügt über 16 MB, über Notlösungen ist diese auch auf 32 MByte erweiterbar. Die XA-Architektur kann 2 GB adressieren, notfalls auch 4 GB. Die ESA-Architektur schliesslich kann gar 8000 x 4 GB = 32 TB adressieren!

3.7. UNIX-Orientierung bei IBM: AIX-Familie und Open System Foundation

Auch IBM hat erkannt, dass proprietäre Betriebssysteme gegenüber offenen Betriebssystemen an Markt verlieren. Seit 1980 propagierte IBM daher auch das IX-Betriebssystem, eine Variante von UNIX. Allerdings fand keine aktive Vermarktung statt; es wurde nur ausgeliefert, wenn Kunden es direkt einforderten. IX war also noch eine ziemlich halbherzige Sache, zumal die wichtigen 3270-Terminals dort nicht unterstützt wurden! IBM wartete zunächst ab.

1985 kam ein schwerer Schlag für IBM: Grossaufträge der US-Luftwaffe und der US-Finanzämter gingen nicht an IBM, da diese kein offenes UNIX im Angebot hatte. Auch in Europa forderten die Behörden immer stärker UNIX-Produkte. Gerade in Bezug auf den internationalen Datenverkehr ist hier Offenheit wichtig. Internet und UNIX haben sich bereits bewährt.

Ab 1988 ging IBM in die Offensive und begann die aktive Vermarktung ihrer eigenen UNIX-Version AIX. Insbesondere durch den Einstieg in den RISC-Markt über die RS/6000 und der OSF-Gründung (Open System Foundation) wurde AIX forciert. Allerdings strebt IBM weiterhin eine Koexistenz von SAA und UNIX an, obwohl das SAA-Konzept einen eher proprietären Charakter besitzt. AIX/ESA läuft z.B. auf der IBM ES/9000, z.T. parallel zu MVS/ESA.

Informelles: XENIX ist ein PC-UNIX von IBM, das praktisch nicht gewartet wird und für das auch keine Werbung gemacht wurde. Seine Verbreitung ist entsprechend gering. IX war native mit der VM-Hardware verwurzelt, d.h., vor dem UNIX-Betriebssystem lag noch das VM-Betriebssystem, wodurch die Portabilität verloren ging. MACH-3 als VBS (verteiltes Betriebssystem) ist die Weiterentwicklung von IX. Auch den CODEASYL-Standard versuchte IBM, durch Verzögerungstaktiken und Überladungen, zu bremsen.

Gerade weil IBM sich so vornehm zurückhielt, konnte wohl auch der RISC-Markt derart explodieren. Obwohl bereits 1984 ein RISC-Rechner 6150 herauskam, erreichte dieser nur einen für IBM lächerlichen Marktanteil von 1.5%. Erst die RS/6000 mit ihrer erweiterbaren Architektur ist ein echtes Angriffsmodell. Weitere Vorteile wären für IBM drin, wenn auch sie die Rechnung-vor-Lieferung-Taktik anbieten würden, wodurch Abteilungsleiter schnell noch ihr Budget an den Mann bringen könnten. Die neuartigen Migrationshilfen sind zudem eine Gefahr für IBM, da diese die IBM-Software auf Nicht-MVS-Systeme ziehen können, wo sie standalone laufen. Selbst so spezialisierte MVS-Software wie der CICS-Transaktionsmonitor lässt sich inzwischen unter AIX auf einer RS/6000 ohne MVS betreiben.

3.8. AS/400-Familie

1988 wurde die AS/400 (Application System) als gemeinsamer Nachfolger (Integrationsmodell) von S/360 und S/370 angekündigt. Allerdings gilt die S/370 als Ausgangsbasis für die AS/400-Architektur. Als Betriebssystem findet OS/400 Verwendung, ein den SAA-Bedürfnissen angeglichenes Betriebssystem. Je nach Prozessoranzahl sind dafür 10.000 bis 100.000 DM Einmal-Lizenzgebühren zu entrichten. Die Kosten für die Modelle selbst beginnen ab 40.000 DM aufwärts - und beim teuersten Wachstumsmodell, der B60, sogar 500.000 DM. C, D, E und F-Modelle werden folgen.

Die Bestellzahlen der AS/400 waren für IBM sehr zufriedenstellend und erinnern an ihren Erfolg von 1978 mit der S/370. In vielen anderen Punkten gleicht die AS/400 ebenso der S/370, z.B. in der Architektur. Auch hier ist die Architektur vollständig mikrocodiert worden (horizontal und vertikal), was Klone schwieriger zu realisieren macht. Die AS/400 wurde zudem objektorientiert designt. Auf dem Mikrocode sitzt der S/370-Instruction-Set auf, der durch das Betriebssystem OS/400 (Control Programm Facility von der S/370 im SAA-Design) unterstützt wird.

Die Zukunftsaussichten der AS/400 sind nicht schlecht. Ihr Wachstumspotenzial ist noch lange nicht ausgereizt, auch wenn keine Zuwachsraten mehr erwartet werden. Mehr und mehr entwickelt sich die AS/400 zur Ersatz-Cash-Cow für die 9000er-Serie. Grund für die hohen Verkaufszahlen: Die Software-Palette ist sehr gross, trotz des proprietären Betriebssystems. In Zukunft werden wohl SQL- und CASE-Tools noch zunehmen, während sonst in Bezug auf Software wohl eher abgespeckt wird. Mit einem AIX/400-Betriebssystem ist nämlich in absehbarer Zeit wohl nicht zu rechnen.

Es ist zu erwarten, dass die meisten S/370-User zur AS/400 wechseln und nicht zu den AIX-Systemen wie die RS/6000. Die S/360-User dagegen neigen eher zur AIX-Lösung - oder gar PC-Netzen auf Client/Server-Basis. Dort ist das Reservoir deutlich kleiner für IBM.

Als Downsizing- bzw. Rightsizing-Lösung kommt die AS/400 v.a. für VSE-User infrage, sofern diese keine Migration auf MVS benötigen. Wer einmal bei der AS/400 ist, wird wohl eher dem Pfad zukünftiger Upgrades folgen, als auf ungewisse AIX-Lösungen umzusteigen (womit IBM sie wieder im Sack hätte). Das gilt aber nur bei Hochmigrationen; im gegensätzlichen Fall wird die RS/6000 vermutlich mehr Chancen als die AS/400 haben.

Informelles: Die Installationszahlen der AS/400 dürfen nicht mit denen von PCs verglichen werden. Erstens bringen AS/4000 weit grösseren Umsatz und v.a. bedeuten sie eine Bindung des Kunden an IBM - daher kann IBM hier auch leicht Rabatte bis zu 30% vergeben! Bei der AS/400 ist so viel als möglich mikrocodiert worden, wodurch die System-Interna nicht Public Domain sein müssen. Ohne grosse Migration kann die S/360-Software auf AS/400-Rechner portiert werden. Die AS/400 verfügt über einen seltenen 48 bit-Adressbus (eine XA-Variante ist nicht zu erwarten, den 48 bit genügen wohl für immer; ein möglicher Ausbau wäre aber von vier auf sechs Prozessoren).

Mit der RS/6000 machte sich IBM selbst Konkurrenz. IBM versucht Downsizer von der 3090 bzw. 9000 auf die "schräge Maschine" AS/400 zu ziehen. Die proprietäre Formularsprache RPG (Report Program Generator) verstärkt den Inselcharakter der AS/400.

3.9. Systemanwendungsarchitektur

Die vier Säulen des SAA: Die Systemanwendungsarchitektur von 1987 beruht auf den Säulen Common Communication Support (CCS), Common Programming Interface (CPI), Common User Access (CUA) und - als Verbindungssäule - Common Applications (CA). Das SAA-Konzept berücksichtigt die Umgebungen und das Betriebssystem S/370 mit MVS, AS/400 mit OS/400 und PS/2 mit OS/2.

Elemente des SAA-Konzepts sind:

  • CCN (Common Communication Network): Diese Netzwerk-Philosophie setzt auf OSI-Protokolle (X.25 und Token-Ring, nicht aber ETHERNET!) und SNA (System Network Architecture, proprietäres Netzwerk von IBM). Berücksichtigt wird auch die Norm 3270 für Terminals.
  • CPI (Common Programming Interface): An Sprachen werden berücksichtigt ANSI COBOL, ANSI FORTRAN 77, ANSI C X3J11 (nicht für VSE!), PL/1, RPG, REXX (Restructured Extended Executor; dafür flogen CLIST und JCL raus!), ANSI SQL (dafür wiederum flog DL/1 raus - wird DL/1 nun nicht mehr gewartet?), QMF (Query Management Facility), die Forth Generation Languages CPS und ISPF/PDF (Dialog Interface). Wichtig: APL (A Programing Language) wurde nicht integriert!
  • CUA (Common User Access): Dies bedeutet einheitliche Tastaturen und GUI (Graphical User Interfaces), die an Apple orientiert sind.

Informelles: Die Aufnahme von Non-IBM-Languages wie C oder COBOL fiel IBM sicher schwer, musste aber sein, um die Kunden zu beruhigen. Das SAA-Konzept umfasst S/XXX-Mainframes, AS/400-Minis und PS/2-Mikrosysteme. Mit SAA will IBM zum Konkurrenten NEC aufschliessen, die ihr VMS-Betriebssystem auf allen Maschinen ohne grossen Interface-Wust laufen hat. FORTRAN wurde v.a. für Parallel-Rechner beibehalten. Bisher wurde SAA zu 50% realisiert, der Rest ist fraglich, v.a. auch im Hinblick darauf, dass IBM vielleicht seine marktbeherrschende Stellung verliert - wer übernimmt dann die Wartung all der SAA-Produkte? SAA bedeutet laut Joachim Niedereichholz: IBM repariert seine Vergangenheit.

3.10. RISC-Workstation-Server: RS/6000

Seit 1990 ist die RS/6000 von IBM im Vertrieb. Sie soll DEC, SUN, MIPS und HP-Workstations Paroli bieten. Domäne ist - typisch RISC - der technische Bereich, doch auch ökonomische Anwendungen sollen über die RS/6000 zu meistern sein. Als Prozessor-Architektur dient der POWER-Chip (ein 32-Bitter). Durch mehrere parallel arbeitende Subprozessoren (Branch-, Fix- und Floating-Point) können in einem Takt fünf Instruktionen abgearbeitet werden. RISC ist der Prozessor: Er kennt "nur" 187 verschiedene Instruktionen (Mainframe-CISC bis zu 500!). Die POWER-CPU kann virtuell 2^52 Bytes adressieren, doch der reale Adressraum ist nur 4 Gigabyte gross und in 4 kB-Seiten unterteilt. Als Betriebssystem findet AIX Verwendung! Die POWER-Technologie selbst ist allerdings proprietär.

Obwohl nur mit 30 MHz getaktet, bringt es die High-End-RS/6000 auf 13 MFLOPS (Millions of Floating Point Operations per Second), 72 kDhrystone und 41 MIPS (Million Instructions Per Second). Die schnellste RS/6000 kommt sogar auf 104 MIPS, während die AS/400 gerade einmal 26 MIPS zustande bringt). Die Prozessoren basieren auf der CMOS-Technik (Complementary Metal Oxide Semiconductor). Die untragbare AT-Bus-Lösung wurde durch die IBM-spezifische Micro Channel-Lösung ersetzt. Die RS/6000 verfügt über eine SCSI-Schnittstelle für die externe bzw. interne Kommunikation. Der Hauptspeicher verfügt über Error Correction Code, der 2-bit-Fehler findet und 1-bit-Fehler sogar korrigiert! Was das Verhältnis Preis zu Leistung angeht, schlägt die RS/6000 die AS/400 also um Längen.

In einem möglichen Zukunftsszenario lässt sich eine Verschmelzung von AS/400 und RS/6000 absehen. Bis 1995 könnte die AS/400 ihre 400-Chips durch POWER-Chips ersetzten, sowie neben OS/400 auch AIX als Betriebssystem integriert haben, während die RS/6000 unter AIX die AS/400-Software-Pakete laufen lässt. Bis zum Jahr 2000 liesse sich dann ein einheitliches Produkt denken, welches basierend auf der POWER-Technik die RS/6000- und AS/400-Architektur parallel verarbeiten kann.

Informelles: Die wenigen Befehle der RISC-Architektur lohnen sich, weil in ABC-Analysen festgestellt wurde, dass 80% der Befehle nur zu 20% genutzt wurden (C-Gruppe). Die C- und B-Befehle werden über die Software realisiert. Nur die A-Befehle werden mittels Hardware installiert bzw. mikrocodiert (nach Möglichkeit sollten sie zudem innerhalb eines Zyklus abgearbeitet sein). Eine Taktzeit von 10 ns liefert damit eine theoretische MIPS-Leistung von 100 MIPS. Praktisch erreicht werden aber nur ca. 50% davon, wegen technikbedingter Engpässe in der Hardware. SUN dominiert den Markt der RISC-Architektur derzeit mit 40% Anteil. IBM bringt es aber inzwischen auch auf immerhin 10%. Neben RISC-Workstations existieren im Übrigen auch weiterhin moderne Nicht-RISC-Workstations, wie z.B. die VAX von DEC.

4. Vorlesung IT II: Wirtschaftlichkeit - IT im Wandel

4.1. Bestrebungen zum Downsizing bzw. Rightsizing

Downsizing und Rightsizing haben das Hauptziel der Rückbesinnung auf das Kerngeschäft. Das strategische Management sieht die Informationstechniken als Erfolgsfaktoren an, bei denen die Besitzverhältnisse keine Rolle spielen, d.h., sie können prinzipiell auch an Outsourcer vermittelt werden. Downsizing geht oft mit den Megatrends Outsourcing (siehe Kapitel 4) und Networking einher. Die Marktposition der Mainframes bröckelt. IBM, Amdahl, HDS (Hitachi Data Systems) u.a. versuchen durch intensives Brokerage in das eigene Portfolio den Sturz der Mainframes aufzuhalten, doch selbst zusammen mit neuartigen Leasingangeboten und der Verschiebung des Geschäfts - weg von der Hardware mehr auf Service und Software zu - ist dies ein hoffnungsloses Unterfangen.

Von einem Mainframe spricht man, wenn es sich um einen CISC-Rechner mit dem Betriebssystem MVS, VSE oder VM handelt. Ist der Rechner in ein Netz eingebunden, muss er über VTAM (Virtual Telecommunications Access Method) verfügen. Beim Downsizing muss beachtet werden, dass die kleinere Maschine über die nötigen Leistungseinheiten verfügt, um die gestellten Anforderungen erfüllen zu können. Gemessen wird die Leistung z.B. mit den Leistungsmassen MIPS (kommerzielle Rechner), FLOPS (technische Rechner), MOPS (Million Operations Per Second, v.a. bei Vektorrechnern relevant), LIPS (Logical Instructions Per Seconds bei KI-Rechner), Whetstone, SPEC (RISC-Systeme), TPC (Transaction Processing Performance Council), Dhrystone und Wisconsin Benchmark (synthetische Datenbanksystem-Simulation). Typische Migrationsformen sind: Ausbauverzicht (oft), Reskalierung (Wechsel auf kleinere Systeme) und Abbau (Outsourcing; selten). Bei einer Reskalierung von Mainframes greift man meistens auf die Zielsysteme AS/400, Client/Server-UNIX-Systeme oder MAC- bzw. DEC-Netze zurück. Wichtig ist, dass heute überhaupt ein Wechsel möglich ist.

Folgende Migrationsformen haben sich in der Praxis gezeigt:

* MVS/ESA (S/370)   ==> AIX/ESA (RS/6000).
* COPICS            ==> totaler Abbau nötig, Suche eines anderen PPS.
* SQL-Applications  ==> einfach migrierbar.
* CICS              ==> Tuxedo oder ENCINA.
* VTAM              ==> TCP/IP.
* IMS               ==> DB2 ==> DB2/6000 oder ORACLE oder INGRES.
* TSO               ==> in UNIX-System bereits funktionell integriert.
* SAP-Systeme       ==> verlangen wiederum SAP-Systeme.

Es hat sich gezeigt, dass nur 20% der MVS-Applikationen migrierbar sind. Für den deutlich grossen Rest ist ein aufwendiges Reengineering angesagt. Auf UNIX-Systemen gibt es bereits hervorragende PPS (Produktionsplanungssystem und Steuerungssystem wie z.B. R/4 von SAP), sodass auf COPICS (Communications Oriented Production Information and Control System) notfalls verzichtet werden kann. High-End-RISC-Systeme sind demnach gefährlich für Mainframes, v.a. dann, wenn Multimedia erwünscht wird, wenn Kunden verärgert sind oder wenn sie ohnehin vor einer Migration stehen. Dennoch dominiert Migration eher im technischen Bereich als in ökonomischen Bereichen, vermutlich, weil bei Ersteren die Datenbestände eher partitioniert werden können. Zu den Problemen beim Downsizing kommen wir in einem späteren Kapitel.

4.2. Client-/Server-Architektur

Die Client/Server-Architektur sieht vor, möglichst viel Service-Leistungen aus dem Betriebssystem zu entfernen und in Form von Server-Prozessen anzubieten. Anwenderprogramme (Clients) können sich diese Funktionen dann über IPC nutzbar machen, während das Betriebssystem auf seinen monolithischen Kern beschränkt bleibt. Der Vorteil ist, dass Programme je nach Umgebung andere Server aufrufen können und dass die Zahl der Server leicht erweiterbar ist; eine Funktionsintegration in ein Betriebssystem dagegen stellt einen sehr grossen Arbeitsaufwand dar. Dadurch können Client/Server-Programme auf relativ einfache Weise auf heterogenen Plattformen mehrerer Hersteller betrieben werden, was wichtig sein kann in Bezug auf das SAA-Vorhaben von IBM. Besonders im Zusammenhang mit Downsizing wird dem Client/Server-Markt eine grosse Zukunft vorausgesagt. Anstatt die Mainframes komplett aufzugeben, können sie als mächtige Server-Rechner, die an ein LAN angebunden sind, weiterhin parallel zu den PCs und Workstations genutzt werden.

Verbunden mit dem Client/Server-Konzept ist auch die Schichtendenkweise: Bestimmte Schichten sind in sich abgeschlossen und kommunizieren über stabile Schnittstellen miteinander, d.h., interne Schichtänderungen sind jederzeit möglich, ohne dass sich dies auf andere Schichten auswirkt. Eine Schicht enthält dabei die Logikbausteine für die Repräsentation der Daten, eine andere die Verwaltungsinformationen, wiederum eine andere steuert die Applikationen usw. Dieses erst seit den 80ern praktizierte Schichtendenken unterstützt auch noch weitere moderne Trends: das objektorientierte Vorgehen und die Wiederverwendung. Das Client/Server-Vorgehen verschärft dabei noch den Schichtcharakter, da hier - anders als bei monolithischen Betriebssystemen - ganze Schichten als Server-Prozesse implementiert werden. Zu beachten bei z.B. mehreren Datenbank-Servern sind jedoch Redundanz- und Zugriffsprobleme.

4.3. Traditionelle Organisation der Datenverarbeitung

Die traditionelle Organisation der Datenverarbeitung (vor ca. 15 Jahren) sieht vor, dass es ein zentrales Rechenzentrum gibt, in dem die Fachkräfte sitzen, die die Administration der Datenverarbeitung übernehmen. Geleitet wurde das Rechenzentrum oft nur von einer Person. Das Ganze funktionierte noch auf Auftragsbasis: Die Abteilungen sagten, was sie wollen, und die Programmierer entwerfen die entsprechenden Programme. Ein zentraler Mainframe, auf dem i.d.R. ein (hierarchisches) Datenbanksystem betrieben wird, steuert die Terminals, die in alle Bereiche des Unternehmens führen.

Obiges Bild gibt wieder, wie Datenverarbeitung einst betrieben wurde. Doch inzwischen wurde Information als strategischer Gewinnfaktor identifiziert, da sie erhebliches Flexibilisierungspotenzial besitzt und damit Wettbewerbsvorteile einbringen. Das Top-Management dezentralisiert daher allmählich die Datenverarbeitung (welche inzwischen passenderweise Informationsverarbeitung genannt wird). Das Top-Management kann in jede Abteilung Fachkräfte der Informationsverarbeitung positionieren oder weiterhin eine zentrale Abteilung für die Informationsverarbeitung aufrechterhalten, aus der dann die Leute für die Programmierarbeiten vor Ort rekrutiert werden können. Dem Informationsmanagement obliegt es dabei v.a., eine Informationsinfrastruktur aufzubauen, die für eine unternehmensweite Konsistenz der Daten sorgt (dazu ist u.a. ein Unternehmensdatenmodell nötig).

Nicht immer setzte der Vorstand zur Koordination zentrale Rechenzentren ein. Mit unter entstanden - v.a. bei divisionalen Strukturen - die Systeme ganz von alleine direkt bei den Ausführenden. Bis die jeweiligen Vorgesetzten von den Vorteilen überzeugt waren und sie ebenfalls bei sich einsetzten. So kam es bisweilen zu sehr heterogenen Rechnerwelten innerhalb der Divisionen, aber v.a. auch zwischen den Divisionen. Wobei sich Divisionen auch nicht selten absichtlich an ihr System klammerten, weil sie darin Wettbewerbsvorteile gegenüber den anderen Divisionen sahen. Rechenzentren zu implementieren und gemeinsame Richtlinien von oben zu verordnen, ist generell ein hartes Stück Arbeit für das Informationsmanagement.

4.4. Outsourcing

Drei mögliche Outsourcing-Klassen sind:

  1. Professional Services: Die klassische Datenverarbeitung wird vom Outsourcer übernommen.
  2. Facility Management: Der Outsourcer übernimmt auch Verwaltung und Wartung der Datenverarbeitungsressourcen.
  3. Systemintegration: Alle operationellen Dienste liegen voll beim Outsourcer.

Motive für Outsourcing:

Quantifizierbare Motive:
  Kosten- (Personalkosten-, CPU-Auslastung+, Kapitalbindung-)
  Liquidität+ (weniger HW-Anlagevermögen gebunden)
  Datensicherheit+
  Terminpflicht der Outsourcer
  Raum+

Nicht-quantifizierbare Motive:
  Flexibilität+ (Outsourcer-Wechsel möglich, Outsourcer moderner)
  Servicegrad+ (Outsourcer für alle Fälle gerüstet)  
  Konzentration auf das Kerngeschäft
  Technisches/personelles Risiko- (Abwälzung auf Outsourcer)
  Fachkräftemangel kein Engpass mehr
  Know-how+ der Outsourcer
  Kein Ärger über Strategien der EDV-Hersteller
  Überdurchschnittliches Systemwachstum Outsourcer-Problem
  Standardisierung der EDV-Ergebnisse

Risiken:

Wirtschaftliche Risiken:
  Verschlechterung der Kostensituation möglich (Verträge-)
  Abhängigkeit grösser vom Outsourcer (nur DV, nicht Informationsverarbeitung outsourcen!)
  Leistung nimmt ab beim Outsourcer, Gefahr für Unternehmen

Personalpolitische Probleme:
  Fachkräfte fehlen, weil sie entlassen wurden
  Gegenwehr gegen Outsourcing

Organisatorische Probleme:
  Datenaustausch mit Outsourcer: Wie zu realisieren?
  Nur DV outsourcen oder ganze Informationsverarbeitung?

Einige kurze Statements zum Outsourcing: In den nächsten 10 Jahren wird Outsourcing sicherlich noch ein dominantes Thema sein, denn so lange wird der Kostendruck anhalten. Die Gesamtverantwortung für die Datenverarbeitung nur einem Outsourcer zu übergeben ist besser, denn sonst schiebt ein Outsourcer die Schuld auf einen anderen. Das Outsourcing ist auch bei Banken beliebt, obwohl dort der Liquiditätsvorteil eher bedeutungslos ist. Bekannte Outsourcer sind EDS und die debis AG(Mercedes Benz-Tochter). EDS versucht, bei Neuanwendungen generell UNIX-Systeme zu platzieren. Kundennahe EDV-Teile, wie z.B. Information-Service-Center, werden seltener extern implementiert, kundenunabhängige Standard-EDV-Teile, die üblicherweise von Rechenzentren erledigt werden, dagegen schon. Outsourcing betrifft eher die unteren Hierarchieebenen als die oberen.

4.5. Stilllegung der Rechenzentren

Ein konsequentes Downsizing kann zur Stilllegung des Rechenzentrums führen. Dass dies nicht unbedingt von Vorteil ist, sei hier kurz dargelegt. In das Rechenzentrum wurde viel Geld für Hardware und Software investiert, welches durch eine Stilllegung verloren ginge, obwohl dadurch doch zuvor erst eine funktionierende Infrastruktur gegeben war. Ein Wechsel von MVS auf UNIX ist mindestens genauso schwer, wie der Wechsel von einem Mainframe auf den nächsten. Neben den reinen Konvertierungskosten stehen auch noch Netzkosten, Akzeptanzförderungskosten (im Gegensatz zu Technikern können Wirtschaftler nur selten selbst programmieren; Stichwort: Kulturschock) und Mehrkosten für einen zeitweiligen Parallelbetrieb. Viele Downsizing-Kosten sind versteckt, z.B. die Kommunikationskosten, der Support, die Redundanzen, die Neuschulung und nicht zuletzt die Programmierung neuer Anwendungsprogramme (obwohl fertige Lösungen auf dem Mainframe bereits existieren).

Wenn man also schon migriert, dann sollte besser nur reskaliert werden, oder der Mainframe sollte zumindest beibehalten werden, um die Investitionen nicht unnötig in den Sand zu setzten. Wie wir in einem vorherigen Kapitel gesehen haben, bietet sich dazu das Client/Server-Konzept an, auch wenn in diesem Bereich noch viel geschult werden muss, um ein organisationsinternes Know-how aufzubauen. Ein Verzicht auf vollständiges Downsizing kann noch weitere gute Gründe für sich beanspruchen. Die Preisvorteile, die UNIX-Systeme derzeit bezüglich der Software gegenüber Mainframes besitzen, könnten in Zukunft verschwinden: Die Standardisierung und die dadurch bedingte zunehmende Komplexität der Programme zur Lösung von Problemen, all das wird auch weiterhin seinen Preis haben. Allerdings erlauben Standards auch die schnelle Migration von beispielsweise einem Datenbanksystem zu einem anderen, sofern die Daten nur in 3NF (Third Normal Form) vorliegen. Mainframes nutzen die Ressourcen im Allgemeinen deutlich besser aus, als vernetzte Systeme dieses je könnten. Pro MIPS unterstützt ein CISC-Rechner 15 Mal mehr User als eine RISC-RS/6000. Workstation-CPUs warten die meiste Zeit eigentlich nur auf Benutzer-Eingaben, daher ist der Durchsatz bei Mainframes viel grösser. Und während bei den Workstations der MIPS-Bedarf rasant wächst (alle vier Jahre ist ein Austausch fällig), nimmt er bei Mainframes eher leicht ab oder bleibt wenigstens konstant.

Es gilt: Modeerscheinungen, wie Downsizing, die bestehende Lösungen diffamieren (in diesem Fall Rechenzentren), bringen dem Käufer nur selten wirkliche Vorteile, sondern nur mehr Imagepunkte - "Seht her, mein Betrieb ist up to date!" Die einfache Rechnung, 10 Workstations mit je 100 MIPS ersetzen eine 1.000 MIPS-Mainframe, funktioniert nicht, weil ein Lastenausgleich noch nicht - wie bei verteilten Betriebssystemen vorgesehen - realisierbar ist (nur ein User kann die Workstation-CPU bisher nutzen, nicht jeder User im ganzen Netz). Und auch die Netzkoordination selbst verschlingt einen nicht unerheblichen Teil der Ressourcen.

Unternehmensberatungen wie Gartner und Xephon raten daher von einem völligen Downsizing ab. Sie empfehlen weiter, bei 200 Mitarbeitern einen luftgekühlten Mainframe, und bei über 500 Mitarbeitern einen wassergekühlten Mainframe, da deren Unterstützungspotenzial für das administrative und operative Geschäft noch lange nicht von Workstations abgedeckt werden kann.

Behält man das Rechenzentrum bei, gibt es zwei wesentliche Implementierungsphilosophien:

  1. "Alles aus einer Hand"-Strategie, d.h., man setzt nur auf IBM oder nur auf PCM-Hersteller.
  2. "Zwei Bein"-Strategie, d.h., die Hardware und Software kann sowohl von IBM als auch PCM-Herstellern sein.

4.6. Informationstechnik und Organisationsentwicklung

Informationstechniken haben ein grosses Potenzial an Anwendungsmöglichkeiten; sie sind sehr flexibel einsetzbar. Es gilt daher: Informationstechniken determinieren nicht länger die Strukturen der Organisation. So können LANs z.B. für eine erhöhte zentrale Kontrolle genutzt werden, aber auch genauso gut einer Dezentralisation und Entscheidungsdelegation förderlich sein. Es bleibt dem Management überlassen, die Potenziale der Informationstechnik im Sinne der Organisation zu gebrauchen. Zu beachten ist dabei jedoch stets die Akzeptanz der Mitarbeiter und auch die der Manager selbst. Fantasie ist gefragt. Leider muss gesagt werden, dass Informationstechniken - bisher zumindest - eher konservierende Wirkung besitzen, als wirklich neue Wege aufzuzeigen. Die dem Taylorismus anhängenden Manager sehen in den Informationstechnologien offenbar eher technokratische Instrumente, statt damit anthropozentrische Ideen wie autonome Teams u.ä. zu realisieren.

Informationstechniken haben strategisches Gewicht im Unternehmen und müssen dementsprechend in Form strategischer Informationssysteme beachtet werden. Wie in der Informatik üblich, werden Informationssysteme häufig in Schichten ausgelegt. Folgende Schichten sind dabei für die Planung von Informationssystemen relevant:

  1. strategische Unternehmensplanungsschicht: Diese Schicht sollte existieren für grundlegende Richtungsangabe (z.B. RISC statt CISC oder relationales Datenbanksystem statt hierarchisches Datenbanksystem?)
  2. herstellerunabhängige Planungsschicht: Hier werden die Ziele von (1) im Markt auf ihre Durchführbarkeit überprüft. Ein stimmiges Unternehmensdatenmodell ist dafür allerdings Voraussetzung.
  3. herstellerabhängige Realisationsschicht: Diese Schicht betrifft den Kauf konkreter Hardware und Software nach Angaben von (2). Die operative Ebene sollte dabei auch die strategische Ebene beeinflussen können (Rückkopplungseffekt).

In der Praxis zeigt sich, dass die Schichten (1) und (2) von Schicht (3) bei Weitem dominiert werden. Oft drückt sich dieser Umstand darin aus, dass nur ein System, z.B. von IBM, im Unternehmen vorherrscht, weil oft externe Berater nur von bestimmten Firmen in den eigenen Betrieb geholt werden. Falls diese Berater dann aufsteigen, bekommen ihre Entscheidungen allmählich strategisches Gewicht, was die Herstellerabhängigkeit weiter verschärft. Wird auf (2) und (3) verzichtet, können bestehende Lösungen (z.B. IMS, ein hierarchisches Datenbanksystem von IBM) bis zum Gehtnichtmehr geflickt werden, anstatt direkt auf bessere Lösungen zu setzten (z.B. DB2, ein relationales Datenbanksystem, ebenfalls von IBM). Folgerung: Das Budget für die Schichten (2) und (1) muss aufgestockt werden. Richtwert für viele Branchen ist z.B. 1.5% vom Umsatz (mehr als 2% oder aber weniger als 1% können destabilisierend wirken). Auch die Gehälter der Leiter im Informationsmanagement sollten sich an der Systemgrösse orientieren.

4.7. Informatik: Shooting-Star oder bald Poor-Dog?

Die Informatik war ein stetig wachsender Markt, doch die Leistungsbedürfnisse nach oben scheinen erst einmal abgedeckt zu sein. Mehr Leistung als nötig ist irrational. Aus diesem Grund verlangt die Industrie und v.a. auch die Techniker (denen 40% von MVS i.d.R. genügen würden) nicht mehr nach noch schnelleren Mainframes, sondern kann sogar ans Migrieren auf reskalierte Systeme denken. Dennoch ist die Informatik wohl kein Poor-Dog in naher Zukunft. Ihr Innovationspotenzial ist ungebrochen, auch wenn sie sich mehr auf dezentrale, verteilte Systeme konzentriert als auf zentrale Systeme. Der integrative, inderdisziplinäre Charakter der Informatik tritt immer mehr zutage. Kaum ein Bereich, der nicht auch mit den Mitteln der Informatik bearbeitet wird. Neuronale Netze sind stark im Kommen, ebenso Rechnernetze und verteilte Betriebssysteme. Es gibt viel zu tun, ein Ende ist nicht absehbar - nein, die Informatik ist kein traurig-jaulender Poor-Dog und wird so schnell auch keiner sein!

4.8. Die Position von Nicht-IBM-Anbietern.

Noch beherrschen Hewlett-Packard und SUN den RISC-Markt. Doch die RS/6000 rennt und rennt und rennt. Den vielleicht wichtigsten Posten stellt aber die IBM AS/400 dar. Die AS/400 ist ein Kannibale. Die Innovationsvielfalt, die rund um dieses System entwickelt wird, ist enorm. Line of Business ist ABS (Application Business Solutions), welche erst jüngst die AS/400 mit RAID-Systemen gekoppelt hat. Durch dieses innovative Speicherverfahren frisst die neue AS/400 die alten, dazu inkompatiblen AS/400-Systeme auf, wodurch eine IBM-externe Konkurrenz keine Chance hat, durch Innovationen die AS/400 selbst zu stoppen. Die Käufer der AS/400 rekrutieren sich nicht nur aus /36- und /38-Nutzern, die AS/400 spricht auch für sich selbst. Von der Leistung her dringt sie inzwischen bis in die Enterprise System-Welt vor. Sie ist skalierbar von 2 bis 5.000 Usern! Das kannibalisiert den Mainframe-Markt. Doch die wichtigste Neuerung ist (und davor zittern die Nicht-IBM-Anbieter am meisten): AS/400 goes UNIX. Es wird bereits an einem UNIX-tauglichen OS/400 gearbeitet, d.h., die AS/400 gibt ihre Proprietät auf, denn sie hält sich an den POSIX-UNIX-Standard. Auch soll vom 48-bit-Prozessor auf die POWER-Technologie der RS/6000 zurückgegriffen werden, so wie der POWER-RISC mit 64 bit auf den Markt kommt (derzeit noch 32 bit) - dann schmelzen RS/6000 und AS/400 vielleicht bald zu einem System zusammen. Ein zusätzlichen Drive erhalten die UNIX-Bestrebungen der AS/400 durch inzwischen verfügbare Migrationstools (auch von IBM selbst) und der Einarbeitung von Server-Eigenschaften in die AS/400-Architektur. Die AS/400 ist also de facto hart dabei, auch den UNIX-Markt zu kannibalisieren. Allenfalls der hochgetaktete (derzeit 200 MHz, aber 1.000 MHz sind wohl möglich) Alpha-Chip von DEC kann hier IBM noch Paroli bieten.

Für alle Mainframe-Hersteller sind die guten Zeiten vorbei, egal, ob sie zu IBM kompatibel oder nicht-kompatibel. Gründe dafür, dass die potenziellen User abnehmen, sind:

  • der strategische Wert der Mainframes als Rückgrat des Unternehmens wird bezweifelt.
  • intelligente Workstations dringen in Mainframe-Leistungsklassen vor.
  • Leaning und Dezentralisierung herrschen vor.
  • Rezession verhindert Grossinvestitionen.
  • Anwenderprofil-Änderung: Die Anwender verlangen nach GUIs u.ä.
  • Outsourcing: Ein Mainframe genügt für mehrere Unternehmen.

Derzeit steigt aber der Umsatz der PCM-Hersteller gegenüber IBM und gegen die Downsizing-Tendenz noch mächtig an. V.a. bei Amdahl, die über ein hervorragendes Know-how und ein exzellentes Vertriebssystem verfügen.

Im RISC-Markt sind die Marktanteile aktuell folgendermassen verteilt: SUN=25%, HP=30%, IBM=12%, Mips=20% und CLIPPER=6%. Übrigens: IBM hat den RISC-Prozessor erfunden (!), allerdings hat Big Blue offenbar zu lange auf Mainframes gesetzt.

5. News zu den Informationstechnologien 1993

Derzeit herrscht ein weltweiter Mangel an DRAM-Chips (Dynamic Random Access Memory), v.a. 4- und 16-MByte-Bausteine. Grund: Die IT-Industrie hat sich verrechnet; der Hardware-Verkauf war nicht wie erwartet rückgängig, daher wurde letztlich zu wenig in neue Chip-Fabriken investiert. Folge: Der Wechsel auf die neue Computergeneration wird zwangsläufig hinausgezögert.

Microsoft entwickelt ein neues Betriebssystem: Chicago (Windows 95). Microsoft streckt dabei aber auch die Waffen gegen das Kompressionsverfahren Stac und gibt das eigene DoubleSpace von DOS 6.0, 6.2. und Windows-NT auf. Der Upsizing-Trend von Microsoft stösst beim Anwender auf Widerstand, daher wildern die im Low-End-Bereich tätigen Firmen Oracle, Informix und Sybase erfolgreich im alten Microsoft-Revier.

Siemens hatte 1993 die höchsten Forschungskosten und Entwicklungskosten im IT-Bereich, ca. 15 Milliarden DM. Danach folgen die Firmen IBM, Hitachi, AT & T und Matsushita.

Derzeit ist das Client/Server-Konzept (C/S) ein Megatrend: 3 von 4 deutschen Unternehmen wollen das C/S-Konzept bei sich verwirklichen, hauptsächlich um die Time-to-Market zu reduzieren und flexibler zu sein als über Mainframes. Angestrebt wird eine Integration von Mainframes und PCs. Aber hier wird häufig übersehen: C/S erfordert gewaltige Anfangsinvestitionen, die Verwaltung (Remote Data Management) und die Integration heterogen gewachsener PC-Welten ist ebenfalls teuer. Aber v.a.: Nur 5% des Datenverarbeitungspersonals sind vertraut mit C/S-Computing! Daher sind die zu erwartenden Personalschulungskosten höher als die Technikkosten.

Der C/S-Trend kann mit dem CIM-Fieber ((Computer Integrated Manufacturing) der 80er verglichen werden, welches den Firmen - CIM-Salabim - vollautomatisierte Fabriken u.ä. versprach, die flexibel und kostensparend sein sollten. Aber auch hier waren zunächst hohe Kosten für ein integrales Konzept aufgetreten, die nicht von jeder Firma getragen werden wollten bzw. konnten. Folge: Das CIM fruchtete letztlich nicht, wie es auch das C/S-Konzept nicht tun wird, wenn nicht genügend in das Know-how des Personals investiert wird.

Die Überlebensfähigkeit von Organisationen hängt z.Z. wesentlich davon ab, dass sie sich laufend verändern können. Diese ständige Veränderung muss von den Informationstechniken unterstützt werden, die z.B. Teams, Partizipation und Benutzerservice-Zentren oder dezentrale Benutzerservices fördern sollten statt einer zentralen Datenverarbeitung. Hieraus erwachsen auch solche Ideen wie die der laufenden Unternehmensprozessverbesserung, wie sie etwa das Business Process Reengineering-Konzept vorschlägt.

R/3 von SAP ist ein integrales Konzept für die Optimierung von Geschäftsabläufen. Module erkennen z.B. automatisch, wann ein Lager seinen Mindestbestand erreicht hat, und sorgen dafür, dass Bestellempfehlungen, die die Zukunftsprognosen berücksichtigen, ausgegeben werden. Bisher ist R/3 über 1.000 Mal installiert worden - und dass weltweit für alle Branchen (R/3 ist offenbar an jede Organisationsstruktur anpassbar).

Der Standard-Software-Markt, der im Wesentlichen beherrscht wird von SAP, Oracle, Microsoft und Novell, wächst nicht mehr ganz so stark wie Anfang der 90er. Der Hardware-Markt wird von Professional Services und Systemintegratoren dominiert, wichtiger ist aber noch das Facility Management, also der Systembetrieb, der von IBM, Debis, EDS (Konzernmutter ist Opel), Microsoft, SAP, DEC und HP abgedeckt wird.

Function Point-Analysen können helfen, die Kosten der Weiterentwicklung bestehender Systeme im Vergleich zu Neuentwicklungen abzuschätzen.

Ein aktuelles 4GL-Produkt (Forth Generation Language) ist Powerhouse. Wie die meisten 4GL ist es an ein Datenbanksystem gekoppelt und NICHT standardisiert!

EDV ist ein zweischneidiges Schwert, denn: Die EDV hat häufig erst das Problem geschaffen, ihre Produkte benutzen zu müssen! Als es noch keine Rechner gab, gab es keine Programmierprobleme. Als es kleine Rechner gab, gab es nur kleine Programmierprobleme. Aber heute haben wir vernetze Rechner, die sehr komplexe Probleme aufwerfen.

Client/Server-Computing-Varianten:

S        DB        DB       DB       DB         DB          C
e        AP        AP       AP                              l
r        Praes.                                             i
v                                               DB          e
e                           AP       AP         AP          n
r        Praes.    Praes.   Praes.   Praes.     Praes.      t

C/S-Werkzeuge sind GUI-Painter, 4GL, Prototyping-Tools, Multiuser-Repositories.

Der Konkurrenzdruck bei z.B. Windows und Word 6.0 sorgt zwar für eine schnellere Software-Produktion, jedoch auch für eine fehlerhaftere, bei der mit Speicher nicht gegeizt wird, bei der sich die Performance auf schnellere Rechner verlässt, und bei der Anwender aus Abgrenzungsgründen mit Funktionsüberladung gepeinigt werden. Die Konkurrenz macht die Software zwar billiger, aber die nötige Hardware schluckt diesen Preisvorteil bei Weitem. Zudem sind die nötigen, laufenden Updates oft nur über Compuserve (Internet) zu beziehen.

Das Mainframe-Betriebssystem MVS/ESA von IBM wird Open Software. IBM hat dieses Betriebssystem nämlich mit einer POSIX-Schnittstelle versehen, die die Portierung von UnixWare ermöglicht. TCP/IP und NFS als Netzwerk-Protokolle sind in Arbeit, ebenso ein Compiler für C++! Das DCE (Distributed Computing Environment) ermöglicht eine verteilte Client/Server-Kommunikation, wobei durch die Benutzung des RACF-Systems (Resource Access Control Facility) die Sicherheit gewährleistet bleibt (C2-Norm der US-Regierung). IBM will schneller offen werden, als die UNIX-Anbieter mit ihren RISC-Systemen die Robustheit der Mainframes erreichen können!

Die objektorientierte, nicht-proprietäre Betriebssystem-Software Open Step läuft auf den Alphas von DEC, auf den SPARCstations von SUN und auf den PA-RISCs von HP. Eine beliebige Portierbarkeit von Software zwischen diesen Systemen wird dadurch möglich.

WABI: Eine Software von SUN, um Windows-Applikationen auf SPARCstations laufen zu lassen.

dBASE for Windows von Borland benötigte 3 Jahre Entwicklungszeit. Es waren 60 Programmierer daran beteiligt. Kosten: 20 Millionen Dollar!

Raubkopie-Schutz: Datenträger, Verpackung und Bildschirmmasken mit (versteckten) Warenzeichen versehen.

Juristen sind sehr wichtig beim Outsourcing. Outsourcing ist als radikale Diätkur sinnvoll, aber die Partitionierung ist zu beachten. Die Gefahr der Fremdbestimmung besteht auch für einen Outsourcer, weil dieser die Angestellte laut der Gesetze für eine Betriebsabspaltung mitübernehmen muss. Im Gegensatz zum angloamerikanischen Raum können deutsche Arbeitnehmer Widerspruch einlegen gegen Outsourcing. Üblich sind beim Outsourcing 5-Jahres-Verträge. Oft bleibt der Outsourcer in den Räumen ansässig, den die EDV zuvor beanspruchte. Leistungskontrollen, z.B. Antwortzeiten, sind in Verträgen festzuhalten. Ein bekannter Outsourcer ist z.B. Origin.

Multi-Protokoll-Router entwirren die heterogene Protokollwelt, für Highspeed-Backbones wie FDDI oder ATM mit 150 Mbps bzw. Fast-Ethernet mit 100 Mbps.

Die meisten Informatiker finden eine Tätigkeit im Bereich Forschung und Entwicklung. Der Rest verteilt sich auf Vertrieb, Beratung, Leitung und Support.

Oracle ist mit seinen Datenbanksystemen schneller und billiger pro Transaktion (170 tps mit 5.000 Dollar pro tps), als Informix. Und Informix wiederum ist schneller und billiger als Sybase (110 tps mit 8.000 Dollar pro tps).

Downsizing: 70% der Firmen wollen downsizen. 40% davon von Hosts auf UNIX, 17% auf OS/2 und 10% auf Windows-NT.

Die Revolutionsmärkte der Zukunft:

  1. Informationstechnologie: Chips, Computer, Unterhaltungselektronik, medizinische Geräte, Auto-Elektrik, usw. Sie stellt den grösster Industriezweig mit über 1.000 Milliarden DM Umsatz dar, auch ohne Telekom-Firmen!
  2. Genetik: Grösster Wachstumsmarkt überhaupt. Von aktuell 6 Milliarden DM Umsatz bis zum Jahr 2000 mit voraussichtlich über 100 Milliarden DM Umsatz.
  3. Neue Werkstoffe: z.B. Keramikmotoren der Japaner.
  4. Alternative Energiequellen: Fusionsenergie und Solarenergie.
  5. Luft- und Raumfahrtforschung.

Deutsche Stärken: viel Mittelstand für Nischen, viele Facharbeiter, gute Mechaniker und viele Forschungsaktivisten.

Japans Management-Strategien wie Lean Production, Lean Management, JIT und TQM gelten als strategische Erfolgsformeln der 90er Jahre. Zu beachten: Wenn Organisationsstrukturen kopiert werden, dann muss auch die japanische Unternehmenskultur kopiert werden, die v.a. auf Partizipation auf allen Ebenen setzt. Bisheriges Vorschlagswesen-Verhältnis zwischen Deutschland und Japan: pro 100 Mitarbeiter 15:3.000 Vorschläge, von denen 40%:85% auch realisiert wurden. Japaner verzichten weitgehend auf eine strikte Kompetenztrennung bei den Mitarbeitern, weil sie eine breite Meinungsbildung und Entscheidungsfindung befürworten.

Fehler in der Führung sind gravierender als Fehler im Informationssystem sind gravierender als Fehler in der Organisationsstruktur. Dennoch wird bei Problemen i.d.R. mit Organisationsstruktur-Umgestaltungen begonnen. Wichtiger: Qualifikation der Mitarbeiter, damit diese neue Informationstechnologien als Dienst in Anspruch nehmen können und nicht als Herrschaftsinstrument verstehen müssen. Ziel: Eine informationsorientierte Führung, die auf Stäbe verzichtet und statt kleiner Kontrollspannen grosse Kommunikationsspannen einrichten kann!

Bekannte deutsch-japanische Mainframe-Allianz: Siemens Nixdorf und Fujitsu. Diese beiden Firmen beliefern sich rund um ihr Betriebssystem BS2000 gegenseitig. BS2000 soll, wie MVS/EA von IBM, offener werden.

Eine Host-PC-Migration wird meist aufgrund organisatorischer Probleme begangen, während sich Midrange-PC-Migrationen auf die hohen Betriebskosten der Minis zurückführen lassen.

Software ist weich bis plastisch, dadurch ist sie langlebiger als Hardware (ca. drei Generationen). Setzt ein Unternehmen nicht auf Outsourcing, so muss es daher unbedingt auf Portabilität achten, und die Produkte dazu sollte von langlebigen Produzenten stammen.

AMD war ursprünglich ein Cloner von Intel-Chips aus den USA gewesen, wollen nun aber auch eigene RISC-Chips herstellen.

Gene Amdahl, ehemaliger IBM-Ingenieur, glaubt noch immer an den Mainframe, der zum Datei-Server werden soll - und durch VLSI-Technik (Very Large Scale Integration) nicht mehr viel Platz benötigen wird.

John Akers war derjenige CEO von IBM, der die UNIX- und Rechnernetze-Entwicklung verschlief und die Baby Blues-Divisionalisierung durchführte. Wurde 1992 vom Verwaltungsrat abgesetzt.

BS3000 von Siemens und Hitachi war der Versuch eine Plagiats von MVS. Es enthielt aber auch ca. 5% eigene, verbesserte Routinen. Es wurde verboten.

Bull ist ein französisches IT-Unternehmen, bei dem der Staat Grossaktionär ist, welcher aber seine Anteile bis 1995 über die Börse abstossen will. Es machte 1993 noch Verluste.

Connectivity-Anbieter sind Firmen, die Hardware- und Software-Produkte verkaufen, die helfen sollen, heterogene, selbstständige Systeme (wie PCs) in bestehende proprietäre Systeme (wie SNA) zu integrieren, z.B. Attachmate Corporation in Seattle.

Andrew Grove ist der CEO von Intel.

Steve Jobs, Apple-Erfinder und Boss der Firma NeXT. NeXT stellt Rechner mit 68040-Prozessoren her, die über eine optimierte Multimedia-Architektur verfügen.

Philipp Kahn ist der Borland-Chef. Borland ist aus seiner Reorganisationsphase heraus!

Sandra Kurtzig, gründet als Verkäuferin in einer Wohnung 1972 die Firma ASK. 10 Jahre später ging das Unternehmen an die Börse. 1989 erfolgte ihr Austritt, nach Krise kehrte sie aber wieder zurück zu ASK. Sie führte eine erfolgreiche Sanierung durch. 1994: Kurtzig gehört zu den 10 grössten Software-Verdienern.

Maintenance-Anbieter sind EDV-Wartungsunternehmen. Grösstes Marktvolumen in Deutschland (rückläufig), dann Grossbritannien und dann Frankreich. Ist v.a. in Osteuropa eine Wachstumsbranche.

Scott McNealy ist als Chef von SUN nicht eben befreundet mit Steve Jobs, macht aber dennoch auch Geschäfte mit NeXT.

MIPS Computer Systems Inc. ist ein Prozessor-Hersteller, der im Gegensatz zu Intels nur RISC-Prozessoren anbietet (genauer: MIPS, also Microprocessor without interlocked pipeline stages, mit 64 bit-Bus). Ist u.a. Partner von Siemens Nixdorf.

Novell ist ein US-amerikanisches Hardware-/Software-Haus. Novell ist der Anbieter von NetWare, einem sehr erfolgreichen Netzwerkbetriebssystem, welches PCs miteinander verbinden kann. Kaufte 1991 Digital Research mit deren Software-Produkten GEM, CP/M, DR-DOS auf. Novell will seine UnixWare auf AS/400 portieren.

Otherware: Dinge um Hardware und Software herum, wie die Systemziele, Administratoren, Operateure, Organisation und Arbeitsressourcen. Otherware beansprucht z.B. im Lebenszyklus eines Informationssystems gut zwei Drittel der Kosten.

PIMS (Personal Information Management System): Büro-Datenbanksystem mit Notizbuch, Kalender und Verwaltung persönlicher Daten. Mithilfe eines PIMS sind vom Arbeitsplatz aus alle nötigen Daten erreichbar. Häufig sind diese Systeme auch mit Hypertext-Funktionen ausgestattet.

POS-System (Point-Of-Sale): Kassensystem, das EAN-Barcode liest, Preis bestimmt, Bon ausdruckt, Erlöse und Lagerbestandsabnahme verbucht, Nachbestellungen vornimmt, Managementinformationen verwaltet und ausserbetriebliche Statistiken erstellt.

Lewis Platt ist Präsident und Chief Executive Officer von HP.

Robotik-Verbreitung:

  • Japan: 350.000 (v.a. Autoindustrie)
  • GUS 65.000
  • USA 47.000
  • BRD 40.000
  • Frankreich
  • Grossbritannien.

Es wird in der Robotik eine Zuwachsrate von über 40% erwartet in den nächsten Jahren.

John Rollwagen ist CRAY-Chef. Clinton-Berater.

SAP: ein deutsches Software-Haus in Walldorf bei Heidelberg. Eines der erfolgreichsten deutschen IT-Unternehmen. Führte Module-Software für ein globales Informationsmanagement ein. Bietet das gängigste Outsourcing-Verfahren in mehreren Schritten an.

John Sculley war Chief Executive Officer von Pepsi, dann von Apple (woraufhin Steve Jobs nach einem Jahr gehen musste) und war sogar als IBM-Chef im Gespräch. Geht vermutlich aber in die Politik (kennt u.a. Clinton). 1993: CEO von Kodak.

TCI (Telecommunications Inc.): der grösste Kabelfernsehbetreiber der USA.

Tandem ist ein US-Hersteller von fehlertoleranten Parallelrechnern.

Topper-Data-Service: Spezialist für EDV-Outsourcing, engagiert sich v.a. in den neuen Bundesländern.

Outsourcing ist noch lange betreibbar - die Marktforschungsunternehmen rechen in diesem Markt auf längere Sicht mit einem jährlichen Wachstum von 11%.

Lewis Platt ist der Boss von Hewlett-Packard P. HP ist in Divisionen unterteilt, z.B. besitzt die Division Service-Bereich die Teildivisionen Outsourcing, Reengineering und Systemintegration. Alleine die Systemintegration, die hauptsächlich Client/Server-Beratung betreibt, beschäftigt 4.100 Mitarbeiter und macht 900 Millionen Umsatz.

Informationsbroker: ein neu entstehender Beruf, der sich zunehmend zu organisieren beginnt. Der Informationsbroker besorgt sich z.B. für ca. 1.500 DM Informationen für Firmen, indem er auf 5.000 Datenbanken online und auf CD-ROMs u.ä. offline zugreift.

IT-Marktführer 1993:

  • Service: EDS
  • Datenbanken: Oracle
  • System-Software: Microsoft
  • Kommunikation: CISCO
  • PCs: Compaq
  • Drucker: HP
  • Festplatten: Seagate
  • Halbleiter: Intel

Gibt es bald wieder den Trend zur Disintegration (Re-Diversifizierung)? Datenverarbeitungsunternehmen kümmern sich mehr um Kerngeschäft wegen besserer Kundenorientierung, denn Produktion und Service verlangen zu unterschiedliche Strategien - die Motivation ist also ähnlich wie beim Outsourcing. IBM ist zu gross, um die jeweiligen Geschäftsbereiche aufzugeben, daher divisionalisierte sie die Geschäftsbereiche in die sogenannten "Baby Blues".

Die Highspeed-Datenübertragung mit 150 Mbps ist wegen der monopolistischen Telekom in Deutschland siebenmal (!) teurer als in den US. Dies bedeutet einen Wettbewerbsnachteil für den Standort Deutschland. Die derzeitige Telekom-Strategie ist darüber hinaus nicht progressiv, d.h. doppelte Datenraten bedeuten auch doppelte Kosten!

IBM, Apple und HP haben seit 1992 ein neues objektorientiertes Koalitionsbetriebssystem in der Mache: Taligent!

Deterministische PPS-Expertensysteme sind out, fuzzige dagegen in, denn die Fuzzy Frames erlauben umgangssprachliche Objektbeschreibungen, sie benötigen weniger Regeln (da mehr Regeln feuern können, aber mit verschiedener Intensität) und sind flexibler, weil sie mit unscharfen Mengen hantieren können.

Die User lechzen nach Groupware, doch der Markt dafür schläft. Windows for Workgroups ist ein besseres E-Mail-System für Mininetze. Und Lotus Notes ist zwar durchaus brauchbar, jedoch nicht für den Low-End-Markt gedacht.

IBM hat seine gesamten, weltweiten Werbeaufträge (ein 800-Millionen-Deal) an nur eine Marketingfirma übertragen. Andere Unternehmen wie AT & T zogen daraufhin ihre Werbeaufträge bei dieser Firma zurück.

Das Mobilfunknetz D1 (Siemens Nixdorf?) bringt es auf 2.400 bps. D2 (Mannesmann) immerhin auf 9.600 bps. D1 mangelt es noch an Flächendeckung, in D2 kann zwar global gesendet, aber nur lokal empfangen werden. Europa ist in diesem Markt vor den USA, die wiederum vor Japan sind.

Krankenhausroboter: 6 DM/h verlangt der Besitzer für diese elektronischen Diener, die Krankenpapiere transportieren, zentral gesteuert werden und sogar Fahrstühle bedienen können.

Derzeitiger IBM-Chef: Louis Gerstner.

Siemens Nixdorf (SNI): 1/3 des Geschäfts wird mit neuen Mainframes und dem Betriebssystem BS2000/OSD realisiert. Platzierung als Server. Problem: Die Nachfrage nach Mainframes ist gleich hoch geblieben (also nicht gestiegen), die Mainframes mussten aber billiger werden.

Quantenrechner: ein AT & T-Projekt. Geht die Lösung eines Problems gleichzeitig auf 1.000 verschiedene Arten an. Bei Dechiffrierungsaufgaben u.ä. sollen sie einmal viel schneller als heutige Superrechner sein.

Uniface eine 4GL in Client/Server-Umgebung mit Rapid Application Builder- und Repository-Server. Arbeitet nach dem "Deklarieren statt Programmieren"-Motto.

C++ goes IBM mit CSet++ für AIX und OS/2.

Parallelserver sind ein neuer Schatten am Horizont für Mainframes, die ihr letztes Heil derzeit im Server-Dasein erblicken. Sogar IBM reagierte sofort darauf durch eigene Parallelserver-Projekte.

Das Netzwerkprotokoll FDDI arbeitet asynchron, kann daher nicht mit bewegten Bildern umgehen. Fast Ethernet eignet sich nur für kleine Netze. Cell-Switching-Netze (nicht Frame-Switching-Netze) jedoch sind gross im kommen. ATM erlaubt feste Bitraten bis 150 Mbps und alleine durch die Adressierung den Aufbau von logischen Netzen - dadurch ist ein Umzug ohne Adressänderung möglich (im Gegensatz zu FDDI). Zudem ist bei ATM der Übergang LAN-MAN-WAN fliessend gehalten.

BPR (Business Process Reengineering) (von Andersen Consulting, Ernst & Young u.a.) ist hochaktuell. Der Druck auf die CEOs wächst. Bei IBM und Kodak wurden die Chefs bereits durch die Aktionäre gefeuert, um einen Führerwechsel zu erzwingen! Falls BPR NEUE Geschäftsbereiche hervorbringt, spricht man auch von Business Process Engineering. BPR ist prozessorientiert und kundenorientiert, und damit ein Management der Wertschöpfungskette. Die erhofften Quantensprünge sind nur über Prozessteams mit strikten Zeitplänen, Meilensteinen usw. möglich. Verlangt einen psycho-strategischen Top-down-Ansatz, d.h., ein Wandel ist zuerst in den Köpfen der Manager vonnöten.

Ratioplan ist eine Komplettlösung für die AS/400, die in Bezug auf PPS, Controlling, Qualität usw. den wichtigsten Rohstoff liefert: Informationen!

In den nächsten 5 Jahren wird IBM zwar voraussichtlich genauso viele, aber dafür auch billigere Mainframes verkaufen. 65% der Firmen setzten weiterhin auf Mainframes. Die Mainframes werden als High-End-Server verkauft. IBM setzt in Zukunft auf die billige CMOS-Technik, behält die CICS-Architektur aber bei. Im Ausgleich dazu wird intensiv an einer verstärkten Parallelisierung gearbeitet. Die Mainframes werden offener. Über eine POSIX-Schnittstelle ist MVS inzwischen sogar UNIX-verträglich geworden. Zahlreiche Migrationshilfen auf UNIX sind aktuell in Arbeit.

DEC hat zu kämpfen. Gründer Ken Olsen musste gehen und Robert Palmer wird sich wohl auch nicht mehr lange halten.

Endbenutzer bilden den SOHO-Markt (Small Office/Home Office). Sie können z.B. über Franchising (Markenhändlerei) in Angriff genommen werden.

ISO9000: In Deutschland sind 3.000, in GB sogar 30.000 Zertifikate vergeben worden. Aber auch in Deutschland wird verstärkt auf ISO9000 gesetzt, besonders im Zusammenhang mit dem BPR (Business Process Reengineering). Das Zertifikat gilt nur für jeweils 3 Jahre.

Workstation-Cluster (Workstation-Farmen): RISC-Prozessoren im Verbund. Zu unterscheiden sind Batch-Betrieb (ein Rechner rechnet) und Parallelbetrieb (die Aufgabe wird von allen gelöst). Derzeitige Obergrenze: 20 RISC-Prozessoren.

Telekom-Boss ist Helmut Ricke. Das Neueste: Datex-M(ultimegabit) mit n x 64 kbps, max. 43 Mbps, connectionless, DQDB-Technik, zur LAN-LAN-Verbindung gedacht. Datex-J(edermann) brachte BTX ganz schön in Schwung. Derzeitige Abschlusszahl: 600.000. Ab 1995 sollen 9.600 bps möglich sein.

Die (EDV-)Qualifizierung der Mitarbeiter wird immer intensiver betrieben.

VOD (Video-on-Demand): Interaktives Fernsehen. Die US-Amerikaner lassen 5 Milliarden Dollar beim Kino, 30 Milliarden beim Fernsehen und 50 Milliarden bei Online-Diensten. VOD steht also ein potenzieller Markt in der Grössenordnung von 100 Milliarden zur Verfügung, der noch dazu drastisch wächst!

EDI (Electronic Data Interchange) ist branchenübergreifend oder branchenspezifisch, aber nicht international. EDIFACT ((Electronic Data Interchange/Electronic Data Interchange For Administration) ist dagegen nur branchenübergreifend und international.

Bisheriges Controlling-Problem: Das Controlling ist zu sehr ergebnisorientiert, d.h., es werden zu spät Soll-Ist-Unterschiede festgestellt. Neue Controlling-Software ist daher ganz im Sinne des Business Process Reengineering prozessorientierter.

Das "fünfte Generation"-Programm der Japaner wurde 1992 nach 10 Jahren beendet. Es war kein Flop, wie manche denken, denn die Japaner sind dadurch die Führenden in der KI geworden. Ihr jetziges "Real World Computing"-Programm bringt ihnen vielleicht schon bald die dringend benötigten Altersversorgungsroboter (Japan altert schneller als alle anderen Länder!).

Neben dem Downsizing-Trend gibt es inzwischen auch einen verstärkten Upsizing-Trend. Im Zuge dessen werden die bisherigen Stand-alone-Applikationen immer mehr zu Groupware-Server-Applikationen ausgebaut werden.