Informations-Technik

Geschwurbel von Daniel Schwamm (03.08.1994)

Inhalt

1. Hardware

State Transition Concept: Klassische Arbeitsweise von Computer-Systemen (von Neumann-Rechner), bei der bei jedem Arbeitsschritt der Speicherzustand kontrolliert verändert wird.

Speicherhierarchien sind nötig, weil es verschieden schnelle Speicherbausteine gibt, wobei i.d.R. gilt: Je schneller der Speicher ist, desto teurer sind seine Bausteine, desto kleiner ist die Kapazität ausgerichtet im System. Für die Kapazität gilt üblicherweise die folgende Reihenfolge:

Register < Puffer (Caches) < Hauptspeicher < Plattenspeicher

Übrigens: Auch das menschliche Gehirn besitzt eine Speicherhierarchie, denn es kann das Langzeitgedächtnis klar vom Kurzzeitgedächtnis getrennt werden.

Klassifikation der Halbleiter:

                              Halbleiter
unipolare Halbleiter          bipolare Halbleiter
PMOS, NMOS, CMOS              TTL, DTL                     ECL
PCs, DRAMS, (Mainframes)      Mainframes, Caches           Supercomputer
Packungsdichte+               Schaltgeschwindigkeit+

Aktuelle Neuentwicklung: Josephson-Chips, die auf der Supraleitfähigkeit diverser Substanzen basieren. Die Josephon-Technologie könnte in näherer Zukunft die Halbleiter-Technologie ablösen, wobei die dort gesammelten Kenntnisse nahezu vollständig weiter genutzt werden können.

2. Architektur

Im Gegensatz zur Hardware sind Architekturen aus Kompatibilitätsgründen relativ stabil gehalten. Dies kann den Nachteil haben, dass völlig veraltete Architektur-Konzepte zwar mit besserer HW versehen werden, diese HW aber nicht einmal annähernd vollständig auszunutzen wissen.

Bis auf wenige Ausnahmen (Neurocomputer, Analogrechner) basieren alle heutigen Computer-Architekturen auf dem Konzept von v.Neumann. Dieses lässt sich folgendermassen visualisieren:

HAUPTSPEICHER                          PROZESSOR

                         Leitwerk                 Rechenwerk

Befehle und              Cache enthalten          Akkumulator
Daten zusammen

Aenderung=               Decodierer und           Führt
State Transition         Mikrocodierung           Operationen aus

Fixe Breite=             Befehls-                 Bisweilen
Gibt Prozessortyp        Interpretation           mehrfach pro
an                                                Prozessor

Die Architekturen lassen sich folgendermassen klassifizieren:

  1. SISD-Architektur: Klassischer von-Neumann-Rechner.
  2. SIMD-Architektur: Ein Leitwerk, aber viele Rechenwerke.
  3. MISD-Architektur: Daten durch Pipelining von Befehlen trennen.
  4. MIMD-Architektur: Massiv-parallele Verarbeitung mit vielen SIMD-Elementen.

Die IBM 3033 besitzt z.B. eine MISD-Architektur. Angaben der Leistungsfähigkeit erfolgen hier üblicherweise in MFLOPS, nicht MIPS!

Der Motorola 68000er Prozessor ist ein 32-Bitter. Die Breite von 32 Bit gilt jedoch nur für seinen Hauptspeicher. Der Adressbus vermag nur 24 Bit auf einmal zu übertragen, wodurch sich ein Adressraum von 16 MByte ergibt. Der Datenbus kann sogar nur 16 Bit auf einmal übertragen, d.h der Prozessor kann nur mit vorzeichenlosen Zahlen bis maximal 65536 operieren.

Auch der 8086 ist kein echter 16-Bitter, obwohl seine Speicherbreite 16 Bit beträgt, denn auf dem Daten- und Adressbus vermag er nur byteweise zu übertragen.

Die S/38 gehört zu den Minisystemen, ist also kein Mainframe! Sie findet i.d.R. Verwendung als Stand-Alone-System. Eine Besonderheit stellt das BS dar, welches objektorientiert konzipiert ist.

3. IBM und Plug Compatible Manufacturer (PCM)

Um die Lebenszyklen ihrer Systeme zu strecken und mit den Leistungen der PCM-Systeme gleichzuziehen bzw. diese zu übertreffen, setzt IBM auf die folgenden Launchings:

  • Höhere Integration der Bausteine
  • Ausbau des Hauptspeichers
  • Grössere und schnellere Caches
  • Verbessertes E/A-System
  • Verbessertes Microcoding
  • BS-Weiterentwicklungen

Bei den BS-Weiterentwicklungen ist zu beachten, dass IBM keine Upgrades über mehrere Launching-Stufen anbietet, d.h. will ein Kunde seine System-Leistung erhöhen, muss er alle Upgrades von IBM wahrnehmen.

Um mit IBM konkurrieren zu können, greifen PCM-Systeme auf folgende Techniken zurück:

  • Höhere Integration der Bausteine als IBM
  • Billigere Kühlung als IBM
  • Geringere Ausmasse als IBM
  • Verzicht auf Microcoding (jetzt nicht mehr)
  • Verzicht auf Multiprozessorsysteme (jetzt nicht mehr)

Gene Amdahl ist ein Innovationsschub und Preisverfall bei den Mainframes zu verdanken, so ist die IBM 3033 eine deutliche Antwort IBMs auf die /370-Kompatible von Amdahl, die das Original leistungsmässig und kostenmässig in den Schatten stellte.

Z.T. baut IBM in ihrer Mainframes Verzögerungsbausteine ein. Möchte der Kunde seine Systemleistung erhöhen, werden diese Verzögerungsbausteine von IBM-Fachleuten einfach deaktiviert - der Kunde muss dann allerdings mit einem höheren Mietsatz bezahlen.

Da Basispatente nicht geschützt werden können, IBM den PCM-Anbietern aber Paroli bieten will, setzt sie mehr und mehr auf Microcoding (Migration der BS-SW in Mikrocode), welches nur sehr schwer nachvollziehbar ist und nicht veröffentlicht werden muss.

IBMs BS sind native, wenn sie ohne VM benutzt werden können. VM ist ein Basissystem, welches mehrere IBM-BS gleichzeitig ablaufen lassen kann. Dadurch können z.B. die virtuellen Adressräume auf einfache Weise dupliziert werden. Ausserdem ist der Zeitscheibenmechanismus wesentlich ausgereifter als z.B. bei MVS mit seinem nachträglich aufgepfropften TSO.

4. IBM-Innovationen

Für den Erfolg eines Unternehmens genügt heutzutage Spitzenqualität alleine nicht mehr. Wichtiger ist es, den Kunden gut zuzuhören, ja, selbst zur treibenden Kraft für innovative Problemlösungen zu werden. IBM hat dies erkannt und daher 1994 die folgenden Innovationen in der "Mache":

Parallelrechner sind angekündigt (S/390 und POWERparallel), die die Vorteile von Mainframes (Integrität, Verfügbarkeit und Sicherheit) mit dem Megatrend offene Client-Server-Computing zu vermengen wissen. Vorteile für den Kunden: Investitionsschutz und leichte Erweiterbarkeit.

Die ehemals proprietäre AS/400 wurde zum Open System umgestaltet, indem diverse Standard-Schnittstellen geschaffen wurden. Ihre neuartige Architektur macht sie gleichzeitig zum idealen Server in heterogenen Netzumgebungen.

Die RS/6000 kann mit neuen Modellen ihrer Marktposition weiter ausbauen.

Die PC-Familie wurde um Server-, ValuePoint- und stiftbasierten ThinkPad-Modelle erweitert.

Das neue Vertriebssystem wurde speziell auf die Kunden angepasst. Statt auf die Rundum-Betreuung geht IBM stärker zum Service- und Berater-Konzept über. Die Anzahl der Ansprechpartner für Kunden ist unüberboten, trotzdem auch hier Personal abgespeckt wurde. Produkte können und sollen über Kataloge und Telefone bestellt werden, sind also nicht mehr nur über den Fachhandel zu beziehen. Die Marketing- und Vertriebs-Divisionen wurden branchenorientiert aufgesplittert, wobei in jedem Team mindestens ein Experte platziert wurde.

Es gibt ein mobiles Vorsorge-Rechenzentrum in einem LKW, welches in Notfällen den betrieblichen Rechenzentrum-Betrieb übernehmen kann.

IBM ist am neuen Privat-Mobil-Funk-Netz E-Plus beteiligt.

Wie eine Krake greift sich IBM überall Kooperationspartner; so ist sie immer up-to-date und nahe am Markt.

Auch im Bereich Multimedia mischt IBM mit, besonders im Bereich von Produktpräsentationssystemen und Informationssystemen.

Die ECL-Technologie (Emitter Coupled Logic) entwickelt sich langsamer als die CMOS-Technologie (Complementary Metal Oxide Semiconductor), daher setzt IBM im Bereich der Mainframes auf letztere.

Montageinseln gehören bei IBM der Vergangenheit an. Jetzt sind teilautonome Teams gefragt, die innerhalb von Profitcenter (Töchter-Gesellschaften) agieren, die näher am Markt sind und den Erfolg einzelner Organisationseinheiten transparenter machen.

IBM gründet Open System Centers, die Kunden angeblich auch bzgl. von Fremdprodukten beraten wollen.

IBM arbeitet zusammen mit Apple und Motorola an Taligent, einem objektorientierten BS.

IBM bietet eine Visual Document Library an, wobei sie den Trend hin zu Gruppenarbeit wahrnimmt. Lotus ist hier Kooperationspartner.

IBM hat die Zeichen der Zeit erkannt und ist auf den fast abgefahrenen Zug der Open Systems aufgesprungen.

5. IBM goes Open Systems

Offene Systeme sind für IBM im Prinzip ein alter Hut. Warum, werden wir gleich sehen. Angefangen hat alles, als IBM die Komplexität der eigene Produktpalette über den Kopf gestiegen ist ...

1987: IBM gibt das SAA-Konzept bekannt. Die angestrebten Standards werden veröffentlicht und den SW- und HW-Unternehmen zur Verfügung gestellt.

1988: IBM bringt seine Version des offenen Erfolgs-BS UNIX heraus. AIX ist zwar teilweise noch proprietär gehalten, doch für IBMs Verhältnisse, die immer etwas Eigenes machen konnten und damit erfolgreich waren, erstaunlich angepasst an das Fremdprodukt.

IBM bildet zusammen mit anderen IT-Unternehmen die OSF (Open System Foundation). Dieses Komitee verabschiedet die Standards Motif (Standard-GUI), DCE (für die verteilte Befehlsabarbeitung), POSIX (UNIX-Standard) und X/WINDOWS (Standard-Programmierumgebung).

1993: IBM gründet den erste Open System Center.

IBM geht eine Allianz mit Apple und Motorola ein. Zusammen haben sie das neue OOBS Taligent in Arbeit, welches helfen soll, die SW-Krise zu überwinden.

IBM kooperiert nach allen Seiten. Alleine in Deutschland steht sie mit über 100 Unternehmen im regen Austausch-Kontakt. Das mindert die Gefahr bei innovationsträchtigen Investitionen, da sich das Risiko verteilt.