PC-Host-Kommunikation

Geschwurbel von Daniel Schwamm (12.06.1994 bis 13.06.1994)

Inhalt

1. Einleitung

Die PC-Host-Kommunikation spielt erst seit kurzer Zeit eine wachsende Rolle. Früher wurden PCs bestenfalls dazu genutzt, um Host-Daten dezentral auszuwerten. Da die Workstations aber immer leistungsfähiger werden, können sie inzwischen auch die operative Host-Arbeit übernehmen.

Früher galt die EDV als zentrale Triebkraft der Rationalisierung. Dann jedoch haben sich die EDV-Kosten als immens erweisen, so dass die EDV heute selbst Rationalisierungsbestrebungen unterliegt. Ein möglicher Ansatz dazu sieht vor, kleine, kostengünstige und dezentrale EDV-Inseln zu schaffen. Problem dabei stellt aber die unternehmensweite Integration zwischen dem Host und PCs und den PCs untereinander dar, um so eine unternehmensweite Informationslandschaft zu erhalten.

Seit den 80ern werden Terminals durch PCs ersetzt. Die PCs sollten aber nicht nur Terminals emulieren, sondern auch operative Host-Arbeit erledigen. Dabei kann jedoch derzeit noch nicht auf den Host verzichtet werden, sodass es auf eine Koexistenz beider Systeme hinausläuft. Gerade beim Client-Server-Konzept kann dann der Host als Haupt-Server für die PC-Clients fungieren. Wichtig bei Verwendung dezentral organisierter PCs ist, dass für dem Benutzer der Eindruck eines einheitlichen Systems entsteht - die Transparenz der Verteilung sollte also gewährleistet sein. Dies ist zur Zeit dringender Gegenstand der Forschung.

2. Unternehmensweite Informationslandschaft

Die unternehmensweite Informationslandschaft ist die Zielvorstellung einer vollständig über das Grossunternehmen hinweg integrierten EDV-Welt. Bei der bisherigen PC-Einführung wurde auf dieses Ziel wenig Rücksicht genommen, sodass man heute vor inkompatiblen, heterogenen Rechnerwelten innerhalb einer Organisation steht, deren Kopplung über LANs Schwierigkeiten bereitet. Das zentrale Informationsbild wurde dadurch zersplittert. Die heutige Rechnerlandschaft stellt sich demnach folgendermassen dar:

  • Unternehmensweite DB auf einem zentralen Host.
  • Grossrechnerterminals.
  • PCs mit Zugang zum Host.
  • Abteilungsweite Rechnernetze.
  • Isolierte Einzelplätze.

Für eine unternehmensweite Informationslandschaft muss ein schnelles Backbone-Netz (z.B. FDDI) eingerichtet werden, das die ganzen Systeme miteinander in genormter Weise verbindet. Über Modem-Strecken kann eine Anbindung an externe Organisationen erfolgen. Und Terminals werden generell durch PCs ersetzt.

Dies ist technisch bereits alles realisierbar. Problem stellt jedoch die Inkompatibilität verschiedener Netzwerktechniken zueinander dar. Doch je nach Anforderungen werden bestimmte LAN-Protokolle benötigt, die nicht so leicht durch andere zu ersetzen sind. So hat sich in Büros Ethernet bewährt, während Echtzeitanwendungen nicht auf den Token-Bus verzichten können. Glücklicherweise sind hier offene Systeme stark im kommen, z.B. das ISO/OSI-Referenzmodell, sodass unternehmensweite Informationslandschaften schon bald keine reine Zukunftsmusik mehr sein müssen.

3. Integrationsansätze

Die Integration von PCs in die Informationslandschaft, die ursprünglich alleine vom Host dominiert wurde, erfolgt unter zwei Perspektiven:

  1. Ankopplung der PCs an den Host: Bei diesem Integrationsansatz dient der PC nur als Terminal-Ersatz, der dem Host Daten zuführt oder Daten abruft. Von Transparenz der Verteilung kann keine Rede sein, weil die Daten immer noch zentral gehalten werden, d.h. de facto nicht verteilt sind.
  2. Einbindung des Hosts in die PC-Welt: Der Host fungiert als Server für die PCs, die die eigentliche operative Arbeit eigenständig erledigen. Ortstransparenz wurde bisweilen noch nicht erreicht, jedoch ist die Forschung bestrebt VBS oder VDBS zu entwickeln, die dem Anwender das Gefühl geben, mit einer zentralen Einheit zusammenzuarbeiten.

4. Vorteile und Nachteil von Hosts und PCs/Workstations

Grossrechner-Kritik:

  • (+) Verarbeitet grosse Datenmengen; ideal für unternehmensweite Informationslandschaft; Datensicherheit durch z.B. RACF sehr hoch; es gibt viele Standardanwendungen wie Query Management Facility von IBM.
  • (-) Wegen Sicherheitssystem Zugriff sehr beschränkt, was redundante Datenhaltung erfordert; Ausfallgefahr des Hosts; hoher administrativer und operativer Aufwand im Rechenzentrum; die statische Anwendungsumgebung fördert sehr komplex wachsende Produkte wie z.B. IMS; die Benutzerschnittstelle ist wenig ansprechend; mobile Datenerfassung über Notebooks kaum möglich.

Es gilt: On-line sind Grossrechner pfui, aber off-line hui!

PC-Kritik:

  • (-) Sind trotz Multitasking nur Einzelplatzsysteme; hohe Netzkosten (auch durch SW-Lizenzen); Sicherheit ist mangelhaft; die Organisation ist aufwendig (Vereinfachung durch strikte Trennung von Client- und Server-Rechnern); Netze sind beschränkt; viele Anwender nur durch Hosts zu managen (wie z.B. Flugbuchungssysteme); das unbegrenzte Speichervolumen von Hosts ist nicht ersetzbar (später vielleicht durch WORMS).
  • (+) Erweiterbar durch neue Motherboards; Terminals emulierbar; beliebig viel Peripherie anschliessbar; vielfältiges Standard-SW-Angebot; Flexibilität; Anschluss an Grossrechnernetze wie SNA oder DNA (DEC) möglich.

Es gilt: PCs alleine sind derzeit noch nicht zu Empfehlen in einem Grossunternehmen, stattdessen wird auf eine Koexistenz von Host und PCs gesetzt, wodurch sich die Vor- und Nachteile beider Rechnersysteme gegenseitig aufheben können.

5. Strategien zur Dezentralisierung

Die Migration kann nach folgenden Strategien erfolgen, sofern die EDV ganzheitlich ausgerichtet ist, die Umsetzungsstrategien festgelegt werden und die nötigen Infrastrukturen zur Verfügung stehen:

  1. Auslagerung von Standardanwendungen auf PCs: Die gestalterischen Möglichkeiten explodieren dadurch geradezu, allerdings werden dadurch auch individuelle Datenbanken gefördert, die dann zum zentralen Host-Datenstamm inkompatibel sind.
  2. Auslagerung individueller Auswertungsprogramme: QMF stellt nur relativ wenige Auswertungsmöglichkeiten zur Verfügung. Können jedoch eigene Auswertungsprogramme geschrieben werden, erwachsen dadurch riesige Repräsentationsmöglichkeiten.
  3. Schaffung operativer Anwendungsinseln: Dadurch wird eine produktorientierte Informationsverarbeitung realisiert. Eine Download- und Upload-Funktion, sowie ein Online-Zugriff auf den Host sollte jedoch weiterhin vorhanden sein.
  4. Downsizing - Auslagerung von Host-Applikationen: Renovierung der bestehenden Host-Anwendungen werden immer dringender, da diese Produkte so weit gewachsen sind, dass sie kaum noch wartbar sind. Downsizing kann als Alternative zum Outsourcing gesehen werden, wobei gilt: So viel Downsizing wie möglich, so viel Outsourcing wie nötig. Der Routinebetrieb wird dadurch billiger, jedoch sinkt die Connectivity, d.h. die Verbindung der diversen Applikationen untereinander.
  5. Upsizing - Integration dezentraler Insellösungen: Zur Schaffung einer unternehmensweiten Informationslandschaft müssen PC-Insellösungen in ein Netz oder auf den Host "hochgezogen" werden, um auf die allgemeinen Daten zugreifen zu können und allgemein zugreifbar zu werden. I.d.R. wird dies über Backbones erreicht, die der C/S-Architektur (Client/Server) unterliegen und heterogene Rechnerwelten verbinden können (Cooperative Processing).
  6. Rightsizing - horizontale Erweiterbarkeit: Diese Strategie verlangt zunächst ein Downsizing so viel wie möglich, und dann ein Upsizing und Outsourcing so viel als nötig. Das Upsizing (von z.B. Standardanwendungen der Informationsverarbeitung) stellt kein einfaches Zurück auf den Host dar, sondern ein neu strukturiertes, i.d.R. geleantes Zurück auf den Host. Dadurch wird u.U. eine transparente Informationsverarbeitung geschaffen.

[Mh ... sorry, habe heute echt keine Ahnung mehr, für was die Abkürzung IIV stehen sollte. Auch Google liess mich da im Stich. War wohl nur eine Eigenkreation von mir. - Dan, 11.04.2009]

[IIV habe ich ersetzt durch IV und das dann durchgängig ausgeschrieben als Informationsverarbeitung. Das scheint mir in dem Kontext passend zu sein. - Dan 06.07.2912]

6. Technik der PC-Host-Kopplung

Verschiedene Punkte betreffen die Kopplung von Host und PC:

  • ISO/OSI-Referenzmodell für offene Systeme.
  • Verbindungen über Repeater, Bridges, Router und Gateways.
  • Herstellerspezifische Netzprotokolle wie SNA, DNA von DEC.
  • Internet-Standard TCP/IP von DoD.
  • Direktanschluss-Schnittstelle RS 232 bei DEC.
  • 3270-Schnittstellenkarte für SNA.
  • Indirekte LAN-Host-Kopplungen über Gateways.

7. Typologien der PC-Host-Kopplung

Die PC-Host-Kopplung kennt folgende gesteigerte Typisierung:

  • Terminal-Emulation: PC spielt bloss Terminal für Einzelzeichen.
  • Unidirektionaler Dateitransfer von Host auf PC.
  • Bidirektionaler Dateitransfer.
  • Bidirektionale Programm-Programm-Kommunikation (Nachrichtenaustausch).
  • Transparenter Dateizugriff von PC auf Host und umgekehrt.
  • Transparenter Datenzugriff von PC auf Host und umgekehrt.