8. Eine kurze Darstellung der Geschichte des Computers(172)

8.1. Die Entstehung

Da eine umfangreiche Betrachtung der Geschichte des Computers für diese Arbeit nicht nötig erscheint, soll hier nur ein Überblick über die wichtigsten Entwicklungen gegeben werden.

"Die Idee, daß alle Naturprozesse und so auch das menschliche Denken ein physikalischer Prozeß und demnach nachzubilden sein müßten, ist so alt wie die mit der Philosophie der Antike beginnende abendländische Kultur. Sie wurde mit dem Beginn der aufgeklärten Neuzeit konkret: die Natur - eine Maschine?"(173)

Neben anderen Philosophen warf auch Leibniz diese Frage auf. Er beschäftigte sich, u.a. auf den Arbeiten von Pascal aufbauend, mit dem neuen "System einer binären, also zweiwertigen Logik, mit der sich sämtliche Operationen der am Dezimalsystem orientierten allgemeinen Mathematik nachvollziehen lassen sollten."(174)

Der Engländer George Boole erkannte, daß man mit einem binären System, wie es Leibniz entworfen hatte, bei entsprechender Komplexität der Maschine auch Logik ausdrücken kann. "In seiner Arbeit 'Die Gesetze des Denkens' wollte Boole über ein reines Rechensystem hinaus eine 'Mathematik des menschlichen Verstandes' zeichnen, 'die Grundgesetze jener Geistesvorgänge untersuchen, durch die Vernunftsbeschlüsse gezogen werden: ihnen in der symbolischen Sprache eines Kalküls Ausdruck verleihen.'"(175) Mitte des 19. Jahrhunderts entwickelte er mit der formalen Logik schließlich das System, das heute die Grundlage für alle Computer bildet, da die Aussagewerte, die von Boole mit "+" oder "-", bzw. mit "0" oder "1" bezeichnet wurden, auch durch "Strom fließt" oder "Strom fließt nicht" ausgedrückt werden können und sich so für digitale, also elektrische Schaltungen eignen.
Der Engländer Babbage entwickelte die wesentlichen Gedanken für den Bau von programmgesteuerten Rechengeräten. Er übertrug die Lochkartensteuerung der Jacquard-Webstühle auf die Rechenmaschine. Da ihm die Mittel der Elektrotechnik noch nicht zur Verfügung standen, war er auf eine rein mechanische Umsetzung angewiesen. An den technischen Problemen dieser Umsetzung ist er nach dreißigjähriger Arbeit schließlich auch gescheitert. Seine Arbeit geriet danach in Vergessenheit.(176) Die erste programmierbare Rechenmaschine, die die Möglichkeiten der Boolschen Algebra nutzte, war die 1940 fertiggestellte "Z2" des Berliners Konrad Zuse (nach einem aus Kosten- und Platzgründen noch ganz mechanischen Vorläufer, der "Z1" von 1938).(177) Das Folgemodell "Z3" von 1941 arbeitete schließlich nur noch mit elektrischen Relais, die erwogene Verwendung von Vakuumröhren - dem Herzstück der späteren Computer - schien Zuse zu unzuverlässig.
So entstand der erste Röhrenrechner ("Colossus"), ebenfalls nach einigen mechanischen und semi-mechanischen Vorläufern, 1943 in England. Da er jedoch lediglich darauf ausgerichtet war, die über die deutsche Chiffriermaschine "Enigma" laufenden Nachrichten zu entschlüsseln, war er nicht für andere Aufgaben programmierbar. (Anmerkung)
Der erste amerikanische Computer war ein gewaltiges, 30 Tonnen schweres, mit 17.000 Elektronenröhren ausgestattetes und 130 bis 140 Kilowatt verschlingendes Ungetüm namens "Eniac". Ursprünglich auch für militärische Zwecke gebaut, ging er jedoch erst 1946 an der Universität von Pennsylvania in Betrieb.
Bei allen programmierbaren Maschinen mußten die Prozeßabläufe durch das Stöpseln von Verbindungen hergestellt werden. Erst 1945 wurde von dem Mathematiker John von Neumann eine bahnbrechende Speicherprogrammierung entwickelt - die "Software" war geboren.
Die erste "Von-Neumann-Maschine" wurde 1949 in Großbritannien gebaut. Mit ihr stand nun auch die Architektur der zukünftigen Rechner fest: Sie waren auf eine sogenannte serielle Arbeitsweise festgelegt - immer eine Aufgabe nach der anderen "abarbeitend". Erst in jüngster Zeit verändert sich dies durch die Entwicklung der sog. "Parallelrechner".
Das amerikanische Militär nutzte die Computer noch für die Weiterentwicklung der Atombomben, verlor dann allerdings das Interesse an der aufwendigen Forschung auf diesem Gebiet. Da man auch in anderen Ländern nach dem Ende des Krieges keine Notwendigkeit für derart aufwendige Entwicklungen sah, ging diese nur schleppend voran. Erst der beginnende Kalte Krieg und v.a. der Sputnik-Schock Mitte der fünfziger Jahre gaben neue Impulse. 1958 wurde in den USA die "Advanced Research Projects Agency" (ARPA, ab Anfang der siebziger Jahre "Defense Advanced Research Projects Agency" DARPA) gegründet. Auf diese Dienststelle wird bei der Betrachtung von Computernetzwerken in Kapitel "8.4. Vernetzung" noch einmal zurückzukommen sein. Die Computerentwicklung machte nun wieder rasante Fortschritte. Die Idee von der künstlichen Intelligenz wurde entwickelt und der Blick stärker auf die für das Militär reizvolle Miniaturisierung gelenkt.

8.2. Miniaturisierung

Die entscheidende Entdeckung für die Miniaturisierung der bisher riesigen Rechenmaschinen wurde am Weihnachtstag 1947 von den amerikanischen Forschern John Bardeen, Walter Brittain und William Shockley gemacht. Sie fanden heraus, daß ein Halbleiterkristall des Elements Germanium elektrischen Strom verstärken kann(178), womit der Weg für den Transistor und den Chip gebahnt war. Der Transistor sorgte zunächst v.a. in der Rundfunk- und Telekommunikationstechnik für große Veränderungen. Wer auf die Idee kam, Hunderte von miniaturisierten Transistoren auf einer nur wenige Quadratmillimeter großen Silizium-Leiterplatte zu vereinigen, war lange umstritten, offenbar war es Gilbert Hyatt, der 1968 den Chip erfand.(179)

Fest steht, daß die Firma INTEL 1970 mit dem "Mikroprozessor" die kommerzielle Verwertung einleitete.(180) Der Mikroprozessor erlaubte nun die Verwendung von elektronischen Schaltungen in vielerlei Geräten, seien dies Zielvorrichtungen in Raketen, Panzern o.ä. oder aber auch in Kaffeemaschinen, Autos oder Computern für den Heimbereich. Neben die militärische Verwertbarkeit trat die breite kommerzielle Verwertung als zweiter Entwicklungsmotor. Die Erfindung und Entwicklung des Transistors und später des Chips führte aber nicht nur zu einer Verwendung von elektronischen Schaltungen in immer kleineren Geräten, sondern auch zu einer enormen Leistungssteigerung der Rechner. Das weitverbreitete Bild des Computers blieb zunächst das eines - später sogenannten - Großrechners, denn obgleich der Mikroprozessor es bald ermöglichte, die Funktionen der ersten elektronischen Großrechner in kleinen, handlichen Geräten unterzubringen (so übertrifft bspw. heute jeder wissenschaftliche Taschenrechner die Leistungsstärke und Funktionen des damals 30 Tonnen schweren "Eniac"-Rechners bei weitem), wuchsen doch auch die Aufgaben, die an die Computer gestellt wurden. Insbesondere den Anforderungen der Geheimdienste, des Militärs, der Raumfahrt und auch der Naturwissenschaften wurden weiterhin nur Großrechner gerecht. Es wurden immer leistungsstärkere "Supercomputer" entwickelt, in denen schließlich mehrere Rechnereinheiten parallel arbeiteten.(181) Die Entwicklung der Hochleistungsrechner geht heute zu einer wesentlich massiveren Durchsetzung dieser "Parallel-Processing"-Technologie. Es wird mit leistungsschwächeren und damit billigeren Prozessoren gearbeitet, die allerdings in viel größerer Zahl eingesetzt werden.(182) Der Aufbau eines Netzwerkes herkömmlicher Mikroprozessoren auf den 140 Quadratmetern Fläche, die "Eniac" einst in Anspruch nahm, und die parallele Berechnung unterschiedlicher Aufgaben (was technisch durchaus möglich wäre) würde die Wissenschaft vor das Problem stellen, neue Fragen formulieren zu müssen. Denn nicht mehr die Rechnerleistung wäre das Problem, sondern vielmehr die zu lösenden Probleme selbst. "Sämtliche derzeit computergerecht formulierbaren Probleme wären angesichts der Leistungsfähigkeit einer solchen Maschine trivial. Man könnte mit Urknallsimulationen spielen und wäre immer noch beschämt über die brachliegenden Ressourcen."(183)

8.3. Veralltäglichung

Bald nachdem INTEL seinen Mikroprozessor auf den Markt gebracht hatte, begannen Informatikstudenten, für Großrechner gedachte Teile zu kleinen Computern zusammenzulöten und zu programmieren. Auch erste kommerziell gefertigte Geräte kamen auf den Markt.(184) Ein Durchbruch kam dann mit dem Apple II-Computer und dem Tabellenkalkulationsprogramm "VisiCalc".(185) Aus den "Spielkisten" waren damit zum ersten Mal reizvolle Arbeitsgeräte geworden. Die Geschäftswelt begann sich für den Computer zu interessieren, und so war der Anstoß für die "PC-Revolution" gegeben.
Von Anfang an war der Mikrocomputer-Markt durch eine Systemkonkurrenz gekennzeichnet. Für die verschiedenen anderen Rechner(-bausätze), die neben dem Apple-Computer auf den Markt kamen, wurde von Gary Kindall ein Betriebssytem ("Control Program for Microcomputers" CP/M) entwickelt, während der Harvard-Student Bill Gates und sein Freund Paul Allen die 1965 entworfene Programmiersprache BASIC ("Beginners All-Purpose Symbolic Instruction Code") neu konzipierten und sich damit, ebenso wie später mit ihrem Betriebssystem MS-DOS ("Microsoft Desk Operating System"), unter den vielen verschiedenen Programmsprachen durchsetzen konnten.
Etwa zur gleichen Zeit wie "VisiCalc" eroberte das auf Kindalls CP/M zugeschnittene Textverarbeitungsprogramm "Wordstar" den Markt und wurde für lange Zeit das erfolgreichste Textsystem. Das Problem war allerdings, daß sich der potentielle Käufer mit dem Kauf eines Rechners auf eines der beiden Systeme festlegen mußte und sich somit zunächst auch für eine leistungsstarke Tabellenkalkulation oder eine leistungsstarke Textverarbeitung zu entscheiden hatte. Die Angst vor den Kinderkrankheiten des Personal Computers(186), "vor allem vor einem unverhofften Textverlust, ließ damals Anwälte, Journalisten und Schriftsteller vom Einsatz des Computers zurückschrecken"(187), so daß die "erste Runde" in der Geschäftswelt eindeutig zu Gunsten des Apple-Computers in seiner Funktion als "Rechenmaschine" ging.(188)

Bald wurden jedoch für beide Systeme vielfältige Programme entwickelt, so daß auch heute noch diese Systemkonkurrenz besteht. (Immerhin ist es inzwischen möglich, daß Daten, die in einem System erfaßt wurden, auch in Codes verwandelt werden können, die das andere System lesen kann.)

In vielen Betrieben waren Personal Computer auf den Schreibtischen einzelner Angestellter allerdings weniger interessant. Die betrieblichen Abläufe verlangten den Zugriff auf zentrale Betriebsdaten, die nacheinander von verschiedenen Stellen bearbeitet werden sollten. Die Lösung war zunächst für lange Zeit ein zentraler Großrechner, mit vielen, im Betrieb verstreuten "Terminals" - also Arbeitsplätzen. Diese verfügten oft nur über ein Eingabegerät (die Tastatur) und ein oder zwei Ausgabegeräte (Bildschirm und evtl. Drucker). Wenn ein Dokument, sei es ein Text oder eine Rechnung, bearbeitet war, wurde es wieder an der gleichen Stelle abgelegt, von der es zu Beginn der Bearbeitung geladen worden war. Dieses Rechnermodell, das auch heute noch in vielen Betrieben anzutreffen ist, brachte den Computer zum ersten Mal an den Arbeitsplatz vieler Menschen (und v.a. zum ersten Mal auch zu Nicht-Informatikern bzw. Informatik-Interessierten.) Es wurde vom papierlosen Büro geträumt und davon, Arbeitsprozesse rationeller zu gestalten. Eine weitere Welle der "Computerisierung" kam mit der Einführung lokaler PC-Netzwerke, auf die im folgenden Kapitel noch kurz einzugehen sein wird.

Auch im privaten Bereich setzte sich der Personal Computer, zunächst v.a. bei Jugendlichen, immer weiter durch. Ausschlaggebend dürfte hier neben der Tatsache, daß der Computer natürlich klein genug sein mußte, um auf dem Schreibtisch Platz zu finden, seine Finanzierbarkeit gewesen sein. Er war (und ist dies wohl auch heute noch weitestgehend) v.a. ein Spielzeug, da im privaten Gebrauch weder komplizierte Tabellenkalkulationen noch Textverarbeitungen in größerem Maß anfallen.(189)



[ Weiter im Text ] [ Zum Inhaltsverzeichnis ] [ ralf-hecht.de ] [ Zur Kommentarseite ]



URL: http://www.ralf-hecht.de/magister/cmc/8.html

[ Zur Downloadseite ]