"Die Idee, daß alle Naturprozesse und so auch das menschliche Denken ein physikalischer Prozeß und demnach nachzubilden sein müßten, ist so alt wie die mit der Philosophie der Antike beginnende abendländische Kultur. Sie wurde mit dem Beginn der aufgeklärten Neuzeit konkret: die Natur - eine Maschine?"(173)
Neben anderen Philosophen warf auch Leibniz diese Frage auf. Er beschäftigte sich, u.a. auf den Arbeiten von Pascal aufbauend, mit dem neuen "System einer binären, also zweiwertigen Logik, mit der sich sämtliche Operationen der am Dezimalsystem orientierten allgemeinen Mathematik nachvollziehen lassen sollten."(174)
Der Engländer George Boole erkannte, daß man mit einem binären System, wie es Leibniz entworfen hatte, bei entsprechender Komplexität der Maschine auch Logik ausdrücken kann. "In seiner Arbeit 'Die Gesetze des Denkens' wollte Boole über ein reines Rechensystem hinaus eine 'Mathematik des menschlichen Verstandes' zeichnen, 'die Grundgesetze jener Geistesvorgänge untersuchen, durch die Vernunftsbeschlüsse gezogen werden: ihnen in der symbolischen Sprache eines Kalküls Ausdruck verleihen.'"(175) Mitte des 19. Jahrhunderts entwickelte er mit der formalen Logik schließlich das System, das heute die Grundlage für alle Computer bildet, da die Aussagewerte, die von Boole mit "+" oder "-", bzw. mit "0" oder "1" bezeichnet wurden, auch durch "Strom fließt" oder "Strom fließt nicht" ausgedrückt werden können und sich so für digitale, also elektrische Schaltungen eignen.
Der Engländer Babbage entwickelte die wesentlichen Gedanken für den Bau von programmgesteuerten Rechengeräten. Er übertrug die Lochkartensteuerung der Jacquard-Webstühle auf die Rechenmaschine. Da ihm die Mittel der Elektrotechnik noch nicht zur Verfügung standen, war er auf eine rein mechanische Umsetzung angewiesen. An den technischen Problemen dieser Umsetzung ist er nach dreißigjähriger Arbeit schließlich auch gescheitert. Seine Arbeit geriet danach in Vergessenheit.(176) Die erste programmierbare Rechenmaschine, die die Möglichkeiten der Boolschen Algebra nutzte, war die 1940 fertiggestellte "Z2" des Berliners Konrad Zuse (nach einem aus Kosten- und Platzgründen noch ganz mechanischen Vorläufer, der "Z1" von 1938).(177) Das Folgemodell "Z3" von 1941 arbeitete schließlich nur noch mit elektrischen Relais, die erwogene Verwendung von Vakuumröhren - dem Herzstück der späteren Computer - schien Zuse zu unzuverlässig.
So entstand der erste Röhrenrechner ("Colossus"),
ebenfalls nach einigen mechanischen und semi-mechanischen Vorläufern, 1943 in England. Da er jedoch lediglich darauf ausgerichtet war, die über die deutsche Chiffriermaschine "Enigma" laufenden Nachrichten zu entschlüsseln, war er nicht für andere Aufgaben programmierbar. (Anmerkung)
Der erste amerikanische Computer war ein gewaltiges, 30 Tonnen schweres, mit 17.000
Elektronenröhren ausgestattetes und 130 bis 140 Kilowatt verschlingendes Ungetüm namens "Eniac". Ursprünglich auch für militärische Zwecke gebaut, ging er jedoch erst 1946 an der Universität von Pennsylvania in Betrieb.
Bei allen programmierbaren Maschinen mußten die Prozeßabläufe durch das Stöpseln von Verbindungen hergestellt werden. Erst 1945 wurde von dem Mathematiker John von Neumann eine bahnbrechende Speicherprogrammierung entwickelt - die "Software" war geboren.
Die erste "Von-Neumann-Maschine" wurde 1949 in Großbritannien gebaut. Mit ihr stand nun auch die Architektur der zukünftigen Rechner fest: Sie waren auf eine sogenannte serielle Arbeitsweise festgelegt - immer eine Aufgabe nach der anderen "abarbeitend". Erst in jüngster Zeit verändert sich dies durch die Entwicklung der sog. "Parallelrechner".
Das amerikanische Militär nutzte die Computer noch für die Weiterentwicklung der Atombomben, verlor dann allerdings das Interesse an der aufwendigen Forschung auf diesem Gebiet. Da man auch in anderen Ländern nach dem Ende des Krieges keine Notwendigkeit für derart aufwendige Entwicklungen sah, ging diese nur schleppend voran. Erst der
beginnende Kalte Krieg und v.a. der Sputnik-Schock Mitte der fünfziger Jahre gaben neue Impulse. 1958 wurde in den USA die "Advanced Research Projects Agency" (ARPA, ab Anfang der siebziger Jahre "Defense Advanced Research Projects Agency" DARPA) gegründet. Auf diese Dienststelle wird bei der Betrachtung von Computernetzwerken in Kapitel "8.4. Vernetzung" noch einmal zurückzukommen sein. Die Computerentwicklung machte nun wieder rasante
Fortschritte. Die Idee von der künstlichen Intelligenz wurde entwickelt und der Blick stärker auf die für das Militär reizvolle Miniaturisierung gelenkt.
Fest steht, daß die Firma INTEL 1970 mit dem "Mikroprozessor" die kommerzielle Verwertung einleitete.(180) Der Mikroprozessor erlaubte nun die Verwendung von elektronischen Schaltungen in vielerlei Geräten, seien dies Zielvorrichtungen in Raketen, Panzern o.ä. oder aber auch in Kaffeemaschinen, Autos oder Computern für den Heimbereich. Neben die militärische Verwertbarkeit trat die breite kommerzielle Verwertung als zweiter Entwicklungsmotor. Die Erfindung und Entwicklung des Transistors und später des Chips führte aber nicht nur zu einer Verwendung von elektronischen Schaltungen in immer kleineren Geräten, sondern auch zu einer enormen Leistungssteigerung der Rechner. Das weitverbreitete Bild des Computers blieb zunächst das eines - später sogenannten - Großrechners, denn obgleich der Mikroprozessor es bald ermöglichte, die Funktionen der ersten elektronischen Großrechner in kleinen, handlichen Geräten unterzubringen (so übertrifft bspw. heute jeder wissenschaftliche Taschenrechner die Leistungsstärke und Funktionen des damals 30 Tonnen schweren "Eniac"-Rechners bei weitem), wuchsen doch auch die Aufgaben, die an die Computer gestellt wurden. Insbesondere den Anforderungen der Geheimdienste, des Militärs, der Raumfahrt und auch der Naturwissenschaften wurden weiterhin nur Großrechner gerecht. Es wurden immer leistungsstärkere "Supercomputer" entwickelt, in denen schließlich mehrere Rechnereinheiten parallel arbeiteten.(181) Die Entwicklung der Hochleistungsrechner geht heute zu einer wesentlich massiveren Durchsetzung dieser "Parallel-Processing"-Technologie. Es wird mit leistungsschwächeren und damit billigeren Prozessoren gearbeitet, die allerdings in viel größerer Zahl eingesetzt werden.(182) Der Aufbau eines Netzwerkes herkömmlicher Mikroprozessoren auf den 140 Quadratmetern Fläche, die "Eniac" einst in Anspruch nahm, und die parallele Berechnung unterschiedlicher Aufgaben (was technisch durchaus möglich wäre) würde die Wissenschaft vor das Problem stellen, neue Fragen formulieren zu müssen. Denn nicht mehr die Rechnerleistung wäre das Problem, sondern vielmehr die zu lösenden Probleme selbst. "Sämtliche derzeit computergerecht formulierbaren Probleme wären angesichts der Leistungsfähigkeit einer solchen Maschine trivial. Man könnte mit Urknallsimulationen spielen und wäre immer noch beschämt über die brachliegenden Ressourcen."(183)
Bald wurden jedoch für beide Systeme vielfältige Programme entwickelt, so daß auch heute noch diese Systemkonkurrenz besteht. (Immerhin ist es inzwischen möglich, daß Daten, die in einem System erfaßt wurden, auch in Codes verwandelt werden können, die das andere System lesen kann.)
In vielen Betrieben waren Personal Computer auf den Schreibtischen einzelner Angestellter allerdings weniger interessant. Die betrieblichen Abläufe verlangten den Zugriff auf zentrale Betriebsdaten, die nacheinander von verschiedenen Stellen bearbeitet werden sollten. Die Lösung war zunächst für lange Zeit ein zentraler Großrechner, mit vielen, im Betrieb verstreuten "Terminals" - also Arbeitsplätzen. Diese verfügten oft nur über ein Eingabegerät (die Tastatur) und ein oder zwei Ausgabegeräte (Bildschirm und evtl. Drucker). Wenn ein Dokument, sei es ein Text oder eine Rechnung, bearbeitet war, wurde es wieder an der gleichen Stelle abgelegt, von der es zu Beginn der Bearbeitung geladen worden war. Dieses Rechnermodell, das auch heute noch in vielen Betrieben anzutreffen ist, brachte den Computer zum ersten Mal an den Arbeitsplatz vieler Menschen (und v.a. zum ersten Mal auch zu Nicht-Informatikern bzw. Informatik-Interessierten.) Es wurde vom papierlosen Büro geträumt und davon, Arbeitsprozesse rationeller zu gestalten. Eine weitere Welle der "Computerisierung" kam mit der Einführung lokaler PC-Netzwerke, auf die im folgenden Kapitel noch kurz einzugehen sein wird.
Auch im privaten Bereich setzte sich der Personal Computer, zunächst v.a. bei Jugendlichen, immer weiter durch. Ausschlaggebend dürfte hier neben der Tatsache, daß der Computer natürlich klein genug sein mußte, um auf dem Schreibtisch Platz zu finden, seine Finanzierbarkeit gewesen sein. Er war (und ist dies wohl auch heute noch weitestgehend) v.a. ein Spielzeug, da im privaten Gebrauch weder komplizierte Tabellenkalkulationen noch Textverarbeitungen in größerem Maß anfallen.(189)
[ Weiter im Text ] | [ Zum Inhaltsverzeichnis ] | [ ralf-hecht.de ] | [ Zur Kommentarseite ] |
URL: http://www.ralf-hecht.de/magister/cmc/8.html |