Von einem Erfolg, der keiner sein wollte
Wie erzählt man eine Geschichte, die keinen eindeutigen Anfang und noch lange kein Ende hat?
Begann vielleicht alles mit dem Tüftler Herman Hollerith? Der Bergbau-Ingenieur und Sohn deutscher Auswanderer arbeitete in den 1880er-Jahren bei der US-Volkszählungsbehörde. Weil dort viele immer gleiche Berechnungen anzustellen waren, konstruierte Hollerith eine Maschine, die das Erfassen und Speichern von Bevölkerungsdaten, vor allem aber deren schnelles Auszählen automatisieren sollte. Als Speichermedium für seine Erfindung nutzte er Lochkarten.
Das hatte er sich von mechanischen Jacquard-Webstühlen abgeschaut, die ihre Webmuster über gelochte Endlosbänder erhielten. Deren Vorbild wiederum waren Spieluhren, die Melodien auf kleinen Zylinderwalzen „speicherten“. In Frankreich waren Jacquard-Webstühle anfangs umstritten, weil Weber fürchteten, ihre Arbeit durch sie zu verlieren. Hollerith aber erkannte das große Potenzial der Lochkarten und nutzte es.
Mit seinen Hollerith-Automaten – der Erfinder hatte sich inzwischen selbständig gemacht – konnte das US-Zensusbüro 1890 erstmals das ganze Land in nur drei Jahren auszählen. Noch bis zur Jahrtausendwende arbeiteten US-Wahlmaschinen teilweise mit den genormten 80-Byte-Lochkarten. War damit die digitale Datenverarbeitung geboren?
Oder nahm die Geschichte des Computers ihren Anfang bereits 50 Jahre früher mit Charles Babbage, der einen dampfgetriebenen Computer erdachte, für den die kongeniale Mathematikerin Ada Lovelace Rechenprogramme entwickelte – beides nur auf dem Papier, denn niemand konnte damals eine solche Maschine bauen. Gleichwohl hätte diese Analytical Engine – so wissen wir heute – tatsächlich funktioniert. Viele Computerpioniere übernahmen später Ideen der Babbage-Maschine. Nach Ada Lovelace ist eine Programmiersprache benannt.
5.000 Rechenoperationen pro Sekunde gelangen dem 27 Tonnen schweren ENIAC-Rechner in den 40er-Jahren. Heutige Großrechner schaffen 2,8 Billiarden.
Aber was wäre die Geschichte der Computerisierung ohne Konrad Zuse, der 1937 mit dem Z1 den ersten funktionsfähigen Binärrechner entwickelte, der wie alle modernen Computer nur mit Nullen und Einsen arbeitete? Das Geld für seine Entwicklung erhielt Zuse von einem wohlmeinenden Fabrikanten, der ihm noch auf den Weg mitgab, dass auf diesem Sektor eigentlich schon alles erfunden sei.
Genau wie heutige Mikroprozessoren besaß der Z1 ein Eingabe- und Ausgabewerk, ein Rechenwerk und einen Arbeitsspeicher – nur eben räumlich eine Million mal größer und mit mechanischen Blechschiebern, die sich oft verklemmten – das Ganze angetrieben von einem Staubsaugermotor.
Kampf gegen Käfer
Die eigentliche Miniaturisierung des Computers geschah erst auf der anderen Seite des Atlantiks. Frühe Rechenmaschinen wie der ab 1942 für die US-Army aufgebaute ENIAC nutzten noch faustgroße Elektronenröhren im Rechenwerk. Rund 20.000 davon steckten in den Tiefen des gewaltigen Apparates – jeden Tag mussten ein paar davon ersetzt werden. Allein zum Halten seiner Temperatur benötigte der 27-Tonnen-Koloss mit 150 Kilowatt fast tausendmal so viel Energie wie ein aktueller Bürocomputer – bei gerade einmal 5.000 Rechenoperationen in der Sekunde.
Fatal: Die Wärme zog auch Insekten an, die in den Schaltwerken der frühen Computer verendeten und dabei aus einer Null eine Eins machten oder umgekehrt. Aus dem Jahr 1947 datiert der erste Logbucheintrag zu einem solchen Computer-„Bug“. Das Insekt wurde gleich daneben geklebt. Gleichwohl ist der Bug keine Wortprägung des Computerzeitalters. Schon Thomas Edison hatte sich über Käfer in seinen Morsetelegrafen beklagt.
Allzweckelement Silizium
1948 erfanden John Bardeen, Walter Brattain und William Shockley beim Telefonhersteller AT&T den Transistor als Röhrenersatz und katapultieren die Menschheit damit nach der Stein-, Bronze- und Eisenzeit in das Silizium-Zeitalter. Auch das Insektenproblem war so ganz nebenbei gelöst.
Silizium ist ein Halbmetall und man könnte es das Schweizer Taschenmesser unter den Elementen nennen. Je nachdem, wie man es mit winzigen Partikeln anderer Elemente impft, leitet es Strom mal in diese oder jene Richtung, verstärkt den Elektronenfluss oder funktioniert im Fall des Transistors als elektronischer Ein- und Ausschalter. Über 100 Milliarden solcher winzigen Schalttransistoren stecken heute in einem einzigen Mikroprozessor.
Wie Schaeffler immer digitaler wurde
Als technologieaffines Unternehmen hat Schaeffler das Potenzial moderner IT-Lösungen früh erkannt und begann in den 1960er-Jahren „digital“ zu werden. Schon 1961 bekam Schaeffler den ersten Elektronikrechner namens 14-01. Er hatte einen Hauptspeicher von 8 Kilobyte. Für die damaligen Verhältnisse eine sehr leistungsfähige Anlage. Inklusive Kartenleser und Schnelldrucker kostete die IT-Anlage 29.000 DM Miete – im Monat. Ein nächster Meilenstein war 1969 die Eröffnung des neu gebauten INA-Rechenzentrums, das mit seiner unterbrechungslosen Stromversorgung, einem Ionisationsfrühwarnsystem und speziellen Feuerschutzräumen für Magnetspeicherbänder das Modernste darstellte, was auf dem Markt zu haben war. Heute ist Schaeffler in allen digitalen Welten zu Hause – bis hin zu virtuellen Anwendungen. Jüngster Meilenstein ist die Integration des innovativen KI-Assistenten „Siemens Industrial Copilot“ in der Produktion. Die KI-Lösung übernimmt beispielsweise die Erstellung komplexer Programmiercodes für Fertigungsprozesse und verringert so den Aufwand von Maschinenbedienern. Der „Copilot“ hat außerdem Zugriff auf relevante Dokumentationen, Richtlinien und Handbücher, um Mitarbeitende bei der Identifizierung möglicher Fehlerquellen zu unterstützen. Weitere Potenziale bietet der KI-gestützte Assistent bei der Maschinen-Korrespondenz oder Validierungen.
Die Firma von Herman Hollerith, die nach mehreren Fusionen inzwischen International Business Machines Corporation, kurz IBM, hieß, verkaufte ab 1960 erste Transistorrechner für die zivile Nutzung. Noch wenige Jahre zuvor soll IBM-Vorstand Thomas Watson erklärt haben, dass es einen Weltmarkt für gerade einmal fünf Computer gäbe. Doch der Transistor änderte alles.
Wer als Versicherer, Energieversorger oder Geschäftsbank etwas auf sich hielt, der errichtete ab den 60er-Jahren am Unternehmenssitz eines dieser klimatisierten, neonhell erleuchteten Rechenzentren, in denen IBM-Computer der Serien 360 und 370 unablässig Daten auf riesige Magnetbänder schrieben, während Spezialisten an Nadeldruckern standen und Endlospapier abrissen. Brauchbare Monitore waren noch nicht erfunden und das papierlose Büro eine ferne Idee.
Die Angst des Astronauten
Frauen sind auf Fotos jener Zeit selten zu sehen. Dabei waren es Spezialistinnen wie Katherine G. Johnson und Judith Love Cohen, Mutter des Schauspielers Jack Black, die mit NASA-Computern die Flugbahnen für das Raumfahrtprogramm Mercury und die Apollo-Mondmission berechneten. Astronaut John Glenn soll verlangt haben, dass Johnson persönlich seine Daten für die Erdumrundung nachrechnete. Erst dann stieg er in die Raumkapsel.
Kein so großer Erfolg wie die Mondlandung war der 1975 vorgestellte erste tragbare IBM-Computer. Das lag möglicherweise auch an seinem Gewicht von 25 Kilo. Doch die Entwicklung ging in die richtige Richtung: Computer wurden kleiner und leistungsfähiger. Bereits in den 1960ern hatte Intel-Mitgründer Gordon Moore vorausgesagt, dass sich die Anzahl verbauter Transistoren alle 12 bis 18 Monate verdoppeln würde. Man nennt dies das Mooresche Gesetz.
Zu den Großrechnern gesellten sich ab den 1960er-Jahren die sogenannten Minicomputer, wie die PDP-Modelle von DEC. Das „Mini“ war hier relativ zu sehen. Auch sie waren immer noch schrankgroß und kosteten fünf- bis sechsstellige Summen. Erst der Microcomputer sollte dies ändern.
„Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt.“
IBM-Chef Thomas Watson 1943
1981 stellte IBM nach nur einem Jahr Entwicklungszeit seinen „Personal Computer“ vor und erfand damit den VW Golf unter den Computern. Der PC bestand aus marktverfügbaren Standardteilen. Eigentlich sollte er bloß das IBM-Portfolio nach unten abrunden und Kunden für teurere Produktlinien begeistern. Im Inneren werkelte ein günstiger 8088-Prozessor von Intel. IBM-Ingenieure nannten die PC-Sparte ihres Hauses deshalb gerne auch „Spielzeugabteilung“. Und doch wurde die Maschine zum Millionenseller. Prognostiziert hatte IBM lediglich 250.000 Verkäufe – über fünf Jahre!
Hatte der Transistor das Computerzeitalter eingeläutet, so brachte der PC dessen Demokratisierung. Schon bald stand er auf fast jedem Büroschreibtisch. Viele Beschäftigte waren besorgt, durch den PC ihren Arbeitsplatz zu verlieren – Datatypisten und Stenographen wurden jetzt nicht mehr gebraucht. Doch die Computerisierung schuf auch viele neue Arbeitsplätze und machte neue Geschäftsfelder und Dienstleistungen möglich. Am Ende verschwanden jene Firmen, die den technologischen Wandel nicht mitgingen und an Rechenschieber, Umlaufmappe und Diktaphon festhielten.
Auch für IBM änderte sich einiges. Noch bis in die 70er-Jahre galt für den Computermarkt das Diktum von „IBM und den sieben Zwergen“. Nun sicherten sich Wettbewerber wie DELL, Compaq, Olivetti oder Wang mit teils besseren, teils kostengünstigeren IBM-„Klonen“ Marktanteile.
Kein Bedarf für private Computer?
Neben dem erfolgreichen IBM-PC und seinen vielen Nachbauten gab es auch andere Personal- und Heimcomputer, darunter den lediglich 200-mal gebauten Apple I. Der Vorgänger des Welterfolgs Apple II ging zum Scherzpreis von 666 US-Dollar über den Ladentisch – als nackte Platine ohne Gehäuse. Wer heute eines der acht bekannten, funktionsfähigen Exemplare besitzt, darf sich über einen Klassiker mit Millionenwert freuen.
Computer in der Werbung – eine Zeitreise
Noch 1977 hatte Ken Olsen, Chef des Computerherstellers DEC, erklärt, dass er sich keine Privatperson vorstellen könne, die einen Computer haben wolle. Auch er sollte sich irren und DEC vom Markt verschwinden. Bald konnten und wollten sich immer mehr Heimanwender eigene Hardware leisten – anfangs zum Preis eines Gebrauchtwagens, als Bausatz auch deutlich günstiger. Der Selbstbaucomputer „Altair 8800“ kostete gerade einmal 400 Dollar und wurde ein Bestseller unter frühen Nerds.
Anfang der 80er kamen Heimcomputer wie der Commodore 64 oder der Sinclair ZX Spectrum. Sie waren langsamer als ein PC, hatten dafür aber Farbgrafik und Sound an Bord, die man beim PC erst teuer nachrüsten musste. Kassettenrekorder dienten als Datenspeicher. Eine ganze Generation sammelte so ihre ersten Computer-Erfahrungen.
Ohne es zu merken, gab IBM mit dem PC auch seinen wertvollsten Besitz aus der Hand, die Hoheit über die Software: Eine noch unbekannte, aufstrebende Firma namens Microsoft erhielt den Zuschlag für ein Betriebssystem. Deren Gründer Bill Gates und Paul Allen erwarben kurzerhand das weitgehend fertige Betriebssystem eines anderen Entwicklers und machten daraus PC-DOS, das später auch Grundlage für Windows wurde.
Der X-Y-Positionsindikator revolutioniert die Computerwelt
Windows hätte es wohl nie gegeben ohne einen anderen Pionier: Douglas Engelbart. Der Computeringenieur aus Portland hatte als Soldat im Zweiten Weltkrieg von einem fiktiven Jedermann-Computer namens Memex (MemoryExtender) gelesen. Seitdem suchte er nach einer intuitiven Mensch-Maschine-Schnittstelle, über die ein solcher Computer zu bedienen wäre. Lochkarten hielt Engelbart für eine schlechte Idee: aufwendig zu stanzen und nur mit teurer Hardware einzulesen. Bei seinen Forschungsarbeiten in Stanford probierte er Lichtgriffel aus. Doch langes Halten ermüdete die Arme. Eine Steuerung per Kniehebel unter der Tastatur? Viel zu ungenau.
Schließlich nahm Engelbart ein Planimeter zur Hand – ein Laufrad, das auf einem Zeichentisch Entfernungen abrollt und misst. Er kombinierte es mit einem zweiten Laufrad, das er im rechten Winkel dazu anordnete. Beide ließ er in ein Holzgehäuse verbauen und versah es mit einem Taster an der Oberseite: Die Computermaus war geboren – 1963 noch umständlich als „X-Y-Positionsindikator für ein Bildschirmsystem“ bezeichnet. Ihren Siegeszug trat die Maus erst mit grafischen Benutzeroberflächen an, die ab den 1980er-Jahren vermehrt aufkamen: mit Apple Lisa, Windows und Geos. Auch daran hat Engelbart mitgeforscht.
Und dann war da noch: Das Netz der Netze
Etwa zur selben Zeit, als Neil Armstrong 1969 den Mond betrat, ging unbemerkt von der Weltöffentlichkeit auch der Internet-Vorgänger Arpanet an den Start – mit anfangs nur einer Handvoll Computern. Zukünftige Generationen werden vielleicht streiten, was davon das bedeutendere Ereignis war. Tim Berners-Lee gab dem Internet zwanzig Jahre später mit HTML eine eigene Sprache und schuf so das World Wide Web. Heute verbindet das Netz der Netze mehr als 20 Milliarden Maschinen. Zwei Drittel der Menschheit sind inzwischen online.
Je leistungsfähiger Computer und das Internet werden, desto mehr von der Welt wandert in den Cyberspace – anfangs oft noch spielerisch: Die erste Webcam (1991) zeigte lediglich den Füllstand einer Kaffeemaschine. Die erste E-Mail (1971) wurde über eine Distanz von nur drei Metern versendet.
Heute generiert die Menschheit unvorstellbare 150 Zettabyte an Daten pro Jahr und speichert einen Großteil davon online. Gestanzt in Hollerith-Lochkarten würde der Stapel mehr als eine Million mal von der Erde bis zur Sonne reichen. Ziemlich beachtlich für eine technische Revolution, die einst mit Spieluhren und Dampfantrieb begann.