Die Anfänge der Digitalisierung – der Geist in der Flasche

Wie schon der Name sagt (digit: Ziffer, Zahl), beruht die Digitalisierung auf der immer komplexeren Verwendung von Zahlen, also 1, 2, 3 … Die Zahlen wiederum beruhen auf der bereits Katzen, Löwen und anderen klugen Lebewesen bekannten Unterscheidung verschiedener Objekte. Insofern finden »Rechnungen« (»wie viele Mäuse, Gazellen und so weiter laufen hier herum«; ist die benachbarte Schimpansenhorde stärker oder schwächer als wir?«) praktisch bereits seit Jahrmillionen statt. Spätestens mit der Entstehung der ersten Hochkulturen wurden sie zur gesellschaftlichen und wirtschaftlichen Organisation des Lebens unentbehrlich.

Der griechische Philosoph Pythagoras (570–510 v. Chr.) und die Bibel erklärten sie zu Grundstrukturen unseres Universums: Alles ist geordnet nach Maß und Zahl. Insofern leben wir bereits seit Jahrtausenden in einer von Digitalisierung geprägten Welt, ohne welche die Pyramiden, der Tempel zu Jerusalem, das Parthenon oder die Kathedrale von Chartres nicht hätten gebaut werden können, ohne die Kolumbus niemals seinen Fuß auf amerikanischen Boden gesetzt hätte und ohne die die Templer, die Fugger und die Medici niemals ihre Handelsimperien hätten errichten können.

Wenn wir hier über die durch die Digitalisierung bewirkte neue Revolution der menschlichen Verhältnisse sprechen, so ist das der ungeheuren Beschleunigung und Erweiterung der Speicherung von Zahlen und ihrer Verarbeitung zuzuschreiben, die durch die Entwicklung moderner Rechenmaschinen ermöglicht wurden.

Bereits Leibniz und Pascal haben vor rund drei Jahrhunderten erste mechanische Rechenmaschinen gebaut. Diese wurden in den darauffolgenden Zeiten ganz wesentlich verbessert. Man könnte bereits diese als allererste Schritte in Richtung »Künstliche Intelligenz« bezeichnen, wenn man unter »KI« Systeme versteht, die Dinge tun können, für die man sonst einen intelligenten Menschen benötigt. Allerdings tun wir das traditionell nicht: Uns scheint stures Addieren und Multiplizieren doch zu einfach, also »unintelligent«.

Leibniz formulierte auch das binäre Zahlensystem, eine ganz wesentliche Grundlage der heutigen Computertechnik. In diesem System können alle als Zahlen darstellbaren Vorgänge durch einen Code aus Nullen und Einsen beschrieben werden; technisch kann die »Eins« etwa einen Strom- oder Spannungsstoß darstellen und die »Null« das Fehlen eines solchen. Bis zur KI-Nutzung dieser Idee dauerte es allerdings noch ein paar Jahrhunderte.

Ein wesentlicher Schritt in Richtung unserer heutigen elektronischen KI wurde mit den während des Zweiten Weltkrieges konzipierten programmgesteuerten Rechenmaschinen realisiert. Pioniere der ersten Stunde waren hier in Deutschland Konrad Zuse und in den USA John von Neumann. Während Konrad Zuse das Glück hatte, dass die von ihm konstruierte programmgesteuerte elektronische Rechenmaschine nicht mehr zum Einsatz kam, gelang es John von Neumann und seinen Kollegen, im Rahmen des amerikanischen Nuklearprojekts die Zündmechanismen der ersten Atom- und Wasserstoffbomben zu berechnen und damit der Urankettenreaktion eine Zerstörungskraft zu verleihen, die alle Gräuel der bisherigen Menschheitsgeschichte übertrifft. Diese Rechner konnten nicht nur sehr viele Zahlen addieren und multiplizieren, sondern auch diese miteinander nach bestimmten Programmbefehlen verknüpfen. Für heutige Begriffe waren sie noch extrem primitiv: Sie waren riesige Ungetüme aus elektromechanischen Schaltern und Vakuumröhren; ihr Gedächtnis war fabelhaft schlecht, mehr als ein paar Worte – in Zahlen ausgedrückt – konnten sie nicht behalten. Zudem war ihr Energieverbrauch gigantisch: Bei einer Rechengeschwindigkeit von ein paar Multiplikationen pro Sekunde hatten sie wegen ihrer elektromechanischen Relais einen Strombedarf im Kilowatt-Bereich. Bei diesem Energieverbrauch würden unsere Milliarden Mal leistungsfähigeren Computer wohl die Weltenergieressourcen für sich allein benötigen.

In der Anfangszeit vor beziehungsweise in den 1950er-Jahren füllte eine programmgesteuerte Rechenmaschine wie die »Zuse Z22« einen großen Raum, machte aufgrund ihrer elektromechanischen Relais einen Höllenlärm und hatte gerade mal ein paar Kilobit an Memory. Betreut wurde sie nicht von einem Softwareingenieur, sondern von einem Mechanikermeister.

Zuse selbst war dennoch von der epochalen Bedeutung seiner Pionierarbeiten überzeugt, er schrieb:

»Es ist sicher für uns in den nächsten 100 Jahren oder auch schon für die nächste Generation eine harte Aufgabe, mit all diesen Konsequenzen fertig zu werden.«

Konrad Zuse

Diese Überzeugung wurde auch von anderen Fachleuten auf dem Gebiet der neu entstehenden Computerwissenschaften geteilt. So heißt es in dem Vorwort einer Informatiktagung an der RWTH Aachen im Jahre 1952:

»Die Umwälzung, die durch die Entwicklung der Großrechenanlagen […] angebahnt ist, kann kaum überschätzt werden. Sie ist größer als beispielsweise die durch die Erfindung der Eisenbahn oder sogar des Flugzeugs bewirkte Revolution des Verkehrswesens.«[1]

Schon damals war also absehbar, dass das Leben jedes Einzelnen in Zukunft maßgeblich von dieser wundersamen Technik beeinflusst werden sollte.

Immer wieder stellte und stellt sich bei dem technischen Fortschritt die Frage: Wann wird die Technik den Menschen überflügeln, ja gar ersetzen? Bereits vor beinahe 100 Jahren gelang dem Regisseur und Produzenten Fritz Lang mit dem Film Metropolis ein Meisterwerk. Die Metamorphose des Roboters im Labor zu der künstlich geschaffenen Maria ist der Wink mit dem ganzen Zaun in Richtung Goethe. Das Thema: »Wann ist die Maschine ein Mensch?« bewegt die Menschheit schon so lange, dass sie in unser kulturelles Denken unauslöschlich übergegangen ist.


[1] Vgl. Christoph Cremer: Heidelberger Gespräche Gesellschaft, Humanismus-Tage, November 2022.