February 13, 2025

Von der Industrialisierung zur Digitalisierung

 Bis ca 1900 war Deutschland die führende Technologie-Nation in der Welt. Die Wissenschaftsschaftssprache in der sich Mathematiker und Physiker ausgetauscht haben war Deutsch und Deutschland war auf allen wichtigen Bereichen wie Automobilbau, Elektrotechnik und Eisenbahnwesen gut aufgestellt. Ein Blick in die Technikmusueen weltweit zeigt, dass die meisten Erfindungen, die während der industriellen Revolution getätigt wurden, aus Deutschland kamen und insbesondere die Grundlagenforschung dort durchgeführt wurde.

Ab ca. 1900 änderte sich die Situation jedoch. Mit Einzug der Unterhaltungselektronik wie Kino und Radio wurden die USA zunehmend wichtiger und seit der Computerrevolution in den 1950er haben die USA die Vorreiterrolle in Sachen Techcnologieentwicklung übernommen. Auch das Internet ab den 1990er und die KI Revolution ab 2020 hatten ihren Ausgangspunkt in den USA aber nicht in Deutschland.

Der folgende Artikel soll die Hintergründe dieser Veränderung untersuchen. Heute in der Gegenwart wird Deutschland häufig als technikfeindlich beschrieben. Die Vorbehalte gegenüber Technoligie betreffen aber lediglich Computertechnologie, in Bezug auf klassische physik-getriebene Technik ist Deutschland traditionell sehr fortschrittlich und sogar optimistisch. Scheinbar ist das Verhältnis zur Technik also ambivalent. Lediglich bei sehr neuer Technik die ab 1900 entwickelt wurde, gibt es Vorbehalte.

Vielleicht macht es Sinn zunächst einmal die Technologie bis 1900 näher zu beleuchten. Wie oben schon erwähnt, war diese Technik das Ergebnis von Mathematik und Physik. Physikalische Gesetze wie der Fluss von Elektronen in einem Leiter oder die Umwandlung von Energie untereinander kann in konkrete Maschinen überführt werden. Damit ist es möglich, Kohlekraftwerke, Autos bis hin zu Eisenbahnen zu bauen. Auf diesen Bereichen war und ist Deutschland sehr gut aufgestellt. Es gibt eine lange Tradition in der Erforschung und der praktischen Umsetzung, und genau diese Technik wurde während der industriellen Revolution benötigt. Damit war es möglich, die Städte zu elektrifizieren, Anlagen zu planen und Mobilität der Bevölkkerung zu ermöglichen.

Ab ungefähr 1950 kam es jedoch zu einer grundsätzlichen Veränderung in der Technikevolution. Zwar benötigen auch Computer und Radios den elektrischen Strom, aber sie funktionieren anders als frühere Maschinen. Wissenschaftsdisziplinien wie die Physik und Mathematik haben in Bezug auf die Weiterentwicklung von Computern und dessen Software nur noch eine geringe Bedeutung. Anhand der Computerentwicklung kann man aufzeigen, dass die neue Anforderung nicht länger ein theoretisches Verständnis von Formeln ist, sondern neue Computer-Technologie ist das Resultat von experimenteller Computerwissenschaft. Auf diesem Gebiet sind die USA sehr gut aufgestellt. Die Entwicklung der Computertechnik seit den 1950er ist das Ergebnis von sehr vielen und qualitativ hochwertigen Einzelexperimenten.

Hier einige Beispiele für diese Experimente: Motion Capture, Computernetze, Roboter, Festplatten als Computerspeicher, die Maus als Eingabemedium, 32bit Betriebssysteme, Neuronale Netze, CPU Desiogn oder Computeranimation. All diese Bereiche haben exerimentellen Charakter. Damit ist gemeint, dass eine Forschergruppe von 2-3 Personen im Labor ein wenig herumprobiert, etwas programmiert, und etwas bastelt, und darüber dann einen Report verfasst und den publiziert. Das wird dann immer und immer wiederholt und so besteht die Computerentwicklung in den Jahrzehnten aus einer unendlichen Anzahl von Einzelexperimenten. Anders als in der Physik gibt es in der Computerwissenschaft nur wenig gesichertes Wissen, sondern das Fachwissen ist eher lose untereinander verbunden. Z.B. hat das TCP/IP Protokoll was beim Internet wichtig ist, fast nichts gemeinsam mit einem Motion capture Marker, womit man Bewegungen des menschlichen Körpers erfassen kann. Beides wird zwar als Computerwissenschaft bezeichnet, aber es gibt kein übergreifendes Theoriegebäude was beides einordnen könnte.

Die USA haben ab den 1950er Jahren die Durchführung und die Dokumentation von Computerwissenschafts-Experimenten perfektioniert. Nirgendwo sonst auf der Welt ist die Zahl und die inhaltliche Güte der durchgeführten Compüuterexperimente so hoch. Forschungsuniversitäten wie das M.I.T. haben zu jedem nur denkbaren Gebiet der Informatik mehrere hunderte Experimente durchgeführt, mit sehr unterschiedlichem Ausgang. Vieles wurde dokumentiert anderes aber nicht. Mit jedem durchgeführten praktischen Experiment erhöht sich das Wissen der beteiligten Forscher und der Wissenschaftscommunity die Zugriff auf die Resultate hat ein klein wenig. Bevor eine neue Technologie wie das Internet oder künstliche Intellilgenz praktisch eingesetzt werden kann, braucht es tausende oder zehntausende dieser Laborexperimente.

Deutschland war nie besonders gut in der experimentellen Computerwissenschaft. Der Ablauf unterscheidet sich stark von den etablierten Konzepten in der Physik und der Mathematik. Dort führt ein Experiment dazu vorhandenes Wissen zu bestätigten, und die vorhandene Theorie wird abgerundet. Die Experimentelle Computerwissenschaft hingegen hinterfragt bestehendes Wissen routinemäßig. Es fehlt ein übergreifendes starres Theoriegebäude, zugunsten einer postmodernen Ambivalenz.

Beispielhaft soll erläutert werden, wie genau ein Experiment in den Computerwissenschaften funktioniert. Ausgangspunkt ist ein Forschungsinteresse, z.B. die Frage wie man ein Datenpaket verlustfrei über ein Routing-Netz transportieren kann. Dann untersucht man vorhandene Literatur zu dieser Frage um im zweiten Schritt selbst ein Experiment durchzuführen. Man programmiert in der Programmiersprache seiner Wahl ein kleines Routing-Experiment mit Hilfe eines selbst entwickelten Internet-Protokoll s und dokumentiert die Ergebnisse in einem Paper. Dann wird das Paper auf einer Konferenz vorgestellt. Dort interessiert sich exakt niemand für die Resultate, was aber nicht so schlimm ist, weil damit dann mehr Zeit ist, für die nächste Forschungsfrage die ebenfalls experimentell untersucht wird. Und so geht es munter weiter. Nach diesem Prinzip funktioniert der Großteil der U.S. amerikanischen Computerforschung und das seit Jahrzehnten. Der einzig erkennbare rote Faden in der endlosen Reihe von Experimenten ist lediglich, dass sie alle etwas zu tun haben mit Hardware-Basteleien und Softwareprogrammierung. Die Fragestellungen die untersucht werden sind jedoch sehr unterschiedlich. Die Computerwissenschaft ist eine Art von Laboratorium für alle möglichen Fragenstellungen aus den Bereichen Linguistik, Film, Biologie, Mathematik und Psychologie.

Die beschriebene Form des Experimentes war nicht erforderlich während der industriellen Revolution bis 1900. Zwar kennt auch die Physik ein Experiment, wie z.B. zur Ermittlung der Leitfähigkeit von Metallen, aber diese Experimente werden nur 1x durchgeführt und die gewonnenen Daten haben dann 200 Jahre lang gültigkeit. Man kann das Resultat in physkalischen Tafelwerken nachlesen, es gibt aber keinen Grund, selbsr das Experiment erneut durchzuführen. Die Physik mitsamt ihrer Unterdisziplinen ist also sehr dogmatisch aufgebaut. Es ist ausgeschlossen, dass ein Student an einer Universität etwas über den elektrischen Strom herausfindet, was nicht schon 100 Jahre zuvor erkannt und umgesetzt wurde. Beim Studium der Physik geht es eher darum, das vorhandene Wissen zu verinnerlichen. Also die Formel auswendig zu lernen wie man den Widerstand in Abhängigkeit der elektrischen Spannung ermittelt.

Während der industriellen Revolution bis 1900 entstanden die großen Nachschlagewerke zu Mathematik und Physik in Deutschland, die heute immernoch Gültigkeit besitzen. Es sind zeitlose Klassiker der Naturwissenschaft die Themen wie Mechanik, Optik oder Energie als wissenschaftliche Theoriegebäude darstellen. Die Computerwissenschaft funktioniert dazu grundlegend anders. Das Wissen dort hat eine Halbwertszeit von weniger als 10 Jahren. Frühere Errungenschaften wie das MPEG2 Kompressionsverfahren oder Magnetfestplatten sind heute obsolet. Selbst Programmiersprachen, mit denen man sehr viele Probleme lösen kann, veralten schnell. Heutige Sprachen wie Python gab es vor 20 Jahren noch gar nicht. Zwar gibt es auch in den Computerwissenschaften den Versuch zeitlose Buchklassiker zu erschaffen wie z.B. Knuth "The art of computer programmierung", nur diese Werke sind anders als Physik-Grundlagenwerke nicht als Nachschlagewerk anerka nnt. Viele Informatiker haben das Buch von Knuth nicht gelesen und haben das auch nicht vor.


No comments:

Post a Comment