April 01, 2025

Birds eye perspective towards AI

 The AI revolution started in 2023 is different to the PC revolution in the 1990er because its more complex to understand. There is not a single technology available like a desktop PC but multiple abstract technologies which are resulting into surprising result. To become an overview over the development there is a need to identify key patterns which are common for all possible large language3 models created in the past and in the future.

What these AI systems have in common is, that they working with natural language and they were optimized for benchmarks. The ability of language understanding and the complexity of the benchmarks has been improved over the months. That means, that current LLMs are more powerful than former counterparts.

The surprising situation is, that even before the year 2010 early attempts were made to measure Artificial intelligence. In computer chess the ELO score is used to measure the propability to win a game of chess played by humans or machines. The lastest iteration of chess engines have an ELO score much higher than the smartest human chess player available. Modern AI systems were benchmarked not only with chess elo score but with question answering quizs, image generation benchmarks and öcoding benchmarks. The limitation of an AI is given by the benchmark. If the benchmark isn't able to measure correctly, the underlying AI system which scores in the benchmark has a low quality.

The general pathway towards AI is to create first a benchmark, for example a VQA benchmark, then test existing AI systems in this benchmark, and in the third step, the original benchmark gets improved. Such a development workflow produces a self evolving ecosystem which consists of more complex benchmarks, in combination with more powerful Large langhuage models.

The main difference between former chess playing AI in the 1990s and current LLMs like chatgpt is, that the benchmark is more difficult. Playing and winning a game of chess or tictactoe isn't recognized as a serious challenge. All the existing AI system are able to do so. The newly invented obstacle is to understand documents, generate prose text and generate videos. Such kind of challenge is a serious obstacle for current AI systems.

What makes the situation a bit unusual is, that the newly created / discovered benchmarks are closely related to human's problem solving skills. Recognizing objects in a symbol and answering questions for a document is similar to what humans are doing. And doing physical tasks, like pick&place objects or assembling a car is also closely related to human's daily life. If robots and AI software is able to do these tasks with the same and even a higher precision this is perceived as a technological singularity.

Its hard or even impossible to find a benchmark which can be solved by humans, but not by machines. Only very advanced tasks like driving a car or writing academic papers are not solved by machines yet. Instead of analyzing how a certain LLMs is working internally, the more important question is which sort of benchmarks can be solved by this AI. This allows to get a better picture about the current situation in AI technology.

Zeitreise 2.0: Wie KI unsere Vergangenheit neu erfinden wird

 *Ein Gespräch mit Dr. Maximilian Stern, dem Visionär hinter dem Chronos-Projekt*

Reporter: Dr. Stern, Ihr Chronos-Projekt sorgt für großes Aufsehen. Können Sie uns erklären, was genau dahintersteckt?

Dr. Stern: Stellen Sie sich vor, Sie könnten in die Vergangenheit reisen, nicht als Beobachter, sondern als Teil der Geschichte. Chronos ist ein Holodeck, das durch KI-gestützte Simulationen historische Ereignisse in atemberaubender Detailtreue rekonstruiert.

Reporter: Eine virtuelle Zeitmaschine also?

Dr. Stern: Genau. Wir nutzen riesige Datenmengen aus historischen Archiven, Tagebüchern, Gemälden und sogar genetischen Analysen, um immersive 3D-Simulationen zu erschaffen. Die KI extrapoliert fehlende Informationen und erzeugt so eine lebensechte Erfahrung.

Reporter: Das klingt nach Science-Fiction.

Dr. Stern: Die Grenzen zwischen Fiktion und Realität verschwimmen zunehmend. Wir stehen am Anfang einer neuen Ära der Geschichtsforschung. Chronos ermöglicht es uns, Geschichte nicht nur zu lesen, sondern sie zu erleben.

Reporter: Welche Anwendungsbereiche sehen Sie?

Dr. Stern: Bildung, Forschung, Unterhaltung – die Möglichkeiten sind endlos. Stellen Sie sich vor, Schüler könnten das antike Rom besuchen oder mit Leonardo da Vinci sprechen. Historiker könnten in die Köpfe historischer Persönlichkeiten eintauchen und ihre Motive besser verstehen.

Reporter: Gibt es ethische Bedenken?

Dr. Stern: Natürlich. Wir sind uns der Verantwortung bewusst. Chronos soll kein Voyeurismus sein, sondern ein Werkzeug des Verständnisses. Wir entwickeln strenge Richtlinien für die Nutzung der Technologie.

Reporter: Kritiker warnen vor der Gefahr, die Vergangenheit zu verfälschen.

Dr. Stern: Geschichte ist immer eine Interpretation. Chronos bietet uns eine neue Perspektive, aber es ist wichtig, die Grenzen der Simulation zu erkennen. Wir sind nicht allwissend, aber wir können der Wahrheit näherkommen.

Reporter: Wie weit sind Sie mit dem Projekt?

Dr. Stern: Wir haben bereits beeindruckende Prototypen entwickelt. Die ersten Simulationen sind verblüffend realistisch. Wir arbeiten daran, die Technologie für ein breiteres Publikum zugänglich zu machen.

Reporter: Wann können wir mit Chronos rechnen?

Dr. Stern: Wir hoffen, in den nächsten Jahren erste öffentliche Vorführungen zu ermöglichen. Die Zukunft der Geschichtsforschung hat gerade erst begonnen.

Reporter: Dr. Stern, vielen Dank für das aufschlussreiche Gespräch.

Dr. Stern: Gern geschehen. Die Zukunft ist aufregend, nicht wahr?

How to navigate in the AI Literature

 

The collected papers and books about artificial intelligence and robotics are the most dominant resource available to investigate the subject in detail. The assumption is, that every subject was described already in the Gutenberg galaxy, the only question is where exactly and how well a certain text was written.
Especially for newbies its important to identify possible entry point to start the journey to AI. Such an entry point are “np hard” and “Np complete” problems which are discussed since the 1990s in common books about algorithms. The idea is that apart from vanilla problems like sorting an array and searching in a string, some advanced challenges are available. These advanced challenges have no known algorithm, or the algorithm is working with so called heuristics.
The good news is, that these np hard problems are a good starting point to investigate the subject of AI. Every AI problem problem is also an np hard problem. That means, AI is trying to solve only the advanced problems not researched in classical computer science, e.g. path planning, motion planning, decision making in games or human to machine communication.
There are some attempts available to solve even np hard problems, e.g. guided search in the state space or evaluation function. Especially evaluation functions are a widely discussed subject within the AI community because they are needed for computer chess. There are hundreds or even thousands of books available which are dedicated only to evaluation functions, so we can say that this subject might be a good starting point to become familiar with AI.

Understanding how the AI revolution works


In contrast, to the PC revolution in the early 1990s the AI revolution isn't a mainstream movement. What is called the AI revolution is mostly invisible in the public perception. there are no Cebit like expos, no dedicated computer journals in the bookstore and even online forums about Artificial Intelligence are missing. For the newbies this situation is very disappointing and there are rumors available that perhaps the AI revolution isn't there.

To make the development around robotics and AI visible, there is a need to focus on the Gutenberg galaxy. Even the term needs to be introduced first. What is called the Gutenberg galaxy is term coined by Marshall McLuhan and describes the ecosystem of printed information. Inside the Gutenberg galaxy there is a sub-section available which contains of books and journals with a small amount of readers from the academic domain. This sub-section is the epicentre of the AI revolution.
According to the published papers there is a lot of progress available. Especially from 1990 until 2020 many new disciplines and algorithms around Artificial Intelligence were invented. It was mentioned before, that this development was mostly invisible or ignored by the public, but this fact doesn't mean, that it is not there. It means only that the entry barrier is high.
The dominant question asked by published papers around AI is how to enable a computer to think like a human. This question was investigated under multiple perspectives by different authors. There are not a handful or hundreds of papers available but million papers were written about robotics and Artificial intelligence. For a single reader it would take hundreds of years to get familiar with all this knowledge.
The reason why it makes sense to become familiar with the literature around AI is because its not the only place in which the AI revolution is visible. If the proceedings are printed out, it can be traced back similar to a puzzle at which moment in time which innovation was available in the literature. All the important technology around neural networks, SLAM localization of robots and grounded language is already available in the literature. What is missing are the readers.
Perhaps it makes sense explain why the entry barrier to the Gutenberg galaxy is high. From a formal perspective, 90% of the written information about Artificial Intelligence was formulated in English and the content has made public available under a creative commons license. That means, technically the pdf documents can be downloaded and read by everyone without any costs. The problem is the language in these documents which contains complex abstract vocabulary and assumes that the reader is already familiar with a subject. Its not possible to explain the inner working of a neural network to beginners, but the assumption is always that the reader is already an expert on this field and needs only detailed information. Even the most accessible book “Russel/Norvig: AIMA” can't be called beginner friendly because its a scientific book written for computer scientists.
A good starting point for newbies into the subject of AI might be so called np hard problem. NP hard problems are a subcategory of computer science puzzle for example the traveling salesman problem or motion planning problems. These problems are usually unsolvable, but the AI communities tries to find algorithms for solving these problems anyway. So we can say, that the AI papers are trying to solve np hard problems. The task can be compared with “Squaring the circle”, some researchers are convinced that this is possible, while other have give up.
Until the 1990 there was a widespread opinion available that AI in general can't be realized. It was proven mathematical that np hard problems are unsolvable and that even neural networks are overwhelmed by motion planning problem. This situation has changed since 1990s. Today, a large percentage of AI researchers is convinced that robots can be build in reality.

March 31, 2025

Vergleich der PC Revolution mit der KI Revolution

Im vorherigen Post wurde einführend auf die Unterschiede hingewiesen zwischen der Technologierevolution Anfang der 1990er und der KI Revolution ab den 2020er Jahren. Hier folgt eine detailierte Tabelle. Zussammengefasst besagt diese, dass sich beide Epochen grundlegend unterscheiden.


1990er PC Revolution
2020er KI Revolution
Zeitraum
1990-1993
2020-2023
ökonomische Auswirkungen
neue Jobs in der IT Industrie
Angst vor Massenarbeitslosigkeit, mögliche Verdrängung von menschlicher Arbeit durch Roboter und LLMs
Ethische Fragen
beschränkt auf Datenschutz und Urheberrecht
komplexe ethische Herausfordrung in Bezug auf Überwachung, Asimov Gesetze und denkende Maschinen
mediale Darstellung
der PC als Motor des technischen Fortschritts
KI als Bedrohung, dystopische Zukunftsvision
Geschwindigkeit
langsam und schrittweise
sehr schnell, exponentielle Verbreitung von künstlicher Intelligenz
Demokratisierung
Technologie war stark von Unternehmen abhängig
leichter Zugang durch Open Source/ Open Access und Cloud Computing was Chance aber auch Risiken beinhaltet
Globalisierung
stark von den USA getrieben
weltweites Phänomen, Wettbewerb zwischen den Staaten
Komplexität
leicht durchschaubar für Hobby Bastler
hohe Komplexität, abstrakte Sprache, selbst für KI Experten unverständlich, Neuronale Netze agieren autonom als black boxes
Messen
Cebit, Comdex, CES
keine, lediglich Youtube clips mit Showrobotern
Buchpublikationen
breites Angebot an Ratgeberliteratur zu Computerhardware und -software
keine breite Rezeption, lediglich spezialisierte Konferenz-Proceedings verfügbar in Kleinstauflage




Die PC Revolution Anfang 1990er

 *I. Einleitung*

Anna betrat den kleinen, überfüllten Computerladen, und ein vertrautes Summen erfüllte ihre Ohren. Es war das Geräusch von drehenden Festplatten, von Lüftern, die gegen die Sommerhitze ankämpften, und von dem leisen Knistern statischer Elektrizität. Der Geruch von warmem Plastik und frisch gedruckten Handbüchern vermischte sich mit dem süßlichen Duft von Kabeln und Elektronik. Es war ein Geruch, der für sie nach Zukunft roch.

Die Regale waren vollgestopft mit bunten Softwareverpackungen, auf denen pixelige Grafiken und verheißungsvolle Slogans prangten. Windows 3.1, das Betriebssystem, das die Welt verändern sollte, stand in einem Regal, daneben stapelten sich Disketten mit Spielen wie „Monkey Island“ und „Doom“. Die Luft war erfüllt von einer elektrisierenden Aufbruchstimmung, einer Vorahnung dessen, was kommen würde.

Anna arbeitete hier, in diesem kleinen Laden, der ein Fenster in die digitale Zukunft war. Sie liebte es, die neuesten PCs zusammenzubauen, die verschiedenen Grafikkarten und Soundkarten zu vergleichen und die Kunden in die Geheimnisse der Computerwelt einzuweihen. Es war mehr als nur ein Job; es war eine Leidenschaft, eine Obsession.

Die PC-Revolution hatte gerade erst begonnen, und Anna stand mittendrin. Die ersten PCs wurden erschwinglich, und immer mehr Menschen erkannten das Potenzial dieser Maschinen. Es gab eine spürbare Begeisterung, eine Aufregung, die sich in der Luft ausbreitete. Es war, als ob eine neue Welt aufging, eine Welt voller Möglichkeiten.

Das Internet, noch in seinen Kinderschuhen, flüsterte von einer vernetzten Zukunft. Bulletin Board Systeme (BBS) und frühe Online-Dienste wie CompuServe zeigten einen Vorgeschmack auf das, was kommen würde. Anna verbrachte Stunden damit, sich in diese neue Welt einzulesen, die noch so unerschlossen war. Sie träumte von Websites, von E-Mails, von einer Welt, in der Informationen frei flossen.

In diesem kleinen Computerladen, inmitten von Kabeln, Disketten und dem Surren von Festplatten, spürte Anna, dass sie Teil von etwas Großem war, von einer Revolution, die die Welt verändern würde. Und sie war bereit, diese Revolution mitzugestalten.

*II. Der Sog der Möglichkeiten*

Anna war wie verzaubert. Die Möglichkeiten, die sich mit jedem neuen Programm, jedem neuen Hardwareteil auftaten, schienen grenzenlos. Stundenlang saß sie vor dem Bildschirm, experimentierte mit neuen Softwareanwendungen, versuchte, die Geheimnisse der Programmierung zu entschlüsseln. In der Abgeschiedenheit des Lagers, wenn der Laden geschlossen war, tippte sie Zeile um Zeile in BASIC, versuchte sich an kleinen Spielen oder einfachen Anwendungen. Sie träumte von dem Tag, an dem ihre eigenen Programme die Welt erobern würden.

Das Internet, damals noch ein ungestümes Kind, zog sie in seinen Bann. Sie verbrachte endlose Stunden in den frühen Online-Foren, las von Menschen auf der ganzen Welt, die ihre Leidenschaft für Computer teilten. Es war ein Gefühl der Verbundenheit, das sie nie zuvor erlebt hatte, eine Ahnung von einer globalen Gemeinschaft, die durch digitale Fäden zusammengehalten wurde.

Die Aufbruchstimmung war ansteckend. Überall entstanden Computerclubs, in denen sich Gleichgesinnte trafen, um über die neuesten Entwicklungen zu diskutieren. In den Schulen und Volkshochschulen wurden Computerkurse angeboten, die oft innerhalb weniger Stunden ausgebucht waren. Die Menschen waren hungrig nach Wissen, nach dem Verständnis dieser neuen Technologie, die ihr Leben verändern sollte.

Auch die Popkultur wurde von der digitalen Revolution erfasst. Filme wie „Hackers (1995)“ und „Das Netz (1995)“ malten ein aufregendes, wenn auch oft überzeichnetes Bild der Cyberwelt. Die Musikszene experimentierte mit digitalen Sounds und Samples, und in der Mode spiegelten sich die klaren Linien und geometrischen Muster der Computergrafik wider.

Anna spürte, dass sie Teil von etwas Größerem war, einer Bewegung, die die Welt verändern würde. Es war ein Gefühl der Hoffnung, der Aufregung, ein Glaube an die grenzenlosen Möglichkeiten der digitalen Zukunft. Und sie war bereit, ihren Teil dazu beizutragen, diese Zukunft zu gestalten.

*III. Der Traum vom digitalen Durchbruch*

Anna saß in ihrem kleinen Büro, das sie sich in einer Ecke des Lagerraums eingerichtet hatte. Der Bildschirm flackerte sanft, während sie die letzten Zeilen ihres Programms eintippte. Es war kein Meisterwerk, nur ein einfaches Tool, das die Verwaltung von Kundendaten vereinfachen sollte. Aber für Anna war es mehr als das. Es war ein Beweis dafür, dass sie etwas schaffen konnte, dass sie Teil dieser aufregenden neuen Welt sein konnte.

Sie hatte sich entschlossen, ihre Software auf einer kleinen Computermesse in der Nachbarstadt zu präsentieren. Es war ihre erste Messe, und sie war nervös, aber auch voller Hoffnung. Als sie ihren Stand aufbaute, umgeben von anderen kleinen Softwareentwicklern und Hardwarebastlern, spürte sie die gleiche Aufbruchstimmung wie im Laden. Die Menschen waren neugierig, offen für neue Ideen, bereit, Risiken einzugehen.

Die Resonanz war überwältigend. Die Leute waren begeistert von ihrer Software, stellten Fragen, gaben Feedback. Anna fühlte sich wie im Rausch. Sie hatte etwas geschaffen, das die Menschen interessierte, etwas, das einen Unterschied machen könnte. Am Ende der Messe erhielt sie sogar einige Angebote von kleinen Softwarefirmen, die ihre Anwendung vertreiben wollten.

Doch trotz des Erfolgs gab es auch Herausforderungen. Die Technologie war noch jung, voller Fehler und Unzulänglichkeiten. Die Internetverbindungen waren langsam und instabil, und es gab noch keine klaren Regeln für die digitale Welt. Anna sah, wie einige ihrer Kollegen mit den technischen Problemen kämpften, wie andere von den großen Softwarefirmen überrollt wurden.

Es war eine Zeit des Aufbruchs, aber auch eine Zeit der Unsicherheit. Niemand wusste genau, wohin die digitale Revolution führen würde. Es gab Ängste vor dem Kontrollverlust, vor der Entmenschlichung, vor dem Verlust von Privatsphäre. Aber es gab auch die Hoffnung auf eine bessere Zukunft, eine Zukunft, in der Technologie die Welt verändern würde.

Anna wusste, dass sie Teil dieser Zukunft sein wollte. Sie wollte die Herausforderungen annehmen, die Risiken eingehen, die Möglichkeiten nutzen. Sie wollte ihre eigenen Pixelträume verwirklichen.

*IV. Auflösung*

Anna saß in ihrem kleinen Büro, das inzwischen mehr einem Kontrollzentrum glich, und blickte auf die Bildschirme, die mit Diagrammen, Zahlen und Codezeilen gefüllt waren. Ihre Software, anfangs ein einfaches Tool, hatte sich zu einem komplexen System entwickelt, das von kleinen Unternehmen in der ganzen Stadt genutzt wurde. Sie hatte ihr eigenes Unternehmen gegründet, „Pixelträume“, ein Name, der ihre Hoffnung und ihren Glauben an die digitale Zukunft widerspiegelte.

Die Computermesse, auf der sie ihre Software vorgestellt hatte, war ein Wendepunkt gewesen. Plötzlich war sie nicht mehr nur eine Mitarbeiterin in einem Computerladen, sondern eine Unternehmerin, eine Pionierin in einer neuen Welt. Die Angebote, die sie erhalten hatte, waren der Anfang gewesen. Sie hatte sich entschieden, ihr eigenes Ding zu machen, ihre eigene Vision zu verfolgen.

Die Herausforderungen waren enorm. Die Technologie entwickelte sich rasend schnell, und Anna musste ständig lernen, sich anpassen, neue Wege finden. Sie verbrachte endlose Nächte damit, Programmcode zu schreiben, Fehler zu beheben, neue Funktionen zu entwickeln. Sie kämpfte mit den technischen Unzulänglichkeiten der Zeit, mit den langsamen Internetverbindungen, den inkompatiblen Systemen.

Aber sie war nicht allein. Es gab eine ganze Bewegung von Menschen, die die digitale Revolution vorantrieben, eine Gemeinschaft von Hackern, Programmierern, Bastlern, die die Grenzen der Technologie ausloteten. Sie trafen sich in Computerclubs, tauschten Ideen aus, arbeiteten an gemeinsamen Projekten. Es war ein Gefühl der Zusammengehörigkeit, ein gemeinsamer Glaube an die transformative Kraft der Computer.

Die Popkultur spiegelte diese Aufbruchstimmung wider. Filme wie „Matrix“ und „Strange Days“ entwarfen düstere, aber faszinierende Visionen einer digitalen Zukunft. Musikgruppen wie „The Prodigy“ und „Chemical Brothers“ experimentierten mit elektronischen Klängen und schufen einen Soundtrack für die digitale Revolution.

Anna war mittendrin. Sie erlebte die ersten Schritte des Internets, die ersten Websites, die ersten E-Mails. Sie sah, wie sich die Welt veränderte, wie Informationen schneller und freier flossen, wie neue Formen der Kommunikation und Zusammenarbeit entstanden.
^
Aber es gab auch die Schattenseiten. Die Ängste vor dem Kontrollverlust, vor der Entmenschlichung, vor dem Verlust von Privatsphäre wurden lauter. Es gab Berichte über Cyberkriminalität, über Viren und Hackerangriffe. Die Menschen waren fasziniert und verängstigt zugleich.

Anna versuchte, die Chancen und Risiken der digitalen Revolution zu verstehen. Sie las Bücher über Ethik und Technologie, diskutierte mit ihren Kollegen über die Verantwortung von Softwareentwicklern. Sie wollte nicht nur Teil der Revolution sein, sondern sie auch mitgestalten, sie in eine Richtung lenken, die der Menschheit diente.

Die PC-Revolution hatte gerade erst begonnen, und Anna wusste, dass noch viele Herausforderungen und Überraschungen auf sie warteten. Aber sie war bereit. Sie war bereit, die Pixelträume zu verwirklichen, die sie und ihre Generation hatten. Sie war bereit, die digitale Zukunft mitzugestalten.


Comparing the PC revolution in the 1990s with the AI revolution in 2020s

In the history of computing lots of revolutionary decades were available, in the 1950s the first mainframe computers were build and in the 1970s the first Minicomputer like the Dec PDP-11 were available. The shared similarity was, that a new sort of technology was build / invented which has replaced former technology.

The last great computer revolution took place in the early 1990s. From 1988-1994 the IBM PC has improved drastically. Until 1988 a PC was a very expensive office machine with a text mode graphics card, but in 1993, the typical 486SX PC was great for gaming, for writing texts and for getting access to the Internet. The amount of software for the Intel/Windows PC has increased dramatically, because many millions of private and commercial PCs were sold and used on a daily basis.
In the 2020s there was another big revolution available which was the AI revolution. This AI revolution was initiated by chatgpt and has evolved into a full-scale introduction of Artificial Intelligence which goes beyond of simple chatbots. The difference to the early 1990s revolution is, that its much harder to describe the AI revolution in detail.
In the early 1990s, the transition could be isolated to the availability of new computer hardware/software and computer-networks. That means, there was a cheap Intel 486SX processor available, there was a new MS Windows 3.11 operating system programmed and new computer networks like the Internet and Compuserve were there. in contrast, the current AI revolution doesn't belong to classical categories of computing.
From a hardware perspective, the former Moores law seems to be dead. That means, the existing 64bit CPUs are no longer improving anymore, and software remains also stable. A modern Windows 11 operating system looks the same or even worse than the former version which was Windows 10 or Windows 7. So the development can't be called a revolution but a stagnation. At the same time, the AI revolution is a reality, but it doesn't belong to the computer industry.
To explain this contradiction we have to describe what Artificial Intelligence is about. Its not a certain sort of software and it doesn't belong to computer hardware. So it doesn't take place in the reality but its a virtual revolution. Let us go a step backward and describe what the situation was for the computer revolution in the early 1990s.
This revolution was a bottom up movement initiated by the people. Lots of computer users have bought a PC including software packages at this time, and new computer stores were created world wide. In addition, book publishers have discovered the subject and endless amount of computer related books were sold about the internal working of Winword 6.0, about the Turbo Pascal programming language and about the Win 3.11 API.
In contrast, the AI movement since the 2020 is working with a top down approach. There are no stores available in which AI technology is sold to the masses, also there are no computer expos available like CeBIT or Comdex. And even books about AI are not available. The most famous AI book is "Russel/Norvig: AIMA" which
quote "... is considered the standard text in the field of AI" [1]
but in this AI bible, no section about Large language models is available. The only chapter which explains the subject on the surface is section 24 "Deep Learning for NLP" [2].
On the other hand, there is a dedicated place in which AI is visible. In the Gutenberg Galaxy, and especially in the conference papers after the year 2020, the AI revolution is visible everywhere. Lots of new algorithms, datasets, and applications for large language models are presented to the reader in over 1 million papers. The only concern is, that the Gutenberg galaxy and especially the published conference paper are ignored by the public. The total amount of readers is very small.
The surprising situation is, that the AI revolution isn't mirrored in the mainstream book market, and not in computer journals, there are no AI related expos available and even large scale tech companies doesn't know how Large language models are working. In combination, this is a unusual situation because in the former 1990s computer revolution, the situation was the opposite.
The working thesis is, that the AI revolution was initiated top down with its roots in the academic papers since the 2020s. Its a virtual revolution which is bypassing existing economical or technological structures.
sources:
- [1] https://en.wikipedia.org/wiki/Artificial_Intelligence:_A_Modern_Approach
- [2] AIMA book, 4th edition for U.S., 2020, https://aima.cs.berkeley.edu/

March 22, 2025

np hard problems as terra incognita

Computer science is an academic discipline with a long tradition. Its core elements are programming languages and algorithms. .Endless amount of source code was written in multiple programming languages, there are even esoteric languages available like Intercal and Befunge which are examples for computer art. Unfortunately, computer science consists of a seldom described weakness which are np hard problem.

An np hard problem is a mathematical challenge which can't be solved with existing programming languages nor algorithms. That means, modern languages like C++ in combination with modern 64bit operating systems like Linux isn't powerful enough to determine the shortest route for 15 cities or find the shortest sequence for solving the rubik's cube puzzle. What makes the situation more complicated is, that even after adding more RAM to a computer, np hard problems remain unsolvable.
One possible explanation why computer science is ignoring np hard problems might be, that its useless to invest ressources into problems, which can't be solved. If 100 researchers in the past have independent from each other tried to solve the Traveling salesman problem, and all of them have failed, it doesn't make much sense if additional researchers are trying to solve the same problem. .np hard problems can be compared to the perpetuum mobile in mechanical engineering which is also described as a dead end.
On the other hand there is a discipline available which is devoted to np hard problems. This discipline is called Artificial intelligence and its main problem is to solve all these unsolvable problems like rubik's cube, path planning and motion planning. Its important the difference between computer science which is only about polynomial problems vs. Artificial intelligence which is only about np hard problems. Both disciplines are trying to achieve different goals and they are operating with opposite tools.

March 21, 2025

Computer science vs artificial intelligence

AI was created as part of classical computer science, but both disciplines are operating with different assumptions. Computer science is a well defined engineering discipline which is successfully solving real world problems. For example a mathematician has a need for an electronic calculator and the machine is build and programmed by computer scientists. Or a statistician likes to store data in a table and computer scientists are programming a database which can solve this task. The result is, that doing computer science results mostly into successful projects which are evolving over the years, in the sense that todays computer have more memory and can sum up numbers faster.

In contrast, it remains unclear what the goal of Artificial intelligence is. The missing goal is a structural problem and the only way to solve it is to define goals by itself. That means, the AI community has to find objectives including the solution by itself. There is no higher instance available which has a need for robot hand or vision system, but these projects have to be formulated from scratch.
Let me give some example for self created goals only available within AI research: line following robot, robocup rescue, Tetris playing AI software, chess AI, scene recognition in motion capture recording.
All these problems have only a sense within the AI community. In the reality, nobody has a need for a line following robot or a Tetris playing AI. The only reason why these projects are researched is because of the hope for new knowledge what thinking is about. Especially in the past, successful AI research was always connected to a certain project, for example to build a machine which can play chess. A certain problem allows to benchmark an algorithm. Either the computer is able to do so or not.
In contrast, additional computer science has no need for artificial constructed problems. Computer science has no lack in existing well defined problems, but the missing resource is how to solve all these problems with better hardware and improved algorithms. AI is working the opposite way. There are endless amount of hardware and software but a lack of well defined problems.
Its a bit paradox, but AI engineers have a certain understanding about their tools. A tool isn't a computer e.g. a Unix workstation, but a tool is a problem formulation, e.g. the 15 puzzle problem or the traveling salesman problem is a tool. These tools are helping to guide the discussion into a certain direction. For example, the 15 puzzle problem is a great choice for introducing heuristics, which is not available in classical search algorithms.
The second paradox situation is, that AI isn't evolving in terms of better hardware or more intelligent software, but AI is evolving in terms of well formulated problems. In the year 2025 there are more such problems available than 20 years ago. A very recent problem is Visual question answering which was first described in 2015. The VQA challenge has evolved from similar challanges which are text based question answering which was available since 2000s. Its likely, that in 20 years from now, more advanced robotics problems are available unknown today.

March 12, 2025

How to identify Artificial Intelligence technology?

Computer science in the past was operating with certain tools which were developed once and reused frequently. These tools were located in hardware, software and algorithms and are similar to cooking recipe a blueprint how to build technology from scratch. For example, a 32bit microchip is designed with a hardware description language like VHDL, while the Unix operating system is written in the programming language C. If someone has access to the VHDL file or the c source code he can create a copy of the technology because he has a better understanding how the system is working.
A naive assumption is to translate this model towards the Artificial Intelligence domain, which is a subpart of computer science. AI can be located in hardware, software or algorithms, at least under the assumption of the computer science bias. So its natural to ask for dedicated AI hardware and AI software, in the hope to get access to advanced robotics technology.
Unfortunately, AI works quite different from the computer science paradigm. Even if dedicated AI tools were developed, for example AI related FPGA chips and AI related software libraries, there is something missing to build a robot. This something else is unknown and because of inability to locate the magic ingredient, AI wasn't realized over decades. It was unknown how exactly an AI machine or tool has to look like so it was impossible to find such tools.
With more advanced knowledge about the AI subject its possible to describe with more details what the recipe is for creating robots. The missing ingredient is a multimodal dataset. That is a .csv file which contains of motion capture data in combination with natural language annotation like “jump”, “Walk”, “stand up”. Such a dataset can be used as the core element and a robot control system can be developed around this dataset.
This description for an AI tool looks a bit uncommon because it doesn't fit to existing categories in computer science. 'Its not a hardware description, it is not an algorithm and its not the source code for a computer program. But a multi modal dataset is simply a sensor recording, similar to a temperature log file from a weather station. The usefulness will become visible only on a second look. A multimodal dataset creates a machine learning problem. The question is which sort of neural network can learn the data and how to interpolate the missing data. The attempt to answer these questions results into a robotics project.
In contrast to a numerical dataset, a multimodal dataset consists of natural language annotation in the natural language of English. These annotation transform a robot control problem into a text adventure. The textual layer is the birds eye perspective towards a problem. Every robot control problem can be interpreted as a text adventure which consists of nouns, verbs and adjectives. Natural language is the best tool to describe the reality. Let me give an example:
A kitchen robot will perceive objects like table, plate, apple and bread. Also a kitchen robot can do actions like open, close, grasp and transfer. The natural language including its vocabulary is used to identify the parts of the reality. The robot cointrol system has to memorize the same words, otherwise the human to machine interaction will fail.
In classical computer science there is no need to utilize natural language. A pocket calculator and even advanced workstation computers are working fine without knowing any vocabulary. Words from the reality like “apple” “bread” and so forth are never included in the VHDL hardware description and they aren't stored in computer programs. Sometimes these words are available as commentary, but they are not important for running the software itself. In other words, classical computers are working fine without any interaction with a human.
In contrast, a robot control system operates with the opposite paradigm. A robot is mostly a user-interface which is using the same lexicon as a human. Its impossible to build a kitchen robot without 100 and more kitchen words.

March 09, 2025

The guess naming game

 

Its a language game for researching grounded language. The user enters a word like “green” and the computer has to highlight all the objects in the GUI which fits to the word. These game rules allow to benchmark if a certain visual dictionary was learned correctly because the computer has to map the entered textual word to the shown graphical representation on the screen.
The main advantage of the guess naming game is, that it can be realized in under 300 lines of code in Python. It explains on an example what the symbol grounding problem is about.


March 02, 2025

AI as search for a problem

 In the history of AI development it was mostly unclear, what exactly AI is about. In the 1980s a common definition was, that AI has to do with search in the problem space. But this definition fits only to small subsection of AI which is state space search in games. And search algorithms like A* can't be applied to more complex problems.

A possible improved definition is, that AI has to do with search for the problems. This definition shifts the focus away from algorithm centric solving of existing challenges towards an explorative search for new problems.
Example problem might be the 8 puzzle problem, chess puzzles, path finding in a maze, or the VQA problem (visual question answering). The assumption is, that more advanced AI techniques can be unlocked by inventing more advanced puzzles first.
Let me given an example. Suppose the self selected problem to solve is the 8 queens problem. Under such a constraint, the following debate consists of a mathematical problem description, and a comparison of different algorithms which are mostly back tracking algorithms. The decision to solve the 8 queen problem results into a certain bias.
By selecting other problems the discussion space gets modified. Especially by selecting language games like Visual question answering, the debate gets modified drastically. Instead of describe only search based algorithms, new topics have to be discussed like vocabulary definition or grounded language. These new subjects are not available in classic problems like the 8 queen problem.
So we can say, that no hard subjects within computer science like hardware, software, algorithms or programming language are creating the discourse space for Artificial Intelligence, but the debate gets influenced by the preference for certain AI problems. The decision for or against certain problems affects the discovery of possible problem solving techniques. If the attempt is to solve only the 15 puzzle problem, a certain sort of computer program is the result. But if the task is to solve problems with grounded language like the instruction following problem, more advanced algorithms are needed.
The main question which has to answered by the AI community is, what are the advantages and disadvantages of a certain problem category. The traveling salesman problem was popular in the 1980s because it can be described easily and can be converted into an mathematical algorithm. The main disadvantage of this problem is, that even the algorithm has found the shortest route, the same algorithm can't control a real robot because robotics has to be described with different problems.
The holy grail is perhaps an AI problem, which can be described easily but fits to a variety of real world robotics problems. If it matches to the reality, the algorithms used for solving the problem can be adapted to real world scenarios.

A review of AI puzzles

Puzzle problems are the framework in which the search for Artificial Intelligence takes place. The evolution from easier to more advanced understanding of AI is strongly connected to the evolution of AI puzzle problems. There are certain categories available:

  1. easy: traveling salesman problem, chess problems, tictactoe game, Knight's tour, path planning
  2. medium: 15 puzzle problem, piano movers problem, Tetris playing AI agent, pacman AI agent
  3. advanced: dataset driven machine learning
  4. hard: Visual question answering, instruction following, multimodal machine learning
Let us describe first the easy category. This sort of problems has the longest tradition in the AI literature and the problems including possible algorithms are described in high amount of papers. Nearly every introduction course in computer science, mention or explains the traveling salesman problem. It has become a standard challenge for investigating the performance of algorithms.
Most of the problem from the easy category can be solved with a backtracking algorithms. In case of chess problems, the algorithms needs improvement from an evaluation function but the main principle is to traverse the state space.
The problems from the medium section are less often explained and they are requiring sophisticated heuristics. The first puzzle in the section, the “15 puzzle problem” is used exclusively to explain the advantages of an evaluation function, namely the manhattan distance, while the other problems like “pacman AI agent” will need a finite state machine or an advanced behavior tree. Its not possible to solve the problem in the medium category with easy to implement backtracking algorithms because of the larger size of the state space.
The two remaining categories, advanced and hard, are only seldom described in the literature. The first papers about the subjects were published since the year 2000. For VQA related problems, the first written description is even available since 2010.
What all these problem categories have in common is, that they do not require software or hardware in terms of computer science. But the problems can be discussed independently of computer science. A typical problem description fits on a single piece of paper which reads like the description for a board game. So we can say, that the problems belong to the umbrella term of game theory. The complex reality gets simplified into game rules and the player can take decision inside the rule system.

March 01, 2025

Advantages of Linux in a single sentence

ffmpeg, mplayer, python3, gcc, git, vim, grep, awk, wget, ssh, docker, htop, nmap, pandoc, imagemagick, find, dd, ghostscript, latex, gnuplot, sqlite3.

The evolution in AI from 1990 to 2010

In the year 1990 no robotics was available. The only thing what was visible during this decade were classical computing machinery which includes home computers, supercomputers and even the Internet. Until 1990 it was unclear how to program Artificial Intelligence.
On the other hand, from 2010 AI was evolving quickly and many robots were developed and existing models were improved. So the natural question is: what exactly happened in the meantime which enabled AI and robotics?
The surprising situation is, that from a computer science perspective no measurable progress was made since 1990. Even if the amount of RAM in a typical workstation has improved, and even hard drives had become larger, there was no invention available like an AI chip or a revolutionary robot algorithms. Some attempts were made to create dedicated AI programming languages, and even parallel microprocessors were created for running neural networks – but all these innovations didn't resulted in artificial intelligence.
What was created instead is located outside of computer science and it was the discovery of AI related puzzles. Perhaps it makes sense to explain this idea in detail. A puzzle in the classical sense is a thinking game, for example the rubics cube is a 3d cube with random color surfaces, while, while a sliding puzzle like 15 puzzle contains of numbers on cells which can be moved in 2d space. There are word puzzles which are called crossword puzzles and jigsaw picture puzzles.
An AI related puzzle is a certain puzzle which was invented to investigate the subject of robotics and intelligent machines. These AI related puzzles were invented from 1990 to 2010 in a high amount of diversity. There are AI Related puzzles in a physical world which is about mechanical robots and also in a virtual environment which can be realized as video games. The creation of a certain AI related puzzle describes the reality from a different standpoint. This standpoint allows to define what AI is about.
Entry level AI puzzles are the mentioned 15 puzzle problem, chess based puzzles and the traveling salesman problem. None of these puzzles has to do with computer science in the classical sense which includes computer hardware, software or algorithms, but its invented outside of computer science. Computers are only used to solve these problems.
More advanced AI related puzzles are OCR datasets used for neural network training, the visual question answering challenge, and robotics competitions like micromouse and robocup. What all these puzzles have in common is, that they fit on a single sheet of paper. The document constains the instruction what the puzzle is about. For example it consists of a map for a robot navigation task or explains what the rules of the robocup competition are. These instructions can be convertted into a computer science project which includes building of mechanical hardware and programming the robot software. So we can say, that AI puzzĺes are a meta technology which allows to create new AI related technology.
Let me give an example: A single puzzle description for the micromouse robot competition can be used as a starting point for a dozens of concrete projects. Some of the robots are realized with the Arduino microcontroller, while other are using Lego Mindstorms technology. Some of the projects might be programmed in Assembly language or with neural networks or with the C/C++ language. These detail decisions are taken place within classical computer science but they are not important for the AI problem directly. The only thing which counts is the AI puzzle itself.
The advancement in AI from 1990 to 2010 can be entirely explained with the invention of better AI puzzles. Early problems like tictacto or chess puzzles are resulting only in low quality AI projects, while later puzzles like “Mario AI”, deep learning datasets and instruction following problems in robotics are generating more advanced AI innovation. So we can say, that the main question in AI is “What sort of puzzle has to be solved?”

February 28, 2025

Success factors in U.S. universities

The university system in the United states are mostly described as the world leader. There is no single explanation available but quality is caused by multiple reasons. These factors are:

a) high amount of universities (4000 overall)
b) teaching language is English
c) focus on research and innovation
d) good infrastructure which includes lab equipment and libraries
An excellent university system is the result of all four factors combined. Other countries like India are good in some of the factors. For example, India has a high amount of universities and the teaching language is similar to the United States English, but India lacks in the other factors. In contrast, the university system in Germany has other strengths, for example Germany universities have a good infrastructure, but unfortunately, the teaching language isn't English and the amount of universities is very low (only 10% of the U.S.).
It seems, that especially the language English in combination with a focus on research and innovation is the cause why U.S. based universities are perceived as superior. The assumption is, that academic excellence is equal to research something new and write a paper in the language English as a result. If a country or an education system is devoted to this goal, it will ranked very high in the international university landscape.

February 27, 2025

Unterschiede im deutschen und amerikanischen Bildungssystem

Angesichts der rasenten Entwicklung innerhalb der Künstlichen Intelligenz und dem unbestreitbaren Vorsprung der USA in Bezug auf Forschung und Umsetzung von Large Langugage Modellen stellt sich ganz allgemein die Frage, worin die Unterschiede im Bildungssystem bestehen.

Häufig wird der Vergleich Deutschland vs. USA nach subjektiven Kriterien durchgeführt. Es gibt beispielsweise die Meinung dass die USA das bessere Hochschulsystem haben. Manchmal wird versucht diese Meinung anhand von Fakten zu belegen, das z.B. die USA mehr anwendungsorientiert forschen würden, wären in Deutschland eher die Theorie im Mittelpunkt steht. Es gibt jedoch noch einen weiteren rein messbaren Zugang um die sehr unterschiedlichen Bildungssysteme miteinander zu vergleichen.
Ausgangspunkt ist der simple Fakt dass es in den USA rund 4000 Hochschulen gibt, während in Deutschland die Zahl bei 422 liegt. (China hat 3000 Hochschulen, Europa hat 5000 Hochschulen). Ferner kann man anhand einer bibliometrischen Analyse ermitteln dass zu einem beliebigen Thema es auf Deutsch vielleicht 50 Paper gibt die sich damit beschäftigen, während es in der englischen Sprache rund 1500 Paper zum selben Thema gibt.
Das interessante ist, dass das einzelne auf Deutsch verfasste Paper oder die einzelne technische Hochschule in Deutschland eigentlich eine mittelmäßige bis gute Qualität haben. Das man eben keine inhaltlichen Schwächen findet. Der Wirkliche Unterschied scheint eher in der Anzahl zu liegen. Scheinbar hängt Forschung weniger davon ab, dass die einzelne Hochschule Spitzenleistung erbringt oder in dem konkreten Konferenz Paper irgendwas neues drinsteht sondern Forschung basiert, so die These, darauf dass in hoher Anzahl in Laboren geforscht, in Journalen Publiziert und in Vorlesungen gelehrt wird.
Anhand der oben genannten Zahlen zu den Anzahl der Papern und der Anzahl der Hochschulen kann man ungefähr sagen, dass die Hochschullandschaft in den USA mindestens 10x so groß ist wie die Deutschland. Wenn man sich englischsprachige Publikationen fokussiert, die auch an nicht-amerikanischen Hochschulen entstanden sind, ist das Verhältnbis sogar 1:20. Das interessante ist, dass die Mehrzahl der Paper die in den USA entstehen ähnlich wie die Veröffentlichungen aus Deutschland allenfalls mittelmaß sind. Eine Bachelorarbeit wird in der Regel nicht von Experten auf dem Gebiet erstellt sondern von Studenten mit relativ wenig Detailwissen die selbst noch lernen und womöglich zum ersten Mal überhaupt eine Arbeit schreiben. Es ist deshalb normal dass die Textgüte eher nur Mittrelmaß ist. Scheinbar ist das aber nicht wirklich ein Problem, weil es sehr viele von diesen Arbeiten gibt.
Mit dieser These kann man die Frage beantworten was genau Deutschland tun kann um mit den USA auf wissenschaftlichem Gebiet zu konkurrieren. Rein von den Zahlen müsste Deutschland ca. 20x mehr Forschungsprojekte durchführen als bisher. Damit wäre jedoch allenfalls Gleichstand erreicht. Natürlich ist das illusorisch, weil ersten die Bevölkerung in Deutschland kleiner ist und zweitens die deutsche Sprache keine Weltsprache ist. Wenn jedoch der Versuch scheitert quantitiv mit den USA gleichzuziehen ist das Ziel gescheitert.
Die These kann man auf eine simple Formel reduzieren. Dasjenige Land, wo es die meisten Hochschulen gibt, und diejenige Sprache in der die meisten wissenschaftlichen Aufsätze erscheinen steigt auf zur wissenschaftlichen Weltmacht. Während alle anderen Länder wo es anzahlmäßig weniger Hochschulen und Anzahlmäßig weniger Forschung gibt, leider zurückfällt und aus dieser Position heraus immer weiter den Anschluss verliert.
Anstatt auf die einzelne Hochschule in den USA zu fokussieren sollte man das System als Einheit betrachten. Je mehr Hochschulen es gibt, desto stärker die Notwendigkeit für die einzelne Institution sich zu spezilisieren. Dadurch entsteht dann automatisch ein sehr effizientes Hochschulsystem. Bei den publizierten Artikeln in Journalen ist es vergleichbar. Je mehr Artikel und Bücher schon existieren, desto stärker die Tendenz neue Artikel mit spezilisierten Fragestellungen zu erstellen um sich von den vorhandenen Veröffentlichungen abzuheben. Diese Spezilisierung ist auch für die Leser von wichtig weil sie so eher etwas interessantes entdecken. Umgekehrt ist es für deutschsprachige Fachzeitschriften unmöglich mit diesem quantiativ und qualitiv hochwertigem Corpus zu konkurrieren.

February 24, 2025

Zettelkasten can't replace experiments

 The main purpose of note taking is to memorize information from the past. Everything what is written in books can be converted into note cards. The ability to add new cards and retrieve existing content makes it easier to remember content read in the past. This provides to the researcher a perfect external memory of all the read information.

In spite all the advantages, note taking with the Zettelkasten principle has one major drawback: it can't replace the experiment. Experiments are used in science to gather new information not written down in the existing literature. There are physical experiments, e.g. measuring the voltage in a circuit, mathematical experiments e.g. a number crunching problem, and even musical experiments in which a new song gets composed. All these experiments are by definition not available yet so they can't be found in the existing notes. If a zettelkasten is a look back into time, an experiments looks forward into the future.

The main problem with the zettelkasten notetaking principle is that encourages the researcher to look only in the past. Creating lot of notes and read them multiple times is equal to stay within existing knowledge. This is equal to a very conservative philosophy and rejects novelty. The untold bias is that everything important was written in the past, either by the researcher itself or by other authors who have published books about the subject. And everything what is not written down in the past, doesn't exists.

In contrast, an experiment driven research project is working with the opposite principle of a Zettelkasten. The question is not what was written about a subject already, and the question is not what sort of notes are avaiable, but the question is how to investigate something from scratch without pre-knowledge. The idea is heat up water and measure at which degree the maximum is reached, the goal is to program a prototype in python and think about the difficulties. So we can say, that the limitation of the Zettelkasten has to do with the difference between past and future.

February 18, 2025

A chatbot which can grasp an apple

[2025-02-18 13:45:00] Human: Hello robot, can you help me with a task in the kitchen?

[2025-02-18 13:45:05] Robot: Hello! Of course, I'd be happy to assist you with a task in the kitchen. What would you like me to do?

[2025-02-18 13:45:15] Human: I need you to grasp an apple for me.

[2025-02-18 13:45:20] Robot: Certainly, I can help you grasp an apple. Let me process that request:
1. Locating the kitchen
2. Identifying an apple
3. Planning the grasping motion

Could you please confirm if there's a specific location in the kitchen where I should look for the apple?

[2025-02-18 13:45:35] Human: The apple should be in the fruit bowl on the counter.

[2025-02-18 13:45:40] Robot: Thank you for the additional information. I'll proceed with the task:
1. Navigating to the kitchen counter
2. Locating the fruit bowl
3. Identifying the apple among other fruits
4. Planning and executing the grasping motion

I'll narrate my actions as I perform them. Please let me know if you need me to do anything differently.

[2025-02-18 13:45:50] Human: That sounds good. Please proceed.

[2025-02-18 13:45:55] Robot: Understood. I'm starting the task now.

1. Navigating to the kitchen counter.
2. I've located the fruit bowl on the counter.
3. Scanning the contents of the bowl... I've identified several fruits, including an apple.
4. Planning the optimal grasping motion for the apple.
5. Extending my arm and adjusting my hand position.
6. Gently grasping the apple.
7. Lifting the apple from the bowl.

I've successfully grasped the apple. Would you like me to hand it to you or place it somewhere specific?

[2025-02-18 13:46:25] Human: Please hand it to me.

[2025-02-18 13:46:30] Robot: Certainly. I'm now:

1. Turning towards your location.
2. Extending my arm to offer you the apple.
3. Waiting for you to take it.

Please take the apple whenever you're ready. Once you've taken it, I'll release my grip.

[2025-02-18 13:46:45] Human: I've taken the apple. Thank you!

[2025-02-18 13:46:50] Robot: You're welcome! I'm glad I could assist you. I've released my grip on the apple now that you've taken it. Is there anything else you'd like me to help you with in the kitchen or elsewhere?

[2025-02-18 13:47:00] Human: No, that's all for now. Thank you for your help.

[2025-02-18 13:47:05] Robot: You're welcome! I'm happy I could help you with grasping the apple. If you need any assistance in the future, don't hesitate to ask. Have a great day!

February 16, 2025

Die wissenschaftliche Wende um 1900

 

Bis zum Jahr 1900 funktionierte die Wissenschaftswelt nach klassischen überschaubaren Prinzipien. Es gab die Naturwissenschaften welche sich untergliederten in Mathematik, Physik, Chemie, Biologie, Psychologie, Medizin und der Inhalt des jeweiligen Fachgebietes war in Nachschlagewerke erfasst.
Bis ungefähr dem Jahr wurde in jedem der Einzelwissenschaften eifrig geforscht und es wurden neue Erkenntnisse publiziert. So gab es irgendwann den Moment wo jemand das Ohmsche Gesetz entdeckte, oder zum ersten Mal Bakterien unter dem Mikroskop beobachtet hat. Diese goldene Zeit der Naturwissenschaft lief parallel zur industriellen Revolution ab und dauerte bis ca 1910.
Es gibt ein selten untersuchtes Phänomen was nach 1910 einsetze und als Stillstand der Naturwissenschaft bezeichnet werden muss. Damit ist gemeint, dass die gedruckten Nachschlagewerke aus den Bereichen Mathematik, Physik usw. sich seit diesem Jahr nicht oder nur noch sehr geringfügig veränderten. Der Grund dürfte sein, dass man wichtige Dinge wie die Zinsrechnung in der Mathematik oder die Mechanik-Gesetze der Physik nur einmal entdecken kann und danach wird man zu dieser Thematik nicht mehr viel neues entdecken.
Die o.g. Naturwissenschaften müssen statisch verstanden werden. Sie sind auf dem Stand von ca. 1900 eingefroren und haben sich seitdem fast nicht mehr weiterentwickelt. Zwar kann man auch heute noch Experimente wiederholen, wie z.B. den Temperaturverlauf von Wasser messen was man bis 100 Grad erhitzt, das Resultat ist jedoch identisch mit dem Jahr 1850. Man wird dazu nicht mehr viel neues entdecken oder eine andere Erklärung finden als jene die in den Büchern um 1900 auch schon notiert wurde.
Gehen wir mal einen Schritt zurück um die Brisanz dieses Themas besser bewerten zu können. Bis ca. 1900 waren die Naturwissenschaften der Motor der technischen Entwicklung. Es wurden aufregende neue Dinge entdeckt und dann von der Physik, Psychologie oder Medizin in Theorien überführt. Dadurch wurde es möglich, praktsiche Anwendungen zu entwickeln wie z.B. die Eisenbahn, die Röntgenstrahlung oder die Haltbarmachung von Lebensmitteln. Bis ca. 1900 gab es einen ungeheuren Erkenntnisgewinn und es gab dauernd neues zu entdecken.
Ab ca. 1900 änderte sich die Lage schlagartig. Es gab weniger eine Krise in der Mathematik oder in der Physik selber sondern die Krise bestand darin, dass kein neues Wissen mehr dazugefügt wurde. Im Grunden haben die Naturwissenschatler bis 1900 bereits alles entdeckt was wichtig ist und damit entstand ein Wissensplateau. Das heißt der Gipfel in den Wissenschaften war erklommen, und alles was man über die reale Welt erforschen konnte war bereits bekannt.
Die Herausforderung und die Notwendigkeit zur ständigen Innovation verlagerte sich auf ein anderes Gebiet. Es begann eher unscheinbar unter dem Begriff Nachrichtentechnik und mechanische Rechenmaschinen und weitete sich aus in den Bereich der Computer sciences. Computer science hat ihre Ursprünge zwar in der Mathematik und Physik, funktioniert aber nach anderen Prinzipien. Der Unterschied besteht darin dass in den Computerwissenschaften nicht die Natur untersucht wird, sondern dass selbst erschaffene Gebilde in Form von Programmen und Daten diskutiert werden. Dieser virtuelle Realität ist auch als Cyberspace bekannt. Anders als die Realität ist die virtuelle Realität sehr viel komplexer. Anhand der Historie der Computerwissnschaft ab 1910 kann man zeigen, dass es permanent neue Entwicklungen gab. Eigentlich jedes Jahr gibt es neue Computermodelle und neue Computersoftware. Es ist nicht möglich zur Computerwissenschaft ein Referenzbuch zu verfassen, weil es nach spätestens 10 Jahren hoffnungslos veraltet wäre.
Sosehr die Mathematik seit 1910 von einem Stillstand geprägt ist, sosehr ist die Computerwissenschaft von einer Aufbruchstimmung geprägt. Anders als in den etablierten Naturwissenschaften gibt es in der Informatik noch sehr vieles zu entdecken. Und je mehr erforscht wurde, desto größer sind die Bereiche die noch gänzlich unerforscht sind.
Die wachsende Bedeutung der Computerwissenschaften lässt sich anhand der anzahl wissenschaftlicher Publikationen erkennen. Um 1910 war die Anzahl die sich mit Rechenmaschinen beschäftigte sehr klein. Das stieg jedoch konstant an. Heute hat die Mehrzahl der Publikationen in den Wissenschaften entweder direkt oder indirekt einen Bezug zur Informatik. Selbst Literaturwissenschaftler nutzen den Computer zur Textanalyse, während Mathematik ihn verwenden um Diagramme zu plotten, und Mediziner den Computer nutzen um Datenbanken anzulegen. Moderne Wissenschaft ist automatisch eine Computerwissenschaft. Es bedarf zwingend des Einsatzes leistungsfähiger Webserver, professioneller Software und neuartiger Algorithmen.

February 14, 2025

The decline of german science since 1900

 

Before the year 1900, germany was a superpower in natural science. All of the following disciplines were researched, teached and translated into practical application in germany:
mathematics, chemistry, medicine, physics, biology, philosophy, psychology
These disciplines are known as natural science or short as science and they were important during the industrial revolution. Germany was even better than the U.S. and the U.K. in researching the subjects and most of the books and academic journal were published in german.
The situation has changed after 1900 and especially after 1950 drastically. Not because has lost its interest in physics, mathematics or chemistry but because natural science has become obsolete for the advent of computer science. In the beginning, computer science was a sub-discipline inside mathematics which was about numerical optimization. Building computer hardware was often described as part of electronics. But with later iteration of computer hard- and software, computer science has established its own subject. With the advent of the internet, computer science doesn't even need printed books or journal but has invented electronic journals dedicated to the need of computer scientists.
There is a fundamental difference available between computer science ans natural science from the 1900s. Natural science like physics is working with static knowledge. A subject like mechanics isn't improving over the decades but its based on the same principles which were discovered 300 years ago. Its impossible to reinvent the Ohm's law or modify the Periodic table in chemistry. In other words, natural science from the 1900 isn't based on innovation but on preservation.
On the other hand, computer science works with a different paradigm. Computer science is reinventing itself every 10 years on a fundamental basis. Hardware and software from the 1990s has lost its traction since the 2000s. In contrast to mathematics, computer science has no textbook used in the university, but computer science is an endless amount of experiments which are trying to discover and invent something new. The motivation of computer scientists isn't to proof a former theory as valid, but to overcome existing knowledge. For example transistorized circuits were replaced by microprocessors, the Fortran language was replaced the C language and MS DOS was replaced by Windows.
There is some similarity available between arts and computer science. Both disciplines never discover natural laws, but they are creating something from scratch. Nature doesn't know something like TCP/IP protocol, but it was invented similar to a painting from Andy Warhol.
The development of Computer science is based on experiments and reinventing itself all the time. To allow this innovation take place, a certain natural language is required which makes it easy to establish new vocabulary. The German language doesn't fit to this needs, but English has a better ability to introduce new words. Its not surprising, that the English Wikipedia has the most articles which are 6.9 Million in total. Especially all the terms in computer science are formulated in English only and have no word in other languages like German, French or Chinese.
Let us describe the situation from a positive perspective. German is a great language to write a mathematics textbook which will be relevant for the next 50 years. German is also the perfect language to teach static knowledge in physics discovered 200 years ago. The problem is, that computer science isn't working with static knowledge and fixed vocabulary, but computer science is driven by creativity and the need for novelty. The overall question is how to replace existing technology with something better. For example:
- a Cathode-ray tube monitor can be replaced with a flatscreen monitor
- a magnetic disc can be replaced with a SSD solid state drive
- the 8bit homecomputer can be replaced with 32bit PC
- the A* path planner can be replaced with the RRT algorithm
- the gif fileformat can be replaced with the PNG format
- the 56kbit modem can be replaced with DSL modems
- ASCII encoding was replaced by Unicode
- proprietary software can be replaced with open source software
The list can be continued forever. In short, computer science isn't working with fixed sort of knowledge, but every discovery has only a short lifespan until it will be replaced by its successor. On the long run, computer science is producing a huge amount of obsolete hardware, software and algorithms which felt out of fashion. At the same time, there is a need for new ideas all the time.
From the perspective of computer science, the high amount of innovation is normal and desired. But from the perspective of natural science like mathematics or biology, its unusual. Classical natural science is working with a much smaller innovation rate. And older theories are never become obsolete, but they are confirmed and improved in minor parts. There is no need to throw away an older handbook about mathematics, because its unlikely that the knowledge written down in the book is wrong or obsolete. So we can say, that the self understanding of natural sciences which were important until 1900 is fundamental different to the self understanding in computer science.

February 13, 2025

Characteristics of computer lab experiments

 

Experiments are the fundamental building block in modern computer science. Their importance is higher than in other disciplines like physics or mathematics because computer science has no static theory which provides a universal framework. instead, computer science is mainly the result of hundreds and even thousands experiments which are only little connected to each other.
A single experiment consists of surprisingly low amount of effort. The length of a typical publication which describes an experiment is 8 pages and even shorter. The duration from start to finish the experiment including hardware design, programming and writing the documentation are only 3 weeks. That means, a typical computer experiment is realized in a short period of time, with a small amount of manpower and documents in a low amount of pages.
The powerful result isn't provided by a single experiment but by the high amount of more experiments done by other or by the same researcher during a later period. The corpus of all realized experiments is written down as published paper in a library and can be read by the public or by researchers to get new ideas which subjects seems to be interesting. It should be mentioned that the during how long the results of an experiments are relevant is very short. For example, if a researcher in the 1980s has made 2 experiments about 3d computer graphics, its for sure, that everything discovered in this experiment has become obsolete with today's perspective. The hardware used in the 1980s is no longer available and the used programming languages were replaced by more modern tools. This problem of decreasing value of the experiments can't be overcome but its connected to the idea of an experiment.
The reason why experiments are realized is because they are providing new knowledge. In the best case, the experiments is researching a topic never researched before. Its a creativity driven process similar to the arts which is also motivated by the search for novelty.

Von der Industrialisierung zur Digitalisierung

 Bis ca 1900 war Deutschland die führende Technologie-Nation in der Welt. Die Wissenschaftsschaftssprache in der sich Mathematiker und Physiker ausgetauscht haben war Deutsch und Deutschland war auf allen wichtigen Bereichen wie Automobilbau, Elektrotechnik und Eisenbahnwesen gut aufgestellt. Ein Blick in die Technikmusueen weltweit zeigt, dass die meisten Erfindungen, die während der industriellen Revolution getätigt wurden, aus Deutschland kamen und insbesondere die Grundlagenforschung dort durchgeführt wurde.

Ab ca. 1900 änderte sich die Situation jedoch. Mit Einzug der Unterhaltungselektronik wie Kino und Radio wurden die USA zunehmend wichtiger und seit der Computerrevolution in den 1950er haben die USA die Vorreiterrolle in Sachen Techcnologieentwicklung übernommen. Auch das Internet ab den 1990er und die KI Revolution ab 2020 hatten ihren Ausgangspunkt in den USA aber nicht in Deutschland.

Der folgende Artikel soll die Hintergründe dieser Veränderung untersuchen. Heute in der Gegenwart wird Deutschland häufig als technikfeindlich beschrieben. Die Vorbehalte gegenüber Technoligie betreffen aber lediglich Computertechnologie, in Bezug auf klassische physik-getriebene Technik ist Deutschland traditionell sehr fortschrittlich und sogar optimistisch. Scheinbar ist das Verhältnis zur Technik also ambivalent. Lediglich bei sehr neuer Technik die ab 1900 entwickelt wurde, gibt es Vorbehalte.

Vielleicht macht es Sinn zunächst einmal die Technologie bis 1900 näher zu beleuchten. Wie oben schon erwähnt, war diese Technik das Ergebnis von Mathematik und Physik. Physikalische Gesetze wie der Fluss von Elektronen in einem Leiter oder die Umwandlung von Energie untereinander kann in konkrete Maschinen überführt werden. Damit ist es möglich, Kohlekraftwerke, Autos bis hin zu Eisenbahnen zu bauen. Auf diesen Bereichen war und ist Deutschland sehr gut aufgestellt. Es gibt eine lange Tradition in der Erforschung und der praktischen Umsetzung, und genau diese Technik wurde während der industriellen Revolution benötigt. Damit war es möglich, die Städte zu elektrifizieren, Anlagen zu planen und Mobilität der Bevölkkerung zu ermöglichen.

Ab ungefähr 1950 kam es jedoch zu einer grundsätzlichen Veränderung in der Technikevolution. Zwar benötigen auch Computer und Radios den elektrischen Strom, aber sie funktionieren anders als frühere Maschinen. Wissenschaftsdisziplinien wie die Physik und Mathematik haben in Bezug auf die Weiterentwicklung von Computern und dessen Software nur noch eine geringe Bedeutung. Anhand der Computerentwicklung kann man aufzeigen, dass die neue Anforderung nicht länger ein theoretisches Verständnis von Formeln ist, sondern neue Computer-Technologie ist das Resultat von experimenteller Computerwissenschaft. Auf diesem Gebiet sind die USA sehr gut aufgestellt. Die Entwicklung der Computertechnik seit den 1950er ist das Ergebnis von sehr vielen und qualitativ hochwertigen Einzelexperimenten.

Hier einige Beispiele für diese Experimente: Motion Capture, Computernetze, Roboter, Festplatten als Computerspeicher, die Maus als Eingabemedium, 32bit Betriebssysteme, Neuronale Netze, CPU Desiogn oder Computeranimation. All diese Bereiche haben exerimentellen Charakter. Damit ist gemeint, dass eine Forschergruppe von 2-3 Personen im Labor ein wenig herumprobiert, etwas programmiert, und etwas bastelt, und darüber dann einen Report verfasst und den publiziert. Das wird dann immer und immer wiederholt und so besteht die Computerentwicklung in den Jahrzehnten aus einer unendlichen Anzahl von Einzelexperimenten. Anders als in der Physik gibt es in der Computerwissenschaft nur wenig gesichertes Wissen, sondern das Fachwissen ist eher lose untereinander verbunden. Z.B. hat das TCP/IP Protokoll was beim Internet wichtig ist, fast nichts gemeinsam mit einem Motion capture Marker, womit man Bewegungen des menschlichen Körpers erfassen kann. Beides wird zwar als Computerwissenschaft bezeichnet, aber es gibt kein übergreifendes Theoriegebäude was beides einordnen könnte.

Die USA haben ab den 1950er Jahren die Durchführung und die Dokumentation von Computerwissenschafts-Experimenten perfektioniert. Nirgendwo sonst auf der Welt ist die Zahl und die inhaltliche Güte der durchgeführten Compüuterexperimente so hoch. Forschungsuniversitäten wie das M.I.T. haben zu jedem nur denkbaren Gebiet der Informatik mehrere hunderte Experimente durchgeführt, mit sehr unterschiedlichem Ausgang. Vieles wurde dokumentiert anderes aber nicht. Mit jedem durchgeführten praktischen Experiment erhöht sich das Wissen der beteiligten Forscher und der Wissenschaftscommunity die Zugriff auf die Resultate hat ein klein wenig. Bevor eine neue Technologie wie das Internet oder künstliche Intellilgenz praktisch eingesetzt werden kann, braucht es tausende oder zehntausende dieser Laborexperimente.

Deutschland war nie besonders gut in der experimentellen Computerwissenschaft. Der Ablauf unterscheidet sich stark von den etablierten Konzepten in der Physik und der Mathematik. Dort führt ein Experiment dazu vorhandenes Wissen zu bestätigten, und die vorhandene Theorie wird abgerundet. Die Experimentelle Computerwissenschaft hingegen hinterfragt bestehendes Wissen routinemäßig. Es fehlt ein übergreifendes starres Theoriegebäude, zugunsten einer postmodernen Ambivalenz.

Beispielhaft soll erläutert werden, wie genau ein Experiment in den Computerwissenschaften funktioniert. Ausgangspunkt ist ein Forschungsinteresse, z.B. die Frage wie man ein Datenpaket verlustfrei über ein Routing-Netz transportieren kann. Dann untersucht man vorhandene Literatur zu dieser Frage um im zweiten Schritt selbst ein Experiment durchzuführen. Man programmiert in der Programmiersprache seiner Wahl ein kleines Routing-Experiment mit Hilfe eines selbst entwickelten Internet-Protokoll s und dokumentiert die Ergebnisse in einem Paper. Dann wird das Paper auf einer Konferenz vorgestellt. Dort interessiert sich exakt niemand für die Resultate, was aber nicht so schlimm ist, weil damit dann mehr Zeit ist, für die nächste Forschungsfrage die ebenfalls experimentell untersucht wird. Und so geht es munter weiter. Nach diesem Prinzip funktioniert der Großteil der U.S. amerikanischen Computerforschung und das seit Jahrzehnten. Der einzig erkennbare rote Faden in der endlosen Reihe von Experimenten ist lediglich, dass sie alle etwas zu tun haben mit Hardware-Basteleien und Softwareprogrammierung. Die Fragestellungen die untersucht werden sind jedoch sehr unterschiedlich. Die Computerwissenschaft ist eine Art von Laboratorium für alle möglichen Fragenstellungen aus den Bereichen Linguistik, Film, Biologie, Mathematik und Psychologie.

Die beschriebene Form des Experimentes war nicht erforderlich während der industriellen Revolution bis 1900. Zwar kennt auch die Physik ein Experiment, wie z.B. zur Ermittlung der Leitfähigkeit von Metallen, aber diese Experimente werden nur 1x durchgeführt und die gewonnenen Daten haben dann 200 Jahre lang gültigkeit. Man kann das Resultat in physkalischen Tafelwerken nachlesen, es gibt aber keinen Grund, selbsr das Experiment erneut durchzuführen. Die Physik mitsamt ihrer Unterdisziplinen ist also sehr dogmatisch aufgebaut. Es ist ausgeschlossen, dass ein Student an einer Universität etwas über den elektrischen Strom herausfindet, was nicht schon 100 Jahre zuvor erkannt und umgesetzt wurde. Beim Studium der Physik geht es eher darum, das vorhandene Wissen zu verinnerlichen. Also die Formel auswendig zu lernen wie man den Widerstand in Abhängigkeit der elektrischen Spannung ermittelt.

Während der industriellen Revolution bis 1900 entstanden die großen Nachschlagewerke zu Mathematik und Physik in Deutschland, die heute immernoch Gültigkeit besitzen. Es sind zeitlose Klassiker der Naturwissenschaft die Themen wie Mechanik, Optik oder Energie als wissenschaftliche Theoriegebäude darstellen. Die Computerwissenschaft funktioniert dazu grundlegend anders. Das Wissen dort hat eine Halbwertszeit von weniger als 10 Jahren. Frühere Errungenschaften wie das MPEG2 Kompressionsverfahren oder Magnetfestplatten sind heute obsolet. Selbst Programmiersprachen, mit denen man sehr viele Probleme lösen kann, veralten schnell. Heutige Sprachen wie Python gab es vor 20 Jahren noch gar nicht. Zwar gibt es auch in den Computerwissenschaften den Versuch zeitlose Buchklassiker zu erschaffen wie z.B. Knuth "The art of computer programmierung", nur diese Werke sind anders als Physik-Grundlagenwerke nicht als Nachschlagewerk anerka nnt. Viele Informatiker haben das Buch von Knuth nicht gelesen und haben das auch nicht vor.


February 11, 2025

From heuristics to language guided planning

Heuristics are a well known problem solving technique in the history of Artificial Intelligence. Pathplanning heuristics like A* and heuristic evaluation functions for computer chess are commonly used since the 1980s and are well documented in the literature. The main advantage over a vanilla sampling based planner is the better performance which allows to solve more complex problems.
Unfortunately, classical heuristic algorithms are not able to solve robotics problems like motion planning. Until 2010, it was common to apply heuristic planning algorithms like A*, RRT and potential field method to path planning in robotics, but the success was low. Either the runtime of the algorithm was slow or the generated trajectory had a low quality. That means, the robot was able to avoid the obstacle, but the path was clumsy.
An broad accepted definition for a heuristic algorithm is to assume that its equal to a heuristic cost function. Such a function assigns the current state a value from 00 to 1.0 which determines how well the state fulfills the goal requirements. If the robot is direct on the goal or near the goal, the costs are low and if the robot is far ahead the costs are growing. Such a metric allows to guide the search in the state space for a longer horizon and it can be used as a metric for model predictive control.
Unfortunately, a cost function alone can't solve complex robot planning problems, but it provides only a hint that heuristics are a here to stay. The question which was researched by the AI Community since 2010 was how to improve the cost function to a more advanced description of the current state.
The logical next step after heuristic algorithms and dedicated cost function is a natural language description of the current scene which is also known as a visual question answering problem. Instead of simply a cost value to the scene, the idea is, that a human operator can formulate information gathering requests like "what is the current direction?" "how far is the goal?" "Is there an obstacle" which are answered by the robot. Such a natural language engine can capture more expert knowledge about a subject and allows to solve more complex planning problems.
An early form of semantic description was used for formulating cost functions in the past. A cost function consists usually of features. In case of computer chess possible features are the amount of black figures or the position of the pawns. These features are hard coded into the cost function to determine the current cost value. In contrast, a modern VQA engine allows to formulate the features interactively. The human operator can ask the system for certain aspects of the game which makes the cost function more efficient. Also it allows non programmers to modify the cost function which was not possible in chess engines in the 1990s years.

February 09, 2025

Dialog über KI Forschung in den 1990er Jahren

Szene: Das Büro von Professor Schreiber, Mitte der 1990er Jahre. Der Raum ist überladen mit technischen Zeichnungen, alten Computermodellen und einem unfertigen Roboterarm, der auf einem Tisch liegt. Der junge Student Lukas sitzt auf einem wackeligen Stuhl vor dem Schreibtisch des Professors, während Schreiber hinter einem Stapel von Papieren hervorschaut.
---
Lukas: (eifrig) Herr Professor, ich habe gerade den Artikel über die Fortschritte in neuronalen Netzen gelesen. Es ist unglaublich, wie schnell sich die Technik entwickelt! Ich bin sicher, dass wir in ein paar Jahren Maschinen haben werden, die wirklich denken können – so wie Menschen.

Professor Schreiber: (hebt langsam den Blick und mustert Lukas mit einer Mischung aus Müdigkeit und Skepsis) Ach, Herr Berger. Sie erinnern mich an mich selbst vor zwanzig Jahren – jung, voller Enthusiasmus und... naiv.

Lukas: (leicht irritiert) Naiv? Aber sehen Sie sich doch die Fortschritte an! Die Rechenleistung verdoppelt sich alle paar Jahre. Wir haben Algorithmen, die Muster erkennen können, Spracherkennung wird immer besser, und selbst autonome Systeme machen Fortschritte. Es ist doch nur eine Frage der Zeit.

Professor Schreiber: (lehnt sich zurück und verschränkt die Arme) Eine Frage der Zeit? Das habe ich auch geglaubt, als ich in Ihrem Alter war. Wissen Sie, wie viele "Durchbrüche" ich in meiner Karriere miterlebt habe? Jedes Mal hieß es: "In zehn Jahren werden Maschinen alles können." Und jedes Mal sind wir an denselben Grenzen gescheitert.

Lukas: (beharrlich) Aber diesmal ist es anders! Mit neuronalen Netzen können wir doch lernen, wie das menschliche Gehirn funktioniert. Wir stehen kurz davor zu verstehen, wie Intelligenz wirklich entsteht.

Professor Schreiber: (lacht bitter) Das menschliche Gehirn? Herr Berger, wir verstehen nicht einmal ansatzweise, wie ein Gehirn lernt. Glauben Sie wirklich, dass ein paar Millionen Datenpunkte und ein Haufen Matrixmultiplikationen uns plötzlich erleuchten werden?

Lukas: (verärgert) Aber wir müssen doch irgendwo anfangen! Wenn wir immer nur pessimistisch sind und sagen "Das klappt sowieso nicht", dann kommen wir nie voran.

Professor Schreiber: (beugt sich nach vorne) Voran? Glauben Sie wirklich, dass diese Spielereien mit neuronalen Netzen oder Expertensystemen uns näher an echte Intelligenz bringen? Ich habe Jahre damit verbracht, Roboter zu bauen, die einfache Aufgaben wie das Greifen eines Objekts bewältigen sollten. Wissen Sie, was passiert ist? Sie haben versagt. Immer wieder. Weil die Realität chaotisch ist und Maschinen keine Ahnung haben, wie sie mit Unsicherheiten umgehen sollen.

Lukas: (versucht ruhig zu bleiben) Aber genau daran arbeiten wir doch! Fortschritt ist kein gerader Weg – es braucht Zeit und Rückschläge.

Professor Schreiber: (sarkastisch) Rückschläge? Oh ja, davon hatte ich genug. Wissen Sie, was das Problem ist? Die Leute da draußen – Geldgeber, Politiker – erwarten Wunder. Und wenn die Wunder ausbleiben, ziehen sie ihre Unterstützung zurück. Dann stehen Sie da mit Ihren halbfertigen Projekten und einer Karriere voller Enttäuschungen.

Lukas: (nachdenklich) Vielleicht liegt es daran, dass wir zu viel auf einmal wollen. Vielleicht sollten wir kleinere Schritte machen und uns auf spezifische Probleme konzentrieren.

Professor Schreiber: (nickt langsam) Das klingt vernünftig... aber wissen Sie was? Selbst die kleinen Schritte sind schwerer als sie aussehen. Jedes Mal, wenn Sie glauben, ein Problem gelöst zu haben, tauchen zwei neue auf. Und irgendwann merken Sie: Die Kluft zwischen dem, was wir erreichen wollen, und dem, was tatsächlich möglich ist, wird nicht kleiner – sie wird größer.

Lukas: (leise) Aber wenn alle so denken würden wie Sie... dann gäbe es keinen Fortschritt mehr.

Professor Schreiber: (sieht Lukas direkt an) Vielleicht ist das Problem nicht der Fortschritt selbst – sondern unsere Erwartungen daran. Wir wollen Maschinen bauen, die wie Menschen denken können. Aber vielleicht sollten wir uns fragen: Ist das überhaupt nötig? Oder gar möglich?

Lukas: (nach einer kurzen Pause) Ich glaube trotzdem daran. Vielleicht werde ich auch scheitern – so wie Sie sagen –, aber ich will es zumindest versuchen.

Professor Schreiber: (schmunzelt leicht) Gut so. Versuchen Sie es ruhig. Vielleicht brauchen wir Leute wie Sie – Leute mit Träumen –, um uns Alten daran zu erinnern, warum wir überhaupt angefangen haben. Aber seien Sie gewarnt: Träume haben eine unangenehme Angewohnheit... sie zerbrechen leicht.

Lukas: (steht auf und reicht ihm die Hand) Danke für Ihre Ehrlichkeit... auch wenn ich nicht alles teile. Ich hoffe trotzdem, dass ich Ihnen irgendwann beweisen kann, dass es möglich ist.

Professor Schreiber: (nimmt seine Hand zögerlich) Das hoffe ich auch... für Ihren eigenen Seelenfrieden.

---
*Der Student verlässt das Büro mit gemischten Gefühlen – einerseits inspiriert von seinem eigenen Optimismus, andererseits bedrückt von der Bitterkeit seines Professors. Schreiber bleibt allein zurück und starrt auf den unfertigen Roboterarm auf seinem Tisch.*