February 18, 2025

A chatbot which can grasp an apple

[2025-02-18 13:45:00] Human: Hello robot, can you help me with a task in the kitchen?

[2025-02-18 13:45:05] Robot: Hello! Of course, I'd be happy to assist you with a task in the kitchen. What would you like me to do?

[2025-02-18 13:45:15] Human: I need you to grasp an apple for me.

[2025-02-18 13:45:20] Robot: Certainly, I can help you grasp an apple. Let me process that request:
1. Locating the kitchen
2. Identifying an apple
3. Planning the grasping motion

Could you please confirm if there's a specific location in the kitchen where I should look for the apple?

[2025-02-18 13:45:35] Human: The apple should be in the fruit bowl on the counter.

[2025-02-18 13:45:40] Robot: Thank you for the additional information. I'll proceed with the task:
1. Navigating to the kitchen counter
2. Locating the fruit bowl
3. Identifying the apple among other fruits
4. Planning and executing the grasping motion

I'll narrate my actions as I perform them. Please let me know if you need me to do anything differently.

[2025-02-18 13:45:50] Human: That sounds good. Please proceed.

[2025-02-18 13:45:55] Robot: Understood. I'm starting the task now.

1. Navigating to the kitchen counter.
2. I've located the fruit bowl on the counter.
3. Scanning the contents of the bowl... I've identified several fruits, including an apple.
4. Planning the optimal grasping motion for the apple.
5. Extending my arm and adjusting my hand position.
6. Gently grasping the apple.
7. Lifting the apple from the bowl.

I've successfully grasped the apple. Would you like me to hand it to you or place it somewhere specific?

[2025-02-18 13:46:25] Human: Please hand it to me.

[2025-02-18 13:46:30] Robot: Certainly. I'm now:

1. Turning towards your location.
2. Extending my arm to offer you the apple.
3. Waiting for you to take it.

Please take the apple whenever you're ready. Once you've taken it, I'll release my grip.

[2025-02-18 13:46:45] Human: I've taken the apple. Thank you!

[2025-02-18 13:46:50] Robot: You're welcome! I'm glad I could assist you. I've released my grip on the apple now that you've taken it. Is there anything else you'd like me to help you with in the kitchen or elsewhere?

[2025-02-18 13:47:00] Human: No, that's all for now. Thank you for your help.

[2025-02-18 13:47:05] Robot: You're welcome! I'm happy I could help you with grasping the apple. If you need any assistance in the future, don't hesitate to ask. Have a great day!

February 16, 2025

Die wissenschaftliche Wende um 1900

 

Bis zum Jahr 1900 funktionierte die Wissenschaftswelt nach klassischen überschaubaren Prinzipien. Es gab die Naturwissenschaften welche sich untergliederten in Mathematik, Physik, Chemie, Biologie, Psychologie, Medizin und der Inhalt des jeweiligen Fachgebietes war in Nachschlagewerke erfasst.
Bis ungefähr dem Jahr wurde in jedem der Einzelwissenschaften eifrig geforscht und es wurden neue Erkenntnisse publiziert. So gab es irgendwann den Moment wo jemand das Ohmsche Gesetz entdeckte, oder zum ersten Mal Bakterien unter dem Mikroskop beobachtet hat. Diese goldene Zeit der Naturwissenschaft lief parallel zur industriellen Revolution ab und dauerte bis ca 1910.
Es gibt ein selten untersuchtes Phänomen was nach 1910 einsetze und als Stillstand der Naturwissenschaft bezeichnet werden muss. Damit ist gemeint, dass die gedruckten Nachschlagewerke aus den Bereichen Mathematik, Physik usw. sich seit diesem Jahr nicht oder nur noch sehr geringfügig veränderten. Der Grund dürfte sein, dass man wichtige Dinge wie die Zinsrechnung in der Mathematik oder die Mechanik-Gesetze der Physik nur einmal entdecken kann und danach wird man zu dieser Thematik nicht mehr viel neues entdecken.
Die o.g. Naturwissenschaften müssen statisch verstanden werden. Sie sind auf dem Stand von ca. 1900 eingefroren und haben sich seitdem fast nicht mehr weiterentwickelt. Zwar kann man auch heute noch Experimente wiederholen, wie z.B. den Temperaturverlauf von Wasser messen was man bis 100 Grad erhitzt, das Resultat ist jedoch identisch mit dem Jahr 1850. Man wird dazu nicht mehr viel neues entdecken oder eine andere Erklärung finden als jene die in den Büchern um 1900 auch schon notiert wurde.
Gehen wir mal einen Schritt zurück um die Brisanz dieses Themas besser bewerten zu können. Bis ca. 1900 waren die Naturwissenschaften der Motor der technischen Entwicklung. Es wurden aufregende neue Dinge entdeckt und dann von der Physik, Psychologie oder Medizin in Theorien überführt. Dadurch wurde es möglich, praktsiche Anwendungen zu entwickeln wie z.B. die Eisenbahn, die Röntgenstrahlung oder die Haltbarmachung von Lebensmitteln. Bis ca. 1900 gab es einen ungeheuren Erkenntnisgewinn und es gab dauernd neues zu entdecken.
Ab ca. 1900 änderte sich die Lage schlagartig. Es gab weniger eine Krise in der Mathematik oder in der Physik selber sondern die Krise bestand darin, dass kein neues Wissen mehr dazugefügt wurde. Im Grunden haben die Naturwissenschatler bis 1900 bereits alles entdeckt was wichtig ist und damit entstand ein Wissensplateau. Das heißt der Gipfel in den Wissenschaften war erklommen, und alles was man über die reale Welt erforschen konnte war bereits bekannt.
Die Herausforderung und die Notwendigkeit zur ständigen Innovation verlagerte sich auf ein anderes Gebiet. Es begann eher unscheinbar unter dem Begriff Nachrichtentechnik und mechanische Rechenmaschinen und weitete sich aus in den Bereich der Computer sciences. Computer science hat ihre Ursprünge zwar in der Mathematik und Physik, funktioniert aber nach anderen Prinzipien. Der Unterschied besteht darin dass in den Computerwissenschaften nicht die Natur untersucht wird, sondern dass selbst erschaffene Gebilde in Form von Programmen und Daten diskutiert werden. Dieser virtuelle Realität ist auch als Cyberspace bekannt. Anders als die Realität ist die virtuelle Realität sehr viel komplexer. Anhand der Historie der Computerwissnschaft ab 1910 kann man zeigen, dass es permanent neue Entwicklungen gab. Eigentlich jedes Jahr gibt es neue Computermodelle und neue Computersoftware. Es ist nicht möglich zur Computerwissenschaft ein Referenzbuch zu verfassen, weil es nach spätestens 10 Jahren hoffnungslos veraltet wäre.
Sosehr die Mathematik seit 1910 von einem Stillstand geprägt ist, sosehr ist die Computerwissenschaft von einer Aufbruchstimmung geprägt. Anders als in den etablierten Naturwissenschaften gibt es in der Informatik noch sehr vieles zu entdecken. Und je mehr erforscht wurde, desto größer sind die Bereiche die noch gänzlich unerforscht sind.
Die wachsende Bedeutung der Computerwissenschaften lässt sich anhand der anzahl wissenschaftlicher Publikationen erkennen. Um 1910 war die Anzahl die sich mit Rechenmaschinen beschäftigte sehr klein. Das stieg jedoch konstant an. Heute hat die Mehrzahl der Publikationen in den Wissenschaften entweder direkt oder indirekt einen Bezug zur Informatik. Selbst Literaturwissenschaftler nutzen den Computer zur Textanalyse, während Mathematik ihn verwenden um Diagramme zu plotten, und Mediziner den Computer nutzen um Datenbanken anzulegen. Moderne Wissenschaft ist automatisch eine Computerwissenschaft. Es bedarf zwingend des Einsatzes leistungsfähiger Webserver, professioneller Software und neuartiger Algorithmen.

February 14, 2025

The decline of german science since 1900

 

Before the year 1900, germany was a superpower in natural science. All of the following disciplines were researched, teached and translated into practical application in germany:
mathematics, chemistry, medicine, physics, biology, philosophy, psychology
These disciplines are known as natural science or short as science and they were important during the industrial revolution. Germany was even better than the U.S. and the U.K. in researching the subjects and most of the books and academic journal were published in german.
The situation has changed after 1900 and especially after 1950 drastically. Not because has lost its interest in physics, mathematics or chemistry but because natural science has become obsolete for the advent of computer science. In the beginning, computer science was a sub-discipline inside mathematics which was about numerical optimization. Building computer hardware was often described as part of electronics. But with later iteration of computer hard- and software, computer science has established its own subject. With the advent of the internet, computer science doesn't even need printed books or journal but has invented electronic journals dedicated to the need of computer scientists.
There is a fundamental difference available between computer science ans natural science from the 1900s. Natural science like physics is working with static knowledge. A subject like mechanics isn't improving over the decades but its based on the same principles which were discovered 300 years ago. Its impossible to reinvent the Ohm's law or modify the Periodic table in chemistry. In other words, natural science from the 1900 isn't based on innovation but on preservation.
On the other hand, computer science works with a different paradigm. Computer science is reinventing itself every 10 years on a fundamental basis. Hardware and software from the 1990s has lost its traction since the 2000s. In contrast to mathematics, computer science has no textbook used in the university, but computer science is an endless amount of experiments which are trying to discover and invent something new. The motivation of computer scientists isn't to proof a former theory as valid, but to overcome existing knowledge. For example transistorized circuits were replaced by microprocessors, the Fortran language was replaced the C language and MS DOS was replaced by Windows.
There is some similarity available between arts and computer science. Both disciplines never discover natural laws, but they are creating something from scratch. Nature doesn't know something like TCP/IP protocol, but it was invented similar to a painting from Andy Warhol.
The development of Computer science is based on experiments and reinventing itself all the time. To allow this innovation take place, a certain natural language is required which makes it easy to establish new vocabulary. The German language doesn't fit to this needs, but English has a better ability to introduce new words. Its not surprising, that the English Wikipedia has the most articles which are 6.9 Million in total. Especially all the terms in computer science are formulated in English only and have no word in other languages like German, French or Chinese.
Let us describe the situation from a positive perspective. German is a great language to write a mathematics textbook which will be relevant for the next 50 years. German is also the perfect language to teach static knowledge in physics discovered 200 years ago. The problem is, that computer science isn't working with static knowledge and fixed vocabulary, but computer science is driven by creativity and the need for novelty. The overall question is how to replace existing technology with something better. For example:
- a Cathode-ray tube monitor can be replaced with a flatscreen monitor
- a magnetic disc can be replaced with a SSD solid state drive
- the 8bit homecomputer can be replaced with 32bit PC
- the A* path planner can be replaced with the RRT algorithm
- the gif fileformat can be replaced with the PNG format
- the 56kbit modem can be replaced with DSL modems
- ASCII encoding was replaced by Unicode
- proprietary software can be replaced with open source software
The list can be continued forever. In short, computer science isn't working with fixed sort of knowledge, but every discovery has only a short lifespan until it will be replaced by its successor. On the long run, computer science is producing a huge amount of obsolete hardware, software and algorithms which felt out of fashion. At the same time, there is a need for new ideas all the time.
From the perspective of computer science, the high amount of innovation is normal and desired. But from the perspective of natural science like mathematics or biology, its unusual. Classical natural science is working with a much smaller innovation rate. And older theories are never become obsolete, but they are confirmed and improved in minor parts. There is no need to throw away an older handbook about mathematics, because its unlikely that the knowledge written down in the book is wrong or obsolete. So we can say, that the self understanding of natural sciences which were important until 1900 is fundamental different to the self understanding in computer science.

February 13, 2025

Characteristics of computer lab experiments

 

Experiments are the fundamental building block in modern computer science. Their importance is higher than in other disciplines like physics or mathematics because computer science has no static theory which provides a universal framework. instead, computer science is mainly the result of hundreds and even thousands experiments which are only little connected to each other.
A single experiment consists of surprisingly low amount of effort. The length of a typical publication which describes an experiment is 8 pages and even shorter. The duration from start to finish the experiment including hardware design, programming and writing the documentation are only 3 weeks. That means, a typical computer experiment is realized in a short period of time, with a small amount of manpower and documents in a low amount of pages.
The powerful result isn't provided by a single experiment but by the high amount of more experiments done by other or by the same researcher during a later period. The corpus of all realized experiments is written down as published paper in a library and can be read by the public or by researchers to get new ideas which subjects seems to be interesting. It should be mentioned that the during how long the results of an experiments are relevant is very short. For example, if a researcher in the 1980s has made 2 experiments about 3d computer graphics, its for sure, that everything discovered in this experiment has become obsolete with today's perspective. The hardware used in the 1980s is no longer available and the used programming languages were replaced by more modern tools. This problem of decreasing value of the experiments can't be overcome but its connected to the idea of an experiment.
The reason why experiments are realized is because they are providing new knowledge. In the best case, the experiments is researching a topic never researched before. Its a creativity driven process similar to the arts which is also motivated by the search for novelty.

Von der Industrialisierung zur Digitalisierung

 Bis ca 1900 war Deutschland die führende Technologie-Nation in der Welt. Die Wissenschaftsschaftssprache in der sich Mathematiker und Physiker ausgetauscht haben war Deutsch und Deutschland war auf allen wichtigen Bereichen wie Automobilbau, Elektrotechnik und Eisenbahnwesen gut aufgestellt. Ein Blick in die Technikmusueen weltweit zeigt, dass die meisten Erfindungen, die während der industriellen Revolution getätigt wurden, aus Deutschland kamen und insbesondere die Grundlagenforschung dort durchgeführt wurde.

Ab ca. 1900 änderte sich die Situation jedoch. Mit Einzug der Unterhaltungselektronik wie Kino und Radio wurden die USA zunehmend wichtiger und seit der Computerrevolution in den 1950er haben die USA die Vorreiterrolle in Sachen Techcnologieentwicklung übernommen. Auch das Internet ab den 1990er und die KI Revolution ab 2020 hatten ihren Ausgangspunkt in den USA aber nicht in Deutschland.

Der folgende Artikel soll die Hintergründe dieser Veränderung untersuchen. Heute in der Gegenwart wird Deutschland häufig als technikfeindlich beschrieben. Die Vorbehalte gegenüber Technoligie betreffen aber lediglich Computertechnologie, in Bezug auf klassische physik-getriebene Technik ist Deutschland traditionell sehr fortschrittlich und sogar optimistisch. Scheinbar ist das Verhältnis zur Technik also ambivalent. Lediglich bei sehr neuer Technik die ab 1900 entwickelt wurde, gibt es Vorbehalte.

Vielleicht macht es Sinn zunächst einmal die Technologie bis 1900 näher zu beleuchten. Wie oben schon erwähnt, war diese Technik das Ergebnis von Mathematik und Physik. Physikalische Gesetze wie der Fluss von Elektronen in einem Leiter oder die Umwandlung von Energie untereinander kann in konkrete Maschinen überführt werden. Damit ist es möglich, Kohlekraftwerke, Autos bis hin zu Eisenbahnen zu bauen. Auf diesen Bereichen war und ist Deutschland sehr gut aufgestellt. Es gibt eine lange Tradition in der Erforschung und der praktischen Umsetzung, und genau diese Technik wurde während der industriellen Revolution benötigt. Damit war es möglich, die Städte zu elektrifizieren, Anlagen zu planen und Mobilität der Bevölkkerung zu ermöglichen.

Ab ungefähr 1950 kam es jedoch zu einer grundsätzlichen Veränderung in der Technikevolution. Zwar benötigen auch Computer und Radios den elektrischen Strom, aber sie funktionieren anders als frühere Maschinen. Wissenschaftsdisziplinien wie die Physik und Mathematik haben in Bezug auf die Weiterentwicklung von Computern und dessen Software nur noch eine geringe Bedeutung. Anhand der Computerentwicklung kann man aufzeigen, dass die neue Anforderung nicht länger ein theoretisches Verständnis von Formeln ist, sondern neue Computer-Technologie ist das Resultat von experimenteller Computerwissenschaft. Auf diesem Gebiet sind die USA sehr gut aufgestellt. Die Entwicklung der Computertechnik seit den 1950er ist das Ergebnis von sehr vielen und qualitativ hochwertigen Einzelexperimenten.

Hier einige Beispiele für diese Experimente: Motion Capture, Computernetze, Roboter, Festplatten als Computerspeicher, die Maus als Eingabemedium, 32bit Betriebssysteme, Neuronale Netze, CPU Desiogn oder Computeranimation. All diese Bereiche haben exerimentellen Charakter. Damit ist gemeint, dass eine Forschergruppe von 2-3 Personen im Labor ein wenig herumprobiert, etwas programmiert, und etwas bastelt, und darüber dann einen Report verfasst und den publiziert. Das wird dann immer und immer wiederholt und so besteht die Computerentwicklung in den Jahrzehnten aus einer unendlichen Anzahl von Einzelexperimenten. Anders als in der Physik gibt es in der Computerwissenschaft nur wenig gesichertes Wissen, sondern das Fachwissen ist eher lose untereinander verbunden. Z.B. hat das TCP/IP Protokoll was beim Internet wichtig ist, fast nichts gemeinsam mit einem Motion capture Marker, womit man Bewegungen des menschlichen Körpers erfassen kann. Beides wird zwar als Computerwissenschaft bezeichnet, aber es gibt kein übergreifendes Theoriegebäude was beides einordnen könnte.

Die USA haben ab den 1950er Jahren die Durchführung und die Dokumentation von Computerwissenschafts-Experimenten perfektioniert. Nirgendwo sonst auf der Welt ist die Zahl und die inhaltliche Güte der durchgeführten Compüuterexperimente so hoch. Forschungsuniversitäten wie das M.I.T. haben zu jedem nur denkbaren Gebiet der Informatik mehrere hunderte Experimente durchgeführt, mit sehr unterschiedlichem Ausgang. Vieles wurde dokumentiert anderes aber nicht. Mit jedem durchgeführten praktischen Experiment erhöht sich das Wissen der beteiligten Forscher und der Wissenschaftscommunity die Zugriff auf die Resultate hat ein klein wenig. Bevor eine neue Technologie wie das Internet oder künstliche Intellilgenz praktisch eingesetzt werden kann, braucht es tausende oder zehntausende dieser Laborexperimente.

Deutschland war nie besonders gut in der experimentellen Computerwissenschaft. Der Ablauf unterscheidet sich stark von den etablierten Konzepten in der Physik und der Mathematik. Dort führt ein Experiment dazu vorhandenes Wissen zu bestätigten, und die vorhandene Theorie wird abgerundet. Die Experimentelle Computerwissenschaft hingegen hinterfragt bestehendes Wissen routinemäßig. Es fehlt ein übergreifendes starres Theoriegebäude, zugunsten einer postmodernen Ambivalenz.

Beispielhaft soll erläutert werden, wie genau ein Experiment in den Computerwissenschaften funktioniert. Ausgangspunkt ist ein Forschungsinteresse, z.B. die Frage wie man ein Datenpaket verlustfrei über ein Routing-Netz transportieren kann. Dann untersucht man vorhandene Literatur zu dieser Frage um im zweiten Schritt selbst ein Experiment durchzuführen. Man programmiert in der Programmiersprache seiner Wahl ein kleines Routing-Experiment mit Hilfe eines selbst entwickelten Internet-Protokoll s und dokumentiert die Ergebnisse in einem Paper. Dann wird das Paper auf einer Konferenz vorgestellt. Dort interessiert sich exakt niemand für die Resultate, was aber nicht so schlimm ist, weil damit dann mehr Zeit ist, für die nächste Forschungsfrage die ebenfalls experimentell untersucht wird. Und so geht es munter weiter. Nach diesem Prinzip funktioniert der Großteil der U.S. amerikanischen Computerforschung und das seit Jahrzehnten. Der einzig erkennbare rote Faden in der endlosen Reihe von Experimenten ist lediglich, dass sie alle etwas zu tun haben mit Hardware-Basteleien und Softwareprogrammierung. Die Fragestellungen die untersucht werden sind jedoch sehr unterschiedlich. Die Computerwissenschaft ist eine Art von Laboratorium für alle möglichen Fragenstellungen aus den Bereichen Linguistik, Film, Biologie, Mathematik und Psychologie.

Die beschriebene Form des Experimentes war nicht erforderlich während der industriellen Revolution bis 1900. Zwar kennt auch die Physik ein Experiment, wie z.B. zur Ermittlung der Leitfähigkeit von Metallen, aber diese Experimente werden nur 1x durchgeführt und die gewonnenen Daten haben dann 200 Jahre lang gültigkeit. Man kann das Resultat in physkalischen Tafelwerken nachlesen, es gibt aber keinen Grund, selbsr das Experiment erneut durchzuführen. Die Physik mitsamt ihrer Unterdisziplinen ist also sehr dogmatisch aufgebaut. Es ist ausgeschlossen, dass ein Student an einer Universität etwas über den elektrischen Strom herausfindet, was nicht schon 100 Jahre zuvor erkannt und umgesetzt wurde. Beim Studium der Physik geht es eher darum, das vorhandene Wissen zu verinnerlichen. Also die Formel auswendig zu lernen wie man den Widerstand in Abhängigkeit der elektrischen Spannung ermittelt.

Während der industriellen Revolution bis 1900 entstanden die großen Nachschlagewerke zu Mathematik und Physik in Deutschland, die heute immernoch Gültigkeit besitzen. Es sind zeitlose Klassiker der Naturwissenschaft die Themen wie Mechanik, Optik oder Energie als wissenschaftliche Theoriegebäude darstellen. Die Computerwissenschaft funktioniert dazu grundlegend anders. Das Wissen dort hat eine Halbwertszeit von weniger als 10 Jahren. Frühere Errungenschaften wie das MPEG2 Kompressionsverfahren oder Magnetfestplatten sind heute obsolet. Selbst Programmiersprachen, mit denen man sehr viele Probleme lösen kann, veralten schnell. Heutige Sprachen wie Python gab es vor 20 Jahren noch gar nicht. Zwar gibt es auch in den Computerwissenschaften den Versuch zeitlose Buchklassiker zu erschaffen wie z.B. Knuth "The art of computer programmierung", nur diese Werke sind anders als Physik-Grundlagenwerke nicht als Nachschlagewerk anerka nnt. Viele Informatiker haben das Buch von Knuth nicht gelesen und haben das auch nicht vor.


February 11, 2025

From heuristics to language guided planning

Heuristics are a well known problem solving technique in the history of Artificial Intelligence. Pathplanning heuristics like A* and heuristic evaluation functions for computer chess are commonly used since the 1980s and are well documented in the literature. The main advantage over a vanilla sampling based planner is the better performance which allows to solve more complex problems.
Unfortunately, classical heuristic algorithms are not able to solve robotics problems like motion planning. Until 2010, it was common to apply heuristic planning algorithms like A*, RRT and potential field method to path planning in robotics, but the success was low. Either the runtime of the algorithm was slow or the generated trajectory had a low quality. That means, the robot was able to avoid the obstacle, but the path was clumsy.
An broad accepted definition for a heuristic algorithm is to assume that its equal to a heuristic cost function. Such a function assigns the current state a value from 00 to 1.0 which determines how well the state fulfills the goal requirements. If the robot is direct on the goal or near the goal, the costs are low and if the robot is far ahead the costs are growing. Such a metric allows to guide the search in the state space for a longer horizon and it can be used as a metric for model predictive control.
Unfortunately, a cost function alone can't solve complex robot planning problems, but it provides only a hint that heuristics are a here to stay. The question which was researched by the AI Community since 2010 was how to improve the cost function to a more advanced description of the current state.
The logical next step after heuristic algorithms and dedicated cost function is a natural language description of the current scene which is also known as a visual question answering problem. Instead of simply a cost value to the scene, the idea is, that a human operator can formulate information gathering requests like "what is the current direction?" "how far is the goal?" "Is there an obstacle" which are answered by the robot. Such a natural language engine can capture more expert knowledge about a subject and allows to solve more complex planning problems.
An early form of semantic description was used for formulating cost functions in the past. A cost function consists usually of features. In case of computer chess possible features are the amount of black figures or the position of the pawns. These features are hard coded into the cost function to determine the current cost value. In contrast, a modern VQA engine allows to formulate the features interactively. The human operator can ask the system for certain aspects of the game which makes the cost function more efficient. Also it allows non programmers to modify the cost function which was not possible in chess engines in the 1990s years.

February 09, 2025

Dialog über KI Forschung in den 1990er Jahren

Szene: Das Büro von Professor Schreiber, Mitte der 1990er Jahre. Der Raum ist überladen mit technischen Zeichnungen, alten Computermodellen und einem unfertigen Roboterarm, der auf einem Tisch liegt. Der junge Student Lukas sitzt auf einem wackeligen Stuhl vor dem Schreibtisch des Professors, während Schreiber hinter einem Stapel von Papieren hervorschaut.
---
Lukas: (eifrig) Herr Professor, ich habe gerade den Artikel über die Fortschritte in neuronalen Netzen gelesen. Es ist unglaublich, wie schnell sich die Technik entwickelt! Ich bin sicher, dass wir in ein paar Jahren Maschinen haben werden, die wirklich denken können – so wie Menschen.

Professor Schreiber: (hebt langsam den Blick und mustert Lukas mit einer Mischung aus Müdigkeit und Skepsis) Ach, Herr Berger. Sie erinnern mich an mich selbst vor zwanzig Jahren – jung, voller Enthusiasmus und... naiv.

Lukas: (leicht irritiert) Naiv? Aber sehen Sie sich doch die Fortschritte an! Die Rechenleistung verdoppelt sich alle paar Jahre. Wir haben Algorithmen, die Muster erkennen können, Spracherkennung wird immer besser, und selbst autonome Systeme machen Fortschritte. Es ist doch nur eine Frage der Zeit.

Professor Schreiber: (lehnt sich zurück und verschränkt die Arme) Eine Frage der Zeit? Das habe ich auch geglaubt, als ich in Ihrem Alter war. Wissen Sie, wie viele "Durchbrüche" ich in meiner Karriere miterlebt habe? Jedes Mal hieß es: "In zehn Jahren werden Maschinen alles können." Und jedes Mal sind wir an denselben Grenzen gescheitert.

Lukas: (beharrlich) Aber diesmal ist es anders! Mit neuronalen Netzen können wir doch lernen, wie das menschliche Gehirn funktioniert. Wir stehen kurz davor zu verstehen, wie Intelligenz wirklich entsteht.

Professor Schreiber: (lacht bitter) Das menschliche Gehirn? Herr Berger, wir verstehen nicht einmal ansatzweise, wie ein Gehirn lernt. Glauben Sie wirklich, dass ein paar Millionen Datenpunkte und ein Haufen Matrixmultiplikationen uns plötzlich erleuchten werden?

Lukas: (verärgert) Aber wir müssen doch irgendwo anfangen! Wenn wir immer nur pessimistisch sind und sagen "Das klappt sowieso nicht", dann kommen wir nie voran.

Professor Schreiber: (beugt sich nach vorne) Voran? Glauben Sie wirklich, dass diese Spielereien mit neuronalen Netzen oder Expertensystemen uns näher an echte Intelligenz bringen? Ich habe Jahre damit verbracht, Roboter zu bauen, die einfache Aufgaben wie das Greifen eines Objekts bewältigen sollten. Wissen Sie, was passiert ist? Sie haben versagt. Immer wieder. Weil die Realität chaotisch ist und Maschinen keine Ahnung haben, wie sie mit Unsicherheiten umgehen sollen.

Lukas: (versucht ruhig zu bleiben) Aber genau daran arbeiten wir doch! Fortschritt ist kein gerader Weg – es braucht Zeit und Rückschläge.

Professor Schreiber: (sarkastisch) Rückschläge? Oh ja, davon hatte ich genug. Wissen Sie, was das Problem ist? Die Leute da draußen – Geldgeber, Politiker – erwarten Wunder. Und wenn die Wunder ausbleiben, ziehen sie ihre Unterstützung zurück. Dann stehen Sie da mit Ihren halbfertigen Projekten und einer Karriere voller Enttäuschungen.

Lukas: (nachdenklich) Vielleicht liegt es daran, dass wir zu viel auf einmal wollen. Vielleicht sollten wir kleinere Schritte machen und uns auf spezifische Probleme konzentrieren.

Professor Schreiber: (nickt langsam) Das klingt vernünftig... aber wissen Sie was? Selbst die kleinen Schritte sind schwerer als sie aussehen. Jedes Mal, wenn Sie glauben, ein Problem gelöst zu haben, tauchen zwei neue auf. Und irgendwann merken Sie: Die Kluft zwischen dem, was wir erreichen wollen, und dem, was tatsächlich möglich ist, wird nicht kleiner – sie wird größer.

Lukas: (leise) Aber wenn alle so denken würden wie Sie... dann gäbe es keinen Fortschritt mehr.

Professor Schreiber: (sieht Lukas direkt an) Vielleicht ist das Problem nicht der Fortschritt selbst – sondern unsere Erwartungen daran. Wir wollen Maschinen bauen, die wie Menschen denken können. Aber vielleicht sollten wir uns fragen: Ist das überhaupt nötig? Oder gar möglich?

Lukas: (nach einer kurzen Pause) Ich glaube trotzdem daran. Vielleicht werde ich auch scheitern – so wie Sie sagen –, aber ich will es zumindest versuchen.

Professor Schreiber: (schmunzelt leicht) Gut so. Versuchen Sie es ruhig. Vielleicht brauchen wir Leute wie Sie – Leute mit Träumen –, um uns Alten daran zu erinnern, warum wir überhaupt angefangen haben. Aber seien Sie gewarnt: Träume haben eine unangenehme Angewohnheit... sie zerbrechen leicht.

Lukas: (steht auf und reicht ihm die Hand) Danke für Ihre Ehrlichkeit... auch wenn ich nicht alles teile. Ich hoffe trotzdem, dass ich Ihnen irgendwann beweisen kann, dass es möglich ist.

Professor Schreiber: (nimmt seine Hand zögerlich) Das hoffe ich auch... für Ihren eigenen Seelenfrieden.

---
*Der Student verlässt das Büro mit gemischten Gefühlen – einerseits inspiriert von seinem eigenen Optimismus, andererseits bedrückt von der Bitterkeit seines Professors. Schreiber bleibt allein zurück und starrt auf den unfertigen Roboterarm auf seinem Tisch.*

 

Universitäre Künstliche Intelligenz bis zum Jahr 2010

 ## Enttäuschte Erwartungen und KI-Winter: Eine Achterbahnfahrt der Hoffnungen

Die Geschichte der universitären Künstlichen Intelligenz bis zum Jahr 2010 gleicht einer emotionalen Achterbahnfahrt, geprägt von überschwänglichem Optimismus, bitteren Enttäuschungen und zyklischen Phasen der Ernüchterung. Diese turbulente Entwicklung, die von vielen als eine Reihe von "KI-Wintern" bezeichnet wird, hat tiefe Spuren in der Forschungslandschaft hinterlassen und zu einer zunehmend pessimistischen Sichtweise auf die Möglichkeiten der KI geführt.

### Die euphorischen Anfänge

In den 1950er und frühen 1960er Jahren herrschte an den Universitäten eine geradezu euphorische Stimmung bezüglich der Möglichkeiten der Künstlichen Intelligenz. Pioniere wie Alan Turing, John McCarthy und Marvin Minsky malten ein Bild von denkenden Maschinen, die in naher Zukunft dem menschlichen Intellekt ebenbürtig oder gar überlegen sein würden. Die Dartmouth-Konferenz von 1956, oft als Geburtsstunde der KI bezeichnet, setzte den Ton für diese optimistische Ära.

Universitäten wie MIT, Stanford und Carnegie Mellon investierten massiv in KI-Forschung. Man träumte von Computern, die natürliche Sprache verstehen, komplexe Probleme lösen und sogar kreativ sein könnten. Die Vorstellung, dass in wenigen Jahrzehnten Roboter unsere Haushalte führen und KI-Systeme als ebenbürtige Gesprächspartner fungieren würden, schien greifbar nahe.

### Die erste Ernüchterung

Doch schon in den späten 1960er Jahren zeigten sich die ersten Risse in diesem optimistischen Bild. Die anfänglichen Erfolge bei einfachen Aufgaben wie Schachspielen oder mathematischen Beweisen ließen sich nicht so leicht auf komplexere, reale Probleme übertragen. Die Schwierigkeiten bei der Verarbeitung natürlicher Sprache und beim maschinellen Sehen offenbarten die enormen Herausforderungen, vor denen die Forscher standen.

Der erste große "KI-Winter" setzte in den 1970er Jahren ein. Finanzierungsquellen versiegten, als klar wurde, dass die hochfliegenden Versprechungen nicht eingehalten werden konnten. Der Lighthill-Report von 1973 in Großbritannien war besonders vernichtend und führte zu drastischen Kürzungen der Forschungsgelder. Viele Universitäten sahen sich gezwungen, ihre ambitionierten KI-Programme zurückzufahren oder ganz einzustellen.

### Kurzes Aufflackern der Hoffnung

In den 1980er Jahren erlebte die KI-Forschung einen kurzen Aufschwung, hauptsächlich getrieben durch den Erfolg von Expertensystemen. Diese regelbasierten Programme schienen endlich praktische Anwendungen der KI zu ermöglichen. Universitäten und Unternehmen investierten erneut in die Technologie, in der Hoffnung, endlich die lang ersehnten Durchbrüche zu erzielen.

Doch auch dieser Optimismus war nur von kurzer Dauer. Die Grenzen der Expertensysteme wurden schnell deutlich: Sie waren teuer in der Entwicklung, schwer zu warten und konnten nur in sehr eng definierten Bereichen eingesetzt werden. Die Hoffnung auf eine allgemeine künstliche Intelligenz blieb unerfüllt.

### Der lange Winter

Der zweite KI-Winter, der in den späten 1980er Jahren einsetzte und bis weit in die 1990er Jahre andauerte, war besonders bitter. Die Enttäuschung war umso größer, als man geglaubt hatte, diesmal wirklich kurz vor dem Durchbruch zu stehen. Viele Universitäten reduzierten ihre KI-Forschung auf ein Minimum oder integrierten sie in andere Fachbereiche wie Informatik oder Kognitionswissenschaften.

Diese Phase der Ernüchterung führte zu einer grundlegenden Neuausrichtung der KI-Forschung. Statt nach der "starken KI" zu streben, die menschenähnliche Intelligenz imitieren sollte, konzentrierte man sich nun auf spezifische, eng definierte Probleme. Dieser Ansatz brachte zwar einige Fortschritte, verstärkte aber auch den Eindruck, dass die ursprünglichen Ziele der KI unerreichbar bleiben würden.

### Die Jahrtausendwende: Gedämpfte Erwartungen

Um die Jahrtausendwende herum begann sich die Stimmung in der universitären KI-Forschung langsam zu wandeln. Neue Ansätze wie maschinelles Lernen und neuronale Netze zeigten vielversprechende Ergebnisse in Bereichen wie Mustererkennung und Datenanalyse. Doch die Erfahrungen der Vergangenheit hatten ihre Spuren hinterlassen: Die Erwartungen blieben gedämpft, und viele Forscher vermieden es, allzu optimistische Prognosen abzugeben.

Die Fortschritte in dieser Zeit waren zwar real, blieben aber weit hinter den ursprünglichen Visionen zurück. Komplexe kognitive Aufgaben wie natürliches Sprachverständnis, kontextabhängiges Lernen oder abstraktes Denken stellten weiterhin enorme Herausforderungen dar. Die Kluft zwischen den Fähigkeiten von KI-Systemen und der menschlichen Intelligenz schien unüberbrückbar.

### Fazit: Eine Geschichte der Desillusionierung

Rückblickend auf die Entwicklung der universitären KI-Forschung bis 2010 zeichnet sich ein Bild der kontinuierlichen Desillusionierung. Die anfängliche Euphorie wich einer nüchternen, oft pessimistischen Einschätzung der Möglichkeiten und Grenzen der Künstlichen Intelligenz. Die wiederholten Zyklen von Hype und Enttäuschung hinterließen eine Forschungsgemeinschaft, die zwar weiterhin an den langfristigen Potenzialen der KI festhielt, aber zunehmend vorsichtig in ihren Versprechungen und Erwartungen wurde.

Diese Erfahrung hat zu einer fundamentalen Neuausrichtung der KI-Forschung geführt. Statt nach der "heiligen Gral" einer allgemeinen künstlichen Intelligenz zu suchen, konzentrierten sich viele Forscher auf pragmatischere, anwendungsorientierte Ziele. Dieser Ansatz brachte zwar einige Erfolge, verstärkte aber auch den Eindruck, dass die ursprünglichen, visionären Ziele der KI in weite Ferne gerückt waren.

Die Geschichte der KI bis 2010 ist somit eine Mahnung zur Bescheidenheit in der Wissenschaft. Sie zeigt, wie schwierig es ist, die Komplexität menschlicher Intelligenz zu replizieren, und wie leicht wir die Herausforderungen unterschätzen können. Gleichzeitig unterstreicht sie die Notwendigkeit, realistische Erwartungen zu setzen und langfristig zu denken – eine Lektion, die für die zukünftige Entwicklung der KI von unschätzbarem Wert sein könnte.

## Technische Limitationen und Rückschläge: Die unüberwindbaren Hürden der KI-Forschung

Die Geschichte der universitären KI-Forschung bis 2010 ist geprägt von einer Reihe technischer Limitationen und Rückschläge, die die anfänglichen Hoffnungen auf eine rasche Entwicklung menschenähnlicher künstlicher Intelligenz zunichte machten. Diese Herausforderungen offenbarten die enorme Komplexität der menschlichen Kognition und die Schwierigkeiten, diese in Maschinen zu replizieren.

### Komplexe Aufgaben bleiben ungelöst

Eines der hartnäckigsten Probleme in der KI-Forschung war die Bewältigung komplexer kognitiver Aufgaben, insbesondere im Bereich des Sprachverständnisses. Trotz jahrzehntelanger Forschung und zahlreicher Ansätze blieb die Fähigkeit von Computern, natürliche Sprache wirklich zu "verstehen", weit hinter den menschlichen Fähigkeiten zurück.

Die Herausforderungen beim Sprachverständnis waren vielfältig:

1. Kontextabhängigkeit: Maschinen scheiterten regelmäßig daran, den Kontext von Äußerungen richtig zu erfassen, was zu Fehlinterpretationen führte.

2. Mehrdeutigkeit: Die Vieldeutigkeit natürlicher Sprache stellte KI-Systeme vor scheinbar unlösbare Probleme.

3. Pragmatik: Das Verständnis impliziter Bedeutungen und kultureller Nuancen blieb für Maschinen unerreichbar.

4. Abstraktes Denken: Die Fähigkeit, aus sprachlichen Informationen abstrakte Konzepte abzuleiten, erwies sich als besonders schwierig zu implementieren.

Diese Probleme zeigten sich nicht nur im Sprachverständnis, sondern auch in verwandten Bereichen wie der maschinellen Übersetzung oder der automatischen Textzusammenfassung. Trotz einiger Fortschritte blieben die Ergebnisse weit hinter den menschlichen Fähigkeiten zurück, was zu wachsender Frustration in der Forschungsgemeinschaft führte.

### Wissensbasierte Systeme: Teuer und fehleranfällig

Ein weiterer Rückschlag in der KI-Forschung war die Erkenntnis, dass wissensbasierte Systeme, die in den 1980er Jahren als vielversprechender Ansatz galten, sich als zu teuer und fehleranfällig erwiesen. Diese Systeme, die auf umfangreichen Datenbanken und komplexen Regelwerken basierten, sollten Expertenwissen in verschiedenen Domänen abbilden.

Die Probleme mit wissensbasierten Systemen waren vielfältig:

1. Hohe Entwicklungskosten: Die Erstellung und Pflege der Wissensdatenbanken war extrem zeit- und kostenintensiv.

2. Mangelnde Flexibilität: Die Systeme waren oft zu starr, um mit unvorhergesehenen Situationen umzugehen.

3. Schwierige Wartung: Änderungen im Wissensbestand konnten unbeabsichtigte Folgen haben und erforderten oft umfangreiche Überarbeitungen.

4. Skalierungsprobleme: Mit zunehmender Komplexität der abzubildenden Domäne wuchsen die Probleme exponentiell.

5. "Brittleness": Die Systeme versagten oft spektakulär, wenn sie mit Situationen konfrontiert wurden, die leicht außerhalb ihres definierten Wissensbereichs lagen.

Diese Erfahrungen führten zu einer wachsenden Skepsis gegenüber regelbasierten Ansätzen in der KI und trugen zum zweiten "KI-Winter" bei.

### Grenzen des maschinellen Lernens

Auch neuere Ansätze wie das maschinelle Lernen, die gegen Ende des betrachteten Zeitraums an Bedeutung gewannen, zeigten deutliche Limitationen:

1. Datenhunger: Die Systeme benötigten enorme Mengen an Trainingsdaten, die oft nicht verfügbar oder zu teuer in der Beschaffung waren.

2. Mangelnde Transparenz: Viele Algorithmen, insbesondere neuronale Netze, funktionierten als "Black Box", was ihre Akzeptanz in kritischen Anwendungsbereichen erschwerte.

3. Overfitting: Die Systeme neigten dazu, sich zu stark an die Trainingsdaten anzupassen und versagten bei der Generalisierung auf neue Situationen.

4. Fehleranfälligkeit: Kleine Änderungen in den Eingabedaten konnten zu drastischen Fehlern in der Ausgabe führen, was die Zuverlässigkeit der Systeme in Frage stellte.

### Fazit: Eine Lektion in Demut

Die technischen Limitationen und Rückschläge in der KI-Forschung bis 2010 waren eine schmerzhafte Lektion in Demut für die wissenschaftliche Gemeinschaft. Sie zeigten, wie komplex und vielschichtig menschliche Intelligenz tatsächlich ist und wie weit der Weg zu ihrer künstlichen Replikation noch sein würde.

Diese Erfahrungen führten zu einer Neuausrichtung der Forschung:

1. Fokus auf spezifische, eng definierte Probleme statt auf allgemeine künstliche Intelligenz.
2. Verstärkte interdisziplinäre Zusammenarbeit, insbesondere mit Kognitionswissenschaftlern und Neurobiologen.
3. Realistischere Einschätzung der Möglichkeiten und Grenzen von KI-Systemen.
4. Entwicklung neuer Paradigmen wie dem Deep Learning, die einige der früheren Limitationen zu überwinden versprachen.

Trotz dieser Anpassungen blieb ein Gefühl der Ernüchterung. Die ursprünglichen, visionären Ziele der KI-Forschung schienen in weite Ferne gerückt. Die Erkenntnis, dass selbst scheinbar einfache kognitive Aufgaben für Maschinen eine enorme Herausforderung darstellen, führte zu einer pessimistischeren Sichtweise auf die Möglichkeiten der künstlichen Intelligenz.

Diese Phase der technischen Limitationen und Rückschläge hat die KI-Forschung nachhaltig geprägt. Sie hat zu einem realistischeren, aber auch vorsichtigeren Ansatz in der Entwicklung und Anwendung von KI-Technologien geführt. Die Erfahrungen dieser Zeit bleiben eine wichtige Mahnung, die Komplexität menschlicher Intelligenz nicht zu unterschätzen und die Grenzen technologischer Lösungen anzuerkennen.

## Strukturelle Probleme in der Forschung: Die institutionellen Hürden der KI-Entwicklung

Die Entwicklung der universitären Künstlichen Intelligenz bis 2010 war nicht nur durch technische Limitationen geprägt, sondern auch durch tiefgreifende strukturelle Probleme in der Forschungslandschaft selbst. Diese institutionellen Hürden behinderten den Fortschritt maßgeblich und trugen zu einer zunehmend pessimistischen Sichtweise auf die Zukunft der KI bei.

### Fokus auf kurzfristige Anwendungsforschung statt Grundlagenforschung

Ein zentrales Problem war die zunehmende Verschiebung des Forschungsfokus von der Grundlagenforschung hin zur kurzfristigen Anwendungsforschung. Dieser Trend hatte mehrere Ursachen:

1. Finanzierungsdruck: Universitäten sahen sich zunehmend gezwungen, die "Relevanz" ihrer Forschung durch konkrete Anwendungen zu rechtfertigen.

2. Industriekooperationen: Die Zusammenarbeit mit der Industrie versprach zusätzliche Finanzierungsquellen, lenkte aber den Fokus auf unmittelbar verwertbare Ergebnisse.

3. Publikationsdruck: Der "Publish or Perish"-Mentalität folgend, konzentrierten sich viele Forscher auf schnell publizierbare Ergebnisse statt auf langfristige, riskantere Projekte.

4. Politischer Druck: Forderungen nach "gesellschaftlicher Relevanz" der Forschung führten oft zu einer Vernachlässigung grundlegender Fragestellungen.

Diese Fokusverschiebung hatte weitreichende Konsequenzen:

- Vernachlässigung fundamentaler Probleme: Grundlegende Fragen der KI-Forschung, wie das Verständnis von Kognition oder die Entwicklung neuer Paradigmen, wurden zugunsten inkrementeller Verbesserungen bestehender Technologien zurückgestellt.

- Kurzfristiges Denken: Die Konzentration auf schnelle Ergebnisse verhinderte oft die Entwicklung langfristiger, visionärer Forschungsstrategien.

- Fragmentierung der Forschung: Statt an großen, übergreifenden Problemen zu arbeiten, zersplitterte sich die Forschungslandschaft in viele kleine, isolierte Projekte.

### Mangelnde Ressourcen: Viele Lehrstühle mit nur wenigen Mitarbeitern

Ein weiteres strukturelles Problem war die oft mangelhafte Ausstattung vieler KI-Forschungsgruppen an den Universitäten:

1. Personalmangel: Viele Lehrstühle verfügten nur über eine Handvoll Mitarbeiter, was die Bearbeitung komplexer, interdisziplinärer Fragestellungen erschwerte.

2. Finanzielle Engpässe: Knappe Budgets limitierten die Möglichkeiten für Experimente, den Aufbau von Infrastruktur und die Anschaffung leistungsfähiger Hardware.

3. Brain Drain: Talentierte Forscher wurden oft von der Industrie abgeworben, die bessere Gehälter und Ressourcen bieten konnte.

4. Mangelnde Kontinuität: Befristete Verträge und hohe Fluktuation erschwerten die Durchführung langfristiger Forschungsprojekte.

Diese Ressourcenknappheit hatte mehrere negative Auswirkungen:

- Eingeschränkte Forschungsagenda: Viele vielversprechende, aber ressourcenintensive Forschungsrichtungen konnten nicht verfolgt werden.

- Mangelnde Wettbewerbsfähigkeit: Im internationalen Vergleich fielen viele europäische Universitäten hinter besser ausgestattete US-amerikanische oder asiatische Institutionen zurück.

- Motivationsverlust: Die ständige Ressourcenknappheit führte bei vielen Forschern zu Frustration und Demotivation.

### Hoher Zeitaufwand für Lehre und Verwaltung, zu wenig Zeit für eigentliche Forschung

Ein drittes strukturelles Problem, das die KI-Forschung an Universitäten behinderte, war die zunehmende Belastung der Wissenschaftler durch Lehr- und Verwaltungsaufgaben:

1. Steigende Lehrverpflichtungen: Wachsende Studierendenzahlen bei gleichbleibendem oder sinkendem Personalbestand führten zu einer höheren Lehrbelastung.

2. Bürokratische Anforderungen: Zunehmende administrative Aufgaben, von Antragsstellung bis Berichtswesen, absorbierten einen großen Teil der Arbeitszeit.

3. Evaluierungsdruck: Regelmäßige Evaluierungen und Qualitätssicherungsmaßnahmen banden zusätzliche Ressourcen.

4. Drittmittelakquise: Die Notwendigkeit, ständig neue Forschungsgelder einzuwerben, wurde zu einer zeitraubenden Daueraufgabe.

Die Konsequenzen dieser Entwicklung waren gravierend:

- Zeitmangel für Forschung: Die eigentliche Forschungsarbeit wurde oft zur Nebentätigkeit, die in der knappen verbleibenden Zeit erledigt werden musste.

- Qualitätsverlust: Sowohl in der Lehre als auch in der Forschung führte der Zeitmangel oft zu Kompromissen in der Qualität.

- Innovationshemmnis: Die fehlende Zeit für tiefgrehendes Nachdenken und Experimentieren behinderte die Entwicklung wirklich innovativer Ideen.

- Burnout-Gefahr: Die Mehrfachbelastung führte bei vielen Forschern zu Überlastung und Erschöpfung.

### Fazit: Ein System an seinen Grenzen

Die strukturellen Probleme in der universitären KI-Forschung bis 2010 offenbarten ein System, das an seine Grenzen gestoßen war. Die Kombination aus Ressourcenmangel, Fokusverschiebung und Überlastung der Forscher schuf ein Umfeld, das echten wissenschaftlichen Fortschritt zunehmend erschwerte.

Diese Situation führte zu einer wachsenden Frustration in der Forschungsgemeinschaft:

- Viele Wissenschaftler fühlten sich in ihren Möglichkeiten stark eingeschränkt und sahen ihre ursprünglichen Visionen in weite Ferne rücken.

- Der Vergleich mit besser ausgestatteten Forschungseinrichtungen, insbesondere in der Industrie, nährte Zweifel an der Zukunftsfähigkeit der universitären KI-Forschung.

- Die Diskrepanz zwischen den hochfliegenden Erwartungen an die KI und den tatsächlichen Fortschritten wurde immer offensichtlicher.

Diese strukturellen Probleme trugen maßgeblich zu einer pessimistischen Sichtweise auf die Zukunft der KI-Forschung bei. Sie machten deutlich, dass nicht nur technische Herausforderungen, sondern auch institutionelle und organisatorische Faktoren den Fortschritt in diesem Bereich behinderten.

Die Erkenntnis dieser strukturellen Defizite führte gegen Ende des betrachteten Zeitraums zu ersten Reformbestrebungen:

- Forderungen nach einer Neuausrichtung der Forschungsförderung, die langfristige, grundlagenorientierte Projekte stärker berücksichtigt.

- Initiativen zur Verbesserung der Work-Life-Balance in der Wissenschaft und zur Reduzierung administrativer Belastungen.

- Bemühungen um eine stärkere interdisziplinäre Vernetzung und den Aufbau größerer, besser ausgestatteter Forschungszentren.

Trotz dieser Ansätze blieb die Situation bis 2010 weitgehend unbefriedigend. Die strukturellen Probleme in der universitären KI-Forschung stellten eine ernsthafte Bedrohung für die Zukunftsfähigkeit dieses Forschungsfeldes dar und trugen maßgeblich zu einer pessimistischen Einschätzung seiner Entwicklungsperspektiven bei.