February 11, 2025
From heuristics to language guided planning
February 09, 2025
Dialog über KI Forschung in den 1990er Jahren
Szene: Das Büro von Professor Schreiber, Mitte der 1990er Jahre. Der Raum ist überladen mit technischen Zeichnungen, alten Computermodellen und einem unfertigen Roboterarm, der auf einem Tisch liegt. Der junge Student Lukas sitzt auf einem wackeligen Stuhl vor dem Schreibtisch des Professors, während Schreiber hinter einem Stapel von Papieren hervorschaut.
---
Lukas: (eifrig) Herr Professor, ich habe gerade den Artikel über die Fortschritte in neuronalen Netzen gelesen. Es ist unglaublich, wie schnell sich die Technik entwickelt! Ich bin sicher, dass wir in ein paar Jahren Maschinen haben werden, die wirklich denken können – so wie Menschen.
Professor Schreiber: (hebt langsam den Blick und mustert Lukas mit einer Mischung aus Müdigkeit und Skepsis) Ach, Herr Berger. Sie erinnern mich an mich selbst vor zwanzig Jahren – jung, voller Enthusiasmus und... naiv.
Lukas: (leicht irritiert) Naiv? Aber sehen Sie sich doch die Fortschritte an! Die Rechenleistung verdoppelt sich alle paar Jahre. Wir haben Algorithmen, die Muster erkennen können, Spracherkennung wird immer besser, und selbst autonome Systeme machen Fortschritte. Es ist doch nur eine Frage der Zeit.
Professor Schreiber: (lehnt sich zurück und verschränkt die Arme) Eine Frage der Zeit? Das habe ich auch geglaubt, als ich in Ihrem Alter war. Wissen Sie, wie viele "Durchbrüche" ich in meiner Karriere miterlebt habe? Jedes Mal hieß es: "In zehn Jahren werden Maschinen alles können." Und jedes Mal sind wir an denselben Grenzen gescheitert.
Lukas: (beharrlich) Aber diesmal ist es anders! Mit neuronalen Netzen können wir doch lernen, wie das menschliche Gehirn funktioniert. Wir stehen kurz davor zu verstehen, wie Intelligenz wirklich entsteht.
Professor Schreiber: (lacht bitter) Das menschliche Gehirn? Herr Berger, wir verstehen nicht einmal ansatzweise, wie ein Gehirn lernt. Glauben Sie wirklich, dass ein paar Millionen Datenpunkte und ein Haufen Matrixmultiplikationen uns plötzlich erleuchten werden?
Lukas: (verärgert) Aber wir müssen doch irgendwo anfangen! Wenn wir immer nur pessimistisch sind und sagen "Das klappt sowieso nicht", dann kommen wir nie voran.
Professor Schreiber: (beugt sich nach vorne) Voran? Glauben Sie wirklich, dass diese Spielereien mit neuronalen Netzen oder Expertensystemen uns näher an echte Intelligenz bringen? Ich habe Jahre damit verbracht, Roboter zu bauen, die einfache Aufgaben wie das Greifen eines Objekts bewältigen sollten. Wissen Sie, was passiert ist? Sie haben versagt. Immer wieder. Weil die Realität chaotisch ist und Maschinen keine Ahnung haben, wie sie mit Unsicherheiten umgehen sollen.
Lukas: (versucht ruhig zu bleiben) Aber genau daran arbeiten wir doch! Fortschritt ist kein gerader Weg – es braucht Zeit und Rückschläge.
Professor Schreiber: (sarkastisch) Rückschläge? Oh ja, davon hatte ich genug. Wissen Sie, was das Problem ist? Die Leute da draußen – Geldgeber, Politiker – erwarten Wunder. Und wenn die Wunder ausbleiben, ziehen sie ihre Unterstützung zurück. Dann stehen Sie da mit Ihren halbfertigen Projekten und einer Karriere voller Enttäuschungen.
Lukas: (nachdenklich) Vielleicht liegt es daran, dass wir zu viel auf einmal wollen. Vielleicht sollten wir kleinere Schritte machen und uns auf spezifische Probleme konzentrieren.
Professor Schreiber: (nickt langsam) Das klingt vernünftig... aber wissen Sie was? Selbst die kleinen Schritte sind schwerer als sie aussehen. Jedes Mal, wenn Sie glauben, ein Problem gelöst zu haben, tauchen zwei neue auf. Und irgendwann merken Sie: Die Kluft zwischen dem, was wir erreichen wollen, und dem, was tatsächlich möglich ist, wird nicht kleiner – sie wird größer.
Lukas: (leise) Aber wenn alle so denken würden wie Sie... dann gäbe es keinen Fortschritt mehr.
Professor Schreiber: (sieht Lukas direkt an) Vielleicht ist das Problem nicht der Fortschritt selbst – sondern unsere Erwartungen daran. Wir wollen Maschinen bauen, die wie Menschen denken können. Aber vielleicht sollten wir uns fragen: Ist das überhaupt nötig? Oder gar möglich?
Lukas: (nach einer kurzen Pause) Ich glaube trotzdem daran. Vielleicht werde ich auch scheitern – so wie Sie sagen –, aber ich will es zumindest versuchen.
Professor Schreiber: (schmunzelt leicht) Gut so. Versuchen Sie es ruhig. Vielleicht brauchen wir Leute wie Sie – Leute mit Träumen –, um uns Alten daran zu erinnern, warum wir überhaupt angefangen haben. Aber seien Sie gewarnt: Träume haben eine unangenehme Angewohnheit... sie zerbrechen leicht.
Lukas: (steht auf und reicht ihm die Hand) Danke für Ihre Ehrlichkeit... auch wenn ich nicht alles teile. Ich hoffe trotzdem, dass ich Ihnen irgendwann beweisen kann, dass es möglich ist.
Professor Schreiber: (nimmt seine Hand zögerlich) Das hoffe ich auch... für Ihren eigenen Seelenfrieden.
---
*Der Student verlässt das Büro mit gemischten Gefühlen – einerseits inspiriert von seinem eigenen Optimismus, andererseits bedrückt von der Bitterkeit seines Professors. Schreiber bleibt allein zurück und starrt auf den unfertigen Roboterarm auf seinem Tisch.*
Universitäre Künstliche Intelligenz bis zum Jahr 2010
## Enttäuschte Erwartungen und KI-Winter: Eine Achterbahnfahrt der Hoffnungen
Die Geschichte der universitären Künstlichen Intelligenz bis zum Jahr 2010 gleicht einer emotionalen Achterbahnfahrt, geprägt von überschwänglichem Optimismus, bitteren Enttäuschungen und zyklischen Phasen der Ernüchterung. Diese turbulente Entwicklung, die von vielen als eine Reihe von "KI-Wintern" bezeichnet wird, hat tiefe Spuren in der Forschungslandschaft hinterlassen und zu einer zunehmend pessimistischen Sichtweise auf die Möglichkeiten der KI geführt.
### Die euphorischen Anfänge
In den 1950er und frühen 1960er Jahren herrschte an den Universitäten eine geradezu euphorische Stimmung bezüglich der Möglichkeiten der Künstlichen Intelligenz. Pioniere wie Alan Turing, John McCarthy und Marvin Minsky malten ein Bild von denkenden Maschinen, die in naher Zukunft dem menschlichen Intellekt ebenbürtig oder gar überlegen sein würden. Die Dartmouth-Konferenz von 1956, oft als Geburtsstunde der KI bezeichnet, setzte den Ton für diese optimistische Ära.
Universitäten wie MIT, Stanford und Carnegie Mellon investierten massiv in KI-Forschung. Man träumte von Computern, die natürliche Sprache verstehen, komplexe Probleme lösen und sogar kreativ sein könnten. Die Vorstellung, dass in wenigen Jahrzehnten Roboter unsere Haushalte führen und KI-Systeme als ebenbürtige Gesprächspartner fungieren würden, schien greifbar nahe.
### Die erste Ernüchterung
Doch schon in den späten 1960er Jahren zeigten sich die ersten Risse in diesem optimistischen Bild. Die anfänglichen Erfolge bei einfachen Aufgaben wie Schachspielen oder mathematischen Beweisen ließen sich nicht so leicht auf komplexere, reale Probleme übertragen. Die Schwierigkeiten bei der Verarbeitung natürlicher Sprache und beim maschinellen Sehen offenbarten die enormen Herausforderungen, vor denen die Forscher standen.
Der erste große "KI-Winter" setzte in den 1970er Jahren ein. Finanzierungsquellen versiegten, als klar wurde, dass die hochfliegenden Versprechungen nicht eingehalten werden konnten. Der Lighthill-Report von 1973 in Großbritannien war besonders vernichtend und führte zu drastischen Kürzungen der Forschungsgelder. Viele Universitäten sahen sich gezwungen, ihre ambitionierten KI-Programme zurückzufahren oder ganz einzustellen.
### Kurzes Aufflackern der Hoffnung
In den 1980er Jahren erlebte die KI-Forschung einen kurzen Aufschwung, hauptsächlich getrieben durch den Erfolg von Expertensystemen. Diese regelbasierten Programme schienen endlich praktische Anwendungen der KI zu ermöglichen. Universitäten und Unternehmen investierten erneut in die Technologie, in der Hoffnung, endlich die lang ersehnten Durchbrüche zu erzielen.
Doch auch dieser Optimismus war nur von kurzer Dauer. Die Grenzen der Expertensysteme wurden schnell deutlich: Sie waren teuer in der Entwicklung, schwer zu warten und konnten nur in sehr eng definierten Bereichen eingesetzt werden. Die Hoffnung auf eine allgemeine künstliche Intelligenz blieb unerfüllt.
### Der lange Winter
Der zweite KI-Winter, der in den späten 1980er Jahren einsetzte und bis weit in die 1990er Jahre andauerte, war besonders bitter. Die Enttäuschung war umso größer, als man geglaubt hatte, diesmal wirklich kurz vor dem Durchbruch zu stehen. Viele Universitäten reduzierten ihre KI-Forschung auf ein Minimum oder integrierten sie in andere Fachbereiche wie Informatik oder Kognitionswissenschaften.
Diese Phase der Ernüchterung führte zu einer grundlegenden Neuausrichtung der KI-Forschung. Statt nach der "starken KI" zu streben, die menschenähnliche Intelligenz imitieren sollte, konzentrierte man sich nun auf spezifische, eng definierte Probleme. Dieser Ansatz brachte zwar einige Fortschritte, verstärkte aber auch den Eindruck, dass die ursprünglichen Ziele der KI unerreichbar bleiben würden.
### Die Jahrtausendwende: Gedämpfte Erwartungen
Um die Jahrtausendwende herum begann sich die Stimmung in der universitären KI-Forschung langsam zu wandeln. Neue Ansätze wie maschinelles Lernen und neuronale Netze zeigten vielversprechende Ergebnisse in Bereichen wie Mustererkennung und Datenanalyse. Doch die Erfahrungen der Vergangenheit hatten ihre Spuren hinterlassen: Die Erwartungen blieben gedämpft, und viele Forscher vermieden es, allzu optimistische Prognosen abzugeben.
Die Fortschritte in dieser Zeit waren zwar real, blieben aber weit hinter den ursprünglichen Visionen zurück. Komplexe kognitive Aufgaben wie natürliches Sprachverständnis, kontextabhängiges Lernen oder abstraktes Denken stellten weiterhin enorme Herausforderungen dar. Die Kluft zwischen den Fähigkeiten von KI-Systemen und der menschlichen Intelligenz schien unüberbrückbar.
### Fazit: Eine Geschichte der Desillusionierung
Rückblickend auf die Entwicklung der universitären KI-Forschung bis 2010 zeichnet sich ein Bild der kontinuierlichen Desillusionierung. Die anfängliche Euphorie wich einer nüchternen, oft pessimistischen Einschätzung der Möglichkeiten und Grenzen der Künstlichen Intelligenz. Die wiederholten Zyklen von Hype und Enttäuschung hinterließen eine Forschungsgemeinschaft, die zwar weiterhin an den langfristigen Potenzialen der KI festhielt, aber zunehmend vorsichtig in ihren Versprechungen und Erwartungen wurde.
Diese Erfahrung hat zu einer fundamentalen Neuausrichtung der KI-Forschung geführt. Statt nach der "heiligen Gral" einer allgemeinen künstlichen Intelligenz zu suchen, konzentrierten sich viele Forscher auf pragmatischere, anwendungsorientierte Ziele. Dieser Ansatz brachte zwar einige Erfolge, verstärkte aber auch den Eindruck, dass die ursprünglichen, visionären Ziele der KI in weite Ferne gerückt waren.
Die Geschichte der KI bis 2010 ist somit eine Mahnung zur Bescheidenheit in der Wissenschaft. Sie zeigt, wie schwierig es ist, die Komplexität menschlicher Intelligenz zu replizieren, und wie leicht wir die Herausforderungen unterschätzen können. Gleichzeitig unterstreicht sie die Notwendigkeit, realistische Erwartungen zu setzen und langfristig zu denken – eine Lektion, die für die zukünftige Entwicklung der KI von unschätzbarem Wert sein könnte.
## Technische Limitationen und Rückschläge: Die unüberwindbaren Hürden der KI-Forschung
Die Geschichte der universitären KI-Forschung bis 2010 ist geprägt von einer Reihe technischer Limitationen und Rückschläge, die die anfänglichen Hoffnungen auf eine rasche Entwicklung menschenähnlicher künstlicher Intelligenz zunichte machten. Diese Herausforderungen offenbarten die enorme Komplexität der menschlichen Kognition und die Schwierigkeiten, diese in Maschinen zu replizieren.
### Komplexe Aufgaben bleiben ungelöst
Eines der hartnäckigsten Probleme in der KI-Forschung war die Bewältigung komplexer kognitiver Aufgaben, insbesondere im Bereich des Sprachverständnisses. Trotz jahrzehntelanger Forschung und zahlreicher Ansätze blieb die Fähigkeit von Computern, natürliche Sprache wirklich zu "verstehen", weit hinter den menschlichen Fähigkeiten zurück.
Die Herausforderungen beim Sprachverständnis waren vielfältig:
1. Kontextabhängigkeit: Maschinen scheiterten regelmäßig daran, den Kontext von Äußerungen richtig zu erfassen, was zu Fehlinterpretationen führte.
2. Mehrdeutigkeit: Die Vieldeutigkeit natürlicher Sprache stellte KI-Systeme vor scheinbar unlösbare Probleme.
3. Pragmatik: Das Verständnis impliziter Bedeutungen und kultureller Nuancen blieb für Maschinen unerreichbar.
4. Abstraktes Denken: Die Fähigkeit, aus sprachlichen Informationen abstrakte Konzepte abzuleiten, erwies sich als besonders schwierig zu implementieren.
Diese Probleme zeigten sich nicht nur im Sprachverständnis, sondern auch in verwandten Bereichen wie der maschinellen Übersetzung oder der automatischen Textzusammenfassung. Trotz einiger Fortschritte blieben die Ergebnisse weit hinter den menschlichen Fähigkeiten zurück, was zu wachsender Frustration in der Forschungsgemeinschaft führte.
### Wissensbasierte Systeme: Teuer und fehleranfällig
Ein weiterer Rückschlag in der KI-Forschung war die Erkenntnis, dass wissensbasierte Systeme, die in den 1980er Jahren als vielversprechender Ansatz galten, sich als zu teuer und fehleranfällig erwiesen. Diese Systeme, die auf umfangreichen Datenbanken und komplexen Regelwerken basierten, sollten Expertenwissen in verschiedenen Domänen abbilden.
Die Probleme mit wissensbasierten Systemen waren vielfältig:
1. Hohe Entwicklungskosten: Die Erstellung und Pflege der Wissensdatenbanken war extrem zeit- und kostenintensiv.
2. Mangelnde Flexibilität: Die Systeme waren oft zu starr, um mit unvorhergesehenen Situationen umzugehen.
3. Schwierige Wartung: Änderungen im Wissensbestand konnten unbeabsichtigte Folgen haben und erforderten oft umfangreiche Überarbeitungen.
4. Skalierungsprobleme: Mit zunehmender Komplexität der abzubildenden Domäne wuchsen die Probleme exponentiell.
5. "Brittleness": Die Systeme versagten oft spektakulär, wenn sie mit Situationen konfrontiert wurden, die leicht außerhalb ihres definierten Wissensbereichs lagen.
Diese Erfahrungen führten zu einer wachsenden Skepsis gegenüber regelbasierten Ansätzen in der KI und trugen zum zweiten "KI-Winter" bei.
### Grenzen des maschinellen Lernens
Auch neuere Ansätze wie das maschinelle Lernen, die gegen Ende des betrachteten Zeitraums an Bedeutung gewannen, zeigten deutliche Limitationen:
1. Datenhunger: Die Systeme benötigten enorme Mengen an Trainingsdaten, die oft nicht verfügbar oder zu teuer in der Beschaffung waren.
2. Mangelnde Transparenz: Viele Algorithmen, insbesondere neuronale Netze, funktionierten als "Black Box", was ihre Akzeptanz in kritischen Anwendungsbereichen erschwerte.
3. Overfitting: Die Systeme neigten dazu, sich zu stark an die Trainingsdaten anzupassen und versagten bei der Generalisierung auf neue Situationen.
4. Fehleranfälligkeit: Kleine Änderungen in den Eingabedaten konnten zu drastischen Fehlern in der Ausgabe führen, was die Zuverlässigkeit der Systeme in Frage stellte.
### Fazit: Eine Lektion in Demut
Die technischen Limitationen und Rückschläge in der KI-Forschung bis 2010 waren eine schmerzhafte Lektion in Demut für die wissenschaftliche Gemeinschaft. Sie zeigten, wie komplex und vielschichtig menschliche Intelligenz tatsächlich ist und wie weit der Weg zu ihrer künstlichen Replikation noch sein würde.
Diese Erfahrungen führten zu einer Neuausrichtung der Forschung:
1. Fokus auf spezifische, eng definierte Probleme statt auf allgemeine künstliche Intelligenz.
2. Verstärkte interdisziplinäre Zusammenarbeit, insbesondere mit Kognitionswissenschaftlern und Neurobiologen.
3. Realistischere Einschätzung der Möglichkeiten und Grenzen von KI-Systemen.
4. Entwicklung neuer Paradigmen wie dem Deep Learning, die einige der früheren Limitationen zu überwinden versprachen.
Trotz dieser Anpassungen blieb ein Gefühl der Ernüchterung. Die ursprünglichen, visionären Ziele der KI-Forschung schienen in weite Ferne gerückt. Die Erkenntnis, dass selbst scheinbar einfache kognitive Aufgaben für Maschinen eine enorme Herausforderung darstellen, führte zu einer pessimistischeren Sichtweise auf die Möglichkeiten der künstlichen Intelligenz.
Diese Phase der technischen Limitationen und Rückschläge hat die KI-Forschung nachhaltig geprägt. Sie hat zu einem realistischeren, aber auch vorsichtigeren Ansatz in der Entwicklung und Anwendung von KI-Technologien geführt. Die Erfahrungen dieser Zeit bleiben eine wichtige Mahnung, die Komplexität menschlicher Intelligenz nicht zu unterschätzen und die Grenzen technologischer Lösungen anzuerkennen.
## Strukturelle Probleme in der Forschung: Die institutionellen Hürden der KI-Entwicklung
Die Entwicklung der universitären Künstlichen Intelligenz bis 2010 war nicht nur durch technische Limitationen geprägt, sondern auch durch tiefgreifende strukturelle Probleme in der Forschungslandschaft selbst. Diese institutionellen Hürden behinderten den Fortschritt maßgeblich und trugen zu einer zunehmend pessimistischen Sichtweise auf die Zukunft der KI bei.
### Fokus auf kurzfristige Anwendungsforschung statt Grundlagenforschung
Ein zentrales Problem war die zunehmende Verschiebung des Forschungsfokus von der Grundlagenforschung hin zur kurzfristigen Anwendungsforschung. Dieser Trend hatte mehrere Ursachen:
1. Finanzierungsdruck: Universitäten sahen sich zunehmend gezwungen, die "Relevanz" ihrer Forschung durch konkrete Anwendungen zu rechtfertigen.
2. Industriekooperationen: Die Zusammenarbeit mit der Industrie versprach zusätzliche Finanzierungsquellen, lenkte aber den Fokus auf unmittelbar verwertbare Ergebnisse.
3. Publikationsdruck: Der "Publish or Perish"-Mentalität folgend, konzentrierten sich viele Forscher auf schnell publizierbare Ergebnisse statt auf langfristige, riskantere Projekte.
4. Politischer Druck: Forderungen nach "gesellschaftlicher Relevanz" der Forschung führten oft zu einer Vernachlässigung grundlegender Fragestellungen.
Diese Fokusverschiebung hatte weitreichende Konsequenzen:
- Vernachlässigung fundamentaler Probleme: Grundlegende Fragen der KI-Forschung, wie das Verständnis von Kognition oder die Entwicklung neuer Paradigmen, wurden zugunsten inkrementeller Verbesserungen bestehender Technologien zurückgestellt.
- Kurzfristiges Denken: Die Konzentration auf schnelle Ergebnisse verhinderte oft die Entwicklung langfristiger, visionärer Forschungsstrategien.
- Fragmentierung der Forschung: Statt an großen, übergreifenden Problemen zu arbeiten, zersplitterte sich die Forschungslandschaft in viele kleine, isolierte Projekte.
### Mangelnde Ressourcen: Viele Lehrstühle mit nur wenigen Mitarbeitern
Ein weiteres strukturelles Problem war die oft mangelhafte Ausstattung vieler KI-Forschungsgruppen an den Universitäten:
1. Personalmangel: Viele Lehrstühle verfügten nur über eine Handvoll Mitarbeiter, was die Bearbeitung komplexer, interdisziplinärer Fragestellungen erschwerte.
2. Finanzielle Engpässe: Knappe Budgets limitierten die Möglichkeiten für Experimente, den Aufbau von Infrastruktur und die Anschaffung leistungsfähiger Hardware.
3. Brain Drain: Talentierte Forscher wurden oft von der Industrie abgeworben, die bessere Gehälter und Ressourcen bieten konnte.
4. Mangelnde Kontinuität: Befristete Verträge und hohe Fluktuation erschwerten die Durchführung langfristiger Forschungsprojekte.
Diese Ressourcenknappheit hatte mehrere negative Auswirkungen:
- Eingeschränkte Forschungsagenda: Viele vielversprechende, aber ressourcenintensive Forschungsrichtungen konnten nicht verfolgt werden.
- Mangelnde Wettbewerbsfähigkeit: Im internationalen Vergleich fielen viele europäische Universitäten hinter besser ausgestattete US-amerikanische oder asiatische Institutionen zurück.
- Motivationsverlust: Die ständige Ressourcenknappheit führte bei vielen Forschern zu Frustration und Demotivation.
### Hoher Zeitaufwand für Lehre und Verwaltung, zu wenig Zeit für eigentliche Forschung
Ein drittes strukturelles Problem, das die KI-Forschung an Universitäten behinderte, war die zunehmende Belastung der Wissenschaftler durch Lehr- und Verwaltungsaufgaben:
1. Steigende Lehrverpflichtungen: Wachsende Studierendenzahlen bei gleichbleibendem oder sinkendem Personalbestand führten zu einer höheren Lehrbelastung.
2. Bürokratische Anforderungen: Zunehmende administrative Aufgaben, von Antragsstellung bis Berichtswesen, absorbierten einen großen Teil der Arbeitszeit.
3. Evaluierungsdruck: Regelmäßige Evaluierungen und Qualitätssicherungsmaßnahmen banden zusätzliche Ressourcen.
4. Drittmittelakquise: Die Notwendigkeit, ständig neue Forschungsgelder einzuwerben, wurde zu einer zeitraubenden Daueraufgabe.
Die Konsequenzen dieser Entwicklung waren gravierend:
- Zeitmangel für Forschung: Die eigentliche Forschungsarbeit wurde oft zur Nebentätigkeit, die in der knappen verbleibenden Zeit erledigt werden musste.
- Qualitätsverlust: Sowohl in der Lehre als auch in der Forschung führte der Zeitmangel oft zu Kompromissen in der Qualität.
- Innovationshemmnis: Die fehlende Zeit für tiefgrehendes Nachdenken und Experimentieren behinderte die Entwicklung wirklich innovativer Ideen.
- Burnout-Gefahr: Die Mehrfachbelastung führte bei vielen Forschern zu Überlastung und Erschöpfung.
### Fazit: Ein System an seinen Grenzen
Die strukturellen Probleme in der universitären KI-Forschung bis 2010 offenbarten ein System, das an seine Grenzen gestoßen war. Die Kombination aus Ressourcenmangel, Fokusverschiebung und Überlastung der Forscher schuf ein Umfeld, das echten wissenschaftlichen Fortschritt zunehmend erschwerte.
Diese Situation führte zu einer wachsenden Frustration in der Forschungsgemeinschaft:
- Viele Wissenschaftler fühlten sich in ihren Möglichkeiten stark eingeschränkt und sahen ihre ursprünglichen Visionen in weite Ferne rücken.
- Der Vergleich mit besser ausgestatteten Forschungseinrichtungen, insbesondere in der Industrie, nährte Zweifel an der Zukunftsfähigkeit der universitären KI-Forschung.
- Die Diskrepanz zwischen den hochfliegenden Erwartungen an die KI und den tatsächlichen Fortschritten wurde immer offensichtlicher.
Diese strukturellen Probleme trugen maßgeblich zu einer pessimistischen Sichtweise auf die Zukunft der KI-Forschung bei. Sie machten deutlich, dass nicht nur technische Herausforderungen, sondern auch institutionelle und organisatorische Faktoren den Fortschritt in diesem Bereich behinderten.
Die Erkenntnis dieser strukturellen Defizite führte gegen Ende des betrachteten Zeitraums zu ersten Reformbestrebungen:
- Forderungen nach einer Neuausrichtung der Forschungsförderung, die langfristige, grundlagenorientierte Projekte stärker berücksichtigt.
- Initiativen zur Verbesserung der Work-Life-Balance in der Wissenschaft und zur Reduzierung administrativer Belastungen.
- Bemühungen um eine stärkere interdisziplinäre Vernetzung und den Aufbau größerer, besser ausgestatteter Forschungszentren.
Trotz dieser Ansätze blieb die Situation bis 2010 weitgehend unbefriedigend. Die strukturellen Probleme in der universitären KI-Forschung stellten eine ernsthafte Bedrohung für die Zukunftsfähigkeit dieses Forschungsfeldes dar und trugen maßgeblich zu einer pessimistischen Einschätzung seiner Entwicklungsperspektiven bei.
AI research until 2010
Until 2010 there was only a little progress visible for Artificial intelligence. Even if the subject was researched over decades, the amount of practical applications was low. The most advanced AI project until 2010 was the Deep Blue chess computer who won in 1996 against the strongest human player, and Honda Asimo robot from 2000 who was able to walk on even ground. But, both projects were really expensive, and the demonstrated form of intelligence wasn't useful in the real world.
Its a bit surprising, but especially in the years from 1990 until 2010 AI has made no progress. In parallel the Internet has developed rapidly, and computers have become powerful and useful machines. Before the year 2010, AI was a dead end, that means, no success was available and the researchers didn't even know why they have failed.
Until 2010, computer chess was the most promising direction in the AI community because it provided an accepted indicator for the thinking process. If a computer was able to beat a human player in this board game, this would be equal to an early form of machine intelligence. The dominant problem until 2010 was the low amount of CPU resources. Computer hardware was only able to calculate a certain a number of movements per second which is equal to the search horizon. This limited search horizon prevented the advent of powerful AI programs. The mentioned Deep Blue chess engine was only able to win against Kasparaov, because it was running on a dedicated supercomputer. So many experts were in doubt, if deep blue was a good example for Artificial Intelligence.
The interesting situation is, that not only a single university or a single discipline in AI was struggling with realizing the dream of robots and thinking machines, but the entire AI community until 2010 was unsure how to overcome the obstacles. Even very advanced neural network algorithms in combination with reduced problem complexity, for example to control a simple maze robot, were not successful at all. There was a serious doubt, if AI can be realized in the near future.
Despite the huge of effort put into different AI disciplines like computer vision, natural language processing, planning and reasoning, it was hard to find practical demonstration of AI. Minimalistic research problems like the traveling salesman problem, or the block sorting problems were described in the literature without any modification over decades. In other words, the AI landscape was froozen and the absence of progress was common.
Until 2010 the theoretical description of np hard problem was available, but it was unclear how to solve these kind of problems. Existing algorithms were not powerful enough to plan the trajectories of robots and even more recent approaches like probabilistic algorithms were not powerful enough. In summary, AI research until 2010 was in sad condition. The gap between practical algorithms and the description of robots in the science fiction literature was huge. A common assumption until 2010 was, that in reality it will take 200 years and more even robotics can be realized which means, that the AI subject will become a dead end forever.
Carolo cup as the last great adventure in AI
Since 2008 there is a programming challange available with autonomous model cars. Its a smaller version of the DARPA urban challenge which took place in 2007. So both competitions were started before the year 2010 and they are providing interesting insigth into the self-understanding of robotics projects in this area.
The overall idea behind the Carolo cup was, that its some sort of C/C++ microncontroller programming challenge. The team has to built the assemble the hardware, program the software and make sure that the car gets the maximum score in the competition. Typical problems available are the SLAM problem which is self-localisation on a map, prediction of the future with the model predictive control module and creating a sensor model. All these subtasks are realized with the C/C++ programming language because its the standard for microcontroller programming and a great choice for algorithm implementation.
What makes the Darpa urban challenge in 2007 and the carolo cup since 2008 remarkable is, that all the possible problems are solved by increasing the amount of code lines. The idea is, that a robot car is some sort of Linux kernel which has to growth in size to fit to demanding problems. The consequence is, that creating the AI for the robot means basically to write more source code in C++, bugfix the code and iterate this cycle all the time.
For the Darpa urban challenge, the average team was using 150k lines of code written in C. The source code for Carolo cup participants is available at github and contains also of endless amount of code. There are self written 3d simulators, path planners and sensor perception API available. The amount of effort to create all these C++ code is huge.
From a historic perspective, the software development cycle used for maintaining the Carolo cup source code can be seen as the last classical approach in AI. until 2010 the dominant paradigm in robotics was, to treat the project as a computer science project which consists of hardware and software frameworks. it was based on microcontrollers, path planners, and endless amount of highly efficient computer code. At the same time, the result of this effort was low. Even for simple tasks like moving in a circle, the written C++ code isn't working. Its not possible to reuse the program for real cars and it will take decades until the problems are fixed.
Until 2010 the focos on hard computer science topics like a certain programming challenge and a certain microcontroller was a common bias in artificial intelligence. Possible alternatives like machine learning were rejected as too complicated.
February 03, 2025
AI tools in the past
One possible approach to get an overview over a discipline is to ask which tools are important. Over the decades, the AI community has devewloped lots of tools which are promising to investigate robotics and artificial intelligence in detail. The sad news is, that most of the tools in the past were useless. There are certain hardware design available, e.g. parallel processors, there are cognitive architectures available, and some major programming languages. Also some algorithms and dedicated AI libraries were invented.
None of them was very succesful so it doesn't even make sense to name some of them. Instead of questioning the tool concept in general, a better idea would be to ask if a certain category of tools might be more useful than other. Tools in the past were mostly an answer to a problem. For example a parallel cpu should make the computer faster, while a cognitive architecture tries to emulate a human brain. The alternative concept is to use the computer to define the problems more precisely. With the advent of deep learning this problem oriented concept has become very successful.
Today, there is only a single tool available which is a dataset. A dataset encodes a problem in a problem in a table. There are datasets available for image recognition, for motion capture, for voice recognition or for game playing. What these datasets have in common is, that they never provide an answer, but they are asking questions. The concept is similar to test driven devolopment in software enginering. The idea is, to program at first a test routine. This routine is applied to computer code and can evaluate if the code is correct or not.
In the original meaning, a dataset was used to benchmark a certain neural network. For example, a neural network can recognize OCR images with an accuracy of 71.4%. The measuörement of 71.4% is the result of applying the neural network to the given dataset. Instead of asking how to program robots or intelligent computers, the new task is how to measure the software written by someone else. The idea of a dataset is, to postpone the task of creating an AI software to a later moment in time. This reduces the complexity. Creating a problem oriented dataset is much easier than programming an intelligent software which is able to pass the test. A good example is a motion capture dataset, which is a recording of motion tracker coordinates combined with the correct label like "walking, jumnping, standup".
There is a reason available why datasets have become the most dominant tool in AI research, because they are filling the gap of a missing problem definition. Before its possible to discuss advanced philosophical ideas including advanced AI algorithm, there is a need to define a concrete problem first. The problem guides the debates, because any argument or software provided in the discourse has to improve the problem solving process. This allows to decide if a certain paradigm makes sense or not.