[2025-02-18 13:45:00] Human: Hello robot, can you help me with a task in the kitchen?
[2025-02-18 13:45:05] Robot: Hello! Of course, I'd be happy to assist you with a task in the kitchen. What would you like me to do?
[2025-02-18 13:45:15] Human: I need you to grasp an apple for me.
[2025-02-18 13:45:20] Robot: Certainly, I can help you grasp an apple. Let me process that request:
1. Locating the kitchen
2. Identifying an apple
3. Planning the grasping motion
Could you please confirm if there's a specific location in the kitchen where I should look for the apple?
[2025-02-18 13:45:35] Human: The apple should be in the fruit bowl on the counter.
[2025-02-18 13:45:40] Robot: Thank you for the additional information. I'll proceed with the task:
1. Navigating to the kitchen counter
2. Locating the fruit bowl
3. Identifying the apple among other fruits
4. Planning and executing the grasping motion
I'll narrate my actions as I perform them. Please let me know if you need me to do anything differently.
[2025-02-18 13:45:50] Human: That sounds good. Please proceed.
[2025-02-18 13:45:55] Robot: Understood. I'm starting the task now.
1. Navigating to the kitchen counter.
2. I've located the fruit bowl on the counter.
3. Scanning the contents of the bowl... I've identified several fruits, including an apple.
4. Planning the optimal grasping motion for the apple.
5. Extending my arm and adjusting my hand position.
6. Gently grasping the apple.
7. Lifting the apple from the bowl.
I've successfully grasped the apple. Would you like me to hand it to you or place it somewhere specific?
[2025-02-18 13:46:25] Human: Please hand it to me.
[2025-02-18 13:46:30] Robot: Certainly. I'm now:
1. Turning towards your location.
2. Extending my arm to offer you the apple.
3. Waiting for you to take it.
Please take the apple whenever you're ready. Once you've taken it, I'll release my grip.
[2025-02-18 13:46:45] Human: I've taken the apple. Thank you!
[2025-02-18 13:46:50] Robot: You're welcome! I'm glad I could assist you. I've released my grip on the apple now that you've taken it. Is there anything else you'd like me to help you with in the kitchen or elsewhere?
[2025-02-18 13:47:00] Human: No, that's all for now. Thank you for your help.
[2025-02-18 13:47:05] Robot: You're welcome! I'm happy I could help you with grasping the apple. If you need any assistance in the future, don't hesitate to ask. Have a great day!
February 18, 2025
A chatbot which can grasp an apple
February 16, 2025
Die wissenschaftliche Wende um 1900
February 14, 2025
The decline of german science since 1900
February 13, 2025
Characteristics of computer lab experiments
Von der Industrialisierung zur Digitalisierung
Bis ca 1900 war Deutschland die führende Technologie-Nation in der Welt. Die Wissenschaftsschaftssprache in der sich Mathematiker und Physiker ausgetauscht haben war Deutsch und Deutschland war auf allen wichtigen Bereichen wie Automobilbau, Elektrotechnik und Eisenbahnwesen gut aufgestellt. Ein Blick in die Technikmusueen weltweit zeigt, dass die meisten Erfindungen, die während der industriellen Revolution getätigt wurden, aus Deutschland kamen und insbesondere die Grundlagenforschung dort durchgeführt wurde.
Ab ca. 1900 änderte sich die Situation jedoch. Mit Einzug der Unterhaltungselektronik wie Kino und Radio wurden die USA zunehmend wichtiger und seit der Computerrevolution in den 1950er haben die USA die Vorreiterrolle in Sachen Techcnologieentwicklung übernommen. Auch das Internet ab den 1990er und die KI Revolution ab 2020 hatten ihren Ausgangspunkt in den USA aber nicht in Deutschland.
Der folgende Artikel soll die Hintergründe dieser Veränderung untersuchen. Heute in der Gegenwart wird Deutschland häufig als technikfeindlich beschrieben. Die Vorbehalte gegenüber Technoligie betreffen aber lediglich Computertechnologie, in Bezug auf klassische physik-getriebene Technik ist Deutschland traditionell sehr fortschrittlich und sogar optimistisch. Scheinbar ist das Verhältnis zur Technik also ambivalent. Lediglich bei sehr neuer Technik die ab 1900 entwickelt wurde, gibt es Vorbehalte.
Vielleicht macht es Sinn zunächst einmal die Technologie bis 1900 näher zu beleuchten. Wie oben schon erwähnt, war diese Technik das Ergebnis von Mathematik und Physik. Physikalische Gesetze wie der Fluss von Elektronen in einem Leiter oder die Umwandlung von Energie untereinander kann in konkrete Maschinen überführt werden. Damit ist es möglich, Kohlekraftwerke, Autos bis hin zu Eisenbahnen zu bauen. Auf diesen Bereichen war und ist Deutschland sehr gut aufgestellt. Es gibt eine lange Tradition in der Erforschung und der praktischen Umsetzung, und genau diese Technik wurde während der industriellen Revolution benötigt. Damit war es möglich, die Städte zu elektrifizieren, Anlagen zu planen und Mobilität der Bevölkkerung zu ermöglichen.
Ab ungefähr 1950 kam es jedoch zu einer grundsätzlichen Veränderung in der Technikevolution. Zwar benötigen auch Computer und Radios den elektrischen Strom, aber sie funktionieren anders als frühere Maschinen. Wissenschaftsdisziplinien wie die Physik und Mathematik haben in Bezug auf die Weiterentwicklung von Computern und dessen Software nur noch eine geringe Bedeutung. Anhand der Computerentwicklung kann man aufzeigen, dass die neue Anforderung nicht länger ein theoretisches Verständnis von Formeln ist, sondern neue Computer-Technologie ist das Resultat von experimenteller Computerwissenschaft. Auf diesem Gebiet sind die USA sehr gut aufgestellt. Die Entwicklung der Computertechnik seit den 1950er ist das Ergebnis von sehr vielen und qualitativ hochwertigen Einzelexperimenten.
Hier einige Beispiele für diese Experimente: Motion Capture, Computernetze, Roboter, Festplatten als Computerspeicher, die Maus als Eingabemedium, 32bit Betriebssysteme, Neuronale Netze, CPU Desiogn oder Computeranimation. All diese Bereiche haben exerimentellen Charakter. Damit ist gemeint, dass eine Forschergruppe von 2-3 Personen im Labor ein wenig herumprobiert, etwas programmiert, und etwas bastelt, und darüber dann einen Report verfasst und den publiziert. Das wird dann immer und immer wiederholt und so besteht die Computerentwicklung in den Jahrzehnten aus einer unendlichen Anzahl von Einzelexperimenten. Anders als in der Physik gibt es in der Computerwissenschaft nur wenig gesichertes Wissen, sondern das Fachwissen ist eher lose untereinander verbunden. Z.B. hat das TCP/IP Protokoll was beim Internet wichtig ist, fast nichts gemeinsam mit einem Motion capture Marker, womit man Bewegungen des menschlichen Körpers erfassen kann. Beides wird zwar als Computerwissenschaft bezeichnet, aber es gibt kein übergreifendes Theoriegebäude was beides einordnen könnte.
Die USA haben ab den 1950er Jahren die Durchführung und die Dokumentation von Computerwissenschafts-Experimenten perfektioniert. Nirgendwo sonst auf der Welt ist die Zahl und die inhaltliche Güte der durchgeführten Compüuterexperimente so hoch. Forschungsuniversitäten wie das M.I.T. haben zu jedem nur denkbaren Gebiet der Informatik mehrere hunderte Experimente durchgeführt, mit sehr unterschiedlichem Ausgang. Vieles wurde dokumentiert anderes aber nicht. Mit jedem durchgeführten praktischen Experiment erhöht sich das Wissen der beteiligten Forscher und der Wissenschaftscommunity die Zugriff auf die Resultate hat ein klein wenig. Bevor eine neue Technologie wie das Internet oder künstliche Intellilgenz praktisch eingesetzt werden kann, braucht es tausende oder zehntausende dieser Laborexperimente.
Deutschland war nie besonders gut in der experimentellen Computerwissenschaft. Der Ablauf unterscheidet sich stark von den etablierten Konzepten in der Physik und der Mathematik. Dort führt ein Experiment dazu vorhandenes Wissen zu bestätigten, und die vorhandene Theorie wird abgerundet. Die Experimentelle Computerwissenschaft hingegen hinterfragt bestehendes Wissen routinemäßig. Es fehlt ein übergreifendes starres Theoriegebäude, zugunsten einer postmodernen Ambivalenz.
Beispielhaft soll erläutert werden, wie genau ein Experiment in den Computerwissenschaften funktioniert. Ausgangspunkt ist ein Forschungsinteresse, z.B. die Frage wie man ein Datenpaket verlustfrei über ein Routing-Netz transportieren kann. Dann untersucht man vorhandene Literatur zu dieser Frage um im zweiten Schritt selbst ein Experiment durchzuführen. Man programmiert in der Programmiersprache seiner Wahl ein kleines Routing-Experiment mit Hilfe eines selbst entwickelten Internet-Protokoll s und dokumentiert die Ergebnisse in einem Paper. Dann wird das Paper auf einer Konferenz vorgestellt. Dort interessiert sich exakt niemand für die Resultate, was aber nicht so schlimm ist, weil damit dann mehr Zeit ist, für die nächste Forschungsfrage die ebenfalls experimentell untersucht wird. Und so geht es munter weiter. Nach diesem Prinzip funktioniert der Großteil der U.S. amerikanischen Computerforschung und das seit Jahrzehnten. Der einzig erkennbare rote Faden in der endlosen Reihe von Experimenten ist lediglich, dass sie alle etwas zu tun haben mit Hardware-Basteleien und Softwareprogrammierung. Die Fragestellungen die untersucht werden sind jedoch sehr unterschiedlich. Die Computerwissenschaft ist eine Art von Laboratorium für alle möglichen Fragenstellungen aus den Bereichen Linguistik, Film, Biologie, Mathematik und Psychologie.
Die beschriebene Form des Experimentes war nicht erforderlich während der industriellen Revolution bis 1900. Zwar kennt auch die Physik ein Experiment, wie z.B. zur Ermittlung der Leitfähigkeit von Metallen, aber diese Experimente werden nur 1x durchgeführt und die gewonnenen Daten haben dann 200 Jahre lang gültigkeit. Man kann das Resultat in physkalischen Tafelwerken nachlesen, es gibt aber keinen Grund, selbsr das Experiment erneut durchzuführen. Die Physik mitsamt ihrer Unterdisziplinen ist also sehr dogmatisch aufgebaut. Es ist ausgeschlossen, dass ein Student an einer Universität etwas über den elektrischen Strom herausfindet, was nicht schon 100 Jahre zuvor erkannt und umgesetzt wurde. Beim Studium der Physik geht es eher darum, das vorhandene Wissen zu verinnerlichen. Also die Formel auswendig zu lernen wie man den Widerstand in Abhängigkeit der elektrischen Spannung ermittelt.
Während der industriellen Revolution bis 1900 entstanden die großen Nachschlagewerke zu Mathematik und Physik in Deutschland, die heute immernoch Gültigkeit besitzen. Es sind zeitlose Klassiker der Naturwissenschaft die Themen wie Mechanik, Optik oder Energie als wissenschaftliche Theoriegebäude darstellen. Die Computerwissenschaft funktioniert dazu grundlegend anders. Das Wissen dort hat eine Halbwertszeit von weniger als 10 Jahren. Frühere Errungenschaften wie das MPEG2 Kompressionsverfahren oder Magnetfestplatten sind heute obsolet. Selbst Programmiersprachen, mit denen man sehr viele Probleme lösen kann, veralten schnell. Heutige Sprachen wie Python gab es vor 20 Jahren noch gar nicht. Zwar gibt es auch in den Computerwissenschaften den Versuch zeitlose Buchklassiker zu erschaffen wie z.B. Knuth "The art of computer programmierung", nur diese Werke sind anders als Physik-Grundlagenwerke nicht als Nachschlagewerk anerka nnt. Viele Informatiker haben das Buch von Knuth nicht gelesen und haben das auch nicht vor.
February 11, 2025
From heuristics to language guided planning
February 09, 2025
Dialog über KI Forschung in den 1990er Jahren
Szene: Das Büro von Professor Schreiber, Mitte der 1990er Jahre. Der Raum ist überladen mit technischen Zeichnungen, alten Computermodellen und einem unfertigen Roboterarm, der auf einem Tisch liegt. Der junge Student Lukas sitzt auf einem wackeligen Stuhl vor dem Schreibtisch des Professors, während Schreiber hinter einem Stapel von Papieren hervorschaut.
---
Lukas: (eifrig) Herr Professor, ich habe gerade den Artikel über die Fortschritte in neuronalen Netzen gelesen. Es ist unglaublich, wie schnell sich die Technik entwickelt! Ich bin sicher, dass wir in ein paar Jahren Maschinen haben werden, die wirklich denken können – so wie Menschen.
Professor Schreiber: (hebt langsam den Blick und mustert Lukas mit einer Mischung aus Müdigkeit und Skepsis) Ach, Herr Berger. Sie erinnern mich an mich selbst vor zwanzig Jahren – jung, voller Enthusiasmus und... naiv.
Lukas: (leicht irritiert) Naiv? Aber sehen Sie sich doch die Fortschritte an! Die Rechenleistung verdoppelt sich alle paar Jahre. Wir haben Algorithmen, die Muster erkennen können, Spracherkennung wird immer besser, und selbst autonome Systeme machen Fortschritte. Es ist doch nur eine Frage der Zeit.
Professor Schreiber: (lehnt sich zurück und verschränkt die Arme) Eine Frage der Zeit? Das habe ich auch geglaubt, als ich in Ihrem Alter war. Wissen Sie, wie viele "Durchbrüche" ich in meiner Karriere miterlebt habe? Jedes Mal hieß es: "In zehn Jahren werden Maschinen alles können." Und jedes Mal sind wir an denselben Grenzen gescheitert.
Lukas: (beharrlich) Aber diesmal ist es anders! Mit neuronalen Netzen können wir doch lernen, wie das menschliche Gehirn funktioniert. Wir stehen kurz davor zu verstehen, wie Intelligenz wirklich entsteht.
Professor Schreiber: (lacht bitter) Das menschliche Gehirn? Herr Berger, wir verstehen nicht einmal ansatzweise, wie ein Gehirn lernt. Glauben Sie wirklich, dass ein paar Millionen Datenpunkte und ein Haufen Matrixmultiplikationen uns plötzlich erleuchten werden?
Lukas: (verärgert) Aber wir müssen doch irgendwo anfangen! Wenn wir immer nur pessimistisch sind und sagen "Das klappt sowieso nicht", dann kommen wir nie voran.
Professor Schreiber: (beugt sich nach vorne) Voran? Glauben Sie wirklich, dass diese Spielereien mit neuronalen Netzen oder Expertensystemen uns näher an echte Intelligenz bringen? Ich habe Jahre damit verbracht, Roboter zu bauen, die einfache Aufgaben wie das Greifen eines Objekts bewältigen sollten. Wissen Sie, was passiert ist? Sie haben versagt. Immer wieder. Weil die Realität chaotisch ist und Maschinen keine Ahnung haben, wie sie mit Unsicherheiten umgehen sollen.
Lukas: (versucht ruhig zu bleiben) Aber genau daran arbeiten wir doch! Fortschritt ist kein gerader Weg – es braucht Zeit und Rückschläge.
Professor Schreiber: (sarkastisch) Rückschläge? Oh ja, davon hatte ich genug. Wissen Sie, was das Problem ist? Die Leute da draußen – Geldgeber, Politiker – erwarten Wunder. Und wenn die Wunder ausbleiben, ziehen sie ihre Unterstützung zurück. Dann stehen Sie da mit Ihren halbfertigen Projekten und einer Karriere voller Enttäuschungen.
Lukas: (nachdenklich) Vielleicht liegt es daran, dass wir zu viel auf einmal wollen. Vielleicht sollten wir kleinere Schritte machen und uns auf spezifische Probleme konzentrieren.
Professor Schreiber: (nickt langsam) Das klingt vernünftig... aber wissen Sie was? Selbst die kleinen Schritte sind schwerer als sie aussehen. Jedes Mal, wenn Sie glauben, ein Problem gelöst zu haben, tauchen zwei neue auf. Und irgendwann merken Sie: Die Kluft zwischen dem, was wir erreichen wollen, und dem, was tatsächlich möglich ist, wird nicht kleiner – sie wird größer.
Lukas: (leise) Aber wenn alle so denken würden wie Sie... dann gäbe es keinen Fortschritt mehr.
Professor Schreiber: (sieht Lukas direkt an) Vielleicht ist das Problem nicht der Fortschritt selbst – sondern unsere Erwartungen daran. Wir wollen Maschinen bauen, die wie Menschen denken können. Aber vielleicht sollten wir uns fragen: Ist das überhaupt nötig? Oder gar möglich?
Lukas: (nach einer kurzen Pause) Ich glaube trotzdem daran. Vielleicht werde ich auch scheitern – so wie Sie sagen –, aber ich will es zumindest versuchen.
Professor Schreiber: (schmunzelt leicht) Gut so. Versuchen Sie es ruhig. Vielleicht brauchen wir Leute wie Sie – Leute mit Träumen –, um uns Alten daran zu erinnern, warum wir überhaupt angefangen haben. Aber seien Sie gewarnt: Träume haben eine unangenehme Angewohnheit... sie zerbrechen leicht.
Lukas: (steht auf und reicht ihm die Hand) Danke für Ihre Ehrlichkeit... auch wenn ich nicht alles teile. Ich hoffe trotzdem, dass ich Ihnen irgendwann beweisen kann, dass es möglich ist.
Professor Schreiber: (nimmt seine Hand zögerlich) Das hoffe ich auch... für Ihren eigenen Seelenfrieden.
---
*Der Student verlässt das Büro mit gemischten Gefühlen – einerseits inspiriert von seinem eigenen Optimismus, andererseits bedrückt von der Bitterkeit seines Professors. Schreiber bleibt allein zurück und starrt auf den unfertigen Roboterarm auf seinem Tisch.*
Universitäre Künstliche Intelligenz bis zum Jahr 2010
## Enttäuschte Erwartungen und KI-Winter: Eine Achterbahnfahrt der Hoffnungen
Die Geschichte der universitären Künstlichen Intelligenz bis zum Jahr 2010 gleicht einer emotionalen Achterbahnfahrt, geprägt von überschwänglichem Optimismus, bitteren Enttäuschungen und zyklischen Phasen der Ernüchterung. Diese turbulente Entwicklung, die von vielen als eine Reihe von "KI-Wintern" bezeichnet wird, hat tiefe Spuren in der Forschungslandschaft hinterlassen und zu einer zunehmend pessimistischen Sichtweise auf die Möglichkeiten der KI geführt.
### Die euphorischen Anfänge
In den 1950er und frühen 1960er Jahren herrschte an den Universitäten eine geradezu euphorische Stimmung bezüglich der Möglichkeiten der Künstlichen Intelligenz. Pioniere wie Alan Turing, John McCarthy und Marvin Minsky malten ein Bild von denkenden Maschinen, die in naher Zukunft dem menschlichen Intellekt ebenbürtig oder gar überlegen sein würden. Die Dartmouth-Konferenz von 1956, oft als Geburtsstunde der KI bezeichnet, setzte den Ton für diese optimistische Ära.
Universitäten wie MIT, Stanford und Carnegie Mellon investierten massiv in KI-Forschung. Man träumte von Computern, die natürliche Sprache verstehen, komplexe Probleme lösen und sogar kreativ sein könnten. Die Vorstellung, dass in wenigen Jahrzehnten Roboter unsere Haushalte führen und KI-Systeme als ebenbürtige Gesprächspartner fungieren würden, schien greifbar nahe.
### Die erste Ernüchterung
Doch schon in den späten 1960er Jahren zeigten sich die ersten Risse in diesem optimistischen Bild. Die anfänglichen Erfolge bei einfachen Aufgaben wie Schachspielen oder mathematischen Beweisen ließen sich nicht so leicht auf komplexere, reale Probleme übertragen. Die Schwierigkeiten bei der Verarbeitung natürlicher Sprache und beim maschinellen Sehen offenbarten die enormen Herausforderungen, vor denen die Forscher standen.
Der erste große "KI-Winter" setzte in den 1970er Jahren ein. Finanzierungsquellen versiegten, als klar wurde, dass die hochfliegenden Versprechungen nicht eingehalten werden konnten. Der Lighthill-Report von 1973 in Großbritannien war besonders vernichtend und führte zu drastischen Kürzungen der Forschungsgelder. Viele Universitäten sahen sich gezwungen, ihre ambitionierten KI-Programme zurückzufahren oder ganz einzustellen.
### Kurzes Aufflackern der Hoffnung
In den 1980er Jahren erlebte die KI-Forschung einen kurzen Aufschwung, hauptsächlich getrieben durch den Erfolg von Expertensystemen. Diese regelbasierten Programme schienen endlich praktische Anwendungen der KI zu ermöglichen. Universitäten und Unternehmen investierten erneut in die Technologie, in der Hoffnung, endlich die lang ersehnten Durchbrüche zu erzielen.
Doch auch dieser Optimismus war nur von kurzer Dauer. Die Grenzen der Expertensysteme wurden schnell deutlich: Sie waren teuer in der Entwicklung, schwer zu warten und konnten nur in sehr eng definierten Bereichen eingesetzt werden. Die Hoffnung auf eine allgemeine künstliche Intelligenz blieb unerfüllt.
### Der lange Winter
Der zweite KI-Winter, der in den späten 1980er Jahren einsetzte und bis weit in die 1990er Jahre andauerte, war besonders bitter. Die Enttäuschung war umso größer, als man geglaubt hatte, diesmal wirklich kurz vor dem Durchbruch zu stehen. Viele Universitäten reduzierten ihre KI-Forschung auf ein Minimum oder integrierten sie in andere Fachbereiche wie Informatik oder Kognitionswissenschaften.
Diese Phase der Ernüchterung führte zu einer grundlegenden Neuausrichtung der KI-Forschung. Statt nach der "starken KI" zu streben, die menschenähnliche Intelligenz imitieren sollte, konzentrierte man sich nun auf spezifische, eng definierte Probleme. Dieser Ansatz brachte zwar einige Fortschritte, verstärkte aber auch den Eindruck, dass die ursprünglichen Ziele der KI unerreichbar bleiben würden.
### Die Jahrtausendwende: Gedämpfte Erwartungen
Um die Jahrtausendwende herum begann sich die Stimmung in der universitären KI-Forschung langsam zu wandeln. Neue Ansätze wie maschinelles Lernen und neuronale Netze zeigten vielversprechende Ergebnisse in Bereichen wie Mustererkennung und Datenanalyse. Doch die Erfahrungen der Vergangenheit hatten ihre Spuren hinterlassen: Die Erwartungen blieben gedämpft, und viele Forscher vermieden es, allzu optimistische Prognosen abzugeben.
Die Fortschritte in dieser Zeit waren zwar real, blieben aber weit hinter den ursprünglichen Visionen zurück. Komplexe kognitive Aufgaben wie natürliches Sprachverständnis, kontextabhängiges Lernen oder abstraktes Denken stellten weiterhin enorme Herausforderungen dar. Die Kluft zwischen den Fähigkeiten von KI-Systemen und der menschlichen Intelligenz schien unüberbrückbar.
### Fazit: Eine Geschichte der Desillusionierung
Rückblickend auf die Entwicklung der universitären KI-Forschung bis 2010 zeichnet sich ein Bild der kontinuierlichen Desillusionierung. Die anfängliche Euphorie wich einer nüchternen, oft pessimistischen Einschätzung der Möglichkeiten und Grenzen der Künstlichen Intelligenz. Die wiederholten Zyklen von Hype und Enttäuschung hinterließen eine Forschungsgemeinschaft, die zwar weiterhin an den langfristigen Potenzialen der KI festhielt, aber zunehmend vorsichtig in ihren Versprechungen und Erwartungen wurde.
Diese Erfahrung hat zu einer fundamentalen Neuausrichtung der KI-Forschung geführt. Statt nach der "heiligen Gral" einer allgemeinen künstlichen Intelligenz zu suchen, konzentrierten sich viele Forscher auf pragmatischere, anwendungsorientierte Ziele. Dieser Ansatz brachte zwar einige Erfolge, verstärkte aber auch den Eindruck, dass die ursprünglichen, visionären Ziele der KI in weite Ferne gerückt waren.
Die Geschichte der KI bis 2010 ist somit eine Mahnung zur Bescheidenheit in der Wissenschaft. Sie zeigt, wie schwierig es ist, die Komplexität menschlicher Intelligenz zu replizieren, und wie leicht wir die Herausforderungen unterschätzen können. Gleichzeitig unterstreicht sie die Notwendigkeit, realistische Erwartungen zu setzen und langfristig zu denken – eine Lektion, die für die zukünftige Entwicklung der KI von unschätzbarem Wert sein könnte.
## Technische Limitationen und Rückschläge: Die unüberwindbaren Hürden der KI-Forschung
Die Geschichte der universitären KI-Forschung bis 2010 ist geprägt von einer Reihe technischer Limitationen und Rückschläge, die die anfänglichen Hoffnungen auf eine rasche Entwicklung menschenähnlicher künstlicher Intelligenz zunichte machten. Diese Herausforderungen offenbarten die enorme Komplexität der menschlichen Kognition und die Schwierigkeiten, diese in Maschinen zu replizieren.
### Komplexe Aufgaben bleiben ungelöst
Eines der hartnäckigsten Probleme in der KI-Forschung war die Bewältigung komplexer kognitiver Aufgaben, insbesondere im Bereich des Sprachverständnisses. Trotz jahrzehntelanger Forschung und zahlreicher Ansätze blieb die Fähigkeit von Computern, natürliche Sprache wirklich zu "verstehen", weit hinter den menschlichen Fähigkeiten zurück.
Die Herausforderungen beim Sprachverständnis waren vielfältig:
1. Kontextabhängigkeit: Maschinen scheiterten regelmäßig daran, den Kontext von Äußerungen richtig zu erfassen, was zu Fehlinterpretationen führte.
2. Mehrdeutigkeit: Die Vieldeutigkeit natürlicher Sprache stellte KI-Systeme vor scheinbar unlösbare Probleme.
3. Pragmatik: Das Verständnis impliziter Bedeutungen und kultureller Nuancen blieb für Maschinen unerreichbar.
4. Abstraktes Denken: Die Fähigkeit, aus sprachlichen Informationen abstrakte Konzepte abzuleiten, erwies sich als besonders schwierig zu implementieren.
Diese Probleme zeigten sich nicht nur im Sprachverständnis, sondern auch in verwandten Bereichen wie der maschinellen Übersetzung oder der automatischen Textzusammenfassung. Trotz einiger Fortschritte blieben die Ergebnisse weit hinter den menschlichen Fähigkeiten zurück, was zu wachsender Frustration in der Forschungsgemeinschaft führte.
### Wissensbasierte Systeme: Teuer und fehleranfällig
Ein weiterer Rückschlag in der KI-Forschung war die Erkenntnis, dass wissensbasierte Systeme, die in den 1980er Jahren als vielversprechender Ansatz galten, sich als zu teuer und fehleranfällig erwiesen. Diese Systeme, die auf umfangreichen Datenbanken und komplexen Regelwerken basierten, sollten Expertenwissen in verschiedenen Domänen abbilden.
Die Probleme mit wissensbasierten Systemen waren vielfältig:
1. Hohe Entwicklungskosten: Die Erstellung und Pflege der Wissensdatenbanken war extrem zeit- und kostenintensiv.
2. Mangelnde Flexibilität: Die Systeme waren oft zu starr, um mit unvorhergesehenen Situationen umzugehen.
3. Schwierige Wartung: Änderungen im Wissensbestand konnten unbeabsichtigte Folgen haben und erforderten oft umfangreiche Überarbeitungen.
4. Skalierungsprobleme: Mit zunehmender Komplexität der abzubildenden Domäne wuchsen die Probleme exponentiell.
5. "Brittleness": Die Systeme versagten oft spektakulär, wenn sie mit Situationen konfrontiert wurden, die leicht außerhalb ihres definierten Wissensbereichs lagen.
Diese Erfahrungen führten zu einer wachsenden Skepsis gegenüber regelbasierten Ansätzen in der KI und trugen zum zweiten "KI-Winter" bei.
### Grenzen des maschinellen Lernens
Auch neuere Ansätze wie das maschinelle Lernen, die gegen Ende des betrachteten Zeitraums an Bedeutung gewannen, zeigten deutliche Limitationen:
1. Datenhunger: Die Systeme benötigten enorme Mengen an Trainingsdaten, die oft nicht verfügbar oder zu teuer in der Beschaffung waren.
2. Mangelnde Transparenz: Viele Algorithmen, insbesondere neuronale Netze, funktionierten als "Black Box", was ihre Akzeptanz in kritischen Anwendungsbereichen erschwerte.
3. Overfitting: Die Systeme neigten dazu, sich zu stark an die Trainingsdaten anzupassen und versagten bei der Generalisierung auf neue Situationen.
4. Fehleranfälligkeit: Kleine Änderungen in den Eingabedaten konnten zu drastischen Fehlern in der Ausgabe führen, was die Zuverlässigkeit der Systeme in Frage stellte.
### Fazit: Eine Lektion in Demut
Die technischen Limitationen und Rückschläge in der KI-Forschung bis 2010 waren eine schmerzhafte Lektion in Demut für die wissenschaftliche Gemeinschaft. Sie zeigten, wie komplex und vielschichtig menschliche Intelligenz tatsächlich ist und wie weit der Weg zu ihrer künstlichen Replikation noch sein würde.
Diese Erfahrungen führten zu einer Neuausrichtung der Forschung:
1. Fokus auf spezifische, eng definierte Probleme statt auf allgemeine künstliche Intelligenz.
2. Verstärkte interdisziplinäre Zusammenarbeit, insbesondere mit Kognitionswissenschaftlern und Neurobiologen.
3. Realistischere Einschätzung der Möglichkeiten und Grenzen von KI-Systemen.
4. Entwicklung neuer Paradigmen wie dem Deep Learning, die einige der früheren Limitationen zu überwinden versprachen.
Trotz dieser Anpassungen blieb ein Gefühl der Ernüchterung. Die ursprünglichen, visionären Ziele der KI-Forschung schienen in weite Ferne gerückt. Die Erkenntnis, dass selbst scheinbar einfache kognitive Aufgaben für Maschinen eine enorme Herausforderung darstellen, führte zu einer pessimistischeren Sichtweise auf die Möglichkeiten der künstlichen Intelligenz.
Diese Phase der technischen Limitationen und Rückschläge hat die KI-Forschung nachhaltig geprägt. Sie hat zu einem realistischeren, aber auch vorsichtigeren Ansatz in der Entwicklung und Anwendung von KI-Technologien geführt. Die Erfahrungen dieser Zeit bleiben eine wichtige Mahnung, die Komplexität menschlicher Intelligenz nicht zu unterschätzen und die Grenzen technologischer Lösungen anzuerkennen.
## Strukturelle Probleme in der Forschung: Die institutionellen Hürden der KI-Entwicklung
Die Entwicklung der universitären Künstlichen Intelligenz bis 2010 war nicht nur durch technische Limitationen geprägt, sondern auch durch tiefgreifende strukturelle Probleme in der Forschungslandschaft selbst. Diese institutionellen Hürden behinderten den Fortschritt maßgeblich und trugen zu einer zunehmend pessimistischen Sichtweise auf die Zukunft der KI bei.
### Fokus auf kurzfristige Anwendungsforschung statt Grundlagenforschung
Ein zentrales Problem war die zunehmende Verschiebung des Forschungsfokus von der Grundlagenforschung hin zur kurzfristigen Anwendungsforschung. Dieser Trend hatte mehrere Ursachen:
1. Finanzierungsdruck: Universitäten sahen sich zunehmend gezwungen, die "Relevanz" ihrer Forschung durch konkrete Anwendungen zu rechtfertigen.
2. Industriekooperationen: Die Zusammenarbeit mit der Industrie versprach zusätzliche Finanzierungsquellen, lenkte aber den Fokus auf unmittelbar verwertbare Ergebnisse.
3. Publikationsdruck: Der "Publish or Perish"-Mentalität folgend, konzentrierten sich viele Forscher auf schnell publizierbare Ergebnisse statt auf langfristige, riskantere Projekte.
4. Politischer Druck: Forderungen nach "gesellschaftlicher Relevanz" der Forschung führten oft zu einer Vernachlässigung grundlegender Fragestellungen.
Diese Fokusverschiebung hatte weitreichende Konsequenzen:
- Vernachlässigung fundamentaler Probleme: Grundlegende Fragen der KI-Forschung, wie das Verständnis von Kognition oder die Entwicklung neuer Paradigmen, wurden zugunsten inkrementeller Verbesserungen bestehender Technologien zurückgestellt.
- Kurzfristiges Denken: Die Konzentration auf schnelle Ergebnisse verhinderte oft die Entwicklung langfristiger, visionärer Forschungsstrategien.
- Fragmentierung der Forschung: Statt an großen, übergreifenden Problemen zu arbeiten, zersplitterte sich die Forschungslandschaft in viele kleine, isolierte Projekte.
### Mangelnde Ressourcen: Viele Lehrstühle mit nur wenigen Mitarbeitern
Ein weiteres strukturelles Problem war die oft mangelhafte Ausstattung vieler KI-Forschungsgruppen an den Universitäten:
1. Personalmangel: Viele Lehrstühle verfügten nur über eine Handvoll Mitarbeiter, was die Bearbeitung komplexer, interdisziplinärer Fragestellungen erschwerte.
2. Finanzielle Engpässe: Knappe Budgets limitierten die Möglichkeiten für Experimente, den Aufbau von Infrastruktur und die Anschaffung leistungsfähiger Hardware.
3. Brain Drain: Talentierte Forscher wurden oft von der Industrie abgeworben, die bessere Gehälter und Ressourcen bieten konnte.
4. Mangelnde Kontinuität: Befristete Verträge und hohe Fluktuation erschwerten die Durchführung langfristiger Forschungsprojekte.
Diese Ressourcenknappheit hatte mehrere negative Auswirkungen:
- Eingeschränkte Forschungsagenda: Viele vielversprechende, aber ressourcenintensive Forschungsrichtungen konnten nicht verfolgt werden.
- Mangelnde Wettbewerbsfähigkeit: Im internationalen Vergleich fielen viele europäische Universitäten hinter besser ausgestattete US-amerikanische oder asiatische Institutionen zurück.
- Motivationsverlust: Die ständige Ressourcenknappheit führte bei vielen Forschern zu Frustration und Demotivation.
### Hoher Zeitaufwand für Lehre und Verwaltung, zu wenig Zeit für eigentliche Forschung
Ein drittes strukturelles Problem, das die KI-Forschung an Universitäten behinderte, war die zunehmende Belastung der Wissenschaftler durch Lehr- und Verwaltungsaufgaben:
1. Steigende Lehrverpflichtungen: Wachsende Studierendenzahlen bei gleichbleibendem oder sinkendem Personalbestand führten zu einer höheren Lehrbelastung.
2. Bürokratische Anforderungen: Zunehmende administrative Aufgaben, von Antragsstellung bis Berichtswesen, absorbierten einen großen Teil der Arbeitszeit.
3. Evaluierungsdruck: Regelmäßige Evaluierungen und Qualitätssicherungsmaßnahmen banden zusätzliche Ressourcen.
4. Drittmittelakquise: Die Notwendigkeit, ständig neue Forschungsgelder einzuwerben, wurde zu einer zeitraubenden Daueraufgabe.
Die Konsequenzen dieser Entwicklung waren gravierend:
- Zeitmangel für Forschung: Die eigentliche Forschungsarbeit wurde oft zur Nebentätigkeit, die in der knappen verbleibenden Zeit erledigt werden musste.
- Qualitätsverlust: Sowohl in der Lehre als auch in der Forschung führte der Zeitmangel oft zu Kompromissen in der Qualität.
- Innovationshemmnis: Die fehlende Zeit für tiefgrehendes Nachdenken und Experimentieren behinderte die Entwicklung wirklich innovativer Ideen.
- Burnout-Gefahr: Die Mehrfachbelastung führte bei vielen Forschern zu Überlastung und Erschöpfung.
### Fazit: Ein System an seinen Grenzen
Die strukturellen Probleme in der universitären KI-Forschung bis 2010 offenbarten ein System, das an seine Grenzen gestoßen war. Die Kombination aus Ressourcenmangel, Fokusverschiebung und Überlastung der Forscher schuf ein Umfeld, das echten wissenschaftlichen Fortschritt zunehmend erschwerte.
Diese Situation führte zu einer wachsenden Frustration in der Forschungsgemeinschaft:
- Viele Wissenschaftler fühlten sich in ihren Möglichkeiten stark eingeschränkt und sahen ihre ursprünglichen Visionen in weite Ferne rücken.
- Der Vergleich mit besser ausgestatteten Forschungseinrichtungen, insbesondere in der Industrie, nährte Zweifel an der Zukunftsfähigkeit der universitären KI-Forschung.
- Die Diskrepanz zwischen den hochfliegenden Erwartungen an die KI und den tatsächlichen Fortschritten wurde immer offensichtlicher.
Diese strukturellen Probleme trugen maßgeblich zu einer pessimistischen Sichtweise auf die Zukunft der KI-Forschung bei. Sie machten deutlich, dass nicht nur technische Herausforderungen, sondern auch institutionelle und organisatorische Faktoren den Fortschritt in diesem Bereich behinderten.
Die Erkenntnis dieser strukturellen Defizite führte gegen Ende des betrachteten Zeitraums zu ersten Reformbestrebungen:
- Forderungen nach einer Neuausrichtung der Forschungsförderung, die langfristige, grundlagenorientierte Projekte stärker berücksichtigt.
- Initiativen zur Verbesserung der Work-Life-Balance in der Wissenschaft und zur Reduzierung administrativer Belastungen.
- Bemühungen um eine stärkere interdisziplinäre Vernetzung und den Aufbau größerer, besser ausgestatteter Forschungszentren.
Trotz dieser Ansätze blieb die Situation bis 2010 weitgehend unbefriedigend. Die strukturellen Probleme in der universitären KI-Forschung stellten eine ernsthafte Bedrohung für die Zukunftsfähigkeit dieses Forschungsfeldes dar und trugen maßgeblich zu einer pessimistischen Einschätzung seiner Entwicklungsperspektiven bei.
AI research until 2010
Until 2010 there was only a little progress visible for Artificial intelligence. Even if the subject was researched over decades, the amount of practical applications was low. The most advanced AI project until 2010 was the Deep Blue chess computer who won in 1996 against the strongest human player, and Honda Asimo robot from 2000 who was able to walk on even ground. But, both projects were really expensive, and the demonstrated form of intelligence wasn't useful in the real world.
Its a bit surprising, but especially in the years from 1990 until 2010 AI has made no progress. In parallel the Internet has developed rapidly, and computers have become powerful and useful machines. Before the year 2010, AI was a dead end, that means, no success was available and the researchers didn't even know why they have failed.
Until 2010, computer chess was the most promising direction in the AI community because it provided an accepted indicator for the thinking process. If a computer was able to beat a human player in this board game, this would be equal to an early form of machine intelligence. The dominant problem until 2010 was the low amount of CPU resources. Computer hardware was only able to calculate a certain a number of movements per second which is equal to the search horizon. This limited search horizon prevented the advent of powerful AI programs. The mentioned Deep Blue chess engine was only able to win against Kasparaov, because it was running on a dedicated supercomputer. So many experts were in doubt, if deep blue was a good example for Artificial Intelligence.
The interesting situation is, that not only a single university or a single discipline in AI was struggling with realizing the dream of robots and thinking machines, but the entire AI community until 2010 was unsure how to overcome the obstacles. Even very advanced neural network algorithms in combination with reduced problem complexity, for example to control a simple maze robot, were not successful at all. There was a serious doubt, if AI can be realized in the near future.
Despite the huge of effort put into different AI disciplines like computer vision, natural language processing, planning and reasoning, it was hard to find practical demonstration of AI. Minimalistic research problems like the traveling salesman problem, or the block sorting problems were described in the literature without any modification over decades. In other words, the AI landscape was froozen and the absence of progress was common.
Until 2010 the theoretical description of np hard problem was available, but it was unclear how to solve these kind of problems. Existing algorithms were not powerful enough to plan the trajectories of robots and even more recent approaches like probabilistic algorithms were not powerful enough. In summary, AI research until 2010 was in sad condition. The gap between practical algorithms and the description of robots in the science fiction literature was huge. A common assumption until 2010 was, that in reality it will take 200 years and more even robotics can be realized which means, that the AI subject will become a dead end forever.
Carolo cup as the last great adventure in AI
Since 2008 there is a programming challange available with autonomous model cars. Its a smaller version of the DARPA urban challenge which took place in 2007. So both competitions were started before the year 2010 and they are providing interesting insigth into the self-understanding of robotics projects in this area.
The overall idea behind the Carolo cup was, that its some sort of C/C++ microncontroller programming challenge. The team has to built the assemble the hardware, program the software and make sure that the car gets the maximum score in the competition. Typical problems available are the SLAM problem which is self-localisation on a map, prediction of the future with the model predictive control module and creating a sensor model. All these subtasks are realized with the C/C++ programming language because its the standard for microcontroller programming and a great choice for algorithm implementation.
What makes the Darpa urban challenge in 2007 and the carolo cup since 2008 remarkable is, that all the possible problems are solved by increasing the amount of code lines. The idea is, that a robot car is some sort of Linux kernel which has to growth in size to fit to demanding problems. The consequence is, that creating the AI for the robot means basically to write more source code in C++, bugfix the code and iterate this cycle all the time.
For the Darpa urban challenge, the average team was using 150k lines of code written in C. The source code for Carolo cup participants is available at github and contains also of endless amount of code. There are self written 3d simulators, path planners and sensor perception API available. The amount of effort to create all these C++ code is huge.
From a historic perspective, the software development cycle used for maintaining the Carolo cup source code can be seen as the last classical approach in AI. until 2010 the dominant paradigm in robotics was, to treat the project as a computer science project which consists of hardware and software frameworks. it was based on microcontrollers, path planners, and endless amount of highly efficient computer code. At the same time, the result of this effort was low. Even for simple tasks like moving in a circle, the written C++ code isn't working. Its not possible to reuse the program for real cars and it will take decades until the problems are fixed.
Until 2010 the focos on hard computer science topics like a certain programming challenge and a certain microcontroller was a common bias in artificial intelligence. Possible alternatives like machine learning were rejected as too complicated.
February 03, 2025
AI tools in the past
One possible approach to get an overview over a discipline is to ask which tools are important. Over the decades, the AI community has devewloped lots of tools which are promising to investigate robotics and artificial intelligence in detail. The sad news is, that most of the tools in the past were useless. There are certain hardware design available, e.g. parallel processors, there are cognitive architectures available, and some major programming languages. Also some algorithms and dedicated AI libraries were invented.
None of them was very succesful so it doesn't even make sense to name some of them. Instead of questioning the tool concept in general, a better idea would be to ask if a certain category of tools might be more useful than other. Tools in the past were mostly an answer to a problem. For example a parallel cpu should make the computer faster, while a cognitive architecture tries to emulate a human brain. The alternative concept is to use the computer to define the problems more precisely. With the advent of deep learning this problem oriented concept has become very successful.
Today, there is only a single tool available which is a dataset. A dataset encodes a problem in a problem in a table. There are datasets available for image recognition, for motion capture, for voice recognition or for game playing. What these datasets have in common is, that they never provide an answer, but they are asking questions. The concept is similar to test driven devolopment in software enginering. The idea is, to program at first a test routine. This routine is applied to computer code and can evaluate if the code is correct or not.
In the original meaning, a dataset was used to benchmark a certain neural network. For example, a neural network can recognize OCR images with an accuracy of 71.4%. The measuörement of 71.4% is the result of applying the neural network to the given dataset. Instead of asking how to program robots or intelligent computers, the new task is how to measure the software written by someone else. The idea of a dataset is, to postpone the task of creating an AI software to a later moment in time. This reduces the complexity. Creating a problem oriented dataset is much easier than programming an intelligent software which is able to pass the test. A good example is a motion capture dataset, which is a recording of motion tracker coordinates combined with the correct label like "walking, jumnping, standup".
There is a reason available why datasets have become the most dominant tool in AI research, because they are filling the gap of a missing problem definition. Before its possible to discuss advanced philosophical ideas including advanced AI algorithm, there is a need to define a concrete problem first. The problem guides the debates, because any argument or software provided in the discourse has to improve the problem solving process. This allows to decide if a certain paradigm makes sense or not.
January 31, 2025
Limitation in AI from 1990 to 2010
In the mentioned period there was a lot of published research available around artificial intelligence and robotics. This research didn't resulted into practical application because of an untold bias which was missing ability to use natural language as an intermediate layer. To explain the situation let us explain in detail, who AI research was done until 2010.
The assumption was, that all the AI algorithms have its root in mathematical science. An optimization algorithm is trying to solve a numerical problem. For example, the model predictive control paradigm is about finding a robot trajectory similar to a path planner. Or a neural network can adjust its weights to recognize images. Both algorithms were known from 1990 to 2010, are described frequently in the literature but they are completely useless. For example, optimal control sounds great from a theoretical perspective. The idea is that the robot figures out possible alternatives in the state spaces, plans some step ahead and use this information to generate the optimal action. The problem is, that in the reality there is no clearly defined mathematical state space which allows to apply the theory.
A common situation until 2010 was, that a newbie has implemented a certain optimal control algorithm or programmed a certain neural network architecture, but the robot wasn't able to solve a problem. Even very basic challenges like finding the exit in a maze, were out of reach for AI algorithms until 2010.
Such a disappointing situation wasn't the exception but the normal situation. That means, the entire AI related corpus of mathematical algorithms were not able to proof anything, and it was unclear what a possible improvement was.
The situation changed dramatically with the advent of language based human machine interaction since around 2010. Since this year, the AI research community decided to explore a new paradigm which was ignored mostly before which was to utilize natural language for providing external knowledge. The principle wasn't completely new, because the famous SHRDLU project (1970) was mentioned in most AI books. But until 2010 the concept wasn't described in detail, because the untold assumption was, that AI needs a mathematical but not a linguistic representation. The surprising situation was, that robotics problems can be described from a linguistic perspective more elegant than with a mathematical understanding which resulted into rapid progress in robotics research.
So we can say, that the absence of natural language interaction with machines was the major cause why AI research until 2010 was slow.
Perhaps it makes sense to give an example how the understanding about robotics has influence the AI research. Before the year 2010 a common description about motion planning was, that there is a robot arm who should grasp an object from the table. The world is described in 3d coordinates. More advanced models assumed that the robot's reality contains of gravity and friction between the robot's hand and the object, so the world model was a realistic physics engine. But this understanding doesn't help to control the robots arm with an AI but it prevented to apply optimal control or similar approaches. Especially the attempt to plan multiple steps into the future needs to much CPU resources in a realistic physics simulation, so it was out of reach to control the robot arm with any known algorithm.
The bottleneck was there for multiple or even all robot projects until 2010, so it makes sense to assume that it was a general bias in AI research until 2010. The paradox situation was, that with increased effort to model robot problems in a mathematical notation, the resulting optimization problems were much harder to solver. Even faster computer hardware for example multiprocessing arrays were not able to overcome the obstacles.
January 30, 2025
Programming heuristic algorithms
Around the year 1990 the understanding of heuristic algorithms was poor. The problems are visible even in the definition what a heuristic is about. Normal algorithms are step by step instructions formulated in source code, e.g. bubble sort or a path planning algorithms. In contrast, a heuristic algorithm is based on domain specific knowledge, but it remains unclear how this knowledge is encoded in software.
It makes sense to assume, that a heuristic algorithm isn't a technology but only a wish for such a technology. Its more a question for future mopre efficient algorithms not invented yet. Nevertheless there are some attempts available to describe the situation in detail. One famous example is a cost function. Cost functions are used to encode the knowledge of experts into a simple mathematical equation. For example the distance there is a distance in a maze to the goal, or there is a cost function available for colliding with an obstacle. The idea behind a cost function is to encode a high level descripotion "Move to the goal, avoid the obstacles" into a mathematical model which can be translated into actions.
If cost functions are an entry level heuristic algorithms, there is another more advanced strategy available which are text based robot control. The idea is, to provide domain knowledge on the fly, during the runtime of the program. The human operator speaks to the robot e.g. he gives the current subgoal, and this information is converted into a mathematical equation. In contrast to the previously mentioned static cost function, a text based teleoperation is harder to implement but provides higher flexibility.
Let us analyze the workflow in detail. The human operator provides the next subgoal in natural language, this information is translated into a cost function by a parser, and the cost function is used to plan the trajectory of the robot. Even if the pipeline sounds a bit complicated it can be realized in software. The bottleneck is how to translate natural language instructions into a mathematical equation.
The similarity between cost function and text based control is, that the domain specific knowledge isn't available in the robot itself, but its provided from the environment. This redfines the robot's role from a former autonomous robot into an interactive device. The principle is similar to bottom up robotics formulated by Rodney brooks in the late 1980s. In contrast to Brooks subsumption architecture, the robot is more dependent from the environment. Instead of using a frontsensor to avoid an obstacle, the robot gets textual input from a human operator, so its entirely remote controlled.
January 28, 2025
The emergence of AI from 1990 to 2010
The starting point of the history lesson in technology is the year 1990 which was the end point of the 4th computer generation. Around the year 1990 most modern computing technology like 32bit CPU, the C++ programming language and Internet protocols like TCP/IP were invented. Also videocompression and many video games were available.
Artificial Intelligence and robotics belongs to the 5th computer generation which has emerged after the year 1990. The starting point are heuristics algorithms. In contrast to a normal algorithm which can be search in a sorted database, a heuristic algorithms is using external knowledge to fasten up the performance. Entry level heuristics algorithms are based on an evaluation function. The most famous one is A*. In contrast to a simple traversal of the state space, A* is using ja distance function to follow only nodes in the graph which are near to the goal. This allows to search much faster.
Modern AI technology including robotics is build up on heuristic algorithms. Its not possible to solve AI somehow else because problems like motion planning and grasp planning are so complex, that always sort sort of heuristics is needed to fasten up the processing speed. The only debate is about which sort of heuristics fits well to a certain problem.
Early and easy to explain heuristic algorithm are based on the previously mentioned evaluation function which can be used to implement path planning algorithm and chess playing computer programs. In computer chess, the evaluation function determines a score for the current board, this score is used to prioritize the search in the state space. Such an algorithm can be executed on normal desktop computers which were available in the 1990s like a 286'er PC. An evaulation function alone can't solve more complex robot problems. The problem is that for high level tasks like "grasping an object" the evaluation function is unknown. These obstacles has prevented, that robotics was available in the 1990s so there was a longer process needed to heuristic algorithms.
A promising approach developed during the 2000s in parallel to the Deep learning boom was called feature engineering. Feature engineering tries to create evaluation functions for any domain. The question is which statistical variables are important for a domain. For exampole a robot hand might have a touch sensor, while a car might have the features speed and direction. The principle of features allows to create more advanced evaluation function which can solve lots of robot problems.
A third and most advanced tool to create modern heuristic algorithms is natural language. Instead of treating robot control problems as purely mathematical subjects in a multidimensional numerical space, the idea is to communicate with a robot over a language interface similare to a text based adventure game. The ability to introduce grounded language into existing heuristi algorithm porovides a powerful framework to create advanced robot systems since the year 2010.
January 27, 2025
Zweiter Besuch im Computer reset store, Dallas
1. Ankunft und Entdeckung
Die Morgensonne brannte bereits unbarmherzig auf den Asphalt, als Mark und Steve ihren altersschwachen Ford auf den staubigen Parkplatz des Computer Reset Store in Dallas lenkten. Die Freunde, beide Mitte vierzig und leidenschaftliche Technik-Nostalgiker, hatten von diesem Laden gehört - einem wahren Mekka für Liebhaber alter Computer.
"Sieh dir das an!", rief Mark begeistert und deutete auf das verwitterte Schild über dem Eingang. "Wie eine Zeitkapsel!"
Steve nickte grinsend. "Lass uns hoffen, dass drinnen noch mehr Schätze auf uns warten."
Mit klopfenden Herzen betraten sie den Laden. Der Geruch von altem Plastik und Elektronik schlug ihnen entgegen, vermischt mit einer Prise Staub und Vergangenheit. Schon im Eingangsbereich türmten sich Kartons mit ausrangierten Tastaturen und Monitoren.
"Wow", hauchte Steve ehrfürchtig. "Das ist ja der Wahnsinn!"
Sie drangen tiefer in den Laden vor, vorbei an endlosen Regalen voller Hardware. Hier ein Stack originalverpackter 5,25-Zoll-Disketten, dort eine Kiste randvoll mit alten Prozessoren. Mark blieb wie angewurzelt vor einem Regal stehen.
"Steve! Sieh dir das an!" Er hielt triumphierend eine Packung in die Höhe. "Eine original versiegelte Kopie von Lotus 1-2-3! Mein Vater hat damals damit gearbeitet."
Steve pfiff anerkennend durch die Zähne. "Unglaublich. Und da drüben - ist das etwa ein Xerox Alto?"
Die beiden Freunde verloren jegliches Zeitgefühl, während sie durch die Gänge streiften. Jede Ecke barg neue Überraschungen. Ein kompletter Apple Lisa Computer, noch in der Originalverpackung. Ein ganzes Regal voller Commodore 64 Zubehör. Sogar einige seltene NeXT Cubes entdeckten sie.
"Ich fühle mich wie in einer Zeitmaschine", murmelte Mark, während er ehrfürchtig über das Gehäuse eines IBM PC/XT strich. "All diese Geräte... sie haben die Welt verändert."
Steve nickte nachdenklich. "Ja, und jetzt stehen sie hier, vergessen und verstaubt. Es ist fast ein bisschen traurig."
Sie erreichten einen Bereich, der offenbar der Software gewidmet war. Regale über Regale mit Softwareschachteln aus den 80ern und 90ern. WordPerfect, dBase, Norton Utilities - Namen, die sie in ihre Jugend zurückversetzten.
"Erinnerst du dich noch, wie wir nächtelang Civilization gespielt haben?", fragte Mark lachend und hielt eine vergilbte Spielepackung hoch.
Steve grinste. "Wie könnte ich das vergessen? Meine Eltern dachten schon, ich wäre computerabhängig."
Plötzlich stutzte Mark. "Ist dir aufgefallen, dass niemand sonst hier ist? Kein Personal, keine anderen Kunden..."
Steve runzelte die Stirn. "Stimmt. Und sieh mal - einige Regale sind schon leer geräumt."
Ein ungutes Gefühl beschlich die beiden Freunde. Irgendetwas stimmte hier nicht. Sie beschlossen, weiter in den hinteren Teil des Ladens vorzudringen, um nach Antworten zu suchen.
Wenig ahnten sie, dass sie dort auf eine Szene stoßen würden, die ihre Begeisterung in blankes Entsetzen verwandeln sollte.
2. Konfrontation mit der Liquidation
Als Mark und Steve tiefer in die staubigen Gänge des Computer Reset Store vordrangen, vernahmen sie plötzlich ein ohrenbetäubendes Kreischen. Alarmiert eilten sie dem Geräusch nach und gelangten in einen großen Hinterhof. Dort bot sich ihnen ein Bild des Grauens: Ein gigantischer industrieller Schredder thronte wie ein Moloch über einem Berg alter Computer.
Fassungslos beobachteten die beiden Männer, wie Arbeiter einen Commodore 64 nach dem anderen in den gierigen Schlund der Maschine warfen. Das Knirschen von zerberstendem Plastik und zersplitternden Leiterplatten ließ Mark erschaudern. "Das können die doch nicht machen!", rief er entsetzt.
Steve, sonst eher der Besonnene von beiden, stürmte auf den nächstbesten Arbeiter zu. "Halt! Stoppen Sie sofort!", brüllte er gegen den Lärm an. Der Arbeiter zuckte nur gleichgültig mit den Schultern und deutete auf einen Mann in Anzug, der abseits stand und das Geschehen überwachte.
Entschlossen marschierten Mark und Steve auf den Anzugträger zu. "Sir, Sie müssen das stoppen!", forderte Mark eindringlich. "Diese Computer sind Kulturgut! Man kann sie doch nicht einfach zerstören!"
Der Mann, der sich als Mr. Johnson vorstellte, seufzte genervt. "Meine Herren, ich verstehe Ihre Aufregung. Aber wir führen hier lediglich einen Auftrag aus. Der Laden wird geschlossen, alles muss raus."
"Aber warum vernichten?", hakte Steve nach. "Es gibt doch sicher Sammler oder Museen, die Interesse hätten!"
Johnson schüttelte den Kopf. "Zu aufwendig. Die Lagerkosten fressen uns auf. Außerdem - wer will schon diesen alten Krempel?"
Mark ballte die Fäuste. "Viele Leute! Diese Geräte sind Teil unserer Geschichte! Sie haben die digitale Revolution eingeläutet!"
"Tut mir leid, meine Entscheidung steht fest", erwiderte Johnson kühl.
Die nächsten Stunden vergingen wie in Trance. Hilflos mussten Mark und Steve mit ansehen, wie ein Stück Computergeschichte nach dem anderen in den Shredder wanderte. Apple II, Atari ST, Amiga 500 - nichts wurde verschont.
Sie versuchten, wenigstens einige Geräte zu retten, boten sogar an, sie abzukaufen. Doch Johnson blieb hart. "Alles oder nichts", war seine Devise.
Als die Sonne unterging, war der Hof leer gefegt. Wo einst Tausende Computer gestanden hatten, türmte sich nun ein Berg aus Schrott. Mark und Steve standen wie betäubt da, unfähig zu begreifen, was gerade geschehen war.
"All diese Erinnerungen... einfach weg", murmelte Steve.
Mark nickte stumm. Dann ballte er entschlossen die Faust. "Das darf nie wieder passieren. Wir müssen etwas unternehmen!"
Erschöpft, aber mit neuem Feuer im Herzen, verließen die beiden Freunde den Ort der Zerstörung. Sie wussten nicht, wie - aber sie würden einen Weg finden, um die verbliebenen Schätze der Computergeschichte für die Nachwelt zu bewahren.
January 25, 2025
A short introduction into the End of moores law
Before its possible to explain why the law is dead, let us give a short overview what the original idea was. Until the year 2010, the moores law was an unwritten rule, how much faster a new CPU is. The observation of Gordon Moore (the founder of Intel) was that the transistor count doubles every 18 months which is equal to an exponential growth. If the CPU has twice as much transistor it delivers also twice as much performance.
To verify if this law is valid, we need to determine the Compound Annual Growth Rate value for the Gflops of newly produced CPU over multiple years. Or in more simpler terms, an Excel sheet is created with different processors over the years which are compared to each other. To simplify the task, i've selected the Thinkpad laptop, because precise information about the CPU in this hardware is available which allows to create a precise table.
A CAGR value of 0.59 means, that a new generation of a laptop delivers 59% improvement in performance than the laptop one year ago, which is equal to the moores law ratio (doubling performance every 18 months). According to the figure, until the year 2010 a CAGR value of 0.4 upto 0.6 was available which is close to the moores law. Unfurtunately, the performance improvement has reduced after 2010 drastically to around 0.20.
The possible explanation is, that its much harder to increase the speed anymore, if the level is higher. Improving a 1 gflops CPU by 50% is much easier, than improving a 100 gflop CPU by 50%. This dilemma is called the “End of moores law”.
A realistic growth rate estimation for future Thinkpads and other Laptop models is a CAGR of 0.15 which is equal to 15% speed improvement every year. It will take 5 years, until the performance of a CPU is twice as fast which is much longer than the assumption of 18 months formulated by Moore.
year | Thinkpad | CPU | Gflops | CAGR 5y |
2000 | T21 | Intel M Pentium III Copermine 800 Mhz* | 0.4 | |
2001 | T23 | Intel Pentium III-M Tualatin 1.13 Ghz* | 0.6 | |
2002 | T30 | Intel Pentium IV-M 2 Ghz* | 1.5 | |
2003 | T41 | Intel Pentium M Banias 1.6 Ghz* | 2.5 | |
2004 | T42 | Intel Pentium M Dothan 1.8 Ghz* | 3.0 | |
2005 | T43 | Intel Pentium M750* | 3.5 | 0.54 |
2006 | T60 | Intel core 2 duo T5500* | 8.0 | 0.68 |
2007 | T61 | Intel core 2 duo T7300* | 11.0 | 0.49 |
2008 | T61 same | Intel core 2 duo T7300* | 11.0 | 0.34 |
2009 | T400 | Intel core 2 duo P8600* | 19.2 | 0.45 |
2010 | T410 | Intel i7-620M | 21.3 | 0.44 |
2011 | T420 | Intel i7-2640M | 44.8 | 0.41 |
2012 | T430 | Intel i7-3520M | 46.4 | 0.33 |
2013 | T440 | Intel i7-4600U | 67.2 | 0.44 |
2014 | T440 same | Intel i7-4600U | 67.2 | 0.28 |
2015 | T450 | Intel i7-5600U | 83.2 | 0.31 |
2016 | T460 | Intel i7-6600U | 83.2 | 0.13 |
2017 | T470 | Intel i7-7600U | 89.6 | 0.14 |
2018 | T480 | Intel i7-8650U | 121.6 | 0.13 |
2019 | T490 | Intel i7-8565U | 115.2 | 0.07 |
2020 | T14 Gen1 | Intel Core i7-10610U | 115.2 | 0.07 |
2021 | T14 Gen2 | Intel i7-1185G7 | 192.0 | 0.16 |
2022 | T14 Gen3 | Intel i7-1255U | 272.0 | 0.17 |
2023 | T14 Gen4 | Intel i7-1365U | 288.0 | 0.20 |
2024 | T14 Gen5 | Intel Core Ultra 7 155U* | 307.2 | 0.22 |
total | 0.32 |
* gflops is an estimation
sources:
thinkwiki.de
thinkwiki.org
wikipedia.org
intel.com Intel APP metrics for Intel Microprocessors
notebookcheck.net
January 24, 2025
Besuch im Computer reset store Dallas
1. Die Entdeckung
Sarah starrte ungläubig auf den Bildschirm ihres Smartphones. Ein alter Forumsbeitrag hatte sie auf die Spur des Computer Reset Stores in Dallas gebracht - ein wahres Eldorado für Technik-Nostalgiker und Sammler. Als leidenschaftliche Retrocomputing-Enthusiastin konnte sie ihr Glück kaum fassen. Der Laden, ein ehemaliger Gebrauchthandel für Computer, sollte eine unglaubliche Sammlung von Hardware, Software und Büchern aus den 1980er und 1990er Jahren beherbergen.
Ohne zu zögern, buchte Sarah einen Flug nach Dallas. Während der Reise malte sie sich aus, was sie dort alles finden könnte. Alte Apple-Computer? Vergessene DOS-Programme? Vielleicht sogar einen funktionsfähigen Commodore 64?
Als sie endlich vor dem unscheinbaren Gebäude in einem Industriegebiet am Stadtrand von Dallas stand, klopfte ihr Herz vor Aufregung. Die verblichene Aufschrift "Computer Reset" über dem Eingang versprach ein Abenteuer in die Vergangenheit der Computertechnologie.
Mit zitternden Händen öffnete Sarah die schwere Metalltür. Der Geruch von altem Plastik, Staub und leicht oxidiertem Metall schlug ihr entgegen. Als sich ihre Augen an das schummrige Licht gewöhnten, stockte ihr der Atem. Vor ihr erstreckte sich ein riesiges, 18.000 Quadratfuß großes Lagerhaus, vollgestopft bis unter die Decke mit Computerteilen, Peripheriegeräten und Kartons.
Ungläubig wanderte ihr Blick über endlose Regalreihen. Hier stapelten sich Mainframe-Komponenten neben ausrangierten Röhrenmonitoren. Dort türmten sich Kisten mit Disketten und CD-ROMs. In einer Ecke entdeckte sie sogar noch original verpackte Kopien von Windows 95 und OS/2 Warp.
Die schiere Menge an Technik aus vergangenen Jahrzehnten war überwältigend. Sarah fühlte sich, als wäre sie in einer Zeitmaschine gelandet. Jedes Regal, jeder Karton versprach neue Entdeckungen. Sie sah alte IBM-Tastaturen, Apple II-Gehäuse, sogar einige Atari-Konsolen.
Besonders faszinierend fand sie die Bücherabteilung. Hier reihten sich vergilbte Handbücher zu längst vergessenen Betriebssystemen an dicke Wälzer über Programmiersprachen, die kaum noch jemand beherrschte. Sarah zog vorsichtig ein Exemplar von "Inside Macintosh" heraus und blätterte ehrfürchtig durch die Seiten.
Während sie tiefer in den Laden vordrang, wurde ihr klar, dass sie hier nicht nur alte Technik, sondern ein Stück Computergeschichte vor sich hatte. Jedes Gerät, jedes Buch erzählte von einer Zeit, als Computer noch neu und aufregend waren, als jede technische Innovation die Welt zu verändern schien.
Sarah wusste, dass sie Tage, wenn nicht Wochen bräuchte, um alles zu erkunden. Aber sie hatte Zeit. Mit einem Lächeln auf den Lippen machte sie sich daran, systematisch die Regale zu durchforsten. Wer weiß, welche Schätze hier noch auf ihre Entdeckung warteten?
Mit jedem Schritt durch die staubigen Gänge wuchs ihre Begeisterung. Der Computer Reset Store war mehr als nur ein Laden - er war ein Museum, ein Archiv und ein Spielplatz für Technikbegeisterte zugleich. Sarah war fest entschlossen, jeden Winkel zu erkunden und vielleicht das eine oder andere Stück Computergeschichte zu retten.
2. Die Schatzsuche
Mit wachsender Begeisterung begann Sarah ihre systematische Erkundung des Computer Reset Stores. Sie beschloss, methodisch vorzugehen und sich Bereich für Bereich vorzuarbeiten, um kein Highlight zu verpassen.
Zuerst wandte sie sich dem Hauptteileraum zu. Hier lagerten Tausende von Komponenten: Motherboards aus verschiedenen Epochen der PC-Geschichte, Grafikkarten von längst vergessenen Herstellern und Prozessoren, die einst das Herz leistungsfähiger Workstations waren. Sarah staunte über die Vielfalt und den guten Erhaltungszustand vieler Teile.
Besonders faszinierte sie ein Regal voller alter Soundkarten. Sie erkannte eine AdLib, die erste Soundkarte, die Musiksynthese in PCs brachte, und daneben mehrere Modelle der legendären Sound Blaster-Serie. Vorsichtig nahm sie eine Sound Blaster 16 in die Hand und erinnerte sich an die Stunden, die sie als Kind damit verbracht hatte, Spiele zum Laufen zu bringen.
Im nächsten Bereich fand Sarah sich inmitten von Softwareboxen wieder. Riesige Kartons mit Betriebssystemen wie OS/2 und NeXTSTEP standen neben schlanken Jewel Cases mit Spieleklassikern. Sie entdeckte sogar noch original versiegelte Kopien von Programmen wie WordPerfect und Lotus 1-2-3 – Namen, die heute kaum noch jemand kennt.
Während sie die Gänge entlang schlenderte, fiel ihr Blick auf einen speziellen Laptop-Bereich. Hier reihten sich Geräte verschiedenster Marken und Epochen aneinander: klobige Toshiba-Modelle aus den frühen 90ern, schlanke Sony VAIOs und robuste Dell Latitudes.
Plötzlich blieb Sarah wie angewurzelt stehen. Vor ihr lagen zwei schwarze ThinkPads, deren charakteristische rote TrackPoints wie kleine Leuchttürme aus dem Chaos hervorstachen. Mit zitternden Händen hob sie die Geräte an. Es waren ein 760XD und ein 600E – wahre Legenden aus den späten 90er Jahren.
Vorsichtig klappte sie die Displays auf und drückte die Einschaltknöpfe. Zu ihrer Überraschung erwachten beide Laptops mit dem unverkennbaren IBM-Startton zum Leben. Sarah konnte ihr Glück kaum fassen. Diese Schätze würde sie auf jeden Fall mitnehmen.
Ermutigt durch diesen Fund, setzte Sarah ihre Erkundung fort. Sie entdeckte einen Bereich mit alten Handheld-Computern und PDAs. Zwischen Palm Pilots und Newton MessagePads fand sie sogar einen gut erhaltenen Psion Series 5 – ein Gerät, von dem sie immer geträumt, aber nie besessen hatte.
In einer verstaubten Ecke stieß Sarah auf mehrere Kisten voller alter Computer-Zeitschriften. Sie zog eine Ausgabe der "BYTE" von 1985 heraus und blätterte ehrfürchtig durch die vergilbten Seiten. Die Anzeigen für längst vergessene Hardware und die Artikel über damals revolutionäre Technologien versetzten sie in eine andere Zeit.
Als sie weiter in die Tiefen des Ladens vordrang, entdeckte Sarah immer neue Schätze: einen original verpackten Amiga 500, mehrere Apple II-Modelle und sogar einen seltenen NeXT Cube. Jedes dieser Geräte erzählte eine Geschichte von Innovation, Konkurrenz und technologischem Fortschritt.
Die Stunden vergingen wie im Flug, während Sarah von Entdeckung zu Entdeckung eilte. Sie wusste, dass sie nur einen Bruchteil des Angebots gesehen hatte, aber die beiden ThinkPads in ihren Händen erinnerten sie daran, dass sie bereits echte Schätze gefunden hatte.
Mit einem Gefühl der Zufriedenheit, aber auch der Wehmut – denn sie wusste, dass sie unmöglich alles mitnehmen konnte – machte sich Sarah auf den Weg zur Kasse. Ihr Besuch im Computer Reset Store war mehr als nur eine Einkaufstour gewesen. Es war eine Reise durch die Geschichte des Personal Computings, eine Begegnung mit vergessenen Technologien und eine Erinnerung an die rasante Entwicklung der digitalen Welt.
January 23, 2025
A closer look into the end of moores law
In addition to the previous post, I've improved the table with the gflops performance of Lenovo Thinkpad models from the past. The moving average over an increase for 5 years was determined which shows that the processing speed is growing with 15% anually. This is much lower than the expected Moores law which assumes, that the performance is growing by 59% anually.
The slow growth of 15% is different from the much higher improvement during the 1980s and 1990s which was working with the expected 59% annual increase in processing speed. It seems that some sort of plateau was reached after the year 2010. From this year, the processing speed measured in gflops stays constant on a high level. Its unlikely, that the former Moores law with its exponential improvements will come back in the near future.
Moores law is dead, example for Lenovo Thinkpad
Since some years, there are rumors available that the Moores law isn't visible anymore. Sometimes it was argued, that the improvement rate in chip performance has slowed down. To investigate the situation with valid numbers lets us take a deeper look into the performance of different Thinkpad models. The main reason why this computer was selected is because its manufactored under the same name over many years which makes it easy to campare the performance.
The table shows different 14 Inch Thinkpad models from 2011 until 2024, including a common Intel i7 cpu from this year together with the proposed Gflops performance. its visible that the speed has improved, a thinkpad from 2023 is 6 times faster, than the counterpart from the year 2011. But, the improvement per year, is smaller than the expected improvement:
In reality, the gflops has improved by 19% each year, while the moores law expects an improvement of 59% for each year. What we see in the reality is no longer an exponential curve, but a slow increase over a longer horizon. It doesn't take 18 months until the performance has doubled but in reality it takes 7 years.
January 15, 2025
Artificial intelligence from 1990 to 2020
Until the year 1990 it was unclear how to realize AI and robotics, but 30 years later in 2020 AI was available. The period in between should be described because its equal to the existence vs. the absence of artificial intelligence.
The most advanced technology until 1990 was the classical computer workstation including its connection to the internet. The typical workstation was equipped with graphics cards, sound cards, moderate amount of RAM and a hard drive. From a software side a unix compatible operating system including multitasking GUI environment was a typical application. Such a unix workstation wasn't able to control robots and it wasn't equipped with AI, but it was an ordinary example of well engineered computer technology.
AI in the year 1990 was only available in movies and in science fiction books which are describing intelligent robots who are doing useful tasks, like driving cars, walking on two legs and do complex assembly tasks. In the reality these tasks wasn't out of reach for the engineers. Even most advanced books and papers written at Universities in 1990 doesn't contain algorithms, nor ideas how to realize robots in reality.
The single cause why engineers until 1990 have struggled with AI is because of missing problem definition. It was unclear what AI is about from a mathematical standpoint. Without such a definition it wasn't able to program it. A user oriented definition like "A robot has to walk on two legs" isn't enough to create a mathematical equation or to program an algorithm. Programming even very simple robots resulted every time into failed projects. That means simple wheeled robots in 1990 were not able to find the exit in a simple maze.
From 1990 until 2020 lots of effort was put into the AI and robotics issue. The most promising direction was to create a precise problem space first and with this problem space, different algorithms can be combined. There are two major approaches available:
1. Create a physical problem space, e.g. invent a robot competition like Micromouse and Robocup
2. Create a dataset problem space, e.g. a dataset with motion capture recordings, or a dataset with OCR problems
After a problem space was created for example a micromouse maze, its possible to benchmark a certain robot and a certain algorithm how well it performs in the puzzle. For example, a certain robot will need 30 seconds until it found the exist. Or a neural network will recognize in a ocr dataset 50% of the pictures correctly.
During the period 1990-2020 endless amount of datasets and robotics competitions were introduced, described and compared to each other in the academic literature. Especially the second attempt "create a dataset problem space" has become an important enebling technology in AI, because it allows to discuss AI from a mathematical standpoint. Instead of asking what is AI from a philosophical standpoint, the new question was, if a certain dataset makes sense, or what the score for a certain neural network is on a dataset. These hard scientific questions can be adressed with existing tools like back propagation algorithms, statistics and diagrams. A well defined problem space realized as a machine learning dataset was the major steps from former alchemy driven AI philosophy towards a scientific defined AI.
In the published literature from 1990 until 2020 it can be shown, that over the years more advanced datasets were created which were solved with more advanced neural network algorithms. Early datasets in the 1990 were short tables which were described only in the appendix of a paper, while in later years, the entire paper described the dataset in detail because it was the main subject.
Modern AI published after the year 2020 is mostly the result of improved problem formulation. After this date, endless amount of physical problem descriptions plus thousands of datasets with additional problem descriptions are available. These datasets are very realistic, they have to do with real challenges like grasping objects, biped walking, path planning in a maze and even natural language understanding. So we conclude, that the search for Artificial intelligence is equal to the search for a problem formulation. Only if a problem was formulated in a mathematical format, a computer can be used to solve it.