October 30, 2025

Softwareentwicklung in den 1980er Jahren

Treue Fans des Commodore 64 wundern sich, warum der begehrte 8bit Computer Ende der 1980er Jahre nicht mehr zeitgemäß sein sollte. Als Begründung werden meist Hardware limitierungen angeführt, dass also der C64 mit seinen 64kb RAM und seiner 1 Mhz CPU für aktuelle Programme nicht geeignet sei. Das stimmt jedoch nur teilweise.

Man kann sehr wohl für ein 8bit System aufwendige Spiele programmieren, die Schwierigkeit ist nur dass der Zeitaufwand dafür hoch ist. Um sich das Problem näher zu veranschaulichen macht es Sinn ein wenig die Details zu beleuchten wie in den 1980er Jahre Software für unterschiedliche Systeme entwickelt wurde. Spieleentwicklung für Konsolen wie NES und Megadrive erfolgte niemals auf dem Gerät an sich sondern wurde mittels Crossassembler auf einer Workstation durchgeführt. DAs hei0t die Programmierer haben auf einem Leistungsfähigen Computer die Grafik erstellt und das Assembler programm geschrieben und das dann für die Zielarchitektur in ausführbaren Code übersetzt.

Der C64 war anders als reine Spielekonsolen auch zum Programmieren geeignet, das heißt auf der selben Maschine konnte Assembler code erstellt werden und das fertige Programm ausgeführt werden. Allerdings gab es auch hier das Problem, dass zuerst jemand diesen Code schreiben muss. Um einfache Spiele wie Pong oder Tetris in Assembler zu programmieren benötigt ein HObbyprogrammierer mehrere Monate Zeit, wo er dann händisch den Code eintippt und ihn verbessert. Komplexere Spiele können nur mit einem größeren Entwicklungsteam erstellt werden, was 1 Jahr und länger an dem Projekt arbeitet.

Und genau dies war die eigentlische Schwäche des Commodore 64: das er als Spieleprogrammierplattform zu aufwendig war. Auf der PC plattform lassen sich sehr viel einfacher Spiele und Anwendungen erstellen. Seit MS DOS wird dort der GW Basic Interpreter mitgeliefert womit auch Anfänger Spiele schreiben können. Professionelle Projekte können in der Sprache C realisiert werden, die unter MS DOS Computern seit den 1980er weit verbreitet war. Der Grund ist, dass dank der eingebauten Festplatte ein C Compiler nativ auf einem PC ausgeführt werden kann und die zahlreiche Bibliotheken auf der Festplatte bereitstehen. Mit hilfe von C und GW Basic können einfache Spiele in rund 1 Woche erstellt werden und komplexere Projekte in wenigen Monaten von einer Einzelperson umgesetzt werden.

Diese hohe Entwicklungsgeschwindigkeit unter MS DOS war der Hauptgrund warum diese Plattform ab Ende der 1980er alle anderen Systeme inkl. C64 und Atari ST verdrängt hat. Gewonnen hat den Kampf der Systeme am Ende die Plattform, wofür es die meiste Software gab und das war zweifelsfrei MS DOS.

Doch zurück zum Commodore 64 als Heimcomputer. Es mag wie eine Binsenweisheit klingen, aber ohne Programme ist die Hardware nutzlos. Schaltet man den Computer ein sieht man lediglich einen blinkenden Cursor auf dem Bildschirm. Mittels LOAD Befehl kann man theoretisch Spiele und Anwenderprogramme laden. Nur diese müssen zuvor erstmal verfügbar sein. Ein kundiger Programmierer muss in der Sprache Assembler ein Spiel zunächst erstellt haben, befor es der Endbenutzer laden und ausführen kann und genau hier liegt der Engpass. Wer soll all die Spieleideen die technisch machbar sind, auf einen C64 portieren? Rein technisch wäre es denkbar hunderte von point&click adventure, unzählige Puzzle- Sportspiele und Arcade games auf den C64 zu portieren. Nur diese Entwicklungszeit muss zuvor jemand erbringen. Findet sich niemand der über die nötigen Assemblerkenntnisse verfügt und bereit ist ein bestimmtes Spiel auf dem C64 zu implementieren bleibt das Projekt unbearbeitet. Mit jeder nicht erstellten Software nimmt der Wert einer Plattform für den Endanwender ab. Käufer eines Computersytsems mögen es nicht so gerne, wenn es für die Hardware keine neuen Programme gibt.

Vergleichen wir die Situation beim IBM PC. Dort gibt es viele Basic Compiler und ganz wichtig es gibt leistungsfähige C Compiler. Damit ist es möglich, jedes denkbare Spiel auf die MS Dos Plattform zu portieren. Selbst wenn die Grafikfähigkeiten eines PC aus den 1980 gering waren kann man zumindest in kurzer Zeit ein Softwareprojekt umsetzen. Man nimmt einfach vorhandenen C Quellcoode und kompiliert ihn für MS DOS oder programmiert den source code nochmal neu. In beiden Fällen erhält man in übershaubarer Zeit ein fertiges Stück Software was überall ausführbar ist wo MS DOS Installiert ist.

October 25, 2025

Instruction following in a maze game

 

In a mini maze game, a non player character formulates orders which have to be fulfilled by the human player. The game engine monitors the progress, if the player has reached the goal, the next order is shown on the screen. Its an example for an instruction following prototype in the context of the symbol grounding problem. A natural language command has to be converted into meaningful actions.

October 21, 2025

Rückblick auf die World Robot Conference 2025 in China

Vom 8. Aug  bis 12. Aug 2025 wurde die World Robot Conference 2025 in China Beijing durchgeführt. Wie auch die Veranstaltung im Jahr 2024, welche ebenfalls in China durchgeführt wurde, kamen sehr viele Besucher zum weltweit größten Robotik-Event. Der Veranstalter spricht von 1.3 Millionen Besuchern die sich über 5 Tage lang die neueste Technologie angeschaut haben. Ausgehend aus den publizierten Youtube Videos, die allesamt sehr viele Menschen zeigen, könnte diese Zahl halbwegs realistisch sein.

Der Unterschied zwischen der chinesischen Robotik Veranstaltung und ähnlichen Veranstaltungen aus den USA liegt vor allem in der Quantität. Finden sich bei der Robocup Verstaltung nur eine Handvoll von Robotern, sind die Hallen in Beijing vollgestopft mit hunderten wenn nicht sogar tausenden von Robotern aus allen möglichen Bereichen. So gibt es Industrieroboter, die Gegenstände von einem Fließband aufnehmen, es gibt Roboterhunde auf 4 Beinen, humanoide Roboter auf 2 Beinen, es gibt Roboter die Popcorn servieren, andere die Eiscreme oder Kaffee zubereiten und Roboterarme die Bilder zeichnen. Es gibt Roboter die boxen und welche, die Produkte aus einem Regal herausnehmen. Was es jedoch nicht zu sehen gibt (jedenfalls nicht in den youtube videos) sind UAVs, also fliegende Roboter die in der Halle herumflattern.

Der Publikumsmagnet waren eindeutig zweibeinige balancierende Roboter. Insgeheim wartet das Publikum wohl darauf, dass einer der metallischen Laufmaschinen das Gleichgewicht verliert und dann jemand aus dem Backstage Bereich hervoreilt, um die Vorführung zu unterbrechen. Tatsächlich kam es zu seltenen Vorfällen dieser Art, aber anders als beim berühmten Treppensturz von Asimo in 2006 verfügen heutige Roboter über eingebaute Fehlerroutinen. Wenn ein Roboter umfällt wird dies durch die Elektronik erkannt und es wird eine Aufsteh-Routine gestartet. Gesteuert werden die meisten dieser fortschrittlichen Roboter übrigens mittels Fernbedienung die Ähnlichkeit hat mit einem Gamepad einer Playstation Konsole.

Zum Schluss ein Vergleich mit anderen bekannten Roboterveranstaltungen:

- Robocup Veranstaltung wird von ca. 100k Besuchern frequentiert
- die IROS Robotik Konferenz hat 10k Besucher
- Automatica München hat 49k Besucher

October 17, 2025

Selbstfahrendes Auto gesteuert mit Sprache

Setting: Innenraum eines hochmodernen Prototyps für autonomes Fahren. Die Sitze sind futuristisch, aber bequem. Draußen, auf einer mehrspurigen Stadtstraße, herrscht dichter, stockender Verkehr.

Personen:
* A: Dr. Elias Vogel, der leitende KI-Techniker (ungefähr 40).
* B: Max Huber, ein neugieriger Besucher und Journalist (ungefähr 30).

(Das Auto, Modell "Orion-Prototyp 7", steht seit einigen Minuten still. Der Motor ist lautlos. Auf dem großen Display flimmern Echtzeit-Daten und eine detaillierte Karte.)

B (Max): Tja, Herr Dr. Vogel. Selbst die modernste Technologie kapituliert vor einem Berliner Freitagnachmittag. Ich dachte, Ihr Orion-System hätte eine geheime Abkürzung für solche Fälle.

A (Dr. Vogel): (Lächelt) Wünschenswert, Herr Huber. Aber selbst wir sind an die Gesetze der Physik und der Straßenverkehrsordnung gebunden. Wir stehen hier nicht aufgrund eines Fehlers, sondern weil die Logik des Verkehrs es so will. Sehen Sie auf dem Display: Der Stau löst sich erst in etwa zwanzig Minuten auf. Eine perfekte Gelegenheit, um Ihnen das Herzstück des Systems zu erklären.

B: Ausgezeichnet. Denn genau das beschäftigt mich seit der Abfahrt vom Parkplatz: Dieses Auto fährt nicht nur, es denkt in Sprache, wie Sie sagten. Sie nennen es das "Language-to-Action"-Netz. Wie genau muss ich mir das vorstellen? Übersetzt das Auto alles, was es sieht, in einen internen Monolog?

A: Im Prinzip ja, aber es ist präziser als ein einfacher Monolog. Wir haben das System auf Basis eines Large Language Model (LLM) entwickelt, das fundamental für autonomes Fahren optimiert wurde. Der menschliche Verstand verarbeitet visuelle und sensorische Informationen, indem er sie in Konzepte und Beschreibungen umwandelt: „Die rote Ampel ist an, der Fußgänger läuft auf die Straße, der Wagen links bremst.“ Das ist das Konzept der Kontextualisierung durch Sprache.

Unser System, wir nennen es intern "Codex", tut dasselbe. Die Sensordaten z.B. Lidar, Radar, Kameras, werden nicht direkt in Steuerbefehle umgesetzt. Stattdessen übersetzt Codex die aktuelle Verkehrssituation, die Umgebung und die Vorhersage in eine präzise, strukturierte interne Sprache. Erst aus diesem Sprachmodell leitet das Netzwerk die nächsten Fahrbefehle ab.

B: Das ist faszinierend. Es ist also ein LLM, das auf die Domäne Autofahren zugeschnitten ist. Das führt mich sofort zu meiner ersten Frage: Wie groß ist der Wortschatz, den Codex wirklich versteht? Ein normales großes Sprachmodell kennt Millionen von Wörtern, aber das braucht Ihr Auto doch gar nicht.

A: Das ist der entscheidende Punkt. Wir haben den Wortschatz extrem reduziert und spezialisiert. Codex versteht nicht "Philosophie" oder "Quantenmechanik". Der aktive Vokabularbereich, mit dem es arbeitet, liegt bei etwa 25000 bis 30000 Begriffen.

B: Nur so wenig? Das ist überraschend.

A: Es sind hochspezifische Begriffe, Herr Huber. Sie stammen aus drei primären Domänen:

1.  Fahrzeugdynamik und Manöver: Wörter wie „Spurwechsel vorbereiten“, „sanfte Bremsung“, „Beschleunigung“, „Übersteuern korrigiert“.
2.  Verkehrsumgebung und Objekte: Das sind die Nomen „Fußgänger“, „Fahrradfahrer“, „Lichtsignal“, „Baustelle“, „Straßenschaden Typ A“. Diese sind mit extrem präzisen geometrischen und prädiktiven Attributen verknüpft.
3.  Gesetzgebung und Entscheidungsfindung (High-Level): Hier sprechen wir über die Regeln: „§ 1 StVO konform“, „Priorität rechts vor links“, „Notfall-Halt eingeleitet“.

Jedes Wort ist im Grunde ein Symbol für eine komplexe Datenstruktur, die Ort, Geschwindigkeit, Wahrscheinlichkeit und Sicherheitsmarge beinhaltet. Es ist ein hochkomprimiertes, optimiertes Verkehrs-Idiom.

B: Und wie sieht es mit der Spracherkennung aus? Ist Codex rein auf Englisch trainiert, wie die meisten großen KI-Systeme, oder kann es auch auf Deutsch reagieren? Wir sind ja gerade in Deutschland.

A: Unser Prototyp hier ist von Grund auf multilingual konzipiert, was unsere Trainingsdaten betrifft. Der Kern des Codex-Modells operiert zwar intern in einer Art neutraler, logischer Repräsentationssprache, die wir für die Recheneffizienz entwickelt haben. Aber es wurde auf Datensätzen in Englisch und Deutsch trainiert.

B: Warum diese zwei?

A: Englisch als globaler Standard, und Deutsch wegen der Spezifität unserer Straßenverkehrsordnung und unserer primären Testregion. Das bedeutet, wenn ein Straßen- oder Baustellenschild das Wort "Umleitung" enthält, wird es direkt als das Konzept erkannt, das im deutschen Kontext gilt. Ein rein englisch trainiertes Modell müsste es erst übersetzen und dann die deutsche Regel anwenden, was eine kritische Verzögerung darstellen könnte. Codex verarbeitet die visuelle Information und labelt sie direkt in der richtigen Sprache für die Aktionsentscheidung.

B: Das ist ein sehr durchdachter Ansatz zur Fehlervermeidung. Das bringt mich zur Königsfrage: Mit welchem Datensatz haben Sie dieses spezialisierte LLM trainiert? Es muss ja gigantisch sein, aber gleichzeitig so fokussiert.

A: Es ist gigantisch, ja, aber mit einem Unterschied zu herkömmlichen LLMs. Wir haben uns auf zwei Hauptkomponenten konzentriert:

1.  Visuelle/Sensorische Annotationen (~90% des Datensatzes): Wir verwenden Milliarden von Kilometern an simulierten Fahrten und Millionen von Kilometern an realen Fahrten, die wir selbst erfasst haben. Der Schlüssel ist die sprachliche Annotation. Jede kritische Situation – eine fast-Kollision, ein schwieriger Spurwechsel, eine überraschende Bremsung – wurde nicht nur mit visuellen Bounding Boxen annotiert, sondern auch mit einer detaillierten Ground-Truth-Sprachbeschreibung. Zum Beispiel: "Der rote SUV (ID 47) hat den toten Winkel verlassen und beschleunigt. Reduziere die Geschwindigkeit um 5 km/h, um einen sicheren Abstand wiederherzustellen.“ Das ist die Sprache, die das Netzwerk lernen muss.
2.  Regelwerk und Logik (~10% des Datensatzes): Dies ist ein handkuratierter Datensatz, der alle relevanten Gesetzesparagraphen der StVO, der EU-Vorschriften und komplexer Fahrmanöver in eine formalisierte logische Sprache übersetzt. Das ist die grammatikalische und juristische Grundlage, die dafür sorgt, dass Codex nicht nur fährt, sondern verantwortungsvoll handelt.

B: Also lernt das Auto nicht nur zu fahren, es lernt auch, warum es fährt. Und es lernt, seine eigenen Entscheidungen intern mit Sprache zu begründen.

A: Exakt. Das bietet uns einen unschätzbaren Vorteil: Interpretierbarkeit und Debugging. Wenn das Auto später eine Fehlentscheidung trifft, können wir seinen internen Monolog – die Kette der Sprachbefehle und logischen Schlussfolgerungen – exakt zurückverfolgen. Wir lesen nicht nur „Aktion: Gebremst“, sondern „Grund: Fußgänger (ID 3) hat die Fahrbahn betreten (Wahrscheinlichkeit 99%), Notbremsung (Threshold 8 von 10) eingeleitet.“ Das ist für die Zertifizierung und die Fehlersuche revolutionär.

(Der Verkehr vor ihnen beginnt sich langsam zu bewegen.)

B: Herr Dr. Vogel, das ist wirklich erstaunlich. Ihr Ansatz, die rohen Sensordaten erst in ein hochspezialisiertes Sprachmodell zu übersetzen und daraus die Aktion abzuleiten, scheint mir ein echter Paradigmenwechsel im autonomen Fahren zu sein. Vielen Dank für diese tiefen Einblicke während unserer Pause.

A: Gern geschehen, Herr Huber. Und sehen Sie, die menschliche Logik hatte Recht: Die zwanzig Minuten sind um. Codex hat soeben den Befehl „Fahre mit reduzierter Geschwindigkeit dem Fluss des Verkehrs folgend an“ generiert. Wir sind wieder unterwegs.

(Das Auto gleitet sanft an.)

October 13, 2025

A videogame for instruction following

The screenshot shows the initial situation in a warehouse simulation with a robot in the middle. The robot has to follow orders shown on the bottom of the screen. The human player can move the robot with the arrow keys. To fulfill the first task the robot navigates to the blue room


... pickup the box and brings it to room D.

Then a new order is shown on the screen. For each successful executed task the robot gets a score.

There are different order categories available, sometimes the robot has to transport a box and sometimes he simply has to navigate to a room.

The overall idea is that the game eingine decides with a random generator the next task, shows the order in natural language on the screen and the human operator has to execute it. So the warehouse simulator is a text to action videogame.

From a technical perspective it was realized in 350 lines of code in Python with the pygame library. There is a class for the robot navigation, another class for the task manager and some drawing routines for the game.






October 10, 2025

Die Programmiersprache C als Feind der Heimcomputer

 Das plötzliche Verschwinden der 8bit wie 16bit Heimcomputer Anfang der 1990er Jahre wird häufig mit dem Aufkommen des IBM kompatiblen PC erklärt und dem Unvermögen von Commodore und Atari mit der technischen Innovation Schritt zu halten. Doch der eigentliche Grund für das Ende von C64, Amiga und Atari ST ist in der C Programmiersprache zu sehen.

Softwareentwicklung auf den 8bit und 16bit Heimcomputern erfolgte entweder in Assembler was eine Profi-Programmiersprache war oder in BASIC womit Anfänger gut zurecht kamen. Beide Sprachen haben massive Nachteile. Obwohl sich in Assembler hocheffiziente Routinen schreiben lassen, geht die Softwareentwicklung sehr langsam vonstatten. Will man ein Spiel auf den C64 portieren und dies in Assembler tun, braucht man dafür ein größeres Entwicklungsteam was über Monate hinweg den Code optimiert. Das funktioniert nur, wenn es eine große Nachfrage gibt was Anfang der 1990er Jahr nicht der FAll war. Wenn man hingegen Spiele oder Anwenderprogramme in BASIC entwickelt, kann man die Hardware nicht ausnutzen und das heißt die Qualität ist gering.

Für den IBM kompatiblen PC hieß die Antwort ab Mitte der 1980er Jahre eine besondere Programmiersprache zu verwenden welche die Vorteile von Assembler und Basic miteinander verbindet, die Sprache C. Damit lassen sich in vergleichweise kurzer Zeit umfangreiche Softwareprojekte entwickeln die hocheffizient die Hardware ausnutzen. Sowohl zu MS DOS ZEiten als auch unter Windows in den 1990er war C die beliebteste Programmiersprache um professionelle Software zu entwickeln. Hingegen spielte die Assembler Sprache bei IBM PCs nur eine unbedeutende Rolle.

Bei 8bit und 16bit Heimcomputern war es genau umgekehrt. Die wichtigste Sprache dort war Aseembler. Selbst auf Amiga 500 Geräten für die es C Compiler gab, wurden viele Spiele in low level Assembler realisiert. Ein möglicher Grund dürfte sein, dass ein C Entwicklungssysteme höhere Hardwareanforderungen mitbringt insbesondere das Vorhandensein einer Festplatte für die zahlreichen Betriebssystem-Bibliotheken. Auf einem PC standen sowohl C compiler als auch FEstplattenspeicher zur Verfügung, dort wurde C von Anbeginn als Hauptentwicklungssprache eingesetzt was dazu führte dass in kurzer Zeit 100k und mehr Softwarepakete entstanden.

Der Grund warum ab Mitte der 1990er die Zahl der Neuerscheinungen für 8bit und 16bit System drastisch zuurückging war, dass es aufwendig ist für diese Hardwareplattform Software zu schreiben. Wenn jedoch Programmierer keine neue Software erstellen für eine Hardwareplattform ist das das Ende dieses Computertypes. Ohne neue Software schwindet dessen Attraktivität für den Endbenutzer und er wechselt auf ein System wo es endlos viele Neuerscheinungen gibt. Je mehr neue Spiele und Anwenderprogramme erscheinen desto attraktiver ist ein Computer für den Endbenutzer.


October 07, 2025

Technology adoption rate

Existing attempts to describe the history of technology were dominated by story telling and by analyzing the context of innovation. A certain person has invented a new machine at a certain year and this new technology has influenced the society. For example the steam engine has started the industrial revolution while the computer has powered the digital age.

What was missing is a mathematical equation to predict how big the influence of a certain technology is and how long it takes until an innovation will become available in the mainstream. One possible attempt for a mathematical description of new technology is the "technology adoption rate" which should be explained next.

The adaption rate measures how many people using a technology at which year. A good example are the number of internet users [1]:

1993, 14 Mio
1994, 23 Mio 
1995, 45 Mio
1996, 78 Mio
1997, 121 
1998, 189
1999, 282
2000, 415
2001, 502
2002, 665
2003, 781

This table shows, that the in the 1990s only small percentage of the overall population had access to the World wide web and it took some years until around 2003 to reach a larger audience. In other words, that internet wasn't a success from day 1 but it took around 10 years until the mainstream audience was interested in this technology.

The technology adoption rate measures this timespan, in case of the internet, the timespan was roughly 10 years, compared to the adoption rate of the steam engine this was very fast because the steam engine took around 100 years until a larger amount of people had access to the technology.

The advantage of the adoption rate is, that it allows to compare different technology on a mathematical scale. Instead of describing in text what a steam engine is or what the impact of the color television was, its enough to compare only the years until a new innovation has attracted the masses. The general trend is, that the adoption rate has become faster. After the invention of the Internet the next powerful technology was the introduction of the smartphone. Similar to the internet this technology has reached hundred of millions of users. The difference is, that the adoption rate for the smartphone was only 7 years compared to 10 years for the internet.

In case of the chatgpt website, the adoption was even faster than for the smartphone. The adaption rate for chatgpt was only 4 years. A possible explanation why newer technology is available faster has to do with the requirements before new technology can be deployed. Before it was possible to connect every household to the electrical grid, there was a need to build the entire grid. Hundreds of kilometers with cables were needed all over the world to connect every city and every village. Building such an infrastructure is expensive and takes many decades. The result was that the adoption rate for electricity was around 50 years.

In case of chatgpt the precondition was more comfortable. Thanks to the computer boom, the internet boom and the smartphone boom, all the households were already equipped with modern computer technology including access to electricity and the internet backbone. The only new innovation was the activation of a single website which gives all the world access to artificial intelligence. There was no need to deploy new cable or buy another hardware, but existing devices are powerful enough to render a large language model frontend in the browser.

From a mathematical standpoint an intelligence explosion is the observation that the technology adoption rate has been reduced. A faster adoption rate means, that a product or service is available in a shorter timeframe which maximizes the impact for the society. In stead of question in which year a certain AI product is available for beta testers and engineers the question is, how long does it take until the product is available for the masses.

Compared to the adoption rate of AI and the internet, the adoption rate for the Computer was much longer. The estimation is that it took 20 years upto 25 years until the computer was available for 50% of the population. Technically the first home computer, the Apple II, was introduced in 1977. But this doesn't mean, that in 1977 all the households in the U.S. were equipped with such technology. Even in the late 1980s most households had no access to a computer. It took until the mid 1990s, before a larger population was using a computer in their home. There are multiple reasons available why the timespan was so long. Technically the microchip was available in 1977 and technically all the households in the U.S. had access to electricity. The problem was that in the beginning homecomputer were very expensive and they were complicated to use. During the 1980s computers were only a niche products for computer nerds and for scientists but not for the mainstream population.

With the advent of the graphical user system, namely Windows 3.0 the situation changed drastically. The amount of annual sold PC skyrocketed in the 1990s which is equal to a high adoption rate. IN the mid 1990s, computer technology was available in most households and was used routinely for entertainment, work and education.

The advantage of slow adoption rate of 20 years upto 25 years is, that the population can adapt to new technology over a longer timespan. Even if the computer was perceived as revolutionary technology it was not able to change the society drastically. Most part of the life were working great without Apple or IBM computers, and the dominant technology in private homes were the color television, the printed book and the radio.

In contrast the situation for chatgpt is the opposite. The adoption rate of AI Technology is faster which means, it affects more people in a shorter timespan. This indicates that the population gives chatgpt a high priority. Lots of efforts in spend hours and spend money are redirected to artificial Intelligence. The faster adoption rate for AI proofs that the singularity theory is valid. That means, there is an intelligence explosion and that new technology is introduced faster than in the past. Perhaps it makes sense to explain the term "intelligence explosion".

In contrast to common assumption, intelligence explosion has nothing to do with an AI Supercomputer which becomes more intelligent, but the term is referencing to technology in general. Its about technology like the printed book, the internet, chatbots or robots which are introduced to the world with a high adoption rate. Intelligence explosion means, that these technology is available for everyone and that every year, new technology is added. There is not a single generative AI available but dozens of them like: midjourney, chatgpt, gemini, dall-e, copilot, deepseek. So the term intelligence explosion means simply that the collection of all the ai technology grows quickly.

Even if chatgpr has become a great success, there was some limiting factors available in the early beginning. In the first month before the website was seen as a breakthrough technology, many users in the world didn't even know that chatgpt exists. In the first months it was sees as website for computer science students in the english speaking world. In addition the chatgpt server was not able to fulfill all requests. It took some months until the problems were solved and the brandname was popular in the mainstream population.

[1] Internet users worldwide, https://www.internetlivestats.com/internet-users/

October 05, 2025

Impact of AI towards society

 Instead of predicting future development, the following essay describes only the past which is well documented. Most attempts in the past to build robots and develop artificial Intelligence has failed. A famous large scale project was realized by Cycorp in the mid 1980s [1]. The impact for the society was nearly zero. No valuable product was generated by Cyc. Another larger project was company "Helpmate robotics" from the mid 1990s. The goal was to build hospital robots which deliver food. Even some of these robots were used in reality, the company went bankrupt and the customers were not satisfied.

Last but not least, the "Rethink Robotics" company should be mentioned which was founded in 2008. The most famous product of the company was Baxter which was an industrial robot with a smiling face. The amount of sold units were low and the company went bankrupt after a while.

So we can say, that the attempts to build robots in the mid 1980s until 2010s were not very successful. Not a single human workers were replaced by these AI systems and the amount of sales was very low. There are many reasons available for this failure, for example the immature technology, a public how doesn't understand robotics, and management failures by the founders of the AI companies. 

[1] Cycorp https://yuxi.ml/cyc/