... was remarkable less developed. The most advanced approach available during this time period was model predictive control with the RRT algorithm. This allows a robot to follow a fixed trajectory. For example if the robot is 10 centimeter away from the floor's trajecoty, the MPC planner ensures that the robot gets back on the track. No additional features are available, but moving on a fixed trajectory for example in a warehouse was everything which can be realized with an RRT based motion planning algorithm.
In addition, it should be mentioned that the combination of rapidly exploring random tree and model predictive control was a highly advanced technique before the year 2000. RRT is more efficient than other solvers like A*, and model predictive control is based on a physical model of the robot including its movement abilities. This allows to control a wheeled robot and a UAV both.
From today's perspective its surprising, that the described mathematical optimization algorithm requies on the one hand advanced knowledge in computer science including artificial intelligence on a university phd level and at the same time, the resulting robot is a simple line following robot which can't be scaled up to more advanced problems. This my explain why AI before 2000 was seen as difficult to realize and most of the projects have failed. That means, even advanced mathematicans with 20 years of practical experiences in optimization problems were only able to program a line following robot which was able to move along a fixed line on the ground. From this dispointing reality it seems rational to assume that AI can't be realized at all.
Robotics and Artificial Intelligence
May 09, 2026
Robotics technology before the year 2000
May 07, 2026
AI after the year 2010
There was a paradigm shift available how AI researchers have discussed about the shared goal of building intelligent robots. Until the year 2010 the untold assumption was to program a closed system. The robot was seen as a machinery which consists of software, hardware and algorithm and the goal was to optimize this machinery. For example to create more advanced grippers or improve a path planning algorithm. It was assumed that this was the only way to think about robotics, because the goal was to build autonomous self sufficient systems which was seen as equal to artificial intelligence.
After the year 2010 there was a different approach available which has started with bottom up robotics invented by Rodney Brooks and has evolved into modern Vision language action models, see the right figure. The idea is to use teleoperation between a robot and an external instance which can be a computer program, a human or a large language model. Such kind of distributed AI generates a new problem. Instead of discussing how a robot is working internally, for example with an algorithm, the new question is how to design the ocmmunication between the robot and the external instance.
This simple modification has created a very different bias in Artificial intelligence. Former autonomous and closed systems are rejected in favor of a natural language communication preference. An early example for open systems in robotics was the Shrdlu project, later more complex attempts were the Poeticon++ dataset and the Rocco Robocup commentator. These early attempts were not using advanced LLMs but they have anticipated a speaker to hearer communication pipeline.
Classical AI until the year 2010 was limited by the np hard challenge. A certain motion planning algorithm needs a large amount of CPU resources. Planning the steps for a complex robot task e.g. biped walking and grasping objects was beyond the capabilities of computer hardware. Even with highly optimized programming language and advanced model predictive control algorithms, this np hard bottleneck can't be solved.
In recent AI after the year 2010 the np hard problem can be ignored because there is no need for motion planning algorithms anymore. The robot gets its instruction from an external instance. And this external instance can generate a trajectory much easier than the robot itself. What is available instead is the problem how to program a text parser. If the external instance gives the command "move to left corner in the maze" this command needs to be translated into action by the robot. For doing so, a dedicated parser is needed which can be implemented as context free grammar, as large language model or a handcoded computer program. This parser is the new limitation in robotics.
May 03, 2026
Playing a videogame with a textbox
For arduino microcontrollers there is a standard display available with 20x4 characters. Such a small text display is a great choice for demonstrating grounded language in action. In an example jump'n'run sidesrolling game, the following text boxes were generated by the event detection engine:
Example 1
-----------
PLAYER ON GROUND
JUMP READY
COIN +1 TOTAL 5
ENEMY NEAR -COVER
Example 2
-----------
DASH COOLDOWN 1.2s
PLATFORM AHEAD 3m
SPIKE! STEP BACK
HEALTH 4/5 POWERUP
Example 3
-----------
FELL -1LIFE
RESPAWN AT CHECKPT
TIME 02:14
KEY ACQUIRED DOOR
Example 4
-----------
SPEED BOOST ACTIVE
ENEMY HIT x2
COMBO 3X +50PTS
SECRET PATH DETECTʼD
From a technical perspective such a textbox is highly efficient. The text occupies very few amount of RAM and because the repeating pattern it can be compressed further.
Even if the description is formulated on a high abstraction layer, its possible to use these information to play the game with an Artificial intelligence. All what is needed are a list of rules for determining what to do in each situation. These rules are not applied to the graphical videogame at 800x600 Pixel resolution but the rules are applied to the text box.
May 01, 2026
Das Risiko von E-Mails liegt bei 99.9% ...
Die Charaktere:
Bernd: Sieht in jedem Datenpaket eine potenzielle Cyber-Apokalypse. Sein Aluhut ist zwar unsichtbar, aber spürbar.
Lisa: Möchte eigentlich nur ihren Job erledigen und die Urlaubsliste abstimmen.
Lisa: (tippt genervt) „Bernd, hast du meine Mail von vorhin bekommen? Ich brauche nur kurz dein Kürzel für den Urlaubsplan.“
Bernd: (schiebt seinen Stuhl ruckartig vom Schreibtisch weg, als hätte der Monitor gebissen) „Deine E-Mail, Lisa? Du meinst diese digitale Postkarte, die du unverschlüsselt durch das offene Internet gejagt hast?“
Lisa: „Äh, ja. Die E-Mail. Mit der Tabelle im Anhang.“
Bernd: (lacht trocken) „Anhang. Du sagst das so leichtfertig. Weißt du eigentlich, was in einem .xlsx-Container alles schlummern kann? Das ist ein Trojanisches Pferd! Ein Klick, und im Hintergrund wird eine verschlüsselte Verbindung zu einem Botnet in Wladiwostok aufgebaut. Ich habe den Anhang natürlich nicht angefasst. Der liegt jetzt in der Quarantäne meines geistigen Papierkorbs.“
Lisa: „Bernd, es ist eine Excel-Liste. Ohne Makros. Ich hab sie vor fünf Minuten erstellt.“
Bernd: „Du hast sie erstellt. Oder zumindest glaubst du das. Aber wer sagt mir denn, dass dein Rechner nicht schon längst Teil einer Man-in-the-Middle-Attacke ist? Jemand könnte deine Identität übernommen haben. Der Absender sagt ‚Lisa‘, aber die Metadaten schreien ‚Cyber-Terrorismus‘. Ich kann die Integrität dieses Dokuments nicht verifizieren!“
Lisa: „Ich stehe zwei Meter von dir entfernt, Bernd. Ich habe sie abgeschickt. Jetzt gerade.“
Bernd: (senkt die Stimme und blickt sich misstrauisch um) „Das ist genau das, was ein raffinierter Algorithmus auch sagen würde. Und was ist mit TLS? Unsere Transportverschlüsselung ist doch nur ein Placebo für die Massen. Ein besserer Schülerspion fängt das Signal am Knotenpunkt ab und liest mit, wann wir in die Sommerferien gehen. Willst du wirklich, dass fremde Mächte wissen, dass wir in der ersten Augustwoche unterbesetzt sind? Das ist ein Sicherheitsrisiko für die gesamte kritische Infrastruktur dieser Abteilung!“
Lisa: (seufzt tief) „Was schlägst du also vor? Soll ich dir den Urlaubsplan vortanzen?“
Bernd: (öffnet feierlich seine Schreibtischschublade und holt ein Blatt Papier heraus) „Hier. Ein Formular. Mit Durchschlag. Du füllst es mit einem dokumentenechten Kugelschreiber aus, unterschreibst es physisch, und ich bringe es persönlich zum Faxgerät. Das Fax pfeift, die Leitung steht, und ich bekomme ein Sendeprotokoll – schwarz auf weiß. Ein analoger Handshake, Lisa. Unhackbar. Unmanipulierbar. Rein.“
Lisa: „Bernd… das Faxgerät ist seit drei Monaten kaputt. Es ist jetzt ein Pflanzkübel für die Monstera im Flur.“
Bernd: (starrt die Pflanze im Flur lange an) „…Verstehe. Ein gezielter Sabotageakt. Die Schlinge zieht sich zu.“
Lisa: „Ich leg dir den Zettel einfach auf den Tisch, okay?“
Bernd: „Nur wenn du ihn vorher mit UV-Licht auf versteckte Wasserzeichen prüfst! Man kann nie wissen...“
April 30, 2026
Detailanalyse der Typst Software
Typst ist ein relativ junges Projekt was in Rust programmiert wurde. Ähnlich wie andere Rust Projekte wie der email server stalwart oder die ripgrep software ist das Versprechen deutlich effizienter vorzugehen als frühere Linux tools. Typst versteht sich als Alternative zu LaTeX was ein sehr ambitioniertes Ziel ist bei dem schon viele frühere Versuche wie lout und Sile gescheitert sind.
Vom Funktionsumfang her ist typst ein ausgereiftes Projekt mit dem sich sowohl wissenschaftliche Texte mit mehreren hundert Seiten als auch datanbank-Reportings erzeugen lassen. Die Kernfunktion besteht darin ein .typst dokument in ein PDF Dokument umzuwandeln. Typst funktioniert ähnlich wie ein CSS stylesheet ist allerdings für das PDF Format optimiert worden.
Standardelemente wie fließtext, Überschriften, Fußnoten, Tabellen und Bilder lassen sich problemlos erstellen. Es gibt jedoch noch einige Schwächen:
- anders als bei LaTeX ist im zweispaltensatz der untere Rand nicht bündig
- anders als bei LaTeX sieht der Blocksatz leicht schlechter aus
- die zahl der Tutorials und publizierten Bücher zu typst ist gering
Wenn man mit diesen SChwächen leben kann und sich von der Uralt LaTeX software verabschiedne möchte ist Typst eine gute Empfehlung. Nach etwas Eingewöhnung stellt man fest, dass eigentlich alles einfacher geht. Der große Vorteil besteht darin dass man anders als bei LaTeX nicht 5 GB auf der Festplatte benötigt sondern nur eine einzige 50 MB große Binardatei die problemlos in allen Betriebssystemen ausgeführt wird.
April 28, 2026
Gespräch über die Geschichte des Faxgerätes
Ort: Ein staubiges, aber gemütliches Archiv voller grauer Plastikgehäuse und alter Bedienungsanleitungen.
Personen: Lukas, ein Technikjournalist mit Hang zur Nostalgie, und Dr. Arndt, ein Technikhistoriker mit Spezialisierung auf Bürokommunikation.
Lukas: Dr. Arndt, wenn ich heute jungen Volontären erzähle, dass wir früher wichtige Dokumente durch eine Glasplatte eingelesen haben, damit sie am anderen Ende der Republik auf einer Rolle Thermopapier wieder herauskommen, schauen die mich an, als käme ich aus dem Pleistozän. Warum war das Fax in Deutschland zwischen 1990 und 2010 so unantastbar?
Dr. Arndt: (lacht) Weil es die perfekte deutsche Lösung war: rechtssicher, haptisch und wunderbar bürokratisch. 1990 standen wir am Gipfel der Standalone-Geräte. Erinnern Sie sich an die klobigen Kisten von Siemens oder Canon? Das waren dedizierte Maschinen. Sie taten nichts anderes, als Telefonleitungen mit Pieptönen zu quälen. Dass sie so lange überlebten – bis weit in die 2000er hinein –, lag am „Schriftformerfordernis“. Ein Fax galt vor Gericht lange Zeit als sicherer als eine E-Mail.
Lukas: Stimmt, die E-Mail war damals der „wilde Westen“. Aber blicken wir mal auf die Technik. Anfang der 90er war das Thermopapier der Standard. Das Zeug, das sich in der Sonne einrollte und nach zwei Jahren komplett verblasste. War das aus technikhistorischer Sicht nicht ein totaler Fehlschlag?
Dr. Arndt: Technisch gesehen war es minimalistisch und wartungsarm. Kein Toner, keine Tinte, nur Hitze. Aber für die Archivierung war es der Albtraum jedes Aktenverwalters. Deshalb sahen wir Mitte der 90er den ersten großen Umbruch: Das Normalpapier-Fax zog in die Büros ein. Zuerst über Thermotransferrollen – dieses schwarze „Kohlepapier“, das man nach dem Benutzen gegen das Licht halten konnte, um die vertraulichen Nachrichten der Kollegen zu lesen. Ein Datenschutz-Gau, wenn man so will.
Lukas: Oh ja, das war der Klassiker im Gemeinschaftsbüro. Aber dann kam die Zeit, in der das Faxgerät seine Identität verlor. Ende der 90er, Anfang der 2000er, standen plötzlich diese riesigen Kartons bei MediaMarkt oder Saturn: „4-in-1 Multifunktionsgeräte“. Der Fax-Standalone wurde zum Feature degradiert, das in einem Tintenstrahldrucker mitschwang.
Dr. Arndt: Das ist ein entscheidender Punkt. Das Fax wurde „demokratisiert“. Plötzlich hatte jede kleine Schreinerei und jeder Privathaushalt ein Fax, weil es eben im HP OfficeJet oder im Epson-Drucker eingebaut war. Diese Geräte nutzten die Tintenstrahltechnologie. Das war qualitativ ein Quantensprung zum Thermopapier, brachte aber ganz neue Probleme: Eingetrocknete Druckköpfe, wenn man nur alle drei Wochen ein Fax bekam.
Lukas: Ich erinnere mich an das typische Szenario um das Jahr 2005: Man wollte schnell einen unterschriebenen Vertrag senden. Der Drucker startete erst mal eine zehnminütige Reinigungsprozedur, während die Telefonleitung schon die Wählgeräusche machte. Dieses „Handshake“-Geräusch des Modems – für mich der Sound der 90er.
Dr. Arndt: Dieses Geräusch war das Protokoll T.30 in Aktion. Es war faszinierend: Zwei Geräte handelten aus, wie schnell sie Informationen austauschen konnten. In den 90ern waren das oft nur 9,6 oder 14,4 kbit/s. Später, mit den Super-G3-Faxen in den Multifunktionsgeräten, ging es auf 33,6 kbit/s hoch. Aber im Vergleich zum aufkommenden DSL war das natürlich Schneckentempo.
Lukas: Warum hat sich das Fax in Deutschland eigentlich hartnäckiger gehalten als in anderen Ländern? Um 2010 herum war in den USA das Fax fast schon ein Museumsstück, während wir hier noch fleißig Bestätigungen faxten.
Dr. Arndt: Deutschland ist ein Land der „dokumentierten Sicherheit“. Das Fax bot das Sendeprotokoll. Dieser kleine Ausdruck – „Übertragung OK“ – war für den deutschen Angestellten das ultimative Beruhigungsmittel. Es war die Verbindung aus analoger Unterschrift und digitaler Übermittlung. Die Multifunktionsgeräte der 2000er haben dieses Bedürfnis bedient. Man konnte scannen, kopieren, drucken und eben „rechtssicher“ faxen, alles mit einer Patrone.
Lukas: Aber die Technik fraß sich selbst auf, oder? Mit dem Aufkommen von PDF-Anhängen und dem Scannen direkt in die E-Mail wurde das Faxmodem im Drucker doch eigentlich zum Blinddarm der Technikgeschichte.
Dr. Arndt: Absolut. Zwischen 2005 und 2010 sahen wir den Übergang zum „PC-Fax“. Die Multifunktionsgeräte konnten das Fax zwar noch empfangen, leiteten es aber oft direkt als Bilddatei an den Computer weiter, statt es auszudrucken. Das war der Anfang vom Ende der haptischen Fax-Kultur. Die Hardware war zwar noch da – oft als grauer Kasten in der Ecke des Home-Office –, aber sie wurde immer seltener mit der Telefonbuchse verbunden.
Lukas: Wenn Sie heute ein Multifunktionsgerät aus dem Jahr 2002 sehen, diesen typischen Mix aus hellem Plastik und kleinen LCD-Anzeigen: Was geht Ihnen da durch den Kopf?
Dr. Arndt: Ich sehe eine Übergangstechnologie. Es war die Brücke von der rein analogen Welt der 80er in die voll vernetzte Welt von heute. Diese Geräte waren Schweizer Taschenmesser für eine Generation, die der Cloud noch nicht traute, aber den Komfort des Digitalen wollte. Standalone-Faxgeräte von 1990 wirken heute wie Skulpturen einer vergangenen Epoche. Die Kombigeräte von 2010 hingegen wirken wie die Vorboten unserer heutigen „Alles-in-einem“-Welt, nur eben mit viel mehr mechanischem Klappern.
Lukas: Ein schönes Schlusswort. Das Fax ist vielleicht fast tot, aber das Sendeprotokoll lebt in unseren Lesebestätigungen weiter. Danke für diese Zeitreise, Herr Doktor.
Dr. Arndt: Gerne. Und falls Sie das Interview als Kopie brauchen... ich könnte es Ihnen rüberfaxen! (beide lachen)
April 27, 2026
Robot control system with grounded language
There is no single AI algorithm available but its a pipeline with many substeps until a robot can do something usefull. Each single step is well understood by computer science in the past and the only thing missing is to combine all the steps into a single pipeline.
The staarting point is usually a teleoperated robot. The movements are converted into numerical sensor information called a mocap recording. Then the motion capture information are converted into a text adventure. This translation step is perhaps the core element in artificial intelligence and has to do with grounded language. After a text adventure is available, the game is solved by a computer program which decides which step is executed next.
None of these substeps can be called advenced computer science. Even the automatical gameplay of text adentures like Zork can be mastered with mainstream software for example with a reinforcement learning algorithm. Also the translation from motion capture recording into a text adventure can't be called a demanding project. Nevertheless the entire pipeline is something new not realized before. A modern term for the entire system is "vision language action model" which is state of the art in robotics in the year 2026.
In general the described pipeline is an abstraction mechanism. It converts a large state space into a small state space. This small state space can be solved with a computer. In the past it was unclear how to do so, and therefor the assumption was the robotics problems are np hard.

