May 01, 2026

Das Risiko von E-Mails liegt bei 99.9% ...

 Die Charaktere:

    Bernd: Sieht in jedem Datenpaket eine potenzielle Cyber-Apokalypse. Sein Aluhut ist zwar unsichtbar, aber spürbar.
    Lisa: Möchte eigentlich nur ihren Job erledigen und die Urlaubsliste abstimmen.

Lisa: (tippt genervt) „Bernd, hast du meine Mail von vorhin bekommen? Ich brauche nur kurz dein Kürzel für den Urlaubsplan.“

Bernd: (schiebt seinen Stuhl ruckartig vom Schreibtisch weg, als hätte der Monitor gebissen) „Deine E-Mail, Lisa? Du meinst diese digitale Postkarte, die du unverschlüsselt durch das offene Internet gejagt hast?“

Lisa: „Äh, ja. Die E-Mail. Mit der Tabelle im Anhang.“

Bernd: (lacht trocken) „Anhang. Du sagst das so leichtfertig. Weißt du eigentlich, was in einem .xlsx-Container alles schlummern kann? Das ist ein Trojanisches Pferd! Ein Klick, und im Hintergrund wird eine verschlüsselte Verbindung zu einem Botnet in Wladiwostok aufgebaut. Ich habe den Anhang natürlich nicht angefasst. Der liegt jetzt in der Quarantäne meines geistigen Papierkorbs.“

Lisa: „Bernd, es ist eine Excel-Liste. Ohne Makros. Ich hab sie vor fünf Minuten erstellt.“

Bernd: „Du hast sie erstellt. Oder zumindest glaubst du das. Aber wer sagt mir denn, dass dein Rechner nicht schon längst Teil einer Man-in-the-Middle-Attacke ist? Jemand könnte deine Identität übernommen haben. Der Absender sagt ‚Lisa‘, aber die Metadaten schreien ‚Cyber-Terrorismus‘. Ich kann die Integrität dieses Dokuments nicht verifizieren!“

Lisa: „Ich stehe zwei Meter von dir entfernt, Bernd. Ich habe sie abgeschickt. Jetzt gerade.“

Bernd: (senkt die Stimme und blickt sich misstrauisch um) „Das ist genau das, was ein raffinierter Algorithmus auch sagen würde. Und was ist mit TLS? Unsere Transportverschlüsselung ist doch nur ein Placebo für die Massen. Ein besserer Schülerspion fängt das Signal am Knotenpunkt ab und liest mit, wann wir in die Sommerferien gehen. Willst du wirklich, dass fremde Mächte wissen, dass wir in der ersten Augustwoche unterbesetzt sind? Das ist ein Sicherheitsrisiko für die gesamte kritische Infrastruktur dieser Abteilung!“

Lisa: (seufzt tief) „Was schlägst du also vor? Soll ich dir den Urlaubsplan vortanzen?“

Bernd: (öffnet feierlich seine Schreibtischschublade und holt ein Blatt Papier heraus) „Hier. Ein Formular. Mit Durchschlag. Du füllst es mit einem dokumentenechten Kugelschreiber aus, unterschreibst es physisch, und ich bringe es persönlich zum Faxgerät. Das Fax pfeift, die Leitung steht, und ich bekomme ein Sendeprotokoll – schwarz auf weiß. Ein analoger Handshake, Lisa. Unhackbar. Unmanipulierbar. Rein.“

Lisa: „Bernd… das Faxgerät ist seit drei Monaten kaputt. Es ist jetzt ein Pflanzkübel für die Monstera im Flur.“

Bernd: (starrt die Pflanze im Flur lange an) „…Verstehe. Ein gezielter Sabotageakt. Die Schlinge zieht sich zu.“

Lisa: „Ich leg dir den Zettel einfach auf den Tisch, okay?“

Bernd: „Nur wenn du ihn vorher mit UV-Licht auf versteckte Wasserzeichen prüfst! Man kann nie wissen...“

April 30, 2026

Detailanalyse der Typst Software

 Typst ist ein relativ junges Projekt was in Rust programmiert wurde. Ähnlich wie andere Rust Projekte wie der email server stalwart oder die ripgrep software ist das Versprechen deutlich effizienter vorzugehen als frühere Linux tools. Typst versteht sich als Alternative zu LaTeX was ein sehr ambitioniertes Ziel ist bei dem schon viele frühere Versuche wie lout und Sile gescheitert sind.

Vom Funktionsumfang her ist typst ein ausgereiftes Projekt mit dem sich sowohl wissenschaftliche Texte mit mehreren hundert Seiten als auch datanbank-Reportings erzeugen lassen. Die Kernfunktion besteht darin ein .typst dokument in ein PDF Dokument umzuwandeln. Typst funktioniert ähnlich wie ein CSS stylesheet ist allerdings für das PDF Format optimiert worden.

Standardelemente wie fließtext, Überschriften, Fußnoten, Tabellen und Bilder lassen sich problemlos erstellen. Es gibt jedoch noch einige Schwächen:

- anders als bei LaTeX ist im zweispaltensatz der untere Rand nicht bündig
- anders als bei LaTeX sieht der Blocksatz leicht schlechter aus
- die zahl der Tutorials und publizierten Bücher zu typst ist gering

Wenn man mit diesen SChwächen leben kann und sich von der Uralt LaTeX software verabschiedne möchte ist Typst eine gute Empfehlung. Nach etwas Eingewöhnung stellt man fest, dass eigentlich alles einfacher geht. Der große Vorteil besteht darin dass man anders als bei LaTeX nicht 5 GB auf der Festplatte benötigt sondern nur eine einzige 50 MB große Binardatei die problemlos in allen Betriebssystemen ausgeführt wird.




April 28, 2026

Gespräch über die Geschichte des Faxgerätes

 Ort: Ein staubiges, aber gemütliches Archiv voller grauer Plastikgehäuse und alter Bedienungsanleitungen.

Personen: Lukas, ein Technikjournalist mit Hang zur Nostalgie, und Dr. Arndt, ein Technikhistoriker mit Spezialisierung auf Bürokommunikation.

Lukas: Dr. Arndt, wenn ich heute jungen Volontären erzähle, dass wir früher wichtige Dokumente durch eine Glasplatte eingelesen haben, damit sie am anderen Ende der Republik auf einer Rolle Thermopapier wieder herauskommen, schauen die mich an, als käme ich aus dem Pleistozän. Warum war das Fax in Deutschland zwischen 1990 und 2010 so unantastbar?

Dr. Arndt: (lacht) Weil es die perfekte deutsche Lösung war: rechtssicher, haptisch und wunderbar bürokratisch. 1990 standen wir am Gipfel der Standalone-Geräte. Erinnern Sie sich an die klobigen Kisten von Siemens oder Canon? Das waren dedizierte Maschinen. Sie taten nichts anderes, als Telefonleitungen mit Pieptönen zu quälen. Dass sie so lange überlebten – bis weit in die 2000er hinein –, lag am „Schriftformerfordernis“. Ein Fax galt vor Gericht lange Zeit als sicherer als eine E-Mail.

Lukas: Stimmt, die E-Mail war damals der „wilde Westen“. Aber blicken wir mal auf die Technik. Anfang der 90er war das Thermopapier der Standard. Das Zeug, das sich in der Sonne einrollte und nach zwei Jahren komplett verblasste. War das aus technikhistorischer Sicht nicht ein totaler Fehlschlag?

Dr. Arndt: Technisch gesehen war es minimalistisch und wartungsarm. Kein Toner, keine Tinte, nur Hitze. Aber für die Archivierung war es der Albtraum jedes Aktenverwalters. Deshalb sahen wir Mitte der 90er den ersten großen Umbruch: Das Normalpapier-Fax zog in die Büros ein. Zuerst über Thermotransferrollen – dieses schwarze „Kohlepapier“, das man nach dem Benutzen gegen das Licht halten konnte, um die vertraulichen Nachrichten der Kollegen zu lesen. Ein Datenschutz-Gau, wenn man so will.

Lukas: Oh ja, das war der Klassiker im Gemeinschaftsbüro. Aber dann kam die Zeit, in der das Faxgerät seine Identität verlor. Ende der 90er, Anfang der 2000er, standen plötzlich diese riesigen Kartons bei MediaMarkt oder Saturn: „4-in-1 Multifunktionsgeräte“. Der Fax-Standalone wurde zum Feature degradiert, das in einem Tintenstrahldrucker mitschwang.

Dr. Arndt: Das ist ein entscheidender Punkt. Das Fax wurde „demokratisiert“. Plötzlich hatte jede kleine Schreinerei und jeder Privathaushalt ein Fax, weil es eben im HP OfficeJet oder im Epson-Drucker eingebaut war. Diese Geräte nutzten die Tintenstrahltechnologie. Das war qualitativ ein Quantensprung zum Thermopapier, brachte aber ganz neue Probleme: Eingetrocknete Druckköpfe, wenn man nur alle drei Wochen ein Fax bekam.

Lukas: Ich erinnere mich an das typische Szenario um das Jahr 2005: Man wollte schnell einen unterschriebenen Vertrag senden. Der Drucker startete erst mal eine zehnminütige Reinigungsprozedur, während die Telefonleitung schon die Wählgeräusche machte. Dieses „Handshake“-Geräusch des Modems – für mich der Sound der 90er.

Dr. Arndt: Dieses Geräusch war das Protokoll T.30 in Aktion. Es war faszinierend: Zwei Geräte handelten aus, wie schnell sie Informationen austauschen konnten. In den 90ern waren das oft nur 9,6 oder 14,4 kbit/s. Später, mit den Super-G3-Faxen in den Multifunktionsgeräten, ging es auf 33,6 kbit/s hoch. Aber im Vergleich zum aufkommenden DSL war das natürlich Schneckentempo.

Lukas: Warum hat sich das Fax in Deutschland eigentlich hartnäckiger gehalten als in anderen Ländern? Um 2010 herum war in den USA das Fax fast schon ein Museumsstück, während wir hier noch fleißig Bestätigungen faxten.

Dr. Arndt: Deutschland ist ein Land der „dokumentierten Sicherheit“. Das Fax bot das Sendeprotokoll. Dieser kleine Ausdruck – „Übertragung OK“ – war für den deutschen Angestellten das ultimative Beruhigungsmittel. Es war die Verbindung aus analoger Unterschrift und digitaler Übermittlung. Die Multifunktionsgeräte der 2000er haben dieses Bedürfnis bedient. Man konnte scannen, kopieren, drucken und eben „rechtssicher“ faxen, alles mit einer Patrone.

Lukas: Aber die Technik fraß sich selbst auf, oder? Mit dem Aufkommen von PDF-Anhängen und dem Scannen direkt in die E-Mail wurde das Faxmodem im Drucker doch eigentlich zum Blinddarm der Technikgeschichte.

Dr. Arndt: Absolut. Zwischen 2005 und 2010 sahen wir den Übergang zum „PC-Fax“. Die Multifunktionsgeräte konnten das Fax zwar noch empfangen, leiteten es aber oft direkt als Bilddatei an den Computer weiter, statt es auszudrucken. Das war der Anfang vom Ende der haptischen Fax-Kultur. Die Hardware war zwar noch da – oft als grauer Kasten in der Ecke des Home-Office –, aber sie wurde immer seltener mit der Telefonbuchse verbunden.

Lukas: Wenn Sie heute ein Multifunktionsgerät aus dem Jahr 2002 sehen, diesen typischen Mix aus hellem Plastik und kleinen LCD-Anzeigen: Was geht Ihnen da durch den Kopf?

Dr. Arndt: Ich sehe eine Übergangstechnologie. Es war die Brücke von der rein analogen Welt der 80er in die voll vernetzte Welt von heute. Diese Geräte waren Schweizer Taschenmesser für eine Generation, die der Cloud noch nicht traute, aber den Komfort des Digitalen wollte. Standalone-Faxgeräte von 1990 wirken heute wie Skulpturen einer vergangenen Epoche. Die Kombigeräte von 2010 hingegen wirken wie die Vorboten unserer heutigen „Alles-in-einem“-Welt, nur eben mit viel mehr mechanischem Klappern.

Lukas: Ein schönes Schlusswort. Das Fax ist vielleicht fast tot, aber das Sendeprotokoll lebt in unseren Lesebestätigungen weiter. Danke für diese Zeitreise, Herr Doktor.

Dr. Arndt: Gerne. Und falls Sie das Interview als Kopie brauchen... ich könnte es Ihnen rüberfaxen! (beide lachen)

April 27, 2026

Robot control system with grounded language

There is no single AI algorithm available but its a pipeline with many substeps until a robot can do something usefull. Each single step is well understood by computer science in the past and the only thing missing is to combine all the steps into a single pipeline.

The staarting point is usually a teleoperated robot. The movements are converted into numerical sensor information called a mocap recording.  Then the motion capture information are converted into a text adventure. This translation step is perhaps the core element in artificial intelligence and has to do with grounded language. After a text adventure is available, the game is solved by a computer program which decides which step is executed next.

None of these substeps can be called advenced computer science. Even the automatical gameplay of text adentures like Zork can be mastered with mainstream software for example with a reinforcement learning algorithm. Also the translation from motion capture recording into a text adventure can't be called a demanding project. Nevertheless the entire pipeline is something new not realized before. A modern term for the entire system is "vision language action model" which is state of the art in robotics in the year 2026.

In general the described pipeline is an abstraction mechanism. It converts a large state space into a small state space. This small state space can be solved with a computer. In the past it was unclear how to do so, and therefor the assumption was the robotics problems are np hard. 

April 26, 2026

Enabling technology for Artificial intelligence

 AI is available in mainstream computing since 2023 with the advent of large language models. The decades before it was assumed that AI is not possible or it will be realized in a far future, perhaps in the year 2200. At the same time, the technology which lead to AI was available even before the year 2023 and it should be explored next.

There are two key components which are not AI itself but may lead to AI: a) Teleoperation and b) motion capture. From a technical standpoint both things are easy to realize and even amateur computer programmers in the 1980s were able to do so. What was not available in the past was the awareness that these things are important to create Artfificial intelligence.

The reason why is because teleoperation and motion capture are both examples for an open system. Open means, that there is a communication available. For example the human operator is pressing a button and the robot arm is moving. In case of a mocap suit. a human demonstrates an action and the computer records the marker's positions. The communication between both instances is artificial intelligence in the core sense. The attempt to record and compress the communication results into powerful computer models. THese models are able to control robots and enabling man to machine communication.

Let us investigate why teleoperation in the past was often recognized as the opposite of AI. During teleoperation, the robot doesn't decide something but it gets controlled by a human. So there is no algorithm needed but only a cable which transmits the signal. The untold assumption until 2010 was that AI works different from man to machine interaction. AI was often described as autonomous robotics, similar to a turing machine, while man to machine interaction was seen as intactive computing which can't be executed by algorithms.

The shared similarity between teleoperation and motion capture is a signal transmission. The signal of the mocap markers is send to the computer, while the signal from the remote control device is send to the robot. A signal send over a wire is able to connect two different systems, this creates an open system. Open means that signal transmission is available. 

The working thesis is, that artificial intelligence isn't located in a computer algorithm, but in signal transmission. In this networking understanding, a signal is intelligence. The signal is encoded in bits and bytes and is formaized with a language. This language improves the man to machine communication.

Of course this understanding is very different from the mainstream understanding of AI which was common until 2010. Even signal transmission was available within computer science, for example in internet protocols, it was ignored that the principle can be adapted to robotics too. Even some early examples like the SHDRLU project or the M.I.T. Ripley robot were available before 2010, the common understanding of AI was directed towards a mathematical understanding but not a linguistic one.



Robot arm with grounded language

 

Warehouse robot with grounded language:


 

April 24, 2026

Textbausteine für einen Warehouse roboter

 Ein text buffer für eine Game engine kann über Textbausteine realisiert werden die in einer Datenbank gespeichert sind. Ein simples Beispiel für einen Lagerroboter liegt im json format vor:

{
  "warehouse_robot_lang": {
    "navigation": {
      "moving": "Proceeding to waypoint {target_id}.",
      "path_blocked": "Obstacle detected at {coords}. Recalculating path.",
      "arrived": "Reached destination: {location_name}.",
      "waiting": "Waiting for traffic clearance in zone {zone_id}."
    },
    "manipulation": {
      "picking": "Engaging grippers for item {sku_id}.",
      "placing": "Depositing unit onto rack {rack_level}.",
      "scanning": "Verifying barcode for shelf {shelf_id}.",
      "load_secured": "Weight sensor triggered. Payload is stable."
    },
    "diagnostics": {
      "battery_low": "Warning: Battery at {percent}%. Searching for charging station.",
      "charging": "Power coupling established. Current state: {percent}%.",
      "system_ok": "All internal sensors reporting nominal values.",
      "error": "Actuator malfunction in {component}. Human intervention required."
    },
    "interaction": {
      "safety_stop": "EMERGENCY STOP: Human detected in safety perimeter!",
      "greeting": "Unit {robot_id} active and awaiting tasking."
    }
}


Darin gibt es 4 semantische Kategorien mit möglichen Unterpunkten. Obwohl es relativ viel Text ist, ist mathematisch gesehen die zahl möglicher Zustände des Roboters gering. Aufgabe des Text buffers ist es, die richtigen Textbausteine aus der Datenbank auszuwählen, um damit die Sensordaten als grouned language auf dem Bildschirm darzustellen. Es handelt sich also weniger um einen KI Algorithmus, sondern um eine KI GUI Oberfläche, die zur Mensch Maschine Interaktion verwendet wird. Vergleichbar mit den Menüpunkte in einer Desktop Software.

Game engines with grounded language

Most video games are programmed with a game engine. The game engine stores the objects on the screen and renders them to the monitor. Such a setup ensures that the game can be implemented in Python with the constraint that a human player interacts with the game engine.

To make sure, that the game can also be played with artificial intelligence and additional module is needed which is a textual buffer. The buffer converts the output of the game egine into textual sentences e.g. "player is left, red obstacle ahead". The assumption of the textual buffer is, that the game should be rendered to a mini text terminal which has only 16x2 characters. The challenge is that a complex game gets compressed into such a small text buffer. This is only possible with a vocabulary of words. Converting the normal videoscreen of 800x600 pixels into a list of words can be realized with a computer program in realtime.