In the past there were multiple definitions available what Intelligence is about. From a philosophical standpoint its often defined as problem solving skills, and from a computer science perspective, AI is mostly introduced as expert system or neural network. Even if these definitions are correct they do not explain how to implement AI on a computer.
A more convenient definition is, that Artificial Intelligence is about language games. Language games are not about technology itself, for example a certain computer hardware or a certain programming language, but a language game defines a problem. After solving the problem, the computer is intelligent.
An example language game is the question answering game. There is a database with entries and the computer has to find for a request the most similar existing entry in the database. The user might ask "What is the capital of France?" and the computer is searching through the database for an answer.
Another language game root in robotics is the instruction following task. here the user formulates a longer command sequence like "move to room B and pick up the green box" and the robot has to execute it.
What makes language games a promising candidate for an AI definition is, that are independent from a certain computer paradigm, and they are more scientific than a purely philosophical definition of intelligence. A language games can be played with a computer and its possible to win or loose such a game. for example, in the example with the q6a retrieval, the algorithm can return the wrong answer, or in the instruction following game, the robot might move to the wrong room.
December 05, 2025
Artificial Intelligence as language games
December 04, 2025
Hohe Einstiegshürden für lokale LLMs
Obwohl es im Internet viele Tutorials gibt wie man auf der Workstation ein Large language model betreiben kann ist objektiv gesehen das Unterfangen zum Scheitern verurteilt. Eine aktuelle PC Workstation für 1000 EUR ist um den Faktor 500 zu klein und zu wenig leistungsfähig um einen halbwegs aktuellen Chatbot zu betreiben. Und es geht hier lediglich um Textchatbots nicht um um generative Bilderzeugung oder generative Audiogenerierung.
Zu den Details. Die Basis für jeden chatbot der mittels neuronaler Netze betrieb wird ist ein Word embeddings model. Es gibt dazu mehrere Opensource Projekte wie Fasttext oder gensim die mit vortrainierten Word embeddings ausgestattet sind. Allerdings ist die Datei die man sich aus dem Internet herunterladen muss stolze 5 GB groß. Und diese Datei ist als minimal Word embedding zu verstehen. Wenn man die Datei im RAM entpackt steigt der Speicherbedarf auf 16 GB An. Und damit hat man nur das word embedding also eine Zuordnung von Worten aus dem Lexikon zu semantischen Kategorien in Matrizenschreibweise. Will man dieses word embedding model für ein Question answering problem anwenden oder damit lokale Textdateien indizieren erhöht sich der Speicherbedarf weiter.
Eine halbwegs solide Hardware um lokale Large language modelle zu betreiben startet bei Anschaffungskosten von 500k EUR. Darin enthalten ist RAM in Höhe von 16 Terabyte. Diese Hardware ist keine Workstation mehr sondern wäre ein Superminicomputer, der unerschwinglich ist für Privatpersonen und allenfalls von Universitäten oder Firmen betrieben werden kann. Mit so einem System ist es in der Tat möglich, einen chatbot aufzusetzen bestehend aus word embeddings, der fasttext library plus einiger Volltextdatenbanken. Auch für künftige Projekte wären die veranschlagten 16 TB RAM ausreichend, das heißt man könnte Experimente machen in Richtung maschinelle Übersetzung oder im automatischen Programmieren.
Wie ein kleiner Blick auf die Kosten zeigt, sind lokale LLM Systeme außerhalb der Möglichkeiten von privatanwendern. Diesen verbleibt nur auf Cloud Anbieter zu setzen, wo also die Hardware im Internet betrieben wird und der Nutzer lediglich Zugriff erhält auf den chatbot. Entweder über den webbrowser oder eine API schnittstelle.
Selbstverstänglich kann man kritisch fragen, ob man nicht auch mit weniger Aufwand ein lokales LLM betreiben kann. Das man also word embeddings nutzt die kompakter sind und vielleicht nur 10 MB benötigen. Leider lautet die 'Antwort darauf nein, sowas ist technisch nicht möglich. Die ersten Large language modelle wie GPT-2 wurden ab den Jahr 2022 entwickelt. Will man ohne Word embeddings und ohne sehr große Datensätze ein Projekt durchführen müsste man Technologie verwenden vor diesem Stichtag. Es gab auch vor 2022 bereits Software zur natural language processing und chatbots. Zu nennen wäre das AIML dateiformat worin man wissensbasen für chatbots speichert. Diese Systeme sind sehr genügsam was die Hardware betrifft und laufen auf normalen Desktop PCs. Leider besteht der nachteil dass AIML chatbots und äöltere dokument retrieval systeme eine sehr geringe leistung aufweisen. Ein AIML Chatbot ist eine Art von Spieleprogram womit man einen simulierten Dialog führen kann, aber was keinen echten Nutzen hat. Deshalb haben sich diese älteren Chatbots auch nie durchsetzen können. Es gibt keine Nachfrage nach solchen Systemen. Etwas ähnliches gilt für das sehr alte Eliza system, was technisch ein chatbot ist, aber für den Anwender keinen nutzen besitzt. Es ist durchaus interessant mit Eliza einen Dialog zu führen, aber nachdem man das 10 minuten gemacht hat, erkennt man die Limitierungen des Konzepts.
Moderne Large Language modelle die ab 2022 entstanden können als weiterentwicklung früherer Chatbots verstanden werden. Ihre Leistung ist höher aber gleichzeitig sind auch die Hardware anforderungen höher.
December 03, 2025
Der Marketshare von Linux
Eine Fehlannahme der Open Source community lautet dass es möglich sei den gegenwärtigen niedrigen Marktanteil von Linux auf dem Desktop zu erhöhen. Von aktuell 4% auf 10%, dann auf 20% usw bis Linux WIndows verdrängt hat. Diese Annahme wird seit den 1990er propagiert, nur hat sie sich seit über 20 Jahren als nicht realisierbar herausgestellt. Die ERklärung hat weniger etwas mit der Software Linux an sich zu tun sondern mit den Erwartungen der Nutzer.
Der Hauptgrund warum besonders Softwareentwickler Linux als mächtige Alternative zu Windows auf dem Desktop schätzen hat etwas mit den Stärken von Linux zu tun: es ist Open Source, es enthält eine Kommmandozeile, es ist konfigurierbar, es enthält vorinstallierte Compiler für C++ und Python, es enthält vorinstallierte SQL Datenbanken und ganz wichtig es verfügt mit kvm über eine Virtualisierungsumgebung um weitere Linux und Windows instanzen zu starten.
Leider spielen diese Punkte für den Mainstream anwender keine Rolle. Was für den ENdkonsumenten wichtig ist geht eher in Richtung: Auswahl aus sehr vielen Spielen, vorinstalliert auf einem PC, technischer Support durch Hersteller und Auswahl aus 200k vorhandenen Programmeren. Keine dieser Erwartungen kann Linux erfüllen. in all diesen Punkten ist Linux sehr schlecht und es gibt keine Aussicht auf Besserung.
Daraus folgt, dass der künftige Marktanteil von Linux auf dem Desktop bei dem heutigen niedrigen Wert von 4% verharren wird, sowohl in 2030, in 2040 und die jahre danach wird Linux ein Nischenbetriebssystem bleiben. Entwickelt für professionelle Informatiker die Datenbanken, Programmiersprachen und virtuelle Computer benötigen und für die Windows zuviele Einschränkungen mitbringt.
The myth of autonomous robotics
In the past of computer science philosophy until around the year 2010 a certain paradigm was widespread available about the inner working of a robot. The idea was derived from science fiction novels written by Isaac Asimov and were based on the idea of an independent robot who is not in control of a human operator but takes its own decisions. In most or even all science fiction stores about humanoid robots, the robots have their own brain which allows them to take decision, analyze a situation and take actions. These fictional robots have much in common with animals in nature who are also independent beeings with their own will.
Engineers in the past were trying to realize this idea in technology, namely in hardware and software. The goal was to program a closed system which takes decisions by its own. The concrete realization can be seen in early self driving cars and early maze robots who are working in the autonmous mode.
Despite the large amount of effort to realize these robots, the concept of autonomous robotics has failed. The typical autonomous car programmed before the year 2010 was powered by millions lines of code but wasn't able to solve simple navigation tasks. The bottleneck is not located in a certain software architecture but it has to do with the idea of autonomy. This idea prevents the development of advanced artificial intelligence which is not working independent from a human operator but assumes teleoperation and especially text based teleoperation.
Solving the so called "instruction followin" task in robotics is much easier than implementing autonomouos robots. instruction following means basically, that gets instruction from a human. For example, the robot is grasping the ball because the human operator is pressing the button for "grasp the ball".
Such a remote controlled robot can't be called intelligent anymore, but its a tool similar to a crane which also operates by levers pressed by a human. The goal of building autonomous robots makes only sense for science fiction novels but its a bad advice for implementing robots in the reality. real robotis is based on teleoperation and voice commands.
The beginning of modern teleoperated robotics can be traced back to a single talk, held by Edwin Olson in 2010.[1] He explained to the perplexed audience that his robots doesn't working with software nor algorithms, but they are teleoperated with a joystick. Olsen claims, that such a control paradigm is harder to realize than classical algorithm based robot control.
To understand why the audience during this 2010 talk was upset, we have to listen was Olsen said exactly. In the introduction he made a joke about former attempts in realizing robotics, especially the idea of writing large amount of software for implementing algorithms. These large scale software based robots were seen as the here to stay paradigm for most of computer scientists and it was blasphemy to question this paradigm in the year 2010. In simpler words Olsen said basically, that all the sophisticated motion planning algorithms developed in thousands lines of code with endless amount of man hours are useless, and his robots are controlled by a joystick which is more efficient. Some people in the audience assumed, that Edwin Olsen is not a computer scientist but a comedian and perhaps they are right.
Edwin Olsen didn't mention in his talk natural language as source for robot control, but he is focussing only on joystick control. His talk is focusson the difference of autonomous robots vs teleoperated robots.
[1] Winning the MAGIC 2010 Autonomous Robotics Competition https://www.youtube.com/watch?v=OuOQ--CyBwc
December 02, 2025
Disappointed with Linux Mint
The promise of the Linux Mint system is, that its a beginner friendly lightweight system in tradition of Ubuntu. None of these claims was fulfilled, there are many reasons to dismiss the ISO file and prefer the old and widely used Debian system instead.
First problem is, that a normal gnome on wayland system with Linux will occupy around 5 GB of RAM after major applications are started. This makes the system a poor choice for older hardware. To be fair, the Debian system needs the same amount of RAM and even more but at least Mint has to no advantage. It seems, that a modern operating system needs always too much of RAM.
Second problem is the quality of the documentation. The main Linux online forum can't be displayed on a text browser like lynx which is a bad confusing for a Linux operating system which is based on the idea of openess, and command line preferences.
Third problem with Linux mint is, that the built in GUI interface cinnamon looks a bit outdated. IT has much in common with the XFCE system. Of course its possible to switch the desktop in favor to KDE or gnome, but this will Linux mint transform into another distribution like Debian. Another reason to reject the Cinnamon desktop is, that the Linux philosopöhy works different from Windows. In Microsoft Windows there is indeed only one desktop available for everyone, but in Linux there are around 8 different desktops out there and the user has to decide for one of them. Linux mint hasn't solve this issue but has added another desltop to the existing ecosystem.
In general, Linux mint is not a bad Linux distribution. It can be installed easily and has preinstalled Libreoffice suite plus a webbrowser so its a good starting point for former Windows users. The real problem is, that Linux itself was not designed for a mainstream audience. Linux is a programmer friendly open source operating system with a maximum market share of 5%. Its not possible to motivate more users to install the system on their computer and Linux mint won't increase the market share in the future.
Unfurtunately Linux Mint has a middle positition which doesn't fulfill the needs of the user. Its to complicated for normal users because it is delivered with powerful software like a GCC c Compiler and a command line which makes it a good choice for a programmer's workstation. on the other hand, it doesn't fit to expert users because Linux mint has to much GUI oriented addtional software and a poor documantation which doesn't fit to the need of expert users. Because Linux mint is based on the Debian and Ubuntu packages it won't replace these established projects and is some sort of add one which is not required by most people.
November 30, 2025
Word2vec and the invention of large language models
Deep learning with neural networks was available since the 2000s and chatbots like Eliza were much older and available since the late 1960s. What was missing until the 2020s was a modern large language model and there is a reason available why such AI related technology was invented very late in the history of computing. Because of the absence of word embedding algorithms.
Simple word embeddings algorithm like bag of words were introduced in parallel to document clustering in search engines. The idea was to convert a text document into a numerical dataset. It took until the year 2013 since the advent of more advanced word embeddings algorithms like word2vec. Word2vec is an impöroved version of bag of words which is working with higher semantic understanding and was designed for neural network learning.
A word embedding algorithm itself is not a chatbot, its only the prestep to convert a text dataset into a numerical dataset. But without such an algorithm, modern deep learning systems can't be applied to chatbot design. So we can say, that word2vec and more recent algorithm are the missing part before it was possible to realize advanced large language models.
The main task of a word embedding algorithm is to convert a natural language processing task like document indexing or dataset parsing into a maschine learning task. Maschine learning is usually realized with neural networks which are trained with machine learning algorithms. It should be mentioned, that neural networks can only be feed with numerical data e.g. a value from +0.0 to +1.9. But neural networks can't be feed with text information like "The quick brown fox jumps over the lazy dog". The reason is, that artificial neural networks have its root in mathematics and statistics which is by definition the science of number crunching.
Such kind of detail information is important because neural networks in the original version can't be applied to language problems, but only to statistical problems. That is the reason why neural networks were not useful for many decades apart from niche application in maschine learning. Before the advent of NLP, neural networks were mostly be used to analyze time series with numerical information, e.g. for weather prediction and for trajectory smoothing. These are classical numerical problems within mathematics.
Word embeddings as the bottleneck in large language models
Before a computer can process written information the dataset corpus needs to be transformed into a numerical representation. Otherwise the neural network can't be trained on the data. The problem is, that nearly all input datasets are formulated in English. There are a list of question answer pairs stored in a .csv file. A typical entry might be:
"What is the north?", "Its a direction similar to east and west"
"What is red?", "Its a color similar to blue or green".
These pairs are highly sense making for humans but a computer won't understands the words. Every existing neural network architecture requires numerical data in a floating point range. Unfortunately, the example dataset has no floating point numbers but only words.
Even if the problem is obvious it was discovered very late in computer science. First attempt for document retrieval doesn't require a word embedding model. Because classical text retrieval was realized with full text search engines. The algorithm compares the input sentence with a database and returns the correct document. Only if the text retrieval should be realized with a neural network, there is a need to convert the documents into a vector space which is the task of a word embedding model like word2vec or fasttext.
Modern large language models are built with word embeddings models in the background. These embedding make sure, that the neural network understands the sentences in the corpus. The word embedding model influences how fast and accurate the resulting chatbot is. For example, a minimalist bag of word model with a vocabulary of 100 words won't understand or generate an academic paper because the translation from a full text document into a vector space doesn't work well enough.
A domain specific bag of words model is perhaps the most minimal example for word embedding and should be explained for a point & click adventure game. There are only 4 verbs (walkto, pick, drop, use) and 4 nouns (key, stairs, door, ball). Each word is assigned to a number and possible sentences looks like:
"walkto door" = (0,2)
"pick key" = (1,0)
"use ball" = (3,3)
The first number in the vector is submitted to neuron #1 while the second number is submitted to neuron #2. Most existing point&click adventures doesn't implement a dedicated word embedding model to store the internal communication vocabulary, but for exploring new tools and NLP techniques it makes sense to introduce word embeddings into video games.
November 23, 2025
language games in recent robotics
Every machine contains of an internal mechanism which can be explained from a scientific perspective. A steam engine is driven by combustion, a computer works with electricity and a robot also have an internal driving force. In the science fiction world, the core mechanism of a robot is sometimes an AI chip which enables the robot to think. A rough estimation is, that robots in the reality also have a chip or a graphics processing unit which is very expensive and makes the robot move and think. Unfurtunately, this hardware oriented explanation is wrong. Modern robotics has no AI chip.
The next possible explanation is, that a robot is driven by a software architecture, for example an algorithm or a robot control software. Such a computer program would be the core element and enables the robot to take decision. Unfurtunately, the hint with a software architecture is also wrong. Modern robotics doesn't require a dedicated firmware nor an operating system.
If hardware and software both is not the explanation for the artificial intelligence inside a robot there are not much alternative explanations available. At the same time, recent robotics has demonstrated remarkable skills like biped walking anb dexterous object grasping so there must be a mechanism available which explains the internal working. The mechanism is a bit hidden. Its not located inside the robot torso but its outside of the robot. Or to be more specific, the driving force behind modern robotics are language games.
A language game is an activity played with a set of rules. Typical games might be chess or 4 in a row. A language game is a certain category of a game which is working interactively and by using words. Language games are the driving force behind recent robotics. A certain robot for example a biped robot, implements a language game. The language game defines also the limitation of a robot. For example if the game is about navigating in a warehouse scenario, the robot can do only this single task.
The problem with games and especially with language games is, that they can't located in the reality very well. A game doesn't need a cpu and no certain software program, but a game is an abstract idea described in a document. For example the game of chess can be implemented in different physical chess boards which might have 10cm width, 14 cm width or it can be implemented in a video game. The same situation is available for language games. A certain speaker to hearer dialogue game can be implemented on different computer hardware with different algorithms. THe only fixed element is the game itself.
Even if games can't be located physically inside a robot, they are part of the reality. Abstract ideas are usually described in books, and books are located in a library. In a library there are many books available about board games, card games, word puzzles and language games for robots. These books are the single explanation why modern robotics is working.
November 21, 2025
Instruction following with reward function for box pushing
The human operator selects an instruction from the menu and the game engine determines the numerical reward for this action. This allows to execute sequences of actions in a physics engine. Its a "text to reward" system for grounded language. In the prototype, the reward function was hard coded in the source code, so the system will understand only the 5 predefined instructions.
November 06, 2025
Einführung in das Symbol grounding problem
Da die vorhandene deutsche Literatur zur Thematik sehr klein ist, folgt hier ein kurzer Blogpost auf Deutsch der die THeorie von Stevan Harnad darstellt. Bei Symbol Grounding geht es um eine besondere Form eines Computerspiels bei dem natürliche Sprache verwendet wird. Z.B. sind auf dem Bildschirm verschieden farbige Objekte zu sehen und die Anweisung lautet: klicke mit der Maus auf den grünen Kreis. Wenn der Benutzer das richtige Objekt auswählt erhält er einen Punkt und die nächste Aufgabe wird formuliert. Ein weiteres Beispiel ist ein NPC Quest in einem RPG videogame bei dem die Aufgabe lautet: "bringe mir die Kiste aus dem Wald" und im Gegenzug erhält der Spieler dafür +10 Punkte gutgeschrieben. Auch hier wieder wird die Anweisung als Text formuliert und muss vom Spieler in Handlungen überführt werden.
Das SHRDLU Projekt aus dem Jahr 1972 kann ebenfalls als Beispiel für symbol grounding genannt werden. Hier gibt der menschlicher Bediener einen Befehl ein, der von der Software in Handlungen übeführt wird.
Das Symbol grounding Problem ist nicht an eine bestimmte Programmiersprache oder Software gebunden sondern es ist ein abstraktes Spiel ähnlich wie TicTacToe oder Scrabble. Es kann auf unterschiedlichen Computersystemen und mit unterschiedlicher Konfiguration implementiert werden. Wichtig ist nur, dass natürliche Sprache genutzt wird um Anweisungen zu formulieren. Entweder von einem NPC CHarakter an den Spieler oder umgekehrt der menschliche Spieler formuliert die Anweisung für den Computer, auch als "instruction following" bekannt.
Auch ohne das Symbol grounding Problem gab es Versuche innerhalb der Informatik natürliche Sprache zu verarbeiten. Natural language processing (NLP) ist allerdings auf Sprache an sich fokussiert, versucht also Texte von Deutsch nach Englisch zu übersetzen oder in einem Satz Wortarten zu identifizieren. Beim Symbol grounding problem geht es nicht um das Verstehen von menschlicher Sprache inkl. der komplizierten Grammatik sondern es wird eine vereinfachte Sprache aus 100 Worten und weniger vernwendet um darauf auf die Umgebung eines Roboter zu referenzieren. Also Sprache und Sensor-Wahrnehmung zu verbinden. Sprache beim Symbol grounding problem wird instrumentell als Abstraktionsmechanismus verwendet, also als ein Kompressionsverfahren um den Zustandsraum zu verkleinern. Damit kann, so die Befürworter des Ansatzes, das P=NP Problem gelöst werden und vormals sehr schwierige Robotik-Probleme elegant gelöst werden.
November 04, 2025
Modern robotics works with externalize intelligence
Until the year 2020 it was hard or even impossible to build and program robots. There were endless amount of challenges available but no algorithm or theory was found. Since around 2020 most of the problems are solved and the underlying technology should be explained briefly.
In contrast to the assumption of the past, the AI technology isn't based on software libraries, algorithm or neural networks. Its has nothing to do with expert systems, reinforcement learning, deep learning or the Tensorflow library. What is used to control robotics instead is a less popular approach called externalize intelligence.
The concept has much in common with a teleoperated robot but its working with natural language. The idea is to externalize the complex AI knowledgebase from the robot to a human operator. If the important routines doesn't belong anymore to the robot itself, there is no need to program them in software. For doing so a communication interface is needed between the robot and the human operator.
Let me give an example. Suppose the idea is to program a warehouse robot. There is a human operator how gives the voice commands which are high level goals like "move to room A", "pick up the green box". These commands are submitted to the robot. That means, the robot itself doesn't know why it should move to room A but the robot executes the command from the human. This allows to reduce the complexity of the robot to minimum. The robot isn't able to navigate in the warehouse by itself, but the robot gets a stream of voice commands from the human and executes them.
Of course, such a voice based teleoperation needs to be programmed in a software with a programming language like C/C++. The details fo the implementation are minor problems which can be solved by programmers. Its a normal software engineering project, like programming a spreadsheet application. The programmer gets the specification for the natural language interface and writes the code.
The proposed principle around externalize intelligence was known in computer science before the year 2020. Projects like SHDRLU, teleoperated robots and NPC quests in RPG games were available and they have been documented. What was missing was the understanding, that these techniques are very powerful and can be utilized to program robots.
November 01, 2025
Improved command based reward function
0: ["walkto topright",(9,0),4],
1: ["walkto leftcoin",(4,5),2],
2: ["walkto rightcoin",(9,5),1],
3: ["walkto enemy",(3,1),None],
4: ["walkto topleft",(3,1),0],
5: ["walkto bottomleft",(0,6),4],
}
Programming effort for Pong videogame for different decades
| year | description
|
Programming effort |
| 1985 | BASIC on 8bit homecomputer without permanent access to the device
|
40 hours |
| 1985 | BASIC on 8bit homecomputer with permanent access to the device
|
20 hours |
| 1995 | C in MS-DOS
|
15 hours |
| 2010 | Python with pygame
|
5 hours |
| 2025 | Javascript generated by Large Language model
|
1 hours |
October 30, 2025
Softwareentwicklung in den 1980er Jahren
Treue Fans des Commodore 64 wundern sich, warum der begehrte 8bit Computer Ende der 1980er Jahre nicht mehr zeitgemäß sein sollte. Als Begründung werden meist Hardware limitierungen angeführt, dass also der C64 mit seinen 64kb RAM und seiner 1 Mhz CPU für aktuelle Programme nicht geeignet sei. Das stimmt jedoch nur teilweise.
Man kann sehr wohl für ein 8bit System aufwendige Spiele programmieren, die Schwierigkeit ist nur dass der Zeitaufwand dafür hoch ist. Um sich das Problem näher zu veranschaulichen macht es Sinn ein wenig die Details zu beleuchten wie in den 1980er Jahre Software für unterschiedliche Systeme entwickelt wurde. Spieleentwicklung für Konsolen wie NES und Megadrive erfolgte niemals auf dem Gerät an sich sondern wurde mittels Crossassembler auf einer Workstation durchgeführt. DAs hei0t die Programmierer haben auf einem Leistungsfähigen Computer die Grafik erstellt und das Assembler programm geschrieben und das dann für die Zielarchitektur in ausführbaren Code übersetzt.
Der C64 war anders als reine Spielekonsolen auch zum Programmieren geeignet, das heißt auf der selben Maschine konnte Assembler code erstellt werden und das fertige Programm ausgeführt werden. Allerdings gab es auch hier das Problem, dass zuerst jemand diesen Code schreiben muss. Um einfache Spiele wie Pong oder Tetris in Assembler zu programmieren benötigt ein HObbyprogrammierer mehrere Monate Zeit, wo er dann händisch den Code eintippt und ihn verbessert. Komplexere Spiele können nur mit einem größeren Entwicklungsteam erstellt werden, was 1 Jahr und länger an dem Projekt arbeitet.
Und genau dies war die eigentlische Schwäche des Commodore 64: das er als Spieleprogrammierplattform zu aufwendig war. Auf der PC plattform lassen sich sehr viel einfacher Spiele und Anwendungen erstellen. Seit MS DOS wird dort der GW Basic Interpreter mitgeliefert womit auch Anfänger Spiele schreiben können. Professionelle Projekte können in der Sprache C realisiert werden, die unter MS DOS Computern seit den 1980er weit verbreitet war. Der Grund ist, dass dank der eingebauten Festplatte ein C Compiler nativ auf einem PC ausgeführt werden kann und die zahlreiche Bibliotheken auf der Festplatte bereitstehen. Mit hilfe von C und GW Basic können einfache Spiele in rund 1 Woche erstellt werden und komplexere Projekte in wenigen Monaten von einer Einzelperson umgesetzt werden.
Diese hohe Entwicklungsgeschwindigkeit unter MS DOS war der Hauptgrund warum diese Plattform ab Ende der 1980er alle anderen Systeme inkl. C64 und Atari ST verdrängt hat. Gewonnen hat den Kampf der Systeme am Ende die Plattform, wofür es die meiste Software gab und das war zweifelsfrei MS DOS.
Doch zurück zum Commodore 64 als Heimcomputer. Es mag wie eine Binsenweisheit klingen, aber ohne Programme ist die Hardware nutzlos. Schaltet man den Computer ein sieht man lediglich einen blinkenden Cursor auf dem Bildschirm. Mittels LOAD Befehl kann man theoretisch Spiele und Anwenderprogramme laden. Nur diese müssen zuvor erstmal verfügbar sein. Ein kundiger Programmierer muss in der Sprache Assembler ein Spiel zunächst erstellt haben, befor es der Endbenutzer laden und ausführen kann und genau hier liegt der Engpass. Wer soll all die Spieleideen die technisch machbar sind, auf einen C64 portieren? Rein technisch wäre es denkbar hunderte von point&click adventure, unzählige Puzzle- Sportspiele und Arcade games auf den C64 zu portieren. Nur diese Entwicklungszeit muss zuvor jemand erbringen. Findet sich niemand der über die nötigen Assemblerkenntnisse verfügt und bereit ist ein bestimmtes Spiel auf dem C64 zu implementieren bleibt das Projekt unbearbeitet. Mit jeder nicht erstellten Software nimmt der Wert einer Plattform für den Endanwender ab. Käufer eines Computersytsems mögen es nicht so gerne, wenn es für die Hardware keine neuen Programme gibt.
Vergleichen wir die Situation beim IBM PC. Dort gibt es viele Basic Compiler und ganz wichtig es gibt leistungsfähige C Compiler. Damit ist es möglich, jedes denkbare Spiel auf die MS Dos Plattform zu portieren. Selbst wenn die Grafikfähigkeiten eines PC aus den 1980 gering waren kann man zumindest in kurzer Zeit ein Softwareprojekt umsetzen. Man nimmt einfach vorhandenen C Quellcoode und kompiliert ihn für MS DOS oder programmiert den source code nochmal neu. In beiden Fällen erhält man in übershaubarer Zeit ein fertiges Stück Software was überall ausführbar ist wo MS DOS Installiert ist.
October 25, 2025
Instruction following in a maze game
In a mini maze game, a non player character formulates orders which have to be fulfilled by the human player. The game engine monitors the progress, if the player has reached the goal, the next order is shown on the screen. Its an example for an instruction following prototype in the context of the symbol grounding problem. A natural language command has to be converted into meaningful actions.
October 21, 2025
Rückblick auf die World Robot Conference 2025 in China
Vom 8. Aug bis 12. Aug 2025 wurde die World Robot Conference 2025 in China Beijing durchgeführt. Wie auch die Veranstaltung im Jahr 2024, welche ebenfalls in China durchgeführt wurde, kamen sehr viele Besucher zum weltweit größten Robotik-Event. Der Veranstalter spricht von 1.3 Millionen Besuchern die sich über 5 Tage lang die neueste Technologie angeschaut haben. Ausgehend aus den publizierten Youtube Videos, die allesamt sehr viele Menschen zeigen, könnte diese Zahl halbwegs realistisch sein.
Der Unterschied zwischen der chinesischen Robotik Veranstaltung und ähnlichen Veranstaltungen aus den USA liegt vor allem in der Quantität. Finden sich bei der Robocup Verstaltung nur eine Handvoll von Robotern, sind die Hallen in Beijing vollgestopft mit hunderten wenn nicht sogar tausenden von Robotern aus allen möglichen Bereichen. So gibt es Industrieroboter, die Gegenstände von einem Fließband aufnehmen, es gibt Roboterhunde auf 4 Beinen, humanoide Roboter auf 2 Beinen, es gibt Roboter die Popcorn servieren, andere die Eiscreme oder Kaffee zubereiten und Roboterarme die Bilder zeichnen. Es gibt Roboter die boxen und welche, die Produkte aus einem Regal herausnehmen. Was es jedoch nicht zu sehen gibt (jedenfalls nicht in den youtube videos) sind UAVs, also fliegende Roboter die in der Halle herumflattern.
Der Publikumsmagnet waren eindeutig zweibeinige balancierende Roboter. Insgeheim wartet das Publikum wohl darauf, dass einer der metallischen Laufmaschinen das Gleichgewicht verliert und dann jemand aus dem Backstage Bereich hervoreilt, um die Vorführung zu unterbrechen. Tatsächlich kam es zu seltenen Vorfällen dieser Art, aber anders als beim berühmten Treppensturz von Asimo in 2006 verfügen heutige Roboter über eingebaute Fehlerroutinen. Wenn ein Roboter umfällt wird dies durch die Elektronik erkannt und es wird eine Aufsteh-Routine gestartet. Gesteuert werden die meisten dieser fortschrittlichen Roboter übrigens mittels Fernbedienung die Ähnlichkeit hat mit einem Gamepad einer Playstation Konsole.
Zum Schluss ein Vergleich mit anderen bekannten Roboterveranstaltungen:
- Robocup Veranstaltung wird von ca. 100k Besuchern frequentiert
- die IROS Robotik Konferenz hat 10k Besucher
- Automatica München hat 49k Besucher
October 17, 2025
Selbstfahrendes Auto gesteuert mit Sprache
Setting: Innenraum eines hochmodernen Prototyps für autonomes Fahren. Die Sitze sind futuristisch, aber bequem. Draußen, auf einer mehrspurigen Stadtstraße, herrscht dichter, stockender Verkehr.
Personen:
* A: Dr. Elias Vogel, der leitende KI-Techniker (ungefähr 40).
* B: Max Huber, ein neugieriger Besucher und Journalist (ungefähr 30).
(Das Auto, Modell "Orion-Prototyp 7", steht seit einigen Minuten still. Der Motor ist lautlos. Auf dem großen Display flimmern Echtzeit-Daten und eine detaillierte Karte.)
B (Max): Tja, Herr Dr. Vogel. Selbst die modernste Technologie kapituliert vor einem Berliner Freitagnachmittag. Ich dachte, Ihr Orion-System hätte eine geheime Abkürzung für solche Fälle.
A (Dr. Vogel): (Lächelt) Wünschenswert, Herr Huber. Aber selbst wir sind an die Gesetze der Physik und der Straßenverkehrsordnung gebunden. Wir stehen hier nicht aufgrund eines Fehlers, sondern weil die Logik des Verkehrs es so will. Sehen Sie auf dem Display: Der Stau löst sich erst in etwa zwanzig Minuten auf. Eine perfekte Gelegenheit, um Ihnen das Herzstück des Systems zu erklären.
B: Ausgezeichnet. Denn genau das beschäftigt mich seit der Abfahrt vom Parkplatz: Dieses Auto fährt nicht nur, es denkt in Sprache, wie Sie sagten. Sie nennen es das "Language-to-Action"-Netz. Wie genau muss ich mir das vorstellen? Übersetzt das Auto alles, was es sieht, in einen internen Monolog?
A: Im Prinzip ja, aber es ist präziser als ein einfacher Monolog. Wir haben das System auf Basis eines Large Language Model (LLM) entwickelt, das fundamental für autonomes Fahren optimiert wurde. Der menschliche Verstand verarbeitet visuelle und sensorische Informationen, indem er sie in Konzepte und Beschreibungen umwandelt: „Die rote Ampel ist an, der Fußgänger läuft auf die Straße, der Wagen links bremst.“ Das ist das Konzept der Kontextualisierung durch Sprache.
Unser System, wir nennen es intern "Codex", tut dasselbe. Die Sensordaten z.B. Lidar, Radar, Kameras, werden nicht direkt in Steuerbefehle umgesetzt. Stattdessen übersetzt Codex die aktuelle Verkehrssituation, die Umgebung und die Vorhersage in eine präzise, strukturierte interne Sprache. Erst aus diesem Sprachmodell leitet das Netzwerk die nächsten Fahrbefehle ab.
B: Das ist faszinierend. Es ist also ein LLM, das auf die Domäne Autofahren zugeschnitten ist. Das führt mich sofort zu meiner ersten Frage: Wie groß ist der Wortschatz, den Codex wirklich versteht? Ein normales großes Sprachmodell kennt Millionen von Wörtern, aber das braucht Ihr Auto doch gar nicht.
A: Das ist der entscheidende Punkt. Wir haben den Wortschatz extrem reduziert und spezialisiert. Codex versteht nicht "Philosophie" oder "Quantenmechanik". Der aktive Vokabularbereich, mit dem es arbeitet, liegt bei etwa 25000 bis 30000 Begriffen.
B: Nur so wenig? Das ist überraschend.
A: Es sind hochspezifische Begriffe, Herr Huber. Sie stammen aus drei primären Domänen:
1. Fahrzeugdynamik und Manöver: Wörter wie „Spurwechsel vorbereiten“, „sanfte Bremsung“, „Beschleunigung“, „Übersteuern korrigiert“.
2. Verkehrsumgebung und Objekte: Das sind die Nomen „Fußgänger“, „Fahrradfahrer“, „Lichtsignal“, „Baustelle“, „Straßenschaden Typ A“. Diese sind mit extrem präzisen geometrischen und prädiktiven Attributen verknüpft.
3. Gesetzgebung und Entscheidungsfindung (High-Level): Hier sprechen wir über die Regeln: „§ 1 StVO konform“, „Priorität rechts vor links“, „Notfall-Halt eingeleitet“.
Jedes Wort ist im Grunde ein Symbol für eine komplexe Datenstruktur, die Ort, Geschwindigkeit, Wahrscheinlichkeit und Sicherheitsmarge beinhaltet. Es ist ein hochkomprimiertes, optimiertes Verkehrs-Idiom.
B: Und wie sieht es mit der Spracherkennung aus? Ist Codex rein auf Englisch trainiert, wie die meisten großen KI-Systeme, oder kann es auch auf Deutsch reagieren? Wir sind ja gerade in Deutschland.
A: Unser Prototyp hier ist von Grund auf multilingual konzipiert, was unsere Trainingsdaten betrifft. Der Kern des Codex-Modells operiert zwar intern in einer Art neutraler, logischer Repräsentationssprache, die wir für die Recheneffizienz entwickelt haben. Aber es wurde auf Datensätzen in Englisch und Deutsch trainiert.
B: Warum diese zwei?
A: Englisch als globaler Standard, und Deutsch wegen der Spezifität unserer Straßenverkehrsordnung und unserer primären Testregion. Das bedeutet, wenn ein Straßen- oder Baustellenschild das Wort "Umleitung" enthält, wird es direkt als das Konzept erkannt, das im deutschen Kontext gilt. Ein rein englisch trainiertes Modell müsste es erst übersetzen und dann die deutsche Regel anwenden, was eine kritische Verzögerung darstellen könnte. Codex verarbeitet die visuelle Information und labelt sie direkt in der richtigen Sprache für die Aktionsentscheidung.
B: Das ist ein sehr durchdachter Ansatz zur Fehlervermeidung. Das bringt mich zur Königsfrage: Mit welchem Datensatz haben Sie dieses spezialisierte LLM trainiert? Es muss ja gigantisch sein, aber gleichzeitig so fokussiert.
A: Es ist gigantisch, ja, aber mit einem Unterschied zu herkömmlichen LLMs. Wir haben uns auf zwei Hauptkomponenten konzentriert:
1. Visuelle/Sensorische Annotationen (~90% des Datensatzes): Wir verwenden Milliarden von Kilometern an simulierten Fahrten und Millionen von Kilometern an realen Fahrten, die wir selbst erfasst haben. Der Schlüssel ist die sprachliche Annotation. Jede kritische Situation – eine fast-Kollision, ein schwieriger Spurwechsel, eine überraschende Bremsung – wurde nicht nur mit visuellen Bounding Boxen annotiert, sondern auch mit einer detaillierten Ground-Truth-Sprachbeschreibung. Zum Beispiel: "Der rote SUV (ID 47) hat den toten Winkel verlassen und beschleunigt. Reduziere die Geschwindigkeit um 5 km/h, um einen sicheren Abstand wiederherzustellen.“ Das ist die Sprache, die das Netzwerk lernen muss.
2. Regelwerk und Logik (~10% des Datensatzes): Dies ist ein handkuratierter Datensatz, der alle relevanten Gesetzesparagraphen der StVO, der EU-Vorschriften und komplexer Fahrmanöver in eine formalisierte logische Sprache übersetzt. Das ist die grammatikalische und juristische Grundlage, die dafür sorgt, dass Codex nicht nur fährt, sondern verantwortungsvoll handelt.
B: Also lernt das Auto nicht nur zu fahren, es lernt auch, warum es fährt. Und es lernt, seine eigenen Entscheidungen intern mit Sprache zu begründen.
A: Exakt. Das bietet uns einen unschätzbaren Vorteil: Interpretierbarkeit und Debugging. Wenn das Auto später eine Fehlentscheidung trifft, können wir seinen internen Monolog – die Kette der Sprachbefehle und logischen Schlussfolgerungen – exakt zurückverfolgen. Wir lesen nicht nur „Aktion: Gebremst“, sondern „Grund: Fußgänger (ID 3) hat die Fahrbahn betreten (Wahrscheinlichkeit 99%), Notbremsung (Threshold 8 von 10) eingeleitet.“ Das ist für die Zertifizierung und die Fehlersuche revolutionär.
(Der Verkehr vor ihnen beginnt sich langsam zu bewegen.)
B: Herr Dr. Vogel, das ist wirklich erstaunlich. Ihr Ansatz, die rohen Sensordaten erst in ein hochspezialisiertes Sprachmodell zu übersetzen und daraus die Aktion abzuleiten, scheint mir ein echter Paradigmenwechsel im autonomen Fahren zu sein. Vielen Dank für diese tiefen Einblicke während unserer Pause.
A: Gern geschehen, Herr Huber. Und sehen Sie, die menschliche Logik hatte Recht: Die zwanzig Minuten sind um. Codex hat soeben den Befehl „Fahre mit reduzierter Geschwindigkeit dem Fluss des Verkehrs folgend an“ generiert. Wir sind wieder unterwegs.
(Das Auto gleitet sanft an.)
October 13, 2025
A videogame for instruction following
... pickup the box and brings it to room D.
Then a new order is shown on the screen. For each successful executed task the robot gets a score.
There are different order categories available, sometimes the robot has to transport a box and sometimes he simply has to navigate to a room.
The overall idea is that the game eingine decides with a random generator the next task, shows the order in natural language on the screen and the human operator has to execute it. So the warehouse simulator is a text to action videogame.
From a technical perspective it was realized in 350 lines of code in Python with the pygame library. There is a class for the robot navigation, another class for the task manager and some drawing routines for the game.
October 10, 2025
Die Programmiersprache C als Feind der Heimcomputer
Das plötzliche Verschwinden der 8bit wie 16bit Heimcomputer Anfang der 1990er Jahre wird häufig mit dem Aufkommen des IBM kompatiblen PC erklärt und dem Unvermögen von Commodore und Atari mit der technischen Innovation Schritt zu halten. Doch der eigentliche Grund für das Ende von C64, Amiga und Atari ST ist in der C Programmiersprache zu sehen.
Softwareentwicklung auf den 8bit und 16bit Heimcomputern erfolgte entweder in Assembler was eine Profi-Programmiersprache war oder in BASIC womit Anfänger gut zurecht kamen. Beide Sprachen haben massive Nachteile. Obwohl sich in Assembler hocheffiziente Routinen schreiben lassen, geht die Softwareentwicklung sehr langsam vonstatten. Will man ein Spiel auf den C64 portieren und dies in Assembler tun, braucht man dafür ein größeres Entwicklungsteam was über Monate hinweg den Code optimiert. Das funktioniert nur, wenn es eine große Nachfrage gibt was Anfang der 1990er Jahr nicht der FAll war. Wenn man hingegen Spiele oder Anwenderprogramme in BASIC entwickelt, kann man die Hardware nicht ausnutzen und das heißt die Qualität ist gering.
Für den IBM kompatiblen PC hieß die Antwort ab Mitte der 1980er Jahre eine besondere Programmiersprache zu verwenden welche die Vorteile von Assembler und Basic miteinander verbindet, die Sprache C. Damit lassen sich in vergleichweise kurzer Zeit umfangreiche Softwareprojekte entwickeln die hocheffizient die Hardware ausnutzen. Sowohl zu MS DOS ZEiten als auch unter Windows in den 1990er war C die beliebteste Programmiersprache um professionelle Software zu entwickeln. Hingegen spielte die Assembler Sprache bei IBM PCs nur eine unbedeutende Rolle.
Bei 8bit und 16bit Heimcomputern war es genau umgekehrt. Die wichtigste Sprache dort war Aseembler. Selbst auf Amiga 500 Geräten für die es C Compiler gab, wurden viele Spiele in low level Assembler realisiert. Ein möglicher Grund dürfte sein, dass ein C Entwicklungssysteme höhere Hardwareanforderungen mitbringt insbesondere das Vorhandensein einer Festplatte für die zahlreichen Betriebssystem-Bibliotheken. Auf einem PC standen sowohl C compiler als auch FEstplattenspeicher zur Verfügung, dort wurde C von Anbeginn als Hauptentwicklungssprache eingesetzt was dazu führte dass in kurzer Zeit 100k und mehr Softwarepakete entstanden.
Der Grund warum ab Mitte der 1990er die Zahl der Neuerscheinungen für 8bit und 16bit System drastisch zuurückging war, dass es aufwendig ist für diese Hardwareplattform Software zu schreiben. Wenn jedoch Programmierer keine neue Software erstellen für eine Hardwareplattform ist das das Ende dieses Computertypes. Ohne neue Software schwindet dessen Attraktivität für den Endbenutzer und er wechselt auf ein System wo es endlos viele Neuerscheinungen gibt. Je mehr neue Spiele und Anwenderprogramme erscheinen desto attraktiver ist ein Computer für den Endbenutzer.
October 07, 2025
Technology adoption rate
Existing attempts to describe the history of technology were dominated by story telling and by analyzing the context of innovation. A certain person has invented a new machine at a certain year and this new technology has influenced the society. For example the steam engine has started the industrial revolution while the computer has powered the digital age.
What was missing is a mathematical equation to predict how big the influence of a certain technology is and how long it takes until an innovation will become available in the mainstream. One possible attempt for a mathematical description of new technology is the "technology adoption rate" which should be explained next.
The adaption rate measures how many people using a technology at which year. A good example are the number of internet users [1]:
1993, 14 Mio
1994, 23 Mio
1995, 45 Mio
1996, 78 Mio
1997, 121
1998, 189
1999, 282
2000, 415
2001, 502
2002, 665
2003, 781
This table shows, that the in the 1990s only small percentage of the overall population had access to the World wide web and it took some years until around 2003 to reach a larger audience. In other words, that internet wasn't a success from day 1 but it took around 10 years until the mainstream audience was interested in this technology.
The technology adoption rate measures this timespan, in case of the internet, the timespan was roughly 10 years, compared to the adoption rate of the steam engine this was very fast because the steam engine took around 100 years until a larger amount of people had access to the technology.
The advantage of the adoption rate is, that it allows to compare different technology on a mathematical scale. Instead of describing in text what a steam engine is or what the impact of the color television was, its enough to compare only the years until a new innovation has attracted the masses. The general trend is, that the adoption rate has become faster. After the invention of the Internet the next powerful technology was the introduction of the smartphone. Similar to the internet this technology has reached hundred of millions of users. The difference is, that the adoption rate for the smartphone was only 7 years compared to 10 years for the internet.
In case of the chatgpt website, the adoption was even faster than for the smartphone. The adaption rate for chatgpt was only 4 years. A possible explanation why newer technology is available faster has to do with the requirements before new technology can be deployed. Before it was possible to connect every household to the electrical grid, there was a need to build the entire grid. Hundreds of kilometers with cables were needed all over the world to connect every city and every village. Building such an infrastructure is expensive and takes many decades. The result was that the adoption rate for electricity was around 50 years.
In case of chatgpt the precondition was more comfortable. Thanks to the computer boom, the internet boom and the smartphone boom, all the households were already equipped with modern computer technology including access to electricity and the internet backbone. The only new innovation was the activation of a single website which gives all the world access to artificial intelligence. There was no need to deploy new cable or buy another hardware, but existing devices are powerful enough to render a large language model frontend in the browser.
From a mathematical standpoint an intelligence explosion is the observation that the technology adoption rate has been reduced. A faster adoption rate means, that a product or service is available in a shorter timeframe which maximizes the impact for the society. In stead of question in which year a certain AI product is available for beta testers and engineers the question is, how long does it take until the product is available for the masses.
Compared to the adoption rate of AI and the internet, the adoption rate for the Computer was much longer. The estimation is that it took 20 years upto 25 years until the computer was available for 50% of the population. Technically the first home computer, the Apple II, was introduced in 1977. But this doesn't mean, that in 1977 all the households in the U.S. were equipped with such technology. Even in the late 1980s most households had no access to a computer. It took until the mid 1990s, before a larger population was using a computer in their home. There are multiple reasons available why the timespan was so long. Technically the microchip was available in 1977 and technically all the households in the U.S. had access to electricity. The problem was that in the beginning homecomputer were very expensive and they were complicated to use. During the 1980s computers were only a niche products for computer nerds and for scientists but not for the mainstream population.
With the advent of the graphical user system, namely Windows 3.0 the situation changed drastically. The amount of annual sold PC skyrocketed in the 1990s which is equal to a high adoption rate. IN the mid 1990s, computer technology was available in most households and was used routinely for entertainment, work and education.
The advantage of slow adoption rate of 20 years upto 25 years is, that the population can adapt to new technology over a longer timespan. Even if the computer was perceived as revolutionary technology it was not able to change the society drastically. Most part of the life were working great without Apple or IBM computers, and the dominant technology in private homes were the color television, the printed book and the radio.
In contrast the situation for chatgpt is the opposite. The adoption rate of AI Technology is faster which means, it affects more people in a shorter timespan. This indicates that the population gives chatgpt a high priority. Lots of efforts in spend hours and spend money are redirected to artificial Intelligence. The faster adoption rate for AI proofs that the singularity theory is valid. That means, there is an intelligence explosion and that new technology is introduced faster than in the past. Perhaps it makes sense to explain the term "intelligence explosion".
In contrast to common assumption, intelligence explosion has nothing to do with an AI Supercomputer which becomes more intelligent, but the term is referencing to technology in general. Its about technology like the printed book, the internet, chatbots or robots which are introduced to the world with a high adoption rate. Intelligence explosion means, that these technology is available for everyone and that every year, new technology is added. There is not a single generative AI available but dozens of them like: midjourney, chatgpt, gemini, dall-e, copilot, deepseek. So the term intelligence explosion means simply that the collection of all the ai technology grows quickly.
Even if chatgpr has become a great success, there was some limiting factors available in the early beginning. In the first month before the website was seen as a breakthrough technology, many users in the world didn't even know that chatgpt exists. In the first months it was sees as website for computer science students in the english speaking world. In addition the chatgpt server was not able to fulfill all requests. It took some months until the problems were solved and the brandname was popular in the mainstream population.
[1] Internet users worldwide, https://www.internetlivestats.com/internet-users/
October 05, 2025
Impact of AI towards society
Instead of predicting future development, the following essay describes only the past which is well documented. Most attempts in the past to build robots and develop artificial Intelligence has failed. A famous large scale project was realized by Cycorp in the mid 1980s [1]. The impact for the society was nearly zero. No valuable product was generated by Cyc. Another larger project was company "Helpmate robotics" from the mid 1990s. The goal was to build hospital robots which deliver food. Even some of these robots were used in reality, the company went bankrupt and the customers were not satisfied.
Last but not least, the "Rethink Robotics" company should be mentioned which was founded in 2008. The most famous product of the company was Baxter which was an industrial robot with a smiling face. The amount of sold units were low and the company went bankrupt after a while.
So we can say, that the attempts to build robots in the mid 1980s until 2010s were not very successful. Not a single human workers were replaced by these AI systems and the amount of sales was very low. There are many reasons available for this failure, for example the immature technology, a public how doesn't understand robotics, and management failures by the founders of the AI companies.
[1] Cycorp https://yuxi.ml/cyc/
September 22, 2025
September 16, 2025
Wie man eine Linux Distribution auswählt
Neueinsteiger sehen sich mit einer Unmenge unterschiedlicher Linux Distributionen konfrontiert, die untereinander vollständig inkompatibel sind. Ferner ist es selbst für Computer Experten nahezu unmöglich, sich selbst eine Linux Distribution zu erstellen. Daraus ergibt sich das Problem sich entscheiden zu müssen was mit einem hohen Lernaufwand verbunden ist.
Die wohl einsteigerfreundlichste Methode sich der Welt von Open Source und Linux zu nähern besteht darin, ein aktuelles Debian Live image auf einen USB Stick zu kopieren, damit einen älteren Rechner zu starten und auf der Festplatte dann Linux zu installieren. Sollte der potentielle User auf technische Schwierigkeiten stoßen beim erstellen des Debian Live images, so sollte die Linux Migration an sich hinterfragt werden. Wenn selbst Debian Live zu hohe Anforderungen an einen User stellt, wird er mit anderen Distributionen auf noch viel tiefer gehende Probleme stoßen und dann ist möglicherweise Linux das falsche Betriebssystem für den User.
Angenommen das Booten eines PC mit der live iso datei und das anschließénde installieren auf der Festplatte funktioniert, so wird der User feststellen, dass Linux grundsätzlich anders aufgebaut ist, als das gewohnte Windows oder MacOS. Es gibt andere Programme, andere Online Foren und die Kommandozeile spielt eine viel wichtigere Rolle. Der wichtigste Unterschied bei Linux ist die Abwesenheit von komerzieller Software und die Abwesenheit von Computerspielen. Rein technisch kann man in Linux durchaus mittels der Steam Software Spiele installieren und einige User machen das tatsächlich, doch die Mehrzahl der 80 Mio Linux User dürfte selten Computerspiele spielen. Jedenfalls ist das den Zahlen zu entnehmen, bezüglich angemeldeter Clients in Online Rollenspielen.
Linux ist klassischerweise ein Betriebssystem für Programmierer. Es kann durchaus auch von Nicht Programmierern verwendet werden, doch ist dieser Anwendungsfall eher die Ausnahme. Es gab in der Vergangenheit zahlreiche Versuche, Linux für die große Masse zugänglicher zu machen, ähnlich wie Android bei Smartphones, doch all diese Versuche sind gescheitert. Projekte wie Ubuntu Linux, Linux Mint oder Videotutorials im Internet die schritt für schritt erklären wie man eine ext4 Partition verkleinert kommen ihrem Ziel Linux für Jedermann zu erklären nicht nach. Nutzer die sich nicht technisch mit einem Betriebssystem auseinandersetzen wollen bleiben seit Jahren dem etablierten Windows und MacOS Ökosystem treu und fühlen sich von Linux eher abgeschreckt. Mag sein, dass Linux bei Supercomputern, bei Servern und auf Smartphones das dominerende Betriebssystem weltweit ist, bei Desktop PC ist es Nischensystem was sich an einer sehr kleine Zielgruppe von Programmierern wendet. Wer noch nie in der Sprache C programmniert hat und in LaTeX keinen Sinn erkennen zu vermag, der ist definitiv falsch bei Linux, ganz egal ob er Debian, Arch Linux oder Suse preferiert.
Zum Abschluss noch ein kleiner Selbsttest für die Programmiersprache C. Nur wenn man 6 von 6 Antworten korrekt geben konnte, sollte man den Versuch unternehmen auf Linux umzusteigen. Andernfalls wird das Projekt sehr wahrscheinlich scheitern.
Quiz: Die Programmiersprache C für Anfänger
1. Was ist das grundlegende Element, das ein C-Programm benötigt, um zu starten?
a) Eine `#include`-Anweisung.
b) Die `main()`-Funktion.
c) Eine Variable mit dem Namen `start`.
d) Eine Bibliothek namens `begin.h`.
2. Welche Header-Datei wird typischerweise benötigt, um die Funktion `printf()` zu verwenden?
a) `stdlib.h`
b) `string.h`
c) `stdio.h`
d) `math.h`
3. Wofür wird ein Semikolon (`;`) in C hauptsächlich verwendet?
a) Um das Ende einer Code-Zeile zu markieren.
b) Um eine Variable zu deklarieren.
c) Um das Ende einer Anweisung zu markieren.
d) Um Kommentare zu schreiben.
4. Wie wird in C eine einfache Ganzzahl-Variable namens `zahl` deklariert, die den Wert 10 enthält?
a) `int zahl = 10;`
b) `number zahl = 10;`
c) `integer zahl = "10";`
d) `zahl = 10;`
5. Welches ist der korrekte Datentyp für ein einzelnes Zeichen in C?
a) `string`
b) `char`
c) `text`
d) `byte`
6. Was ist die Aufgabe eines Compilers?
a) Er wandelt den C-Code direkt in Text um.
b) Er führt das Programm aus.
c) Er übersetzt den C-Quellcode in maschinenlesbaren Code.
d) Er sucht nach Viren im Programm.
---
Richtige Antworten
1. b) Die `main()`-Funktion. Sie ist der Einstiegspunkt, an dem das Programm beginnt.
2. c) `stdio.h` (Standard Input/Output). Diese Bibliothek enthält grundlegende Ein- und Ausgabefunktionen wie `printf()` und `scanf()`.
3. c) Um das Ende einer Anweisung zu markieren. Jede Anweisung muss mit einem Semikolon abgeschlossen werden.
4. a) `int zahl = 10;`. `int` steht für Integer (Ganzzahl).
5. b) `char`. Dies ist der Standard-Datentyp für Zeichen.
6. c) Er übersetzt den C-Quellcode in maschinenlesbaren Code. Der Compiler ist das Werkzeug, das den Code in ein ausführbares Programm umwandelt.
September 15, 2025
Kleiner Rant gegen das Linux Mint Betriebssystem
Linux Mint gehört zu den populärsten Linux Distributionen überhaupt, was die Anzahl der User entspricht. Für einige gilt es daher als Hoffnung um Linux auf dem Desktop populär zu machen und den Market share von Linux gegenüber Windows zu vergrößern. Es gibt jedoch auch einige gravierende Nachteile die im folgenden beleuchtet werden sollen:
Hauptkritik an Linux Mint ist, dass es stark auf den Cinnamon desktop fokussiert ist. Andere Oberfläche wie LXQT können technisch nicht nachinstalliert werden, während dies bei XFCE desktop zwar möglich ist, aber die Linux Mint community davon abrät. Man könnte daher sagen, dass Linux mint weniger eine Linux Distrubution sondern eher ein Linux desktop ist.
Der fokus auf den desktop erklärt auch die scheinbare anfängerfreundlichkeit. Wenn sich die mehrzahl der Fragen im Forum auf den Desktop fokussiert werden andere Themen ausgeblendet. So sind Mint answernder zwar Experten darin was die Layouteinstellungen von Cinnamon betrifft, haben aber wenig Erfahrung im Umgang mit der Kommandozeile oder mit alternativen Desktops wie Gnome. Dies ist keineswegs ein Vorteil sondern es ignoriert einen großteil des Linux ecosystems.
Die Sprache in den Foren ist ein weiterer Kritikpunkt. Dort werden selten technische Themen diskutiert sondern es wird emotionalierste Ausdrucksweise preferiert. Hier mal einige Titelüberschriften aus dem deutschen Linux Mint Forum:
- Akku anzeige Mint spinnt
- XFCE zum Laufen bekommen als Dummie
- zweite Platte einbauen
- der Schlüsselbund tut nicht immer was er soll
- wie kriege ich Dateien zwischen Linux Mint host und Windows 7 VM hin und her?
- Druckertreiber spinnen seit geraumer Zeit
Das gerade Neueinsteiger von Linux auf Problem stoßen in Bezug auf Druckertreiber, Dateiverwaltung oder dem Nachinstallieren von Paketen ist üblich, wenn aber diese Probleme umdefiniert werden in Linux mint bezogene nicht verallgemeinerbare Schilderungen in einer blumigen Sprache dann ist das ein Alarmsignal.
Obwohl der Cinnamon Desktop solide programmiert wurde, ist er keineswegs imstande vorhandene Alternativen wie Gnome oder Lxqt zu ersetzen. Cinnamon ist nur ein weiteres Linux package was man entweder mag oder eben nicht. Wenn man um dieses package herum eine komplette Linux distribution entwirft mit dem Versprechen der Komplexitätsredukation kann das nur scheitern.
Deutlich professioneller aufgestellt ist die Debian Distribution. Diese stellt smätliche vorhanden Linux desktops als pakete bereit und es obliegt dem User davon eines zu installieren. Selbstverständlich erzeugt diese eine erhöhte Komplexität nur diese ist auch bei anderen Software Kategorien vorhanden. So gibt es in Linux mehr als einen Texteditor sondern der Nutzer hat die Auswahl aus mindestens 10 unterschiedlichen Programmen wie nano, vim, geany, gedit, kate und VS Code.
Es kann nicht Aufgabe einer Linux distribution stellvertredend für den Nutzer eine Auswahl zu treffen und die anderen verfügbaren Programme auszublenden. Sollte ein bestimmtes Open Source Projekt eine größere Verbreitung genießen so muss dieses selbständlich in einer Universal Distribution auswählbar sein.
Criticism of Linux Mint
Linux Mint is frequently discussed Linux Distribution which is sometimes introduced as a beginner friendly version of Debian. Instead of assuming that the user is already a Linux expert, the Linux community assumes, that the new user has a background in the Microsoft operating system and needs a similar experience in Linux.
To verify if this claim is correct or not it a working thesis is presented first which gets explored in detail. The thesis is, that Linux Mint is at foremost a desktop environment similar to XFCE and Gnome. The core element of the Linux mint distribution is the Cinnamon desktop, which is based on gnome2 and was improved with additional programs. What the user gets presented as Linux mint is a certain look&feel of the programs, a task menu on the bottom and a certain file manager with some other utility programs, e.g. for updating the system or change the settings.
It doesn't make sense to describe Linux Mint as a new linux distribution because it has many similarities with existing distributions. For example, the package format apt has its roots in the Debian ecosystem, the kernel if of course the normal Linux kernel and the display manager is the well known x.org system.
A true Linux distribution has its own philosophy and its own package manager. For example the Arch Linux project is working completely different from debian, because its organized around the pacman package manager.
With the working thesis, that Linux Mint is mostly a desktop environment it possible to judge if the project fits to a certain user. If the user likes the Gnome2 environment and is familiar with some Linux mint enhancement, than he will become a fan of Linux Mint. In contrast, if the user prefers a different desktop environment like XFCE or gnome3, he won't be happy with the Mint project.
From a technical perspective, a debian user can install the Cinnamon desktop in Debian, this resulting look and feel comes close to the Linux Mint distribution which is usually delivered on an entire .iso file. Instead of arguing which of the Linux distribution is the best, the real question is which sort of desktop environment the user likes. There are multiple options like Lxqt, gnome3, KDE, xfce, lxde and so on.
Unfurtunately, this huge amount of choices makes it hard for a former Windows user to become familier with Linux. The look and feel of cinnamon looks very different from Gnome3 which looks completely different from xfce. Even the file manager is a different program and the printer settings are located in another section. Unfurtunately, the prediction is, that future Linux desktops will look even more chaotic with additional forks of existing desktop systems. The introduction of the newly developed wayland display server has increased the amount of choices.
What is missing in the Linux ecosystem is a single one for all desktop system which is highly developed and has accumlated most of the users. Such kind of super-desktop is available for windows users and in the macos ecosystem.
But let us go back to the Linux Mint project. The assumption is, that the visual look and feel of a Linux system is highly important. That means, for Linux mint the cinnamon desktop is the core element and all the documentation and the tools are added to this desktop. The cinnamon desktop has the same pros and cons like other desktop systems. Some user like the design, while other not.
The problem with the "desktop is the Linux distribution" mentality is, that redefines reality and creates a bias. Let me give an example. Suppose the lxde desktop decides to start an entire linux distribution which promotes Lxde as default window manager. The assumption is, that all the users are prefering this single desktop but are discouraged to install alternative desktops like gnome3. Even if some users are prefering such an idea, it won't fit for other users. The better alternative is to see a Linux distribution only as a framework for different desktops.
September 14, 2025
Creating a digital Zettelkasten
The Luhmann principle can be adapted to analog note taking and digital one both. An example for the digital version is shown in the screenshot. Even if graphics can't be inserted into a plain text document, the approach is very powerful and allows to create a personal knowledge base.
The restriction of 500 chars for each section results into atomicity, which means instead very long sections, there are multiple short sections available. The atomicity ensures, that similar information are located nearby. For each newly added card the user has to search for an existing section which matches closely to the subject.
The main advantage of grouping similar information together is that the resulting text document can be read again. Its not a chaotic information collection but similar to a book all the information are grouped in chapters. In addition the Luhmann principle supports the memorization process similar to the Mindmapping method invented by Tony Buzan.
September 13, 2025
Über das Ausmisten von Kabeln und anderer Elektronik
**Kapitel 1**
(Der Abend bricht an. Der Wohnraum, der eigentlich Gemütlichkeit ausstrahlen sollte, wird dominiert von Regalen, die vollgestopft sind mit einem Sammelsurium aus Elektronik. Da ist ein klobiger Röhrenmonitor aus den späten 90ern, daneben ein vergilbter Laptop aus der Zeit des Jahrtausendwechsels, ein Tablet-PC der ersten Generation und drei verschiedene Spielekonsolen. Lisa betritt das Zimmer, in ihren Händen ein leerer Karton.)
Lisa: (mit einem betont freundlichen, aber festen Lächeln) Schatz? Haben wir heute Abend schon etwas vor?
Markus: (blickt von seinem Laptop auf, dem neuesten in der Sammlung) Nicht, dass ich wüsste. Ich wollte die neue Folge von dieser Serie anschauen. Warum fragst du?
Lisa: Perfekt. Dann haben wir Zeit, die große Aufräumaktion zu starten.
Markus: (verwirrt) Aufräumaktion?
Lisa: Ja. Ich dachte, wir beginnen hier. (Sie tippt sanft gegen den alten Röhrenmonitor.) Schau, der "Wohnzimmer-Friedhof der Technik" braucht eine dringend nötige Renovierung.
Markus: (seine Augen weiten sich leicht) Das ist doch kein Friedhof, Liebes. Das ist… meine Sammlung. Meine Historie!
Lisa: Das ist ein Friedhof, und die Geister dieser alten Geräte spuken in Form von Staub, Kabeln und Platzmangel. Ich meine, ernsthaft, Markus. Wofür brauchst du einen Tablet-PC aus dem Jahr 2010, der nicht mal mehr die heutigen Webseiten laden kann?
Markus: Der hat einen fantastischen Bildschirm! Und das war der erste, auf dem ich mein eigenes Spiel programmiert habe! Der ist historisch wertvoll!
Lisa: (schmunzelt) Historisch wertvoll für die Müllabfuhr, vielleicht. Du hast diesen, einen Laptop und eine Konsole aus der Zeit, die nicht mehr funktionieren. Und der Karton ist für all die kaputten Sachen, die du "irgendwann mal reparieren" willst.
Markus: (schüttelt den Kopf) Halt! Stopp! Du siehst das viel zu einfach. Das sind keine "Sachen". Das sind… Erinnerungen. Jeder von denen steht für eine Ära. Der alte PC da hinten war mein erster Gaming-PC! Auf dem habe ich…
Lisa: Ja, ich weiß. Ich habe es schon hundertmal gehört. Und ich bewundere dein technisches Verständnis, aber der Platz in diesem Haus ist begrenzt. Dein altes Gaming-Monster hat eine Diagonale wie ein Kleinwagen und wiegt auch so viel. Wir könnten stattdessen ein schönes Sideboard hier aufstellen.
Markus: Ein Sideboard? Für was? Für Kaffeetassen und Zeitschriften? Ich meine, du hast doch auch deine Kleidung, die du nicht mehr trägst.
Lisa: Das ist doch etwas ganz anderes! Das sind Klamotten!
Markus: Und das hier sind… meine Klamotten. Technisch gesehen. Ich trage sie nicht mehr, aber sie haben eine emotionale Verbindung zu mir. Wie dein altes Abendkleid von unserer Hochzeitsfeier. Würdest du es wegschmeißen?
Lisa: (sie verschränkt die Arme, sichtlich genervt) Das Abendkleid ist in einer Kiste und nimmt einen minimalen Raum ein, den niemand sieht. Diese Riesen-Maschinen stehen mitten in unserem Wohnzimmer. Und ich kann nicht den Staubsauger da drunter schieben, ohne mir einen Bruch zu heben.
Markus: (geht zu der Konsole, nimmt sie schützend in die Hand) Siehst du? Hier ist der Lüfter noch intakt. Vielleicht kann ich den ja noch für den neuesten Computer verwenden, wenn seiner mal den Geist aufgibt. Das ist doch alles nur ein bisschen logische Vorausschau, Liebes!
Lisa: (ihr Lächeln verschwindet, als sie ihn streng ansieht) Nein. Das ist Chaos. Und es muss aufhören. Dieser Karton. (Sie klopft auf den leeren Karton.) Er ist für die Dinge, die du am wenigsten benutzt. Die du am leichtesten gehen lassen kannst. (Sie deutet auf den Röhrenmonitor.) Der fängt an.
(Markus schaut auf den Monitor, dann auf den Karton, dann wieder auf seine Frau. Er hat den Kampf verloren, bevor er überhaupt begonnen hat.)
**Kapitel 2**
(Markus hat den alten Röhrenmonitor aus dem Regal gehievt. Er steht jetzt auf dem Teppich wie ein gestrandetes Raumschiff. Lisa mustert ihn, die Arme verschränkt und mit skeptischem Blick. Markus streichelt über das vergilbte Plastikgehäuse.)
Markus: (sanft) Schau ihn dir an. Allein die Farbe! Es ist das beige der späten Neunziger. Und die Lüftungsschlitze – ein Meisterwerk der Ingenieurskunst. Ich habe darauf „Half-Life“ gespielt, das erste Mal. Der Bildschirm hatte so eine Röhrenwölbung, die…
Lisa: (unterbricht ihn) …die deine Augen in der Mitte des Spielfeldes zusammenkrampfte, ich weiß. Aber Markus, er wiegt fast 20 Kilogramm. Er ist staubig und nimmt den ganzen Platz weg, auf dem wir eine schöne Zimmerpflanze hinstellen könnten.
Markus: Eine Pflanze, die stirbt. Aber der Monitor hier hat mehr als zwanzig Jahre überlebt!
Lisa: (trocken) Und wofür hast du den?
Markus: Man weiß nie! Vielleicht kommt ja mal jemand, der eine Retro-Gaming-Party veranstalten will und einen originalen Bildschirm braucht. Das ist ein Sammlerstück!
(Lisa seufzt und deutet auf einen vergilbten, aber glänzenden Laptop mit einem riesigen Akku.)
Lisa: Was ist mit dem da? Du hast den seit Jahren nicht mehr angefasst.
Markus: (nimmt den Laptop vorsichtig in die Hand) Das ist nicht nur irgendein Laptop, das ist der Grund, warum wir uns überhaupt kennengelernt haben! Ich habe dir darauf das erste Mal ein Musikvideo gezeigt, im Park! Er war neu und aufregend, so wie wir damals.
Lisa: Er war damals schon alt, und es war so aufregend, dass der Akku nach zehn Minuten leer war und wir ein Café suchen mussten. Aber das ist nicht der Punkt, Markus. Er funktioniert nicht mehr. Er lädt nicht, der Bildschirm ist kaputt.
Markus: Aber die Festplatte ist noch drin. Da sind noch Fotos von unserem ersten Urlaub drauf! Was, wenn…
Lisa: Die Fotos sind auf der Cloud. Und du hast sie auch auf deinem Handy, auf meinem Handy und auf deiner Festplatte. Wir brauchen diesen Laptop nicht, um uns daran zu erinnern.
(Sie geht zu einer verstaubten Kiste, aus der ein Gamecontroller ragt.)
Lisa: Und was ist hiermit? Dieses Ding hat in den letzten fünf Jahren kein einziges Mal den Strom gesehen.
Markus: Das ist die Konsole der vierten Generation! Ich habe darauf ein Spiel beendet, das so frustrierend war, dass ich es fast in den Müll geworfen hätte. Es ist ein Symbol des Sieges! Du schmeißt doch auch nicht die Medaille weg, die du beim Marathon gewonnen hast, nur weil du sie nicht mehr trägst.
Lisa: (lehnt sich über die Kiste) Die Medaille hängt an der Wand und braucht keinen Strom. Dieses Ding hier steht nicht für den Sieg, sondern für die Niederlage im Kampf gegen den Staub. Und es nimmt Platz weg, den wir brauchen. Ich will, dass unser Wohnzimmer zum Leben da ist, nicht zum Verstauben.
Markus: (reibt sich die Schläfen) Aber es fühlt sich einfach falsch an. Es fühlt sich an, als würde ich einen Teil von mir wegwerfen. Es fühlt sich… stressig an. Es ist nicht nur Elektronik, es sind… Geschichten.
Lisa: (sanft) Ich weiß. Und ich liebe deine Geschichten. Aber die Geschichten sind nicht in den Geräten. Sie sind in deinem Kopf und in meinem Herzen. Und wir machen doch auch neue Geschichten. Aber die können wir nicht erleben, wenn wir in einem Museum für technische Antiquitäten leben.
(Markus sieht sich um. Der Röhrenmonitor. Der Laptop. Die Konsole. Er weiß, dass Lisa recht hat, aber es fällt ihm schwer, die Geräte nicht als Teil seiner Identität zu sehen. Er schluckt schwer.)
**Kapitel 3**
(Markus sitzt auf dem Boden, eine alte Konsole in den Händen, während Lisa einen weiteren leeren Karton aufklappt. Der Monitor und der Laptop stehen in der Ecke, wie traurige Zeugen einer verlorenen Schlacht. Ein Moment der Stille hängt im Raum.)
Lisa: (setzt sich zu ihm) Hey. Es tut mir leid. Ich wollte nicht, dass du dich so fühlst. Ich weiß, wie viel dir all das bedeutet.
Markus: (blickt auf die Konsole) Ja. Es ist… es ist, als würde ich eine Zeitreise wegschmeißen. Ich weiß, es ist absurd. Aber jeder von diesen Computern hat einen Teil meines Lebens archiviert, nicht nur Daten. Es war das Gerät, auf dem ich meine ersten Textabenteuer geschrieben habe. Auf dem ich meine erste Webseite gebaut habe.
Lisa: (lächelt sanft) Ich verstehe das. Ich habe auch meine alten Sachen. Aber wir müssen doch nicht alles behalten. Lass uns einen Kompromiss finden.
Markus: Kompromiss?
Lisa: Ja. Lass uns die Dinge, die wirklich nicht mehr funktionieren oder die einfach nur Platz wegnehmen, zu einem Wertstoffhof bringen. Ich habe schon online nachgesehen, man kann Elektronik dort recyceln. Sie bekommen ein zweites Leben in irgendeiner Form. So müssen wir sie nicht einfach auf den Müll werfen.
Markus: (seine Augen werden wieder etwas lebendiger) Recyceln? Das ist… das ist eine Idee. Also, sie gehen nicht komplett verloren.
Lisa: Genau. Und die wirklich wichtigen Stücke… die, die eine echte Geschichte erzählen… die können wir behalten. Wie wäre es, wenn wir diesen einen, superalten PC-Tower, den du immer für den „Meister der Technik“ hältst, und die Konsole der vierten Generation behalten? Wir stellen sie in das Hobbyzimmer, wenn ich dort Platz geschaffen habe. Als Denkmäler.
Markus: Denkmäler?
Lisa: Ja. Dein kleines persönliches Museum. Aber nur diese beiden. Der Rest muss gehen, weil er dich nur von neuen Dingen abhält. Du kaufst doch immer wieder neue Sachen, weil die alten kaputt sind oder veraltet, und dann hortest du sie.
Markus: (schaut nachdenklich) Das stimmt. Ich habe das Gefühl, ich müsste die Vergangenheit ehren, indem ich sie aufbewahre. Aber vielleicht ehrt man sie ja auch, indem man sie loslässt, um Platz für die Zukunft zu schaffen.
Lisa: (nickt) Und für mehr Wohnzimmer. Denk an das Sideboard. Wir könnten endlich eine Lampe darauf stellen.
Markus: (lächelt leicht) Eine Lampe, ja. Aber weißt du, was die wirklich coole Lampe der Zukunft sein wird? Eine, die man mit dem Handy steuert. Das wäre wirklich…
Lisa: (schlägt ihm spielerisch auf den Arm) Hör auf! Keine neuen Ideen, bevor wir die alten nicht los sind.
Markus: (steht auf, geht zum alten Röhrenmonitor und tippt auf den Bildschirm) Also, alter Kumpel. Es ist Zeit, einen neuen Weg zu gehen. Ein neues Leben zu beginnen. In irgendeiner Form. Danke für all die guten Zeiten.
(Markus greift sich den Röhrenmonitor und den vergilbten Laptop und legt sie vorsichtig in den Karton. Es ist eine Mischung aus Trauer und Erleichterung in seinen Augen. Lisa legt ihm eine Hand auf die Schulter.)
Lisa: So ist es gut. Du schaffst das.
Markus: Das sind doch nur Dinge. Es sind doch nur Dinge. (Er sagt es mehr zu sich selbst als zu ihr.)
Lisa: Lass uns das durchziehen. Und wenn wir fertig sind, zeige ich dir das neueste Modell eines Tablets. Das kann dann ja ins Archiv, wenn es veraltet ist!
Markus: (lacht) Du bist echt gemein.
(Er schiebt den Karton zur Tür. Es fühlt sich leichter an als erwartet.)
September 03, 2025
Preinstalled gnome apps
Even there are 100 different Linux distributions available, there are only two Linux desktops available which are Gnome and KDE. Gnome is widespread used and should be explained briefly. It consists of a handful of apps in different categories:
- system tools: archive manager, gnome-disks, file-manager, gedit, terminal, screenshot, system-monitor
- document tools: scanner, pdf viewer
- office apps: video player, evolution e-mail
No matter which Linux distribution was installed on the PC for example Ubuntu, Arch Linux or Slackware, these gnome apps are available for sure. It allows to organize files on the hard drive, create new partitions, create text files, enter commands in the terminal or write an email. These tools are frequently used by the average end user so they are preinstalled on every system.
Of course, all these programs are distributed under a GPL License, which means that they are free of charge and without advertisement. They are nearly error free, because the tools were improved over decades and used by million of users.
September 02, 2025
Secure erase of a hard drive in Linux
Debian based operating systems have a graphical frontend for hard drive manipulation called gnome-disks. According to the selected hard drive, there are different options available in the menu. For older drives there is an option to overwrite a disk with zeros and for more recent drives there is a dedicated secure erase option available. What these options have in common is, that it takes multiple hours for doing so.
Unfortunately, the photorec recovery software is able to restore files from hard drive which was overwritten with zeros. Even if this sounds technically not possible some online forums are mention such kind of behavior. To ensure, that the data on the hard drive are really gone it makes sense to combine a secure erase operation with creating a newly encrypted volume. This ensures, that even photorec can't recover former data.
The good news is, that Linux user doesn't have to use command line tools for formatting a drive and creating an encrypted volume. Such kind of operation is fully supported in the gnome-disks software. The program is so powerful, that even less known filesystems like F2FS (flash friendly filesystem) are supported which is a great choice for usb thumb drives. Of course, the user needs to interact with the software carefully, because a simple click on a button can shredder an entire disk.
August 24, 2025
Wie ist der aktuelle Stand in Sachen künstlicher Intelligenz?
Bis zum Jahr 2010 war es simpel den aktuellen Stand zusammenzufassen. Bis ca. 2010 gab es eine universitäre KI Forschung die von zahlreichen Rückschlägen geprägt war, aber keine nennenswerte Ergebnisse präsentieren konnte. Extrem hochentwickelte Software aus dieser Zeit waren Schachcomputer. Deren Algorithmen konnten nur Schach spielen aber sonst gar nichts. Es war unklar wie man Roboter programmieren könnte, was jedoch verfügbar waren das waren Industrieroboter für wiederkehrende Aufgaben. Einige Prozesse wie das Punktschweißen wurden damit automatisiert aber auch hier blieb unklar wie man Roboter für komplexere Aufgaben einsetzen konnte.
Neuartige Ansätze wie neuronale Netze gab es zwar vor 2010, allerdings war unklar wie genau man damit Probleme innerhalb der KI lösen könnte. Es gab zwar Bücher und wissenschaftliche Zeitschriften zu dieser Thematik, allerdings war das Gebiet der KI innerhalb der Informatik isoliert.
Ab ungefähr dem Jahr 2022 änderte sich die Situation überraschend. Ausgangspunkt war das Large language model chatgpt was anders als frühere Deep Learning projekte auch außerhalb der Informatik auf große Aufmerksamkeit stieß. Die geschätzten Nutzerzahlen für chatgpt im Zeitverlauf waren:
- dec 1, 2022: 1 million users
- jan 20, 2023: 10 million users
- March 8, 2023: 100 million users
- Aug 2025: 800 million users
Parallel zur gestiegenen Nutzerzahl berichteten Medien also Fernsehen und Zeitungen über das Thema Künstliche Intelligenz. Es gab umfangreiche Reportagen, Hintergrundberichte und Meinungen über denkende Maschinen und mögliche Zukunftsszenarien.
Large language models blieben bisher das einzige Beispiel für Künstliche Intelligenz was in der Öffentlichkeit wahrgenommen wurde. Andere Anwendungen wie z.B. Roboter und selbstfahrende Autos hatten bisher keinen Durchbruch erlebt. Sie werden zwar innerhalb der Informatik diskutiert und es gibt auch wissenschaftliche Veröffentlichungen aber bisher fehlt es an einer größeren Nutzerzahl außerhalb der Informatik. Im Zuge des Hype rund um Künstliche Intelligenz ab 2022 wurden zwar künftige humanoide Roboter angekündigt, aber eine Massenproduktion gibt es zum Zeitpunkt Aug 2025 nicht.
Es gibt folgende Erklärungen dafür. Entweder wird erst in Zukunft der Hype um Roboter beginnen, also ab 2026 oder später. Oder aber, Roboter sind technisch bedingt nicht realisierbar und Künstliche Intelligenz ist auf Large language modelle beschränkt. Das also sobald man versucht Roboter mittels Software zu steuern es aus techischen Gründen nicht funktioniert oder ökonomisch keinen Mehrwert generiert.










