April 25, 2025

Combinatorial explosion in games

Artificial Intelligence is researched since decades. From the 1950s to the 2010s a huge amount of projects and papers were generated about the subject. Even for experts on the fields its impossible to list all the subjects. It seems, that there is no clear leading paradigm inside AI research.
The only true rock solid paradigm are the unsolved problems within AI. Namely the Combinatorial explosion in games is repeating pattern over decades. In the 1950s a simple strategy game like Tictactoe was hard to solve for computers and the same situation is there in 2010s. The different AI related theories about expert systems, search algorithms and Qlearning policies are trying mostly to overcome Combinatorial explosion in games.
The reason why so many different theories are available is because its unclear how to do so. The disappointing situation has to do with a large state space in games like chess and the slow performing computer hardware. The typical situation in the last decades of AI research was, that a certain algorithm will need too much CPU ressources while figuring out the optimal action. Especially in robotics based on motion planning this problem is the constant bottleneck.
The interesting situation is, that every generation of AI researchers has struggled with the same bottleneck. Early attempts to play games for example with the Monte carlo tree search algorithm resulted in huge CPU consumption, while later more advanced attempts to control robots with Refinforcement learning algorithm resulted also in huge CPU consumption. The reason was that the underlying cause (the combinatorial explosion) remains unsolved. If the task for a computer is to investigate a graph with 10 billion nodes, the computer has always a long runtime. The problem is too big for the machine.
The good news is, that the situation can be summarized into a simple question: How to solve np hard problems? Thats the only interesting question within AI in the last 50 years. All the other topics in AI research, e.g. neural networks, planning algorithms or pattern recognition are only sub-problems of this overall challenge.

April 22, 2025

Wie die Kommerzialisierung die Seele der Amateur-Robotik fraß

 Erinnern Sie sich noch an die Zeit, als die Robotik-Szene ein lebendiges Biotop von Enthusiasten war? In staubigen Garagen und muffigen Kellerräumen werkelten Tüftler an ihren selbstgebauten Arduino-Robotern. Stolz wurden die neuesten Kreationen in lokalen Robotik-Clubs präsentiert – einfache Linienverfolger, wackelige Greifarme, gesteuert mit ein paar Zeilen selbstgeschriebenem Code. Hier ging es um die pure Freude am Entdecken, am Ausprobieren, am gemeinsamen Lernen. Und oft gab es spannende Vorträge, die auch mal in die aufregenden Gefilde der Künstlichen Intelligenz abdrifteten, präsentiert von Gleichgesinnten, die ihre neuesten Erkenntnisse teilten.

Diese Ära der unkommerziellen, gemeinschaftsgetriebenen Robotik scheint jedoch langsam zu verblassen. Was ist passiert? Die Antwort ist, wie so oft, die Kommerzialisierung.

Heute dominieren Giganten den Markt. Multimilliarden-Dollar-Unternehmen entwickeln hochkomplexe Roboter für industrielle Anwendungen, für die Logistik oder sogar für den persönlichen Gebrauch – Produkte, die die bescheidenen Arduino-Kreationen von einst wie Spielzeug aussehen lassen. Diese Unternehmen verlegen Hochglanz-Bücher über Robotik und KI, produzieren aufwendige Online-Vorlesungen über neuronale Netze, Motion Planning und die neuesten multimodalen Roboter. Die Informationsflut ist enorm, die Qualität oft exzellent.

Doch wo bleibt dabei der Raum für den Amateur, für denjenigen, der einfach nur aus Leidenschaft an Robotern basteln und sich mit anderen austauschen möchte? Die einstigen Robotik-Clubs, die von Idealismus und dem Wunsch nach Wissensaustausch getragen wurden, scheinen im Schatten der kommerziellen Angebote zu verkümmern.

Die Gründe dafür sind vielfältig:

* Überwältigende Professionalität: Die schiere Komplexität und Perfektion der kommerziellen Roboter kann entmutigend wirken. Der Sprung vom einfachen Arduino-Projekt zum Verständnis und zur Nachahmung modernster Robotik scheint riesig.
* Fokus auf Konsum statt Kreation: Die Kommerzialisierung fördert den Konsum. Statt selbst zu entwickeln, wird das fertige Produkt gekauft. Die Freude am eigenen Schaffen, am Lösen von Problemen mit begrenzten Mitteln, geht verloren.
* Dominanz der Online-Lehre: Während Online-Vorlesungen und -Kurse zweifellos wertvoll sind, fehlt ihnen oft die persönliche Interaktion, der informelle Austausch und die Möglichkeit, gemeinsam an realen Projekten zu arbeiten, die die lokalen Clubs auszeichneten.
* Verlagerung des Interesses: Das Interesse an Robotik und KI ist zwar enorm gewachsen, doch der Fokus hat sich oft von der praktischen, hands-on Erfahrung hin zum theoretischen Verständnis und der Bewunderung der kommerziellen Produkte verschoben.

Das ist nicht per se schlecht. Der Fortschritt in der Robotik und KI ist beeindruckend und die breite Verfügbarkeit von hochwertigen Informationen ist ein Segen. Dennoch geht mit dem Verschwinden der unkommerziellen Robotik-Clubs etwas Wertvolles verloren:

* Die niedrigschwellige Zugänglichkeit: Hier konnten Anfänger ohne Vorkenntnisse und mit geringem Budget erste Schritte in die Welt der Robotik wagen.
* Die Gemeinschaft und der Austausch: Das gemeinsame Tüfteln, das Teilen von Misserfolgen und Erfolgen, die gegenseitige Inspiration – all das schuf eine einzigartige Lernumgebung.
* Die spielerische Entdeckung: Ohne den Druck kommerzieller Verwertbarkeit stand die reine Neugier und der Spaß am Experimentieren im Vordergrund.

Es ist an der Zeit, sich zu fragen, wie wir diese Kultur der Amateur-Robotik wiederbeleben können. Brauchen wir neue Formen von Gemeinschaften, die sowohl die Möglichkeiten der modernen Technologie nutzen als auch den Geist der ursprünglichen Robotik-Clubs bewahren? Vielleicht Online-Plattformen, die lokale Treffen und gemeinsame Projekte fördern? Oder Initiativen, die den Zugang zu Ressourcen und Wissen für Hobbybastler erleichtern?

Die Kommerzialisierung hat zweifellos die Robotik und KI revolutioniert. Aber wir sollten nicht vergessen, wo diese Reise ihren bescheidenen Anfang nahm: in den Werkstätten und Kellern von passionierten Amateuren. Es wäre schade, wenn dieser Geist der Entdeckung und des gemeinschaftlichen Schaffens ganz verloren ginge.

Was denken Sie? Haben Sie ähnliche Erfahrungen gemacht? Gibt es noch lebendige Beispiele für unkommerzielle Robotik-Initiativen? Teilen Sie Ihre Gedanken in den Kommentaren!

April 08, 2025

Deutschlands Rolle bei der Erforschung Künstlicher Intelligenz

 

Anstatt die Debatte von Null zu beginnen, lohnt ein kurzer Blick zurück. Künstliche Intelligenz ist keines neues Gebiet sondern wird seit den 1950er Jahren erforscht. In Europa reicht die Geschichte nicht ganz soweit zurück, aber die ersten Berichte über denkende Maschinien und Kybernetik stammen aus den 1960er. Das Fachgebiet der künstlichen Intelligenz war nie wirklich akzeptiert innerhalb der Informatik. Selbst für Wissenschaftler, die sich beruflich mit Computerhardware und -software beschäftigten, waren neuronale Netze, Expertensysteme und Roboter entweder Nonsense, Zeitverschwendung oder sogar Unwissenschaftlich.
Angesichts dieser negativen Rezeption in den letzten 50 Jahren, wie wlll man in der breiten Öffentlichkeit ein positves Klima gegenüber der Erforschung von KI erzeugen? Richtig, nähmlich gar nicht. Technik im Allgemeinen und KI im besonderen kommt im öffenltichen Diskurs nicht vor. Der Mainstream ignoriert die aktuelle Forschung und will gar nicht wissen, wie Roboter programmiert werden oder was “Large language modelle” sind.
Die einzigen, die sich für KI Probleme interessieren ist die KI Forschung selber. Das ganze ist ein selbstreferentielles System, wo eigens Probleme erfunden werden die dann in einer unverständlichen Fachsprache diskutiert werden. im Verglech zur Künstlichen Intelligenz ist die theoretische Physik geradewegs einsteigerfreundlich ...
Es ist wenig wahrscheinlich dass die Eintrittshürden niedriger werden, wenn künftig Roboter leistungsfähiger werden. Eher wird das Gegenteil passieren. Je komplexer die KI Modelle sind, desto weniger Experten werden sie verstehen. Das ist keineswegs die Folge von einer schlecht aufbereiteten medialen Darstellung oder durch einzelne Akteure verursacht, sondern die hohe Komplexität der KI in Verbindung mit dem völligen Desinteresse der breiten Öffentlchkeit ist strukturell bedingt.
Anders als bei früheren technischen Revolutioen wie der Erfindung der Elektrizität oder das Aufkommen der Heimcomputer, gibt es im Bereich KI keine leicht verständliche Einführung. Es ist für Laien schlchtweg nicht möglich sich in die Grundlagen von denkenden Maschinen einzuarbeiten, weil die vorhandenen Publikationen nicht aufenander aufbauen sondern sich wiedersprechen. Selbst KI Experten die sich mit der Thematik schon länger beschäftigen haben keine Ahnung von ihrem Fach weil se garantiert die falsche Sub-Disziplin näher untersucht haben die eben einer Sackgasse ähnelt. KI kann man also sehr weitläufiges Labyrinth verstehen was über sehr verschlungene Pfade verfügt. Selbstverständlich gibt es keine Gebrauchsanweisung und keine Hinweisschilder sondern nur erfolglose Versuche sich zu orientieren. Beispielsweise wurde in den 1980er die Programmiersprache Prolog mit hohem Aufwand erforscht und verbessert. Heute hingegen ist Prolog in Vergessenheit geraten, ähnlich wie die Theorembeweiser oder der Sabor V Roboter von August Huber.
Das meiste was unter dem Stichwort KI publiziert wurde, hat keine praktische Anwendung. Zu nennen sind die B.E.A.M. Roboter von Mark Tilden, das CYC projekt von Douglas Lenat oder probabilistische Robotik von Sebastian Thrun. All diese Sparten waren für maximal 4 Jahre im Gespräch und gerieten schnell wieder in Vergessenheit.

April 05, 2025

Creating academic papers with large language models

 Instead of analyzing the subject from a theoretical standpoint, let us make a practical experiment. The prompts of a human user and the answers of the large language model are showing next.

human: Hi, can you help me writing an academic paper?
LLM: Of course, which title and which style do you prefer?
human: The title is "Programming challenges for grounded language, the Naming game and other examples for man to machine communication", it should be written in Arxiv style with 16 pages in total.
LLM: Sorry, but I'm only a simple large language model and can't create entire academic papers.
Human. One second ago, you said you can do so?
LLM: Sorry for the confusion.
Human: Can you create at least a bibliography which fits to the title?
LLM: of course, for creating a bibliography there are multiple academic databases available like Google Scholar, Scopus and Science direct. There you find detailed meta information about existing scholarly works.
Human: Thank you, it was a pleasure to ask you something.
LLM: You're welcome!

The influence of Large language models to academic publishing

Until the year 2025 the influence of Artificial intelligence to academic publication is surprisingly small. In contrast to social media which has been flooded with AI generated images, the amount of of AI generated academic papers is small or even zero. To investigate the subject we have to count the amount of papers first.
According to public databases like Openalex and Google Scholar there are around 160 million upto 250 million papers available with an increase of 5 million new papers every year. The amount of new papers has increased in the last years with a small percentage of 4% which can be explained with higher productivity of authors or a small increase of the amount of authors. So in general the situation is very static which can be explained with the strict peer review system used for conference proceedings and academic journals.
Peer review means, that before an 8 page long paper is getting published, two and more human judges have to confirm that the content is valid and that the content has a high quality.
The open question is, if Artificial intelligence and especially large language models are able to increase the paper count in the academic domain. For example by writing 10 million new papers instead of the current 5 million human generated papers.
One obstacle for doing so is the need for novelty in scholarly writing. What academic authors are trying to archive is to write something new. This can be a new subject, or a new perspective to an existing issue. Even if not all published papers are excellent, the claim is always, that a report or essay is innovative. Such kind of requirement is difficult to reproduce with large language models. At least in the now, its not possible to generate high quality academic papers with a computer program.

April 04, 2025

Verkaufsgespräch für eine Rückenstrecker-Maschine der Luxus-Klasse

 


Szene: Ein elegant designter Messestand mit dem dezenten Schriftzug "Vertebrae Ultima". Dr. Maximilian von Hohenzollern, ein renommierter Orthopäde mit einer Privatklinik in bester Lage, steht vor der beeindruckenden Maschine. Ihm gegenüber steht Herr Julian Brandt, der Vertriebsleiter von "Vertebrae Ultima".

Dialog:

Dr. von Hohenzollern: (Betrachtet die Maschine aufmerksam, fährt mit der Hand über die Carbonfaser) Sehr beeindruckend, Herr Brandt. Die Verarbeitung scheint von höchster Qualität zu sein.

Herr Brandt: Guten Tag, Herr Dr. von Hohenzollern. Es freut mich sehr, dass Sie unsere Vertebrae Ultima ins Auge gefasst haben. In der Tat verwenden wir nur die besten Materialien und legen größten Wert auf eine makellose Verarbeitung.

Dr. von Hohenzollern: Ich habe die Broschüre studiert. Die technologischen Ansätze sind… nun ja, ambitioniert. Die adaptive Biomechanik und die Fluid-Motion Resistance Technology klingen vielversprechend. Könnten Sie mir das in der Praxis erläutern?

Herr Brandt: Selbstverständlich, Herr Doktor. Nehmen Sie doch bitte Platz. (Deutet auf den ergonomisch geformten Sitz) Die Vertebrae Ultima kalibriert sich zunächst auf die exakte Anatomie des Nutzers. Sobald Sie eine Übung beginnen, erfassen die Mikrosensoren Ihre Wirbelsäulenbewegung und Muskelaktivität in Echtzeit. Die Fluid-Motion Resistance passt den Widerstand absolut gleichmäßig an Ihre Kraftentwicklung an – ohne jegliche ruckartigen Bewegungen oder Belastungsspitzen.

Dr. von Hohenzollern: Interessant. Und die Neuro-Muskuläre Stimulation? In welchen Fällen setzen Sie diese ein?

Herr Brandt: Die NMS ist optional zuschaltbar und kann die Rekrutierung der Muskelfasern im Musculus erector spinae intensivieren. Wir empfehlen sie insbesondere bei Patienten mit ausgeprägter Muskelschwäche oder zur Optimierung des Trainingserfolgs bei Hochleistungssportlern. Die Intensität wird dabei stets individuell angepasst und durch unsere KI-gestützte Software überwacht.

Dr. von Hohenzollern: Die 3D-Wirbelsäulenanalyse auf dem Bildschirm ist ebenfalls bemerkenswert. Liefert das System wirklich präzise Daten?

Herr Brandt: Absolut, Herr Doktor. Unser hochauflösendes Kamerasystem erfasst die Wirbelsäulenbewegung mit einer Genauigkeit im Submillimeterbereich. Das Echtzeit-Feedback ermöglicht es dem Nutzer, seine Bewegungsausführung zu optimieren und Dysbalancen zu erkennen. Auch für uns als behandelnde Ärzte liefert diese detaillierte Analyse wertvolle Einblicke in den Trainingsfortschritt.

Dr. von Hohenzollern: (Nickt nachdenklich) Die Personalisierung durch die KI klingt ebenfalls fortschrittlich. Wie werden die Trainingsprogramme erstellt?

Herr Brandt: Unsere Software greift auf eine umfangreiche Datenbank von biomechanischen Daten und wissenschaftlichen Studien zurück. Nach einer initialen Analyse Ihrer Patienten oder Ihrer eigenen Präferenzen erstellt die KI maßgeschneiderte Trainingspläne, die sich dynamisch an den Fortschritt anpassen. Der virtuelle Coach gibt dabei jederzeit Anweisungen und Korrekturen.

Dr. von Hohenzollern: Und die Integration mit anderen Gesundheitsdaten? Könnte man beispielsweise Daten von Wearables einbinden?

Herr Brandt: Selbstverständlich, Herr Doktor. Die Vertebrae Ultima ist mit gängigen Gesundheits- und Fitness-Trackern kompatibel. So erhalten Sie ein ganzheitliches Bild des körperlichen Zustands und können das Training optimal darauf abstimmen.

Dr. von Hohenzollern: (Steht auf und betrachtet die Maschine erneut) Herr Brandt, die Technologie ist zweifellos beeindruckend. Aber lassen Sie uns über das Wesentliche sprechen: den Preis. In der Broschüre steht eine Summe von einer Million Euro. Das ist… eine signifikante Investition.

Herr Brandt: (Lächelt dezent) Das ist korrekt, Herr Doktor. Die Vertebrae Ultima ist nicht nur ein Trainingsgerät, sondern ein Ergebnis jahrelanger Forschung und Entwicklung, gefertigt aus den exklusivsten Materialien und ausgestattet mit der fortschrittlichsten Technologie, die derzeit verfügbar ist. Dieser Preis reflektiert nicht nur die Produktionskosten, sondern auch den einzigartigen Mehrwert, den dieses System bietet.

Dr. von Hohenzollern: Und dieser Mehrwert besteht worin konkret für meine Klientel? Meine Patienten sind anspruchsvoll und erwarten die bestmögliche Behandlung.

Herr Brandt: Genau hier liegt der entscheidende Punkt, Herr Doktor. Die Vertebrae Ultima ermöglicht Ihnen, Ihren Patienten eine Rückentherapie auf einem Niveau anzubieten, das mit herkömmlichen Methoden kaum erreichbar ist. Die präzise Steuerung der Bewegung, die individuelle Anpassung, das detaillierte Feedback und die wissenschaftlich fundierten Trainingsprogramme führen zu schnelleren und nachhaltigeren Ergebnissen. Dies stärkt nicht nur die Zufriedenheit Ihrer Patienten, sondern positioniert Ihre Klinik auch als führend im Bereich der orthopädischen Rehabilitation.

Dr. von Hohenzollern: (Denkt kurz nach) Die Exklusivität ist natürlich auch ein Faktor. Ein solches Gerät würde meine Praxis von anderen abheben.

Herr Brandt: Absolut, Herr Doktor. Die Vertebrae Ultima ist ein Statement. Sie demonstriert Ihren Anspruch auf höchste Qualität und Innovation. Zudem ist im Preis ein umfassendes Betreuungspaket enthalten, das die Lieferung, Installation, eine ausführliche Schulung Ihres Teams und einen persönlichen 24/7-Support umfasst. Wir stellen sicher, dass die Integration in Ihre Klinik reibungslos verläuft.

Dr. von Hohenzollern: (Blickt Herrn Brandt in die Augen) Herr Brandt, ich bin beeindruckt. Die Technologie und die Präsentation sind überzeugend. Ich sehe das Potenzial, meinen Patienten damit einen echten Mehrwert zu bieten. Lassen Sie uns über die Details der Bestellung und die Lieferzeiten sprechen.

Herr Brandt: (Erleichtert und professionell) Sehr gerne, Herr Doktor. Ich bin zuversichtlich, dass die Vertebrae Ultima eine wertvolle Bereicherung für Ihre Klinik sein wird. Kommen Sie bitte mit an unseren Besprechungstisch, dann können wir alles im Detail besprechen.

(Beide verlassen den Stand in Richtung eines separaten Gesprächsbereichs.)

April 01, 2025

Birds eye perspective towards AI

 The AI revolution started in 2023 is different to the PC revolution in the 1990er because its more complex to understand. There is not a single technology available like a desktop PC but multiple abstract technologies which are resulting into surprising result. To become an overview over the development there is a need to identify key patterns which are common for all possible large language3 models created in the past and in the future.

What these AI systems have in common is, that they working with natural language and they were optimized for benchmarks. The ability of language understanding and the complexity of the benchmarks has been improved over the months. That means, that current LLMs are more powerful than former counterparts.

The surprising situation is, that even before the year 2010 early attempts were made to measure Artificial intelligence. In computer chess the ELO score is used to measure the propability to win a game of chess played by humans or machines. The lastest iteration of chess engines have an ELO score much higher than the smartest human chess player available. Modern AI systems were benchmarked not only with chess elo score but with question answering quizs, image generation benchmarks and öcoding benchmarks. The limitation of an AI is given by the benchmark. If the benchmark isn't able to measure correctly, the underlying AI system which scores in the benchmark has a low quality.

The general pathway towards AI is to create first a benchmark, for example a VQA benchmark, then test existing AI systems in this benchmark, and in the third step, the original benchmark gets improved. Such a development workflow produces a self evolving ecosystem which consists of more complex benchmarks, in combination with more powerful Large langhuage models.

The main difference between former chess playing AI in the 1990s and current LLMs like chatgpt is, that the benchmark is more difficult. Playing and winning a game of chess or tictactoe isn't recognized as a serious challenge. All the existing AI system are able to do so. The newly invented obstacle is to understand documents, generate prose text and generate videos. Such kind of challenge is a serious obstacle for current AI systems.

What makes the situation a bit unusual is, that the newly created / discovered benchmarks are closely related to human's problem solving skills. Recognizing objects in a symbol and answering questions for a document is similar to what humans are doing. And doing physical tasks, like pick&place objects or assembling a car is also closely related to human's daily life. If robots and AI software is able to do these tasks with the same and even a higher precision this is perceived as a technological singularity.

Its hard or even impossible to find a benchmark which can be solved by humans, but not by machines. Only very advanced tasks like driving a car or writing academic papers are not solved by machines yet. Instead of analyzing how a certain LLMs is working internally, the more important question is which sort of benchmarks can be solved by this AI. This allows to get a better picture about the current situation in AI technology.

Zeitreise 2.0: Wie KI unsere Vergangenheit neu erfinden wird

 *Ein Gespräch mit Dr. Maximilian Stern, dem Visionär hinter dem Chronos-Projekt*

Reporter: Dr. Stern, Ihr Chronos-Projekt sorgt für großes Aufsehen. Können Sie uns erklären, was genau dahintersteckt?

Dr. Stern: Stellen Sie sich vor, Sie könnten in die Vergangenheit reisen, nicht als Beobachter, sondern als Teil der Geschichte. Chronos ist ein Holodeck, das durch KI-gestützte Simulationen historische Ereignisse in atemberaubender Detailtreue rekonstruiert.

Reporter: Eine virtuelle Zeitmaschine also?

Dr. Stern: Genau. Wir nutzen riesige Datenmengen aus historischen Archiven, Tagebüchern, Gemälden und sogar genetischen Analysen, um immersive 3D-Simulationen zu erschaffen. Die KI extrapoliert fehlende Informationen und erzeugt so eine lebensechte Erfahrung.

Reporter: Das klingt nach Science-Fiction.

Dr. Stern: Die Grenzen zwischen Fiktion und Realität verschwimmen zunehmend. Wir stehen am Anfang einer neuen Ära der Geschichtsforschung. Chronos ermöglicht es uns, Geschichte nicht nur zu lesen, sondern sie zu erleben.

Reporter: Welche Anwendungsbereiche sehen Sie?

Dr. Stern: Bildung, Forschung, Unterhaltung – die Möglichkeiten sind endlos. Stellen Sie sich vor, Schüler könnten das antike Rom besuchen oder mit Leonardo da Vinci sprechen. Historiker könnten in die Köpfe historischer Persönlichkeiten eintauchen und ihre Motive besser verstehen.

Reporter: Gibt es ethische Bedenken?

Dr. Stern: Natürlich. Wir sind uns der Verantwortung bewusst. Chronos soll kein Voyeurismus sein, sondern ein Werkzeug des Verständnisses. Wir entwickeln strenge Richtlinien für die Nutzung der Technologie.

Reporter: Kritiker warnen vor der Gefahr, die Vergangenheit zu verfälschen.

Dr. Stern: Geschichte ist immer eine Interpretation. Chronos bietet uns eine neue Perspektive, aber es ist wichtig, die Grenzen der Simulation zu erkennen. Wir sind nicht allwissend, aber wir können der Wahrheit näherkommen.

Reporter: Wie weit sind Sie mit dem Projekt?

Dr. Stern: Wir haben bereits beeindruckende Prototypen entwickelt. Die ersten Simulationen sind verblüffend realistisch. Wir arbeiten daran, die Technologie für ein breiteres Publikum zugänglich zu machen.

Reporter: Wann können wir mit Chronos rechnen?

Dr. Stern: Wir hoffen, in den nächsten Jahren erste öffentliche Vorführungen zu ermöglichen. Die Zukunft der Geschichtsforschung hat gerade erst begonnen.

Reporter: Dr. Stern, vielen Dank für das aufschlussreiche Gespräch.

Dr. Stern: Gern geschehen. Die Zukunft ist aufregend, nicht wahr?

How to navigate in the AI Literature

 

The collected papers and books about artificial intelligence and robotics are the most dominant resource available to investigate the subject in detail. The assumption is, that every subject was described already in the Gutenberg galaxy, the only question is where exactly and how well a certain text was written.
Especially for newbies its important to identify possible entry point to start the journey to AI. Such an entry point are “np hard” and “Np complete” problems which are discussed since the 1990s in common books about algorithms. The idea is that apart from vanilla problems like sorting an array and searching in a string, some advanced challenges are available. These advanced challenges have no known algorithm, or the algorithm is working with so called heuristics.
The good news is, that these np hard problems are a good starting point to investigate the subject of AI. Every AI problem problem is also an np hard problem. That means, AI is trying to solve only the advanced problems not researched in classical computer science, e.g. path planning, motion planning, decision making in games or human to machine communication.
There are some attempts available to solve even np hard problems, e.g. guided search in the state space or evaluation function. Especially evaluation functions are a widely discussed subject within the AI community because they are needed for computer chess. There are hundreds or even thousands of books available which are dedicated only to evaluation functions, so we can say that this subject might be a good starting point to become familiar with AI.

Understanding how the AI revolution works


In contrast, to the PC revolution in the early 1990s the AI revolution isn't a mainstream movement. What is called the AI revolution is mostly invisible in the public perception. there are no Cebit like expos, no dedicated computer journals in the bookstore and even online forums about Artificial Intelligence are missing. For the newbies this situation is very disappointing and there are rumors available that perhaps the AI revolution isn't there.

To make the development around robotics and AI visible, there is a need to focus on the Gutenberg galaxy. Even the term needs to be introduced first. What is called the Gutenberg galaxy is term coined by Marshall McLuhan and describes the ecosystem of printed information. Inside the Gutenberg galaxy there is a sub-section available which contains of books and journals with a small amount of readers from the academic domain. This sub-section is the epicentre of the AI revolution.
According to the published papers there is a lot of progress available. Especially from 1990 until 2020 many new disciplines and algorithms around Artificial Intelligence were invented. It was mentioned before, that this development was mostly invisible or ignored by the public, but this fact doesn't mean, that it is not there. It means only that the entry barrier is high.
The dominant question asked by published papers around AI is how to enable a computer to think like a human. This question was investigated under multiple perspectives by different authors. There are not a handful or hundreds of papers available but million papers were written about robotics and Artificial intelligence. For a single reader it would take hundreds of years to get familiar with all this knowledge.
The reason why it makes sense to become familiar with the literature around AI is because its not the only place in which the AI revolution is visible. If the proceedings are printed out, it can be traced back similar to a puzzle at which moment in time which innovation was available in the literature. All the important technology around neural networks, SLAM localization of robots and grounded language is already available in the literature. What is missing are the readers.
Perhaps it makes sense explain why the entry barrier to the Gutenberg galaxy is high. From a formal perspective, 90% of the written information about Artificial Intelligence was formulated in English and the content has made public available under a creative commons license. That means, technically the pdf documents can be downloaded and read by everyone without any costs. The problem is the language in these documents which contains complex abstract vocabulary and assumes that the reader is already familiar with a subject. Its not possible to explain the inner working of a neural network to beginners, but the assumption is always that the reader is already an expert on this field and needs only detailed information. Even the most accessible book “Russel/Norvig: AIMA” can't be called beginner friendly because its a scientific book written for computer scientists.
A good starting point for newbies into the subject of AI might be so called np hard problem. NP hard problems are a subcategory of computer science puzzle for example the traveling salesman problem or motion planning problems. These problems are usually unsolvable, but the AI communities tries to find algorithms for solving these problems anyway. So we can say, that the AI papers are trying to solve np hard problems. The task can be compared with “Squaring the circle”, some researchers are convinced that this is possible, while other have give up.
Until the 1990 there was a widespread opinion available that AI in general can't be realized. It was proven mathematical that np hard problems are unsolvable and that even neural networks are overwhelmed by motion planning problem. This situation has changed since 1990s. Today, a large percentage of AI researchers is convinced that robots can be build in reality.