Technikhistorisch gibt es eine Unmenge an publizierten Büchern und Zeitschriftenartikeln seit den 1960er Jahren zum Gebiet der Künstlichen Intelligenz. Diese Materialfülle macht es jedoch schwierig die wesentlichen Strömungen der KI Forschung zu identizieren. Einen roten Faden erkennt man, wenn man sich mit den wesentlichen Problemen beschäftigt, an denen die Forschung sich abarbeitete und zwar ist das zuerst einmal die Steuerung von Robotern.
Ein Roboter ist wohl das anschaulichste Beispiel für künstliche Intelligenz und gilt als die Königsdisziplin innerhalb der Künstlichen Intelligenz. Zu dessen Steuerung benötigt man viele Subsysteme wie Bilderkennung, Planung, Sprachverarbeitung, Mechanik und Algorithmen.
Der Hauptgrund warum es bis ca. 2010 nur wenige bis gar keine echten Roboter gab, hat etwas mit der komplexitätstheorie genauer gesagt den np-schweren Problemen zu tun. Der Zustandsraum in dem ein Roboter sich bewegt, also die Gesamtzahl aller Servoeinstellungen in Verbindung mit allen möglichen Ereignissen ist zu groß und die Künstliche Intelligenz Forschung besitzt nur wenige bis gar keine Techniken zur Komplexitätsreduktion.
Obwohl es viele Versuche gab wie hochentwickelte Sampling algorithmen (Rapidly exploring random tree) oder den Versuch KI-Bibliotheken und KI Programmiersprachen zu erschaffen blieben die erhofften Erfolge aus, und zwar jahrzehntelang.
Eine mögliche Erklärung warum der Zustandsraum von Robotern so umfangreich ist ist an das Automatenmodell der Turing maschine gebunden. Solange die Zielstellung darin besteht einen autonom ablaufenden Algorithmus zu entwerfen, der ohne Fernsteuerung von Außen ein Problem löst, solange bleibt das Problem np-schwer. Einen solchen Algorithmus gibt es nicht und kann es auch nicht geben, insofern vermag der Computer den Roboter nicht zu steuern.
Den Versuch, Roboter mit Computern zu steuern kann man auf das Teilproblem der heuristischen Algorithmen reduzieren. Erstaunlicherweise gibt es zu diesem Teilbereich der Künstlichen Intelligenz nur sehr wenige Arbeiten. Der simple Grund lautet, dass es zumindest früher schlichtweg unklar war, was genau ein solcher Algorithmus sein soll. Ebenfalls unklar über Jahrzehnte war, wie man Wissensrepräsentation in einem Computer ermöglicht.
Anstatt mögliche Lösungen des Problems zu diskutieren, macht es vielleicht Sinn genauer zu untersuchen warum Heuristische Algorithmen so anspruchsvoll sind. Der Hauptgrund dürfte sein, dass Computer am besten mit Zahlen rechnen können, also integer Zahlen oder gerne auch fließkommazahlen während umgekehrt die Realität wie z.B. Navigation in einem Labyrinth oder das Greifen von Gegenständen über Wissen beschrieben wird, also kognitive Leistungen erfordert.
In der Geschichte der Informatik haben sich Computer anfangs vor allem in jenen Bereichen durchgesetzt die etwas mit number crunching zu tun hatten, wo also Zahlenwerte aufaddiert werden mussten, oder vorhandene Formeln in Simulationen durchgerechnet wurden. Für diese Aufgaben ist es sehr simpel, Algorithmen und komplexe mathematische Software zu programmieren. Leider sind Robotikprobleme gänzlich anderer Natur. Es entsteht eine semantsiche Lücke: der Computer kann sehr gut mit Zahlenwerten umgehen jund vermag millionen von Fließkommaoperationen pro Sekunde auszuführen, während das Problem keine solche Berechnungen benötigt.
No comments:
Post a Comment