Im Folgenden möchte ich das Künstliche Lernintelligenzsystem (ALIS) anhand seines Konzepts, seiner Prinzipien, seines grundlegenden Designs und seiner Entwicklungsmethodik detailliert darlegen.
Konzept
Die derzeitige generative KI, hauptsächlich große Sprachmodelle, wird auf Basis von neuronalen Netzen und überwachtem Lernen trainiert.
Diesen Lernprozess des neuronalen Netzes definieren wir als angeborenes Lernen.
ALIS integriert einen vom angeborenen Lernen getrennten Prozess des erworbenen Lernens, um eine Inferenz zu ermöglichen, die beide Lernprozesse kombiniert.
Bei diesem erworbenen Lernen wird das gelernte Wissen extern zum neuronalen Netz akkumuliert und während der Inferenz genutzt.
Der technische Kern von ALIS liegt daher in der Extraktion, Speicherung sowie der Auswahl und Nutzung wiederverwendbaren Wissens während der Inferenz.
Des Weiteren ist ALIS nicht nur eine einzelne Basistechnologie, sondern eine Systemtechnologie, die angeborenes und erworbenes Lernen miteinander verbindet.
Elemente eines Lernintelligenzsystems
ALIS basiert auf dem Prinzip, dass sowohl das bestehende angeborene Lernen als auch das zukünftig zu betrachtende erworbene Lernen demselben Rahmen von Lernen und Inferenz folgen.
Um die Lernprinzipien von ALIS zu erläutern, definieren wir fünf Elemente eines Lernintelligenzsystems.
Das erste ist der intelligente Prozessor. Dies bezieht sich auf ein Verarbeitungssystem, das Schlussfolgerungen mittels Wissen zieht und Wissen zum Lernen extrahiert.
Große Sprachmodelle (LLMs) und Teile des menschlichen Gehirns sind Paradebeispiele für intelligente Prozessoren.
Das zweite ist der Wissensspeicher. Dies bezeichnet einen Speicherort, an dem extrahiertes Wissen bei Bedarf gespeichert und abgerufen werden kann.
Bei LLMs besteht der Wissensspeicher aus den Parametern des neuronalen Netzes. Beim Menschen entspricht er dem Langzeitgedächtnis im Gehirn.
Das dritte ist die Welt. Dies bezieht sich auf die externe Umgebung, wie sie von einem lernenden intelligenten System, wie Menschen oder ALIS, wahrgenommen wird.
Für den Menschen ist die Welt die Realität selbst. Im Falle von LLMs kann ein Mechanismus, der Ausgaben vom LLM empfängt und ihm Feedback gibt, als Äquivalent zur Welt betrachtet werden.
Das vierte ist der Zustandsspeicher. Dies bezieht sich auf eine interne temporäre Gedächtniskomponente, die von einem lernenden intelligenten System während der Inferenz verwendet wird.
Bei LLMs ist dies der während der Inferenz genutzte Speicherbereich, bekannt als Hidden States. Beim Menschen entspricht er dem Kurzzeitgedächtnis.
Das fünfte ist das Framework. Dies ist, sozusagen, eine Denkstruktur. In der Terminologie von Lernintelligenzsystemen bezeichnet es die Kriterien für die Auswahl notwendigen Wissens während der Inferenz und eine logische Zustandsraumstruktur zur Organisation des Zustandsspeichers.
Bei LLMs ist es die semantische Struktur der Hidden States, und ihr Inhalt ist im Allgemeinen mehrdeutig und für Menschen unverständlich. Darüber hinaus ist die Wissensauswahl im Aufmerksamkeitsmechanismus eingebettet, der für jedes verarbeitete Token auswählt, auf welche vorhandenen Token verwiesen werden soll.
Beim Menschen ist es, wie bereits erwähnt, eine Denkstruktur. Wenn mit einem bestimmten Framework gedacht wird, wird eine bestimmte Menge an Know-how aus dem Langzeitgedächtnis abgerufen und in das Kurzzeitgedächtnis geladen. Dann werden die aktuell wahrgenommenen Informationen gemäß dem Denkrahmen organisiert, um die Situation zu verstehen.
Prinzipien eines Lernintelligenzsystems
Ein Lernintelligenzsystem funktioniert wie folgt:
Ein intelligenter Prozessor wirkt auf die Welt ein. Die Welt wiederum liefert als Reaktion auf diese Einwirkung Ergebnisse zurück.
Der intelligente Prozessor extrahiert aus diesen Ergebnissen wiederverwendbares Wissen und speichert es im Wissensspeicher.
Wenn der intelligente Prozessor iterativ auf die Welt einwirkt, wählt er Wissen aus dem Wissensspeicher aus und nutzt es, um seine Handlungsweise zu modifizieren.
Das ist der grundlegende Mechanismus.
Entscheidend ist jedoch, ob das System sinnvolles Lernen vollziehen kann, und dies hängt fundamental von den Methoden der Wissensextraktion, -speicherung, -auswahl und -nutzung ab.
Menschen verfügen über Mechanismen, die diese Wissensextraktion, -speicherung, -auswahl und -nutzung effektiv handhaben, was sie zum Lernen befähigt.
Neuronale Netze, einschließlich LLMs, lassen ihre Extraktion von externen Lehrern erledigen, verfügen aber über Mechanismen zur Speicherung, Auswahl und Nutzung. Dies ermöglicht es ihnen, zu lernen, solange sie einen Lehrer erhalten.
Darüber hinaus kann ein Lernintelligenzsystem auch die Extraktion, Speicherung und Auswahl von Frameworks sowie deren Nutzung innerhalb des Zustandsspeichers als Wissen erlernen, wodurch ein komplexeres Lernen ermöglicht wird.
Arten von Wissen
Aufbauend auf diesen Prinzipien ist es beim Entwurf des erworbenen Lernens notwendig zu klären, welche Form das erworbene Wissen annehmen wird.
Man könnte eine Methode in Betracht ziehen, bei der erworbenes Wissen auch separat als neuronale Netzwerkparameter gelernt wird.
Erworbenes Wissen muss sich jedoch nicht ausschließlich auf neuronale Netzwerkparameter beschränken. Ein praktischer Kandidat ist in natürlicher Sprache textuelles Wissen.
In natürlicher Sprache textuelles Wissen kann durch Nutzung der Verarbeitungsmöglichkeiten natürlicher Sprache von LLMs extrahiert und verwendet werden. Da es als Daten in Standard-IT-Systemen behandelt werden kann, sind Speicherung und Auswahl zudem einfach.
Darüber hinaus ist in natürlicher Sprache textuelles Wissen für Menschen und andere LLMs leicht überprüfbar, verständlich und in einigen Fällen sogar editierbar.
Es kann auch mit anderen Lernintelligenzsystemen geteilt, zusammengeführt oder aufgeteilt werden.
Aus diesen Gründen wird das erworbene Wissen im ALIS-Konzept zunächst auf in natürlicher Sprache textuelles Wissen abzielen.
Erworbener Zustandsspeicher und Frameworks
Wir haben die Vorteile der Wahl von natürlichem Sprachtext als Format für erworbenes Wissen erläutert.
Ähnlich kann natürlicher Sprachtext auch für den Zustandsspeicher und Frameworks für die Inferenz verwendet werden.
Frameworks können als konzeptionelle Strukturen in natürlicher Sprache textuell als Wissen im Wissensspeicher gespeichert und genutzt werden.
Auch bei der Initialisierung oder Aktualisierung von Zuständen, basierend auf der von einem Framework definierten Struktur, kann ein textbasiertes Zustandsspeicherformat verwendet werden.
Indem nicht nur erworbenes Wissen, sondern auch Frameworks und Zustandsspeicher im Textformat konzipiert werden, kann ALIS die Fähigkeiten der LLMs zur Verarbeitung natürlicher Sprache für das erworbene Lernen und die Inferenz im Allgemeinen nutzen.
Formales Wissen
Erworbenes Wissen, Frameworks und der Zustandsspeicher können nicht nur in natürlicher Sprache, sondern auch in präziseren formalen Sprachen oder formalen Modellen ausgedrückt werden.
Obwohl ich "auswählen" schrieb, ist es das Ziel für ALIS, mehrere unterschiedliche Mechanismen zum Erlernen von erworbenem Wissen zu integrieren, um eine hybride Nutzung von angeborenem und erworbenem Lernen zu ermöglichen.
Wissen, das durch formale Sprachen oder formale Modelle repräsentiert wird, kann präziser und eindeutiger gestaltet werden.
Wird ein Framework mittels einer formalen Sprache oder eines Modells ausgedrückt und ein initialer Zustand im Zustandsspeicher entfaltet, kann zudem eine Simulation oder logische Entwicklung mit einem rigorosen Modell durch einen intelligenten Prozessor, der formale Modelle verarbeiten kann, durchgeführt werden, anstatt durch ein LLM.
Ein Paradebeispiel für solche formalen Sprachen oder formalen Modelle sind Programmiersprachen.
Wenn das System die Welt lernt und dabei entdeckte Gesetze und Konzepte als Programm in einem Framework ausdrücken kann, dann kann es diese am Computer simulieren.
Spalte 1: Arten von Wissen
Bei der Strukturierung des Wissens innerhalb eines Lernintelligenzsystems wird deutlich, dass es sich grob in drei Wissenssysteme und zwei Zustandstypen kategorisieren lässt.
Die drei Wissenssysteme sind: Netzwerkparameterwissen, das von neuronalen Netzen verarbeitet wird; natürliches Wissen, ausgedrückt in natürlicher Sprache; und formales Wissen, ausgedrückt in formalen Sprachen.
Die beiden Zustandstypen sind zustandslos (stateless) und zustandsbehaftet (stateful).
Zustandsloses Netzwerkparameterwissen ist intuitives Wissen, wie es in Deep-Learning-KIs vorkommt. Die Merkmale von Katzen und Hunden, die nicht explizit gedacht oder verbal identifiziert werden können, können als zustandsloses Netzwerkparameterwissen gelernt werden.
Zustandsbehaftetes Netzwerkparameterwissen ist Wissen, das durch unscharfe, iterative Prozesse entsteht, wie es bei generativer KI der Fall ist.
Zustandsloses natürliches Wissen ist Wissen, das Bedeutungen einzelner Wörter zugeordnet ist.
Zustandsbehaftetes natürliches Wissen ist Wissen, das den Kontext innerhalb von Sätzen einschließt.
Ein Teil des natürlichen Wissens ist von Natur aus im zustandsbehafteten Netzwerkparameterwissen enthalten, aber es gibt auch Wissen, das aus natürlichem Sprachtext erworben werden kann.
Zustandsloses formales Wissen ist Wissen, das sich in mathematischen Formeln ohne Iteration ausdrücken lässt. Zustandsbehaftetes formales Wissen ist Wissen, das als Programm ausgedrückt werden kann.
Man kann auch das eigene Kurzzeitgedächtnis als Zustandsspeicher für natürliches und formales Wissen nutzen.
Da es sich jedoch um ein Kurzzeitgedächtnis handelt, ist es schwierig, einen Zustand stabil aufrechtzuerhalten. Außerdem ist es nicht gut darin, formalisierte, eindeutige Zustände zu speichern.
Andererseits können Papier, Computer und Smartphones als Zustandsspeicher verwendet werden, um natürlichen Sprachtext, formale Sprachen oder formale Modelle aufzuschreiben oder zu bearbeiten.
Im Allgemeinen werden Daten auf Papier oder Computern oft als Wissensspeicher zum Merken von Wissen wahrgenommen, aber sie können auch als Zustandsspeicher zur Gedankenorganisation genutzt werden.
So zeigt sich, dass Menschen intellektuelle Aktivitäten ausführen, indem sie diese drei Wissenssysteme und zwei Zustandstypen voll ausschöpfen.
Auch ALIS birgt das Potenzial, seine Fähigkeiten dramatisch zu erweitern, indem es intellektuelle Aktivitäten, die diese drei Wissenssysteme und zwei Zustandstypen nutzen, ermöglicht und stärkt.
Insbesondere verfügt ALIS über die Stärke, riesige Wissensspeicher und Zustandsspeicher nutzen zu können. Darüber hinaus kann es intellektuelle Aufgaben leicht durch die Vorbereitung vieler solcher Systeme und deren Umschalten oder Kombinieren ausführen.
Spalte 2: Intellektuelle Orchestrierung
Obwohl es von Vorteil ist, eine riesige Menge an Wissen in einem Wissensspeicher akkumulieren zu können, bedeutet die Quantität des Wissens nicht automatisch einen Vorteil bei intellektuellen Aktivitäten, da generative KIs eine begrenzte Anzahl von Tokens gleichzeitig verarbeiten können und irrelevantes Wissen zu Störungen führen kann.
Im Gegenteil, durch eine geeignete Aufteilung des Wissensspeichers und dessen Umwandlung in spezialisierte Wissensspeicher mit hoher Dichte, die jeweils das für eine bestimmte intellektuelle Aufgabe notwendige Wissen enthalten, können die Probleme der Token-Begrenzung und des Rauschens gemindert werden.
Im Gegenzug ist jeder spezialisierte Wissensspeicher nur für seine zugewiesene intellektuelle Aufgabe nutzbar.
Viele intellektuelle Aktivitäten sind komplexe Kompositionen aus verschiedenen intellektuellen Aufgaben. Indem Wissen in spezialisierte Wissensspeicher je nach Art der intellektuellen Aufgabe aufgeteilt und die intellektuelle Aktivität in einzelne Aufgaben unterteilt wird, kann ALIS die gesamte intellektuelle Aktivität ausführen, indem es angemessen zwischen diesen spezialisierten Wissensspeichern wechselt.
Dies ist vergleichbar mit einem Orchester, das aus professionellen Musikern besteht, die verschiedene Instrumente spielen, und einem Dirigenten, der das Ensemble leitet.
Durch diese Systemtechnologie, die intellektuelle Orchestrierung, wird ALIS in der Lage sein, seine intellektuellen Aktivitäten zu organisieren.
ALIS: Grundlegendes Design und Entwicklungsmethode
Ab hier werden wir die Entwicklung von ALIS organisieren.
Wie bereits in den Prinzipien und Spalten erörtert, ist ALIS von Natur aus auf einfache Erweiterbarkeit von Funktionen und Ressourcen ausgelegt. Dies liegt daran, dass das Wesen von ALIS nicht in spezifischen Funktionen, sondern in den Prozessen der Wissensextraktion, -speicherung, -auswahl und -nutzung liegt.
Zum Beispiel können mehrere Arten von Wissensextraktionsmechanismen bereitgestellt werden, und das Systemdesign ermöglicht die freie Wahl, aus diesen zu selektieren oder sie gleichzeitig zu nutzen.
Darüber hinaus kann ALIS selbst diese Auswahl treffen.
Ähnlich können Speicherung, Auswahl und Nutzung ebenfalls frei gewählt oder parallelisiert werden.
Daher kann ALIS inkrementell und agil entwickelt werden, ohne dass die gesamte Funktionalität nach dem Wasserfallmodell entworfen werden muss.
Der Beginn von ALIS
Lassen Sie uns nun ein sehr einfaches ALIS entwerfen.
Die grundlegende Benutzeroberfläche wird eine bekannte Chat-KI sein. Zunächst wird die Benutzereingabe direkt an das LLM weitergeleitet. Die Antwort des LLM wird auf der Benutzeroberfläche angezeigt, und das System wartet auf die nächste Benutzereingabe.
Nach Erhalt der nächsten Eingabe wird dem LLM nicht nur die neue Eingabe, sondern auch der gesamte Chatverlauf zwischen Benutzer und LLM übergeben.
Hinter der Benutzeroberfläche dieser Chat-KI wird ein Mechanismus vorbereitet, um wiederverwendbares Wissen aus dem Chatverlauf zu extrahieren.
Dieser Mechanismus kann dem Chat-KI-System als ein Prozess hinzugefügt werden, der beim Beenden einer Konversation oder in regelmäßigen Abständen ausgeführt wird. Selbstverständlich wird ein LLM für die Wissensextraktion verwendet.
Diesem LLM werden das ALIS-Konzept und seine Prinzipien sowie das Know-how zur Wissensextraktion als System-Prompt übergeben. Wenn das Wissen nicht wie beabsichtigt extrahiert wird, sollte der System-Prompt durch Ausprobieren verbessert werden.
Das aus dem Chatverlauf extrahierte Wissen wird direkt in einem Wissensee gespeichert. Ein Wissensee ist einfach ein Mechanismus zur Speicherung von Wissen in einem flachen Zustand, bevor es strukturiert wird.
Als Nächstes wird ein Strukturierungsmechanismus vorbereitet, um die Auswahl von Wissen aus dem Wissensee zu erleichtern.
Dies beinhaltet die Bereitstellung eines Embedding-Vektorspeichers für die semantische Suche, wie er in typischen RAG-Systemen verwendet wird, sowie Stichwortindizes.
Weitere Möglichkeiten umfassen die Generierung fortgeschrittenerer Wissensgraphen oder die Durchführung einer Kategorisierung.
Diese Sammlung strukturierter Informationen für den Wissensee wird als Wissensbasis bezeichnet. Diese gesamte Wissensbasis und der Wissensee bilden zusammen den Wissensspeicher.
Als Nächstes wird der Wissensspeicher in die Verarbeitung der Chat-Benutzeroberfläche integriert.
Dies entspricht im Wesentlichen einem allgemeinen RAG-Mechanismus. Bei Benutzereingaben wird relevantes Wissen aus dem Wissensspeicher ausgewählt und zusammen mit der Benutzereingabe an das LLM übergeben.
Dadurch kann das LLM bei der Verarbeitung von Benutzereingaben automatisch Wissen nutzen.
Auf diese Weise nimmt das Wissen mit jeder Konversation mit dem Benutzer zu, wodurch ein einfaches ALIS entsteht, das akkumuliertes Wissen aus früheren Gesprächen nutzt.
Einfaches Szenario
Stellen Sie sich zum Beispiel ein Szenario vor, in dem ein Benutzer mit diesem einfachen ALIS eine Webanwendung entwickelt.
Der Benutzer würde berichten, dass der vom LLM vorgeschlagene Code zu einem Fehler führte. Dann würden der Benutzer und das LLM zusammenarbeiten, um das Problem zu beheben. Nehmen wir an, sie entdecken, dass die dem LLM bekannte externe API-Spezifikation veraltet war und dass die Anpassung an die neueste API-Spezifikation das Problem löste.
In diesem Fall könnte aus diesem Chatverlauf Wissen darüber, dass die API-Spezifikation des LLM veraltet war und wie die neueste API-Spezifikation aussieht, im Wissensspeicher angesammelt werden.
Wenn dann das nächste Mal ein Programm erstellt wird, das dieselbe API verwendet, könnte ALIS dieses Wissen nutzen, um von Anfang an ein Programm zu generieren, das auf der neuesten API-Spezifikation basiert.
Verbesserung des ursprünglichen ALIS
Damit dies jedoch geschehen kann, muss dieses Wissen als Reaktion auf die Benutzereingabe ausgewählt werden. Es könnte sein, dass dieses Wissen nicht direkt mit der Benutzereingabe verknüpft ist, da der Name der problematischen API wahrscheinlich nicht in der ursprünglichen Benutzereingabe auftaucht.
In einem solchen Fall würde der API-Name erst in der Antwort des LLM zum ersten Mal auftauchen.
Daher werden wir das einfache ALIS leicht erweitern, indem wir einen Mechanismus für Vorabprüfungskommentare und Nachprüfungskommentare hinzufügen.
Vorabprüfungskommentare ähneln dem neueren „Denkmodus“ in LLMs. Wir bereiten einen Speicher vor, der Text als Zustandsspeicher aufnehmen kann, und weisen das LLM über einen System-Prompt an, Vorabprüfungskommentare durchzuführen, sobald es eine Benutzereingabe erhält.
Das Ergebnis des Vorabprüfungskommentars des LLM wird dann im Zustandsspeicher abgelegt, und basierend auf diesem Ergebnis wird Wissen aus dem Wissensspeicher ausgewählt.
Anschließend werden der Chatverlauf, das Ergebnis des Vorabprüfungskommentars, das der Benutzereingabe entsprechende Wissen und das dem Vorabprüfungskommentar entsprechende Wissen an das LLM übergeben, um dessen Ausgabe zu erhalten.
Darüber hinaus wird für das vom LLM zurückgegebene Ergebnis im Wissensspeicher nach Wissen gesucht. Unter Einbeziehung des dort gefundenen Wissens wird das LLM dann gebeten, eine Nachprüfung durchzuführen.
Werden dabei Probleme festgestellt, werden diese zusammen mit den Problemstellen und den Gründen für die Kommentare/das Feedback an das Chat-LLM zurückgegeben.
Durch die Bereitstellung von Gelegenheiten zur Auswahl von Wissen sowohl während der Vorabprüfungskommentare als auch der Nachprüfungskommentare können wir die Chancen erhöhen, das angesammelte Wissen zu nutzen.
Ausblick
Der Prozess der Erstellung des ursprünglichen ALIS und die Hinzufügung von Verbesserungen zur Behebung seiner Schwächen ist präzise agil und zeigt, dass ALIS inkrementell verbessert werden kann.
Wie bereits dargelegt, eignet sich das anfängliche ALIS zudem am besten für den Einsatz in der Softwareentwicklung. Dies liegt daran, dass es ein stark nachgefragtes Feld ist und eines, in dem Wissen klar akkumuliert werden kann.
Es ist ein Bereich, in dem die Ergebnisse eindeutig sind, der aber dennoch stark von Versuch und Irrtum sowie iterativer Wissensakkumulation profitiert und diese erfordert.
Da die Entwicklung von ALIS selbst Softwareentwicklung ist, ist es darüber hinaus ein attraktiver Aspekt, dass ALIS-Entwickler auch ALIS-Benutzer sein können.
Zudem kann zusammen mit dem ALIS-System der Wissensee offen auf Plattformen wie GitHub geteilt werden.
Dies würde es vielen Personen ermöglichen, zur Verbesserung des ALIS-Systems und zur Wissensakkumulation beizutragen, wobei alle von den Vorteilen profitieren und die ALIS-Entwicklung effizienter vorantreiben könnten.
Selbstverständlich ist der Wissensaustausch nicht auf ALIS-Entwickler beschränkt; er kann von allen Softwareentwicklern, die ALIS nutzen, gesammelt werden.
Die natursprachliche Beschaffenheit des Wissens bietet zwei weitere Vorteile.
Der erste Vorteil besteht darin, dass Wissen auch bei Änderungen oder Aktualisierungen von LLM-Modellen weiterhin genutzt werden kann.
Der zweite Vorteil ist, dass der riesige angesammelte Wissensee als Vortrainingsdatensatz für LLMs verwendet werden kann. Es gibt zwei Wege, dies zu nutzen: als Feinabstimmung oder für das Vortraining des LLM selbst.
In jedem Fall würde die Softwareentwicklung noch effizienter werden, wenn ein LLM genutzt werden könnte, das das im Wissensee angesammelte Wissen angeboren gelernt hat.
Darüber hinaus umfasst die Softwareentwicklung verschiedene Prozesse wie Anforderungsanalyse, Design, Implementierung, Test, Betrieb und Wartung. Für jede Softwaredomäne und -plattform gibt es auch spezialisiertes Wissen. Durch die Schaffung eines Mechanismus zur Aufteilung der riesigen Menge an angesammeltem Wissen nach diesen Perspektiven kann ein ALIS-Orchester gebildet werden.
Somit sind die elementaren Technologien für ALIS vorhanden. Der verbleibende entscheidende Schritt ist, verschiedene Methoden – wie Know-how zur Wissensextraktion, angemessene Wissensauswahl, Segmentierung spezialisierten Wissens und Nutzung des Zustandsspeichers – praktisch zu erproben, um effektive Ansätze zu entdecken. Mit zunehmender Komplexität werden auch die Verarbeitungszeit und die Nutzungskosten des LLM steigen, was eine Optimierung erforderlich macht.
Diese Prozesse des Ausprobierens und der Optimierung können auf lernorientierte Weise durch die Entwicklung und Verfeinerung von Frameworks vorangetrieben werden.
Anfangs werden Entwickler als Benutzer Frameworks wahrscheinlich durch Versuch und Irrtum in ALIS integrieren. Doch auch dann kann das LLM selbst damit beauftragt werden, Framework-Ideen zu generieren.
Anschließend wird ALIS selbst, indem ein Framework zur Verbesserung und Entdeckung von Frameworks in ALIS integriert wird, basierend auf den von der Welt empfangenen Ergebnissen und dem extrahierten Wissen, Versuch und Irrtum sowie Optimierung auf lernorientierte Weise durchführen.
ALIS in der realen Welt
Sobald ALIS auf dieser Stufe verfeinert ist, sollte es in der Lage sein, Wissen in einer Vielzahl von Domänen zu erwerben, nicht nur auf die Welt der Softwareentwicklung beschränkt.
Ähnlich der Softwareentwicklung wird ALIS voraussichtlich seinen Anwendungsbereich auf verschiedene intellektuelle Aktivitäten ausweiten, die Menschen mit Computern ausführen.
Selbst bei solch rein intellektuellen Aktivitäten wird ALIS in Bezug auf seine Zielwelt eine Eigenschaft besitzen, die einer verkörperten KI ähnelt.
Dies liegt daran, dass es die Grenze zwischen sich und der Welt erkennt, über diese Grenze auf die Welt einwirkt und Informationen wahrnehmen kann, die von der Welt empfangen werden.
Wenn diese Grenze zur Welt physisch sichtbar und an einem Ort lokalisiert ist, bezeichnen wir sie im Allgemeinen als Körper.
Doch selbst wenn die Grenze unsichtbar und räumlich verteilt ist, bleibt die Struktur der Wahrnehmung und Aktion über eine Grenze hinweg dieselbe wie bei einem physischen Körper.
In diesem Sinne kann ein ALIS, das intellektuelle Aktivitäten ausführt, als virtuell die Eigenschaften einer verkörperten KI besitzend betrachtet werden.
Und wenn ALIS zu einem Stadium verfeinert wird, in dem es auch in neuen, unbekannten Welten angemessen lernen kann, besteht die Möglichkeit, dass ALIS als Teil einer echten verkörperten KI, die einen tatsächlichen physischen Körper besitzt, integriert werden könnte.
Auf diese Weise wird ALIS schließlich in der realen Welt angewendet werden und beginnen, von ihr zu lernen.