Przejdź do treści
Ten artykuł został przetłumaczony z języka japońskiego za pomocą AI
Czytaj po japońsku
Ten artykuł znajduje się w Domenie Publicznej (CC0). Możesz go swobodnie używać. CC0 1.0 Universal

System Sztucznej Inteligencji Uczącej się: Koncepcja ALIS

W tym miejscu chciałbym uporządkować System Sztucznej Inteligencji Uczącej się (ALIS), szczegółowo omawiając jego koncepcję, zasady, podstawowy projekt i metodologię rozwoju.

Koncepcja

Obecna generatywna sztuczna inteligencja, głównie duże modele językowe, jest trenowana w oparciu o uczenie nadzorowane wykorzystujące sieci neuronowe.

W kontekście procesu uczenia się, to uczenie sieci neuronowej definiujemy jako uczenie wrodzone.

ALIS integruje proces uczenia nabytego, odrębny od uczenia wrodzonego, aby umożliwić wnioskowanie, które łączy oba te procesy.

W tym uczeniu nabytym, zdobyta wiedza jest gromadzona zewnętrznie w stosunku do sieci neuronowej i wykorzystywana podczas wnioskowania.

Dlatego techniczny rdzeń ALIS leży w ekstrakcji, przechowywaniu oraz wyborze i wykorzystaniu wiedzy wielokrotnego użytku podczas wnioskowania.

Ponadto, ALIS to nie tylko pojedyncza technologia elementarna, ale technologia systemowa, która łączy uczenie wrodzone i nabyte.

Elementy Systemu Uczącej się Inteligencji

ALIS działa zgodnie z zasadą, że zarówno istniejące uczenie wrodzone, jak i przyszłe uczenie nabyte, podlegają tym samym ramom uczenia się i wnioskowania.

Aby wyjaśnić zasady uczenia się w ALIS, definiujemy pięć elementów systemu uczącej się inteligencji.

Pierwszym jest inteligentny procesor. Odnosi się to do systemu przetwarzającego, który wykonuje wnioskowanie za pomocą wiedzy i wydobywa wiedzę do nauki.

Duże modele językowe (LLM) i części ludzkiego mózgu są doskonałymi przykładami inteligentnych procesorów.

Drugim jest magazyn wiedzy. Odnosi się to do miejsca przechowywania, gdzie wydobyta wiedza może być zapisywana i pobierana w razie potrzeby.

W LLM magazyn wiedzy składa się z parametrów sieci neuronowej. U ludzi odpowiada to pamięci długotrwałej w mózgu.

Trzecim jest świat. Odnosi się to do zewnętrznego środowiska postrzeganego przez uczący się system inteligentny, taki jak ludzie lub ALIS.

Dla ludzi świat jest rzeczywistością samą w sobie. W przypadku LLM, mechanizm, który otrzymuje dane wyjściowe z LLM i dostarcza mu informację zwrotną, może być uważany za równoważny światu.

Czwartym jest pamięć stanów. Odnosi się to do wewnętrznego, tymczasowego komponentu przypominającego pamięć, używanego przez uczący się system inteligentny podczas wnioskowania.

W LLM jest to przestrzeń pamięci używana podczas wnioskowania, znana jako stany ukryte. U ludzi odpowiada to pamięci krótkotrwałej.

Piątym jest struktura (ramy). Jest to, że tak powiem, struktura myślenia. W terminologii systemów uczącej się inteligencji, odnosi się to do kryteriów wyboru niezbędnej wiedzy podczas wnioskowania oraz logicznej struktury przestrzeni stanów do organizowania pamięci stanów.

W LLM jest to struktura semantyczna stanów ukrytych, a jej zawartość jest zazwyczaj niejednoznaczna i niezrozumiała dla ludzi. Ponadto, wybór wiedzy jest osadzony w mechanizmie uwagi, który wybiera, do których istniejących tokenów należy się odwołać dla każdego przetwarzanego tokenu.

U ludzi, jak wspomniano powyżej, jest to struktura myślenia. Podczas myślenia za pomocą określonej struktury, konkretny zestaw know-how jest przywoływany z pamięci długotrwałej i ładowany do pamięci krótkotrwałej. Następnie, aktualnie postrzegane informacje są organizowane zgodnie ze strukturą myślenia, aby zrozumieć sytuację.

Zasady Działania Systemu Uczącej się Inteligencji

System uczącej się inteligencji działa w następujący sposób:

Inteligentny procesor oddziałuje na świat. Świat, w odpowiedzi na to działanie, zwraca wyniki.

Inteligentny procesor wydobywa z tych wyników wiedzę wielokrotnego użytku i przechowuje ją w magazynie wiedzy.

Kiedy działa na świat iteracyjnie, inteligentny procesor wybiera wiedzę z magazynu wiedzy i wykorzystuje ją do modyfikowania swoich działań.

To jest podstawowy mechanizm.

Jednakże, zasadniczo, metody ekstrakcji, przechowywania, wyboru i wykorzystania wiedzy decydują o tym, czy system może efektywnie się uczyć.

Ludzie posiadają mechanizmy, które skutecznie zarządzają ekstrakcją, przechowywaniem, wyborem i wykorzystaniem wiedzy, co umożliwia im uczenie się.

Sieci neuronowe, w tym LLM, mają ekstrakcję obsługiwaną przez zewnętrznych nauczycieli, ale posiadają mechanizmy do przechowywania, wyboru i wykorzystania. Pozwala to im uczyć się, pod warunkiem dostarczenia nauczyciela.

Ponadto, system uczącej się inteligencji może również uczyć się ekstrakcji, przechowywania i wyboru struktur (ram), oraz metod ich wykorzystania w pamięci stanów, jako wiedzy, umożliwiając tym samym bardziej złożone uczenie się.

Rodzaje Wiedzy

Opierając się na tych zasadach, przy projektowaniu uczenia nabytego konieczne jest wyjaśnienie, jaką formę przyjmie wiedza nabyta.

Można by rozważyć metodę, w której wiedza nabyta jest również uczona oddzielnie jako parametry sieci neuronowej.

Jednakże, wiedza nabyta nie musi być ograniczona wyłącznie do parametrów sieci neuronowej. Praktycznym kandydatem jest wiedza sformalizowana w języku naturalnym.

Wiedza sformalizowana w języku naturalnym może być wydobywana i wykorzystywana poprzez wykorzystanie możliwości przetwarzania języka naturalnego przez LLM. Ponadto, ponieważ może być traktowana jako dane w standardowych systemach IT, przechowywanie i wybór są również łatwe.

Co więcej, wiedza sformalizowana w języku naturalnym jest łatwa do sprawdzenia, zrozumienia, a w niektórych przypadkach nawet edytowania przez ludzi i inne LLM.

Może być również współdzielona, łączona lub dzielona z innymi systemami uczącej się inteligencji.

Z tych powodów, wiedza nabyta w koncepcji ALIS będzie początkowo projektowana z ukierunkowaniem na wiedzę sformalizowaną w języku naturalnym.

Nabyta Pamięć Stanu i Ramy

Wyjaśniliśmy zalety wyboru tekstu w języku naturalnym jako formatu dla wiedzy nabytej.

Podobnie, tekst w języku naturalnym może być również używany do pamięci stanów i ram do wnioskowania.

Ramy, jako struktury konceptualne, mogą być przechowywane i wykorzystywane w magazynie wiedzy jako wiedza sformalizowana w języku naturalnym.

Nawet podczas inicjalizacji lub aktualizacji stanów w oparciu o strukturę zdefiniowaną przez ramy, można używać pamięci stanów w formacie tekstowym.

Projektując nie tylko wiedzę nabytą, ale także ramy i pamięć stanów w formacie tekstowym, ALIS może wykorzystać możliwości przetwarzania języka naturalnego przez LLM do uczenia nabytego i wnioskowania ogólnie.

Wiedza Formalna

Wiedza nabyta, ramy i pamięć stanów mogą być wyrażane nie tylko w tekście języka naturalnego, ale także w bardziej rygorystycznych językach formalnych lub modelach formalnych.

Chociaż napisałem „wybierz”, celem ALIS jest włączenie wielu odrębnych mechanizmów uczenia wiedzy nabytej, aby umożliwić hybrydowe wykorzystanie uczenia wrodzonego i nabytego.

Wiedza reprezentowana przez języki formalne lub modele formalne może być uczyniona bardziej precyzyjną i jednoznaczną.

Co więcej, jeśli ramy są wyrażone za pomocą języka formalnego lub modelu, a stan początkowy jest rozwijany w pamięci stanów, wówczas symulacja lub rozwój logiczny mogą być przeprowadzone z rygorystycznym modelem przez inteligentny procesor zdolny do przetwarzania modeli formalnych, zamiast przez LLM.

Doskonałym przykładem takich języków formalnych lub modeli formalnych są języki programowania.

Gdy system uczy się o świecie, jeśli potrafi wyrazić znalezione w nim prawa i koncepcje jako program w ramach, może je symulować na komputerze.

Kolumna 1: Rodzaje Wiedzy

Porządkując wiedzę w systemie uczącej się inteligencji, staje się jasne, że można ją szeroko podzielić na trzy typy systemów wiedzy i dwa typy stanów.

Trzy systemy wiedzy to: wiedza o parametrach sieci, zarządzana przez sieci neuronowe; wiedza naturalna, wyrażona w języku naturalnym; oraz wiedza formalna, wyrażona w językach formalnych.

Dwa typy stanów to: bezstanowy (stateless) i stanowy (stateful).

Wiedza o parametrach sieci bezstanowa to wiedza intuicyjna, podobna do tej, którą posiada AI w głębokim uczeniu. Cechy kotów i psów, których nie można wyraźnie przemyśleć ani zidentyfikować werbalnie, mogą być nauczone jako wiedza o parametrach sieci bezstanowa.

Wiedza o parametrach sieci stanowa to wiedza, która wyłania się poprzez niejasne, iteracyjne procesy, takie jak w generatywnej AI.

Wiedza naturalna bezstanowa to wiedza, taka jak znaczenia przypisane do poszczególnych słów.

Wiedza naturalna stanowa to wiedza, która zawiera kontekst w zdaniach.

Niektóre wiedza naturalna jest wrodzenie zawarta w wiedzy o parametrach sieci stanowej, ale istnieje również wiedza, którą można nabyć z tekstu języka naturalnego.

Wiedza formalna bezstanowa to wiedza, którą można wyrazić w formułach matematycznych bez iteracji. Wiedza formalna stanowa to wiedza, którą można wyrazić jako program.

Można również używać własnej pamięci krótkotrwałej jako pamięci stanów dla wiedzy naturalnej i wiedzy formalnej.

Jednakże, jako że jest to pamięć krótkotrwała, istnieje problem, że trudno jest stabilnie utrzymywać stan. Ponadto, nie jest ona przystosowana do przechowywania sformalizowanych, jednoznacznych stanów.

Z drugiej strony, papier, komputery i smartfony mogą być używane jako pamięć stanów do zapisywania lub edytowania tekstu w języku naturalnym, języków formalnych lub modeli formalnych.

Ogólnie rzecz biorąc, dane na papierze lub komputerach są często postrzegane jako magazyn wiedzy do zapamiętywania wiedzy, ale mogą być również używane jako pamięć stanów do organizowania myśli.

Tym samym, staje się oczywiste, że ludzie wykonują działalność intelektualną, w pełni wykorzystując te trzy systemy wiedzy i dwa typy stanów.

ALIS również posiada potencjał do dramatycznego zwiększenia swoich możliwości poprzez umożliwienie i wzmocnienie działalności intelektualnej, która wykorzystuje te same trzy systemy wiedzy i dwa typy stanów.

W szczególności, ALIS ma mocną stronę w postaci możliwości wykorzystywania ogromnych magazynów wiedzy i pamięci stanów. Ponadto, może z łatwością wykonywać zadania intelektualne, przygotowując wiele z nich i przełączając się lub łącząc je.

Kolumna 2: Inteligentna Orkiestracja

Chociaż możliwość gromadzenia ogromnej ilości wiedzy w magazynie wiedzy stanowi zaletę, ilość wiedzy nie przekłada się automatycznie na korzyść w działalności intelektualnej, ze względu na ograniczenia liczby tokenów, które generatywna sztuczna inteligencja może przetworzyć jednocześnie, oraz szum generowany przez nieistotną wiedzę.

I odwrotnie, poprzez odpowiednie podzielenie magazynu wiedzy i przekształcenie go w wysokonakładowe, wyspecjalizowane magazyny wiedzy, z których każdy zawiera wiedzę niezbędną do konkretnego zadania intelektualnego, można złagodzić problemy z limitami tokenów i szumem.

W zamian, każdy wyspecjalizowany magazyn wiedzy staje się użyteczny tylko do wyznaczonego mu zadania intelektualnego.

Wiele działalności intelektualnych to złożone kompozycje różnorodnych zadań intelektualnych. Dlatego, dzieląc wiedzę na wyspecjalizowane magazyny wiedzy zgodnie z typem zadania intelektualnego i dzieląc działalność intelektualną na poszczególne zadania, ALIS może wykonywać całą działalność intelektualną, odpowiednio przełączając się między tymi wyspecjalizowanymi magazynami wiedzy.

Jest to analogiczne do orkiestry, złożonej z profesjonalnych muzyków grających na różnych instrumentach i dyrygenta prowadzącego zespół.

Dzięki tej technologii systemowej, inteligentnej orkiestracji, ALIS będzie w stanie organizować swoje działania intelektualne.

Podstawowy Projekt i Metoda Rozwoju ALIS

Od tego miejsca będziemy organizować rozwój ALIS.

Jak już omówiono w zasadach i kolumnach, ALIS jest z natury zaprojektowany do łatwej rozbudowy funkcji i zasobów. Dzieje się tak, ponieważ istota ALIS nie leży w konkretnych funkcjach, lecz w procesach ekstrakcji, przechowywania, wyboru i wykorzystania wiedzy.

Na przykład, można zapewnić wiele typów mechanizmów ekstrakcji wiedzy, a projekt systemu pozwala na swobodny wybór spośród nich lub jednoczesne ich użycie.

Ponadto, ALIS samo może dokonywać tego wyboru.

Podobnie, przechowywanie, wybór i wykorzystanie mogą być również swobodnie wybierane lub realizowane równolegle.

Dlatego ALIS może być rozwijany przyrostowo i w sposób zwinny, bez konieczności projektowania całej funkcjonalności w sposób kaskadowy.

Początki ALIS

Teraz zaprojektujmy bardzo prosty ALIS.

Podstawowym interfejsem użytkownika będzie znany czat AI. Początkowo dane wejściowe użytkownika są przekazywane bezpośrednio do LLM. Odpowiedź LLM jest wyświetlana w interfejsie użytkownika, a system czeka na kolejne dane wejściowe użytkownika.

Po otrzymaniu kolejnych danych wejściowych, LLM otrzymuje nie tylko nowe dane wejściowe, ale także całą historię czatu między użytkownikiem a LLM.

Za interfejsem użytkownika tego czatu AI przygotowany jest mechanizm do ekstrakcji wiedzy wielokrotnego użytku z historii czatu.

Mechanizm ten można dodać do systemu czatu AI jako proces, który uruchamia się po zakończeniu rozmowy lub w regularnych odstępach czasu. Oczywiście do ekstrakcji wiedzy wykorzystywany jest LLM.

Temu LLM dostarcza się koncepcję i zasady ALIS, wraz z know-how ekstrakcji wiedzy, jako prompt systemowy. Jeśli wiedza nie jest ekstrakowana zgodnie z zamierzeniami, prompt systemowy powinien zostać ulepszony poprzez próby i błędy.

Wiedza wyekstrahowana z historii czatu jest przechowywana bezpośrednio w jeziorze wiedzy. Jezioro wiedzy to po prostu mechanizm do przechowywania wiedzy w płaskim stanie, zanim zostanie ona ustrukturyzowana.

Następnie przygotowany jest mechanizm strukturyzacji, aby ułatwić wybieranie wiedzy z jeziora wiedzy.

Obejmuje to dostarczenie wektorowego magazynu osadzeń do wyszukiwania semantycznego, używanego w typowym RAG, oraz indeksów słów kluczowych.

Inne możliwości to generowanie bardziej zaawansowanych grafów wiedzy lub wykonywanie klasyfikacji kategorii.

Ten zbiór ustrukturyzowanych informacji dla jeziora wiedzy będzie nazywany bazą wiedzy. Cała ta baza wiedzy i jezioro wiedzy będą stanowić magazyn wiedzy.

Następnie magazyn wiedzy jest integrowany z przetwarzaniem interfejsu użytkownika czatu.

Jest to zasadniczo to samo, co ogólny mechanizm RAG. Dla danych wejściowych użytkownika, odpowiednia wiedza jest wybierana z magazynu wiedzy i przekazywana do LLM wraz z danymi wejściowymi użytkownika.

Pozwala to LLM na automatyczne wykorzystywanie wiedzy podczas przetwarzania danych wejściowych użytkownika.

W ten sposób wiedza zwiększa się z każdą rozmową z użytkownikiem, umożliwiając prosty ALIS, który wykorzystuje zgromadzoną wiedzę z poprzednich rozmów.

Prosty Scenariusz

Na przykład, wyobraź sobie scenariusz, w którym użytkownik rozwija aplikację internetową, korzystając z tego prostego ALIS.

Użytkownik zgłosiłby, że kod zaproponowany przez LLM spowodował błąd. Następnie, użytkownik i LLM współpracowaliby w celu rozwiązania problemu. Powiedzmy, że odkrywają, iż specyfikacja zewnętrznego API, o której wiedział LLM, była nieaktualna, a dostosowanie do najnowszej specyfikacji API rozwiązało problem.

W tym przypadku, wiedza o tym, że specyfikacja API LLM była przestarzała oraz jaka jest najnowsza specyfikacja API, mogłaby zostać zgromadzona w magazynie wiedzy z tego wątku czatu.

Następnie, tworząc program, który używa tego samego API, ALIS mógłby wykorzystać tę wiedzę, aby od początku generować program oparty na najnowszej specyfikacji API.

Udoskonalanie początkowego ALIS

Aby jednak to nastąpiło, wiedza ta musi zostać wybrana w odpowiedzi na dane wejściowe użytkownika. Może się zdarzyć, że ta wiedza nie jest bezpośrednio powiązana z danymi wejściowymi użytkownika, ponieważ nazwa problematycznego API prawdopodobnie nie pojawi się w początkowych danych wejściowych użytkownika.

W takim przypadku nazwa API pojawiłaby się po raz pierwszy dopiero w odpowiedzi LLM.

Dlatego nieco rozszerzymy prosty ALIS, dodając mechanizm komentarzy przed sprawdzeniem i komentarzy po sprawdzeniu.

Komentarze przed sprawdzeniem są podobne do niedawnego „trybu myślenia” w LLM. Przygotowujemy pamięć, która może przechowywać tekst jako pamięć stanów, i instruujemy LLM za pomocą promptu systemowego, aby wykonywał komentarze przed sprawdzeniem po otrzymaniu danych wejściowych użytkownika.

Wynik komentarza przed sprawdzeniem LLM jest następnie umieszczany w pamięci stanów, a na podstawie tego wyniku wiedza jest wybierana z magazynu wiedzy.

Następnie historia czatu, wynik komentarza przed sprawdzeniem, wiedza odpowiadająca danym wejściowym użytkownika oraz wiedza odpowiadająca wynikowi komentarza przed sprawdzeniem są przekazywane do LLM w celu otrzymania jego danych wyjściowych.

Co więcej, dla wyniku zwróconego przez LLM, wiedza jest przeszukiwana w magazynie wiedzy. Włączając wszelką znalezioną tam wiedzę, LLM jest następnie proszony o wykonanie sprawdzenia po sprawdzeniu.

Jeśli zostaną znalezione jakiekolwiek problemy, są one przekazywane z powrotem do czatu LLM wraz z punktami problemowymi i uzasadnieniem 指摘 (uwag/informacji zwrotnej).

Dzięki zapewnieniu możliwości wyboru wiedzy zarówno podczas komentarzy przed sprawdzeniem, jak i po sprawdzeniu, możemy zwiększyć szanse na wykorzystanie zgromadzonej wiedzy.

Perspektywy

Proces tworzenia początkowego ALIS i dodawania ulepszeń w celu wyeliminowania jego słabości to dokładnie rozwój zwinny, co dowodzi, że ALIS może być stopniowo ulepszany.

Ponadto, jak pokazano na przykładzie, początkowy ALIS jest najbardziej odpowiedni do zastosowania w tworzeniu oprogramowania. Wynika to z faktu, że jest to dziedzina o dużym zapotrzebowaniu i taka, w której wiedza może być jasno akumulowana.

Jest to dziedzina, w której wyniki są jednoznaczne, a jednocześnie wymaga i znacząco korzysta z metody prób i błędów, iteracyjnego gromadzenia wiedzy.

Dodatkowo, ponieważ rozwój ALIS sam w sobie jest tworzeniem oprogramowania, fakt, że deweloperzy ALIS mogą być również użytkownikami ALIS, jest atrakcyjnym aspektem.

Co więcej, wraz z systemem ALIS, jezioro wiedzy może być otwarcie współdzielone na platformach takich jak GitHub.

Pozwoliłoby to wielu osobom na wkład w ulepszanie systemu ALIS i gromadzenie wiedzy, a wszyscy cieszyliby się korzyściami i dalej efektywnie przyspieszali rozwój ALIS.

Oczywiście, dzielenie się wiedzą nie ogranicza się do deweloperów ALIS; może być ona zbierana od wszystkich deweloperów oprogramowania korzystających z ALIS.

Charakter wiedzy w języku naturalnym oferuje dwie dodatkowe zalety.

Pierwszą zaletą jest to, że wiedza może być nadal wykorzystywana nawet wtedy, gdy modele LLM ulegają zmianie lub są aktualizowane.

Drugą zaletą jest to, że ogromne zgromadzone jezioro wiedzy może być wykorzystywane jako zestaw danych do wstępnego szkolenia LLM. Istnieją dwa sposoby wykorzystania tego: jako dostrajanie lub do samego wstępnego szkolenia LLM.

W każdym razie, jeśli LLM, który wrodzenie nauczył się z wiedzy zgromadzonej w jeziorze wiedzy, może być wykorzystany, rozwój oprogramowania stanie się jeszcze bardziej efektywny.

Co więcej, rozwój oprogramowania obejmuje różne procesy, takie jak analiza wymagań, projektowanie, implementacja, testowanie, obsługa i konserwacja. Istnieje również specjalistyczna wiedza dla każdej dziedziny oprogramowania i platformy. Tworząc mechanizm podziału ogromnej ilości zgromadzonej wiedzy z tych perspektyw, można stworzyć orkiestrę ALIS.

Zatem, podstawowe technologie dla ALIS są już dostępne. Pozostałym kluczowym krokiem jest praktyczne eksperymentowanie z różnymi metodami — takimi jak know-how ekstrakcji wiedzy, odpowiedni wybór wiedzy, segmentacja wiedzy specjalistycznej i wykorzystanie pamięci stanów — w celu odkrycia skutecznych podejść. Wraz ze wzrostem złożoności, czas przetwarzania i koszty użytkowania LLM również wzrosną, co wymaga optymalizacji.

Te procesy prób i błędów oraz optymalizacje mogą być rozwijane w sposób zorientowany na uczenie się poprzez rozwój i udoskonalanie ram.

Początkowo deweloperzy, jako użytkownicy, będą prawdopodobnie integrować ramy z ALIS poprzez próby i błędy. Jednakże, nawet wtedy, sam LLM może być odpowiedzialny za generowanie pomysłów na ramy.

Następnie, poprzez włączenie do ALIS ram służących do ulepszania i odkrywania ram, w oparciu o wyniki otrzymane ze świata i wyekstrahowaną wiedzę, ALIS samo będzie wykonywać próby i błędy oraz optymalizację w sposób oparty na uczeniu się.

ALIS w Świecie Rzeczywistym

Gdy ALIS zostanie udoskonalony do tego etapu, powinien być zdolny do nabywania wiedzy w szerokiej gamie dziedzin, nie ograniczając się jedynie do świata tworzenia oprogramowania.

Podobnie jak w przypadku tworzenia oprogramowania, przewiduje się, że ALIS rozszerzy swój zakres zastosowań na różnorodne działania intelektualne, które ludzie wykonują za pomocą komputerów.

Nawet w tak czysto intelektualnych działaniach, ALIS będzie posiadał cechę podobną do ucieleśnionej sztucznej inteligencji w stosunku do swojego docelowego świata.

Dzieje się tak, ponieważ rozpoznaje granicę między sobą a światem, działa na świat przez tę granicę i może postrzegać informacje otrzymywane ze świata.

Kiedy ta granica ze światem jest fizycznie widoczna i zlokalizowana w jednym miejscu, ogólnie określamy ją jako ciało.

Jednakże, nawet jeśli granica jest niewidoczna i rozproszona przestrzennie, struktura percepcji i działania przez granicę pozostaje taka sama, jak w przypadku posiadania fizycznego ciała.

W tym sensie, ALIS wykonujący działania intelektualne może być uważany za posiadający wirtualnie cechy ucieleśnionej sztucznej inteligencji.

A jeśli ALIS zostanie udoskonalony do etapu, na którym będzie w stanie odpowiednio uczyć się nawet w nowych, nieznanych światach, istnieje możliwość, że ALIS mógłby zostać włączony jako część prawdziwej ucieleśnionej sztucznej inteligencji, która posiada rzeczywiste fizyczne ciało.

W ten sposób ALIS zostanie ostatecznie zastosowany w świecie rzeczywistym i zacznie się z niego uczyć.