Przejdź do treści
Ten artykuł został przetłumaczony z języka japońskiego za pomocą AI
Czytaj po japońsku
Ten artykuł znajduje się w Domenie Publicznej (CC0). Możesz go swobodnie używać. CC0 1.0 Universal

System sztucznej inteligencji uczącej się: Koncepcja ALIS

W niniejszym dokumencie zamierzam uporządkować System Sztucznej Inteligencji Uczącej się (Artificial Learning Intelligence System: ALIS), omawiając jego koncepcje i zasady, aż po podstawowy projekt i metodykę rozwoju.

Koncepcja

Obecne generatywne AI, przede wszystkim duże modele językowe, są trenowane w oparciu o uczenie nadzorowane z wykorzystaniem sieci neuronowych.

Proces treningu sieci neuronowych pozycjonujemy jako uczenie wrodzone.

ALIS to system, który umożliwia kompleksowe wnioskowanie poprzez integrację procesów uczenia wrodzonego i nabytego, włączając proces uczenia nabytego oddzielnie od uczenia wrodzonego.

W tym uczeniu nabytym, zdobyta wiedza jest przechowywana zewnętrznie w stosunku do sieci neuronowej i wykorzystywana podczas wnioskowania.

Dlatego rdzeń techniczny ALIS leży w ekstrakcji, przechowywaniu wiedzy wielokrotnego użytku oraz selekcji i wykorzystywaniu wiedzy podczas wnioskowania.

Ponadto, ALIS to nie tylko pojedyncza technologia elementarna, ale także technologia systemowa, która łączy uczenie wrodzone i nabyte.

Elementy systemu inteligentnego uczenia się

ALIS traktuje zarówno istniejące uczenie wrodzone, jak i przyszłe uczenie nabyte jako działające według tych samych zasad w ramach uczenia się i wnioskowania.

Aby wyjaśnić zasady uczenia się w ALIS, definiujemy pięć elementów systemu inteligentnego uczenia się:

Pierwszym jest Inteligentny Procesor. Odnosi się to do systemu przetwarzającego, który wykonuje wnioskowanie przy użyciu wiedzy i ekstrahuje wiedzę do uczenia się.

Reprezentatywne przykłady inteligentnych procesorów obejmują LLM i części ludzkiego mózgu.

Drugim jest Magazyn Wiedzy. Odnosi się to do miejsca przechowywania, gdzie wyodrębniona wiedza jest zapisywana i może być pobierana w razie potrzeby.

W LLM magazynem wiedzy są parametry sieci neuronowej. U ludzi odpowiada to pamięci długotrwałej w mózgu.

Trzecim jest Świat. Odnosi się to do środowiska zewnętrznego postrzeganego przez systemy inteligentnego uczenia się, takie jak ludzie czy ALIS.

Dla ludzi świat jest samą rzeczywistością. W przypadku LLM mechanizm, który otrzymuje dane wyjściowe z LLM i dostarcza mu informację zwrotną, jest uważany za odpowiednik świata.

Czwartym jest Pamięć Stanu. Odnosi się to do wewnętrznej pamięci tymczasowej, takiej jak notatnik, której system inteligentnego uczenia się używa podczas wnioskowania.

W LLM jest to przestrzeń pamięci używana podczas wnioskowania, znana jako stany ukryte. U ludzi odpowiada to pamięci krótkotrwałej.

Piątym jest Struktura (Framework). Jest to tak zwana rama myślenia. W terminologii systemu inteligentnego uczenia się odnosi się to do kryteriów wyboru niezbędnej wiedzy podczas wnioskowania oraz logicznej struktury przestrzeni stanów do organizowania pamięci stanu.

W LLM jest to struktura semantyczna stanów ukrytych, a ogólnie jej zawartość jest niejasna i niezrozumiała dla ludzi. Ponadto, wybór wiedzy jest zintegrowany z mechanizmem uwagi, który wybiera, do których istniejących tokenów odwołać się dla każdego przetwarzanego tokenu.

Dla ludzi, jak wspomniano powyżej, jest to rama myślenia. Kiedy myślimy, używając określonej ramy myślenia, pewne zestawy know-how są przywoływane z pamięci długotrwałej i ładowane do pamięci krótkotrwałej. Następnie, aktualnie postrzegane informacje są organizowane zgodnie z ramami myślenia, aby zrozumieć sytuację.

Zasady działania systemu inteligentnego uczenia się

System inteligentnego uczenia się działa w następujący sposób:

Inteligentny procesor działa na świat. Świat odpowiada wynikami opartymi na tym działaniu.

Inteligentny procesor wyodrębnia z tych wyników wiedzę wielokrotnego użytku i przechowuje ją w magazynie wiedzy.

Gdy inteligentny procesor działa wielokrotnie na świat, wybiera wiedzę z magazynu wiedzy i wykorzystuje ją do modyfikowania swojego sposobu działania.

To jest podstawowy mechanizm.

Jednakże, zasadniczo, metody ekstrakcji, przechowywania, selekcji i wykorzystywania wiedzy decydują o tym, czy system może osiągnąć znaczące uczenie się.

Ludzie posiadają mechanizmy umożliwiające efektywne wyodrębnianie, przechowywanie, selekcję i wykorzystywanie wiedzy, co pozwala im się uczyć.

Sieci neuronowe, w tym LLM, posiadają mechanizmy przechowywania, selekcji i wykorzystywania, chociaż część ekstrakcji jest obsługiwana przez zewnętrznego nauczyciela. Pozwala im to uczyć się, o ile nauczyciel dostarcza dane wejściowe.

Co więcej, system inteligentnego uczenia się może osiągnąć bardziej złożone uczenie się, ucząc się również ekstrakcji, przechowywania i selekcji ram, a także ich wykorzystywania w pamięci stanu, jako wiedzy.

Rodzaje wiedzy

W oparciu o tę zasadę, projektując uczenie nabyte, należy jasno określić, jaką formę informacji przyjmie nabyta wiedza.

Można sobie wyobrazić uczenie się wiedzy nabytej oddzielnie jako parametrów sieci neuronowej.

Jednakże, nabyta wiedza nie musi ograniczać się wyłącznie do parametrów sieci neuronowej. Realistycznym kandydatem jest wiedza ztekstualizowana w języku naturalnym.

Jeśli wiedza jest ztekstualizowana w języku naturalnym, może być wyodrębniana i wykorzystywana poprzez wykorzystanie możliwości przetwarzania języka naturalnego przez LLM. Ponadto, może być traktowana jako dane w zwykłym systemie IT, co ułatwia przechowywanie i selekcję.

Co więcej, wiedza ztekstualizowana w języku naturalnym jest łatwa do sprawdzenia, zrozumienia, a w niektórych przypadkach również edycji przez ludzi i inne LLM.

Może być również udostępniana innym systemom inteligentnego uczenia się, a także łączona lub dzielona.

Z tych powodów, nabyta wiedza w koncepcji ALIS będzie początkowo projektowana z myślą o wiedzy ztekstualizowanej w języku naturalnym.

Nabyta Pamięć Stanu i Struktura

Wyjaśniłem zalety wyboru wiedzy tekstualizowanej w języku naturalnym jako wiedzy nabytej.

Podobnie, tekst w języku naturalnym może być również używany do pamięci stanu i struktury wnioskowania.

Struktura, będąca konstrukcją konceptualną, może być również przechowywana i wykorzystywana w magazynie wiedzy jako wiedza tekstualizowana w języku naturalnym.

Podczas inicjalizacji lub aktualizacji stanów w oparciu o strukturę zdefiniowaną przez tę strukturę, można użyć pamięci stanu opartej na tekście.

Projektując ALIS tak, aby używał formatu tekstowego nie tylko dla nabytej wiedzy, ale także dla struktur i pamięci stanu, ALIS może wykorzystać możliwości przetwarzania języka naturalnego LLM zarówno do uczenia nabytego, jak i ogólnego wnioskowania.

Wiedza formalna

Wiedza nabyta, ramy i pamięć stanu mogą być reprezentowane nie tylko przez tekst języka naturalnego, ale także przez bardziej rygorystyczne języki formalne lub modele formalne.

Chociaż napisałem „wybierz”, celem ALIS jest włączenie wielu mechanizmów uczenia się wiedzy nabytej, aby umożliwić hybrydowe wykorzystanie uczenia wrodzonego i nabytego.

Wiedza reprezentowana przez języki formalne lub modele formalne może być bardziej rygorystyczna i wolna od dwuznaczności.

Ponadto, jeśli ramy są wyrażone za pomocą języka formalnego lub modelu formalnego, a stan początkowy jest rozszerzony w pamięci stanu, wówczas model formalny może być przetwarzany przez inteligentny procesor (nie LLM) w celu wykonania rygorystycznych symulacji i rozumowania logicznego.

Doskonałym przykładem takich języków formalnych i modeli formalnych są języki programowania.

W miarę jak system uczy się o świecie, jeśli potrafi wyrazić podstawowe prawa i koncepcje jako programy w ramach ram, wówczas mogą one być symulowane przez komputer.

Kolumna 1: Rodzaje wiedzy

Kiedy porządkujemy wiedzę w systemie inteligentnego uczenia się, staje się jasne, że można ją szeroko podzielić na trzy systemy i dwa typy.

Trzy systemy to: wiedza o parametrach sieci obsługiwana przez sieci neuronowe, wiedza naturalna w języku naturalnym oraz wiedza formalna w językach formalnych.

Dwa typy to bezstanowe (stateless) i stanowe (stateful).

Bezstanowa wiedza o parametrach sieci to wiedza intuicyjna, taka jak ta występująca w AI głębokiego uczenia. Cechy kotów i psów, których nie można przemyśleć ani zidentyfikować werbalnie, mogą być nauczone jako bezstanowa wiedza o parametrach sieci.

Stanowa wiedza o parametrach sieci to wiedza rozmyta, pochodząca z procesów iteracyjnych, taka jak ta występująca w AI generatywnej.

Bezstanowa wiedza naturalna to wiedza, taka jak znaczenie przypisane słowu.

Stanowa wiedza naturalna to wiedza zawierająca kontekst znajdujący się w zdaniu.

Niektóra wiedza naturalna jest z natury zawarta w stanowej wiedzy o parametrach sieci, ale istnieje również wiedza, którą można nabyć po urodzeniu z tekstu języka naturalnego.

Bezstanowa wiedza formalna to wiedza, którą można wyrazić za pomocą wzorów matematycznych, które nie zawierają iteracji. Stanowa wiedza formalna to wiedza, którą można wyrazić za pomocą programów.

Krótkotrwała pamięć własnego mózgu może być również wykorzystywana jako pamięć stanu dla wiedzy naturalnej i formalnej.

Jednakże, ponieważ jest to pamięć krótkotrwała, istnieje problem z trudnością stabilnego utrzymania stanu. Ponadto, nie jest dobra w przechowywaniu wiedzy w sformalizowanym, jednoznacznym stanie.

Z drugiej strony, papier, komputery lub smartfony mogą być używane jako pamięć stanu do zapisywania i edytowania tekstu w języku naturalnym, języków formalnych lub modeli formalnych.

Ogólnie rzecz biorąc, dane na papierze lub komputerach są często postrzegane jako coś do przechowywania wiedzy jako magazyn wiedzy, ale mogą być również używane jako pamięć stanu do organizowania myśli.

W ten sposób, jest oczywiste, że ludzie wykonują działania intelektualne, umiejętnie wykorzystując te trzy systemy i dwa typy wiedzy.

ALIS również ma potencjał do dramatycznej poprawy swoich możliwości, umożliwiając i wzmacniając działania intelektualne, które wykorzystują te same trzy systemy i dwa typy wiedzy.

W szczególności ALIS ma tę zaletę, że może wykorzystywać ogromne magazyny wiedzy i pamięć stanu. Ponadto, może z łatwością przygotować wiele instancji każdego z nich i wykonywać zadania intelektualne, przełączając je lub łącząc.

Kolumna 2: Orkiestracja intelektualna

Chociaż możliwość przechowywania dużej ilości wiedzy w magazynie wiedzy jest zaletą, samo posiadanie dużej ilości wiedzy niekoniecznie jest korzystne dla aktywności intelektualnej ze względu na ograniczenia liczby tokenów, które generatywna AI może użyć naraz, oraz na fakt, że nieistotna wiedza staje się szumem.

Z drugiej strony, poprzez odpowiednie segmentowanie magazynu wiedzy i tworzenie wysokowydajnych, wyspecjalizowanych magazynów wiedzy, które gromadzą wiedzę niezbędną do konkretnych zadań intelektualnych, można złagodzić problemy z limitami tokenów i szumem.

W zamian, takie wyspecjalizowane magazyny wiedzy byłyby użyteczne tylko dla tych konkretnych zadań intelektualnych.

Wiele aktywności intelektualnych to złożone kombinacje różnych zadań intelektualnych. Dlatego, dzieląc wiedzę na wyspecjalizowane magazyny wiedzy zgodnie z typem zadania intelektualnego i dzieląc aktywność intelektualną na zadania intelektualne, ALIS może wykonywać całą aktywność intelektualną, odpowiednio przełączając się między wyspecjalizowanymi magazynami wiedzy.

Jest to jak orkiestra złożona z profesjonalnych muzyków grających na różnych instrumentach i dyrygenta prowadzącego całość.

Dzięki tej technologii systemowej, "orkiestracji intelektualnej", ALIS będzie w stanie organizować swoje działania intelektualne.

Podstawowy projekt i metoda rozwoju ALIS

Od tego miejsca, uporządkuję podejście do rozwoju ALIS.

Jak już wspomniano w zasadach i kolumnach, ALIS jest z natury zaprojektowany tak, aby łatwo rozszerzać swoje funkcje i zasoby. Dzieje się tak, ponieważ istota ALIS leży nie w konkretnych funkcjach, lecz w procesach ekstrakcji, przechowywania, selekcji i wykorzystywania wiedzy.

Na przykład, można przygotować wiele typów mechanizmów ekstrakcji wiedzy, a następnie wybrać jeden lub używać ich jednocześnie, w zależności od projektu systemu.

Co więcej, ALIS można sprawić, że sam będzie wykonywał ten wybór.

Przechowywanie, selekcja i wykorzystanie mogą podobnie być swobodnie wybierane lub równolegle przetwarzane.

Dlatego ALIS może być rozwijany przyrostowo i zwinne, bez potrzeby projektowania całej funkcjonalności metodą wodospadową.

Początki ALIS

Teraz zaprojektujmy bardzo prosty system ALIS.

Podstawowym interfejsem użytkownika będzie znany chat AI. Początkowo dane wejściowe użytkownika będą przekazywane bezpośrednio do LLM. Odpowiedź LLM zostanie wyświetlona w interfejsie użytkownika, a system będzie oczekiwał na kolejne dane wejściowe użytkownika.

Po otrzymaniu kolejnych danych wejściowych, LLM otrzyma nie tylko nowe dane, ale także całą historię czatu między użytkownikiem a LLM do tego momentu.

Za tym interfejsem użytkownika chat AI przygotujemy mechanizm do ekstrakcji wiedzy wielokrotnego użytku z historii czatu.

Można to dodać do systemu chat AI jako proces wykonywany po zakończeniu rozmowy lub w regularnych odstępach czasu. Oczywiście, do ekstrakcji wiedzy zostanie użyty LLM.

Ten LLM otrzyma koncepcję i zasady ALIS, wraz z know-how ekstrakcji wiedzy, jako podpowiedzi systemowe. Jeśli wiedza nie zostanie wyodrębniona zgodnie z zamierzeniami, podpowiedzi systemowe powinny być udoskonalane metodą prób i błędów.

Wiedza wyodrębniona z historii czatu zostanie zapisana bezpośrednio w jeziorze wiedzy. Jezioro wiedzy to mechanizm do prostego przechowywania wiedzy w płaskim, nieustrukturyzowanym stanie, zanim zostanie ona ustrukturyzowana.

Następnie przygotujemy mechanizm strukturyzacji, aby ułatwić wybieranie wiedzy z jeziora wiedzy.

Oznacza to zapewnienie wektorowych magazynów osadzeń do wyszukiwania semantycznego, typowo używanych w RAG, oraz indeksów słów kluczowych, między innymi.

Bardziej zaawansowane opcje obejmują generowanie grafu wiedzy lub przeprowadzanie klasyfikacji kategorii.

Ta kolekcja ustrukturyzowanych informacji dla jeziora wiedzy zostanie nazwana bazą wiedzy. Cała ta baza wiedzy i jezioro wiedzy będą stanowić magazyn wiedzy.

Następnie zintegrujemy magazyn wiedzy z przetwarzaniem interfejsu użytkownika czatu.

Jest to zasadniczo to samo, co ogólny mechanizm RAG. Dla danych wejściowych użytkownika, odpowiednia wiedza jest wybierana z magazynu wiedzy i przekazywana do LLM wraz z danymi wejściowymi użytkownika.

Pozwala to LLM na automatyczne wykorzystywanie wiedzy podczas przetwarzania danych wejściowych użytkownika.

W ten sposób wiedza będzie gromadzona z każdą rozmową z użytkownikiem, realizując prosty system ALIS, który wykorzystuje wiedzę zgromadzoną z poprzednich rozmów.

Prosty scenariusz

Wyobraźmy sobie na przykład, że użytkownik tworzy aplikację internetową, korzystając z tego prostego ALIS.

Użytkownik zgłasza, że kod zaproponowany przez LLM spowodował błąd. Po wspólnej pracy użytkownika i LLM nad rozwiązaniem problemu odkrywają, że specyfikacja zewnętrznego API znana LLM była nieaktualna, a program działa poprawnie po dostosowaniu go do najnowszej specyfikacji API.

Z tego wątku rozmowy ALIS mógłby następnie zgromadzić wiedzę w swoim magazynie wiedzy: konkretnie, że specyfikacja API znana przez LLM jest stara i jaka jest najnowsza specyfikacja API.

Wówczas, następnym razem, gdy program używający tego samego API zostanie stworzony, ALIS mógłby wykorzystać tę wiedzę do wygenerowania programu opartego na najnowszej specyfikacji API od samego początku.

Ulepszenia początkowego ALIS

Jednakże, aby to nastąpiło, wiedza ta musi być wybrana w odpowiedzi na dane wejściowe użytkownika. Możliwe, że ta wiedza nie będzie bezpośrednio powiązana z danymi wejściowymi użytkownika, ponieważ nazwa problematycznego API może nie pojawić się w danych wejściowych użytkownika.

W takim przypadku nazwa API pojawiłaby się dopiero podczas odpowiedzi LLM.

Dlatego nieco rozszerzymy prosty ALIS, dodając mechanizmy wstępnej analizy i post-sprawdzania.

Wstępna analiza jest podobna do „trybu myślenia” w ostatnich LLM. Przygotowana zostanie pamięć zdolna do przechowywania tekstu jako pamięci stanu, a systemowa podpowiedź nakaże LLM przeprowadzenie wstępnej analizy po otrzymaniu danych wejściowych od użytkownika.

Wynik wstępnej analizy LLM zostanie zapisany w pamięci stanu. Na podstawie tego wyniku wstępnej analizy wiedza zostanie wybrana z magazynu wiedzy.

Następnie historia czatu, wynik wstępnej analizy, wiedza odpowiadająca danym wejściowym użytkownika oraz wiedza odpowiadająca wynikowi wstępnej analizy zostaną przekazane do LLM w celu otrzymania odpowiedzi.

Ponadto, wynik zwrócony przez LLM zostanie również wykorzystany do wyszukiwania wiedzy w magazynie wiedzy. Wraz z znalezioną tam wiedzą, LLM zostanie poproszony o wykonanie post-sprawdzenia.

Jeśli zostaną znalezione jakiekolwiek problemy, problematyczne punkty i powody uwagi zostaną uwzględnione i przekazane z powrotem do czatu LLM.

Poprzez zapewnienie możliwości wyboru wiedzy podczas wstępnej analizy i post-sprawdzania, możemy zwiększyć szanse na wykorzystanie zgromadzonej wiedzy.

Perspektywy

Takie podejście do budowania początkowego ALIS, a następnie dodawania ulepszeń w celu wyeliminowania jego słabych stron, doskonale ilustruje zwinne podejście do rozwoju i stopniowe ulepszanie ALIS.

Ponadto, jak pokazano na przykładzie, początkowy ALIS najlepiej nadaje się do zastosowań w tworzeniu oprogramowania. Dzieje się tak, ponieważ jest to dziedzina o dużym zapotrzebowaniu, a także taka, w której wiedza może być łatwo i jasno gromadzona.

Jest to gatunek, w którym sprawy są wyraźnie czarno-białe, a jednocześnie jest to kluczowa dziedzina, w której metoda prób i błędów oraz iteracyjne gromadzenie wiedzy są konieczne i ważne.

Dodatkowo, ponieważ rozwój ALIS sam w sobie jest tworzeniem oprogramowania, fakt, że deweloperzy ALIS mogą być sami użytkownikami ALIS, jest również atrakcyjny.

A wraz z systemem ALIS, jezioro wiedzy może być również otwarcie udostępniane na platformach takich jak GitHub.

Pozwoliłoby to wielu osobom na współpracę w ulepszaniu systemu ALIS i gromadzeniu wiedzy, a wszyscy czerpaliby korzyści z wyników, co jeszcze bardziej przyspieszyłoby rozwój ALIS.

Oczywiście, dzielenie się wiedzą nie ogranicza się do deweloperów ALIS, ale może być zbierane od wszystkich deweloperów oprogramowania korzystających z ALIS.

Fakt, że wiedza jest w języku naturalnym, oferuje dwie dodatkowe zalety:

Pierwszą zaletą jest to, że wiedza może być wykorzystywana nawet wtedy, gdy model LLM ulegnie zmianie lub aktualizacji.

Drugą zaletą jest to, że ogromne zgromadzone jezioro wiedzy może być wykorzystane jako zbiór danych do wstępnego treningu dla LLM. Można to zrobić na dwa sposoby: poprzez użycie go do dostrajania lub poprzez użycie go do samego wstępnego treningu LLM.

W każdym razie, jeśli LLM, które wrodzenie nauczyły się wiedzy zgromadzonej w jeziorze wiedzy, mogą być wykorzystane, rozwój oprogramowania stanie się jeszcze bardziej efektywny.

Ponadto, w ramach tworzenia oprogramowania istnieją różne procesy, takie jak analiza wymagań, projektowanie, implementacja, testowanie, eksploatacja i konserwacja, a dla każdej domeny oprogramowania i platformy istnieje specjalistyczna wiedza. Jeśli zostanie stworzony mechanizm do segmentowania ogromnej zgromadzonej wiedzy z tych perspektyw, można również utworzyć orkiestrę ALIS.

W ten sposób, podstawowe technologie dla ALIS są już dostępne. Kluczem jest teraz praktyczne wypróbowanie różnych metod – takich jak know-how ekstrakcji wiedzy, odpowiedni wybór wiedzy, segmentacja specjalistycznej wiedzy i sposób wykorzystania pamięci stanu – aby odkryć skuteczne podejścia. Ponadto, wraz ze wzrostem złożoności, czas przetwarzania i koszty użycia LLM wzrosną, co będzie wymagało optymalizacji.

Te procesy prób i błędów oraz optymalizacji mogą być realizowane adaptacyjnie poprzez rozwój i ulepszanie ram.

Początkowo deweloperzy, jako użytkownicy, prawdopodobnie będą włączać ramy do ALIS poprzez próby i błędy. Jednak nawet wtedy, sam LLM może być zmuszony do generowania pomysłów na ramy.

A poprzez włączenie do ALIS ram, które ulepszają lub odkrywają ramy na podstawie wyników otrzymanych ze świata i wyodrębnionej wiedzy, sam ALIS będzie adaptacyjnie przeprowadzał próby i błędy oraz optymalizację.

ALIS w świecie rzeczywistym

Gdy ALIS zostanie udoskonalony do tego etapu, powinien być zdolny do uczenia się wiedzy nie tylko w świecie tworzenia oprogramowania, ale szerzej, w różnych dziedzinach.

Podobnie jak w tworzeniu oprogramowania, ALIS ma rozszerzyć swój zakres na różne aktywności intelektualne, które ludzie wykonują za pomocą komputerów.

Nawet w tak czysto intelektualnych działaniach ALIS posiada pewien rodzaj wcielonej natury AI w odniesieniu do świata docelowego.

Dzieje się tak, ponieważ rozpoznaje granicę między sobą a światem, działa na świat poprzez tę granicę i może postrzegać informacje otrzymane ze świata.

To, co ogólnie nazywamy „ciałem”, jest fizycznie widoczną i zlokalizowaną w jednym miejscu granicą ze światem.

Jednakże, nawet jeśli granica jest niewidoczna i rozproszona przestrzennie, struktura percepcji i działania poprzez granicę jest taka sama, jak posiadanie fizycznego ciała.

W tym sensie ALIS, wykonując czynności intelektualne, może być uważany za posiadający naturę wirtualnie wcielonej AI.

A gdy ALIS zostanie udoskonalony do etapu, na którym będzie mógł odpowiednio uczyć się nawet w nowych, nieznanych światach, istnieje możliwość, że ALIS zostanie zintegrowany jako część prawdziwej wcielonej AI, posiadającej fizyczne ciało.

W ten sposób ALIS zostanie ostatecznie zastosowany w świecie rzeczywistym i zacznie się od niego uczyć.