Stoimy u progu przyspieszającego postępu technologicznego, zwłaszcza gwałtownego rozwoju technologii AI.
Generatywna sztuczna inteligencja potrafi już nie tylko płynnie mówić, ale także pisać programy. To nie tylko zwiększa efektywność i usprawnia pracę ludzi, ale także przyczynia się do wzmacniania samej generatywnej AI.
Nie chodzi tu jedynie o wzmocnienie struktury modelu generatywnej AI czy metod jej wstępnego szkolenia.
Wraz ze wzrostem liczby aplikacji, z którymi generatywna AI może się łączyć i które może wykorzystywać, będzie ona w stanie robić znacznie więcej niż tylko czatować. Co więcej, jeśli stworzy się oprogramowanie, które pozwoli generatywnej AI gromadzić potrzebną do zadania wiedzę i wydobywać ją w odpowiednim momencie, będzie ona mogła zachowywać się inteligentniej, wykorzystując właściwą wiedzę bez wstępnego szkolenia.
W ten sposób postęp technologii AI przyspiesza całą dziedzinę technologii AI, włączając w to technologie stosowane i systemy stosowane. To przyspieszenie z kolei rekurencyjnie prowadzi do dalszego przyspieszenia technologii AI. W miarę jak technologia AI przyspiesza, a AI staje się zdolna do większej liczby rzeczy, miejsca i sytuacje, w których jest wykorzystywana, w naturalny sposób będą rosnąć wykładniczo.
To nieuchronnie zwiększy liczbę inwestorów i inżynierów zainteresowanych technologią AI. W ten sposób przyspieszenie technologii AI jest również wzmacniane z perspektywy społeczno-ekonomicznej.
Z drugiej strony, postęp technologiczny wpływa na nas na różne sposoby, zarówno pośrednio, jak i bezpośrednio.
Ogólnie rzecz biorąc, postęp technologiczny ma tendencję do postrzegania jako coś pozytywnego. Chociaż podnoszone są obawy dotyczące ryzyka nowych technologii, pozytywne efekty postępu zazwyczaj przeważają, a ryzyka można z czasem łagodzić, więc ogólne korzyści uważa się za znaczące.
Jednak jest to prawdą tylko wtedy, gdy tempo postępu technologicznego jest umiarkowane. Gdy przyspieszenie postępu technologicznego przekroczy pewną granicę, korzyści przestają przewyższać ryzyka.
Po pierwsze, nawet sami twórcy nie rozumieją w pełni wszystkich cech ani potencjalnych zastosowań nowej technologii. Zwłaszcza w przypadku zastosowań, nierzadko zdarza się, że inni odkrywają zaskakujące sposoby użycia lub kombinacje z innymi technologiami, których twórcy nie przewidzieli.
Ponadto, jeśli poszerzymy naszą perspektywę, aby uwzględnić te zastosowania i zastanowić się, jakie korzyści i ryzyka technologia stwarza dla społeczeństwa, praktycznie nikt nie jest w stanie tego w pełni pojąć.
Takie społeczne martwe punkty w technologii, gdy postęp jest stopniowy, są z czasem stopniowo wypełniane. Ostatecznie technologia jest stosowana w społeczeństwie, gdy te martwe punkty są wystarczająco zaadresowane.
Jednak gdy postęp technologiczny przekroczy pewną prędkość, skraca się również okres karencji na zajęcie się społecznymi martwymi punktami. Z perspektywy wypełniania społecznych martwych punktów, przyspieszenie postępu technologicznego wydaje się, jakby nastąpiła względna kompresja czasu.
Nowe zmiany technologiczne pojawiają się jedna po drugiej, występując jednocześnie w wielu technologiach, co powoduje, że społeczne zadanie poznawcze polegające na zajmowaniu się społecznymi martwymi punktami pozostaje w tyle.
W konsekwencji znajdujemy się otoczeni różnymi technologiami, które mają utrzymujące się społeczne martwe punkty.
Potencjalne ryzyka posiadane przez takie technologie mogą nagle wyłonić się z naszych martwych punktów i wyrządzić szkodę społeczeństwu. Ponieważ ryzyka, na które jesteśmy nieprzygotowani lub na które nie mamy środków zaradczych, pojawiają się nagle, wpływ szkód ma tendencję do bycia większym.
Ta sytuacja zmienia skalę korzyści i ryzyka postępu technologicznego. Z powodu efektu kompresji czasu, ryzyka materializują się, zanim społeczne martwe punkty zostaną wypełnione, zwiększając tym samym ryzyko związane z każdą technologią.
Samo-wzmacniające się przyspieszenie postępu generatywnej AI może w końcu doprowadzić do powstania niezliczonych technologii z społecznymi martwymi punktami, które są prawie niemożliwe do wypełnienia, drastycznie przechylając szalę między ryzykiem a korzyściami.
To sytuacja, której nigdy wcześniej nie doświadczyliśmy. Dlatego nikt nie jest w stanie dokładnie oszacować zakresu potencjalnych ryzyk jako społecznych martwych punktów ani tego, jak znaczący może być ich wpływ. Jedyną pewnością jest logiczna struktura, że im szybsze przyspieszenie, tym większe ryzyko.
Społeczeństwo Chronoskramblowane
Ponadto, nie jesteśmy w stanie dokładnie uchwycić obecnego tempa postępu technologicznego, nie mówiąc już o tym, jakie będzie ono w przyszłości.
Dotyczy to nawet badaczy i programistów generatywnej sztucznej inteligencji. Na przykład, istnieją znaczne różnice zdań wśród ekspertów co do tego, kiedy pojawi się AGI, czyli sztuczna inteligencja, która przewyższy ludzkie zdolności we wszystkich aspektach.
Co więcej, badacze i programiści generatywnej AI to inni specjaliści niż eksperci od technologii stosowanych i systemów stosowanych. Dlatego, choć mogą być dobrze zorientowani w najnowszych badaniach i przyszłych perspektywach generatywnej AI, nie są w stanie w pełni zrozumieć, jakie technologie stosowane i systemy stosowane wykorzystujące generatywną AI już istnieją, ani jakie możliwości mogą się otworzyć w przyszłości.
A jeśli chodzi o technologie stosowane i systemy stosowane, możliwości są praktycznie nieskończone ze względu na kombinacje z różnymi istniejącymi mechanizmami. Nawet wśród osób badających i rozwijających technologie stosowane i systemy stosowane, trudno byłoby ogarnąć wszystko, włączając w to elementy z różnych dziedzin.
Jeszcze trudniejsze jest wnioskowanie lub przewidywanie, w jaki sposób takie technologie stosowane i systemy stosowane będą rozpowszechniać się w społeczeństwie i jakie będą miały skutki. Badacze i inżynierowie, w szczególności, niekoniecznie są dobrze zorientowani w skutkach społecznych ani specjalnie nimi zainteresowani. Natomiast ci, którzy są bardzo zainteresowani skutkami społecznymi, często mają nieodłączne ograniczenia w swojej wiedzy technicznej.
W ten sposób nikt nie jest w stanie w pełni pojąć obecnego stanu ani przyszłej wizji generatywnej AI. A w rozumieniu każdej osoby występują rozbieżności.
Problem nie polega jedynie na istnieniu rozbieżności, ale na tym, że tempo postępu jest nieznane. Z pewnością stoimy u progu ery, w której postęp technologiczny podlega przyspieszającej kompresji czasu, ale brakuje nam wspólnego zrozumienia jej prędkości.
Co gorsza, występują różnice w postrzeganiu u poszczególnych osób, czy postęp technologiczny jest stały, czy też przyspiesza. Ponadto, nawet wśród tych, którzy zgadzają się co do przyspieszenia, percepcje znacznie się różnią w zależności od tego, czy wierzą, że przyspieszenie jest napędzane wyłącznie postępami w podstawowej technologii generatywnej sztucznej inteligencji, czy też uwzględniają przyspieszenie wynikające z technologii stosowanych i systemów stosowanych, a także napływ ludzi i kapitału z perspektywy społeczno-ekonomicznej.
W ten sposób, rozbieżności w rozumieniu obecnej sytuacji i przyszłej wizji, w połączeniu z rozbieżnościami w postrzeganiu tempa postępu, tworzą zadziwiająco duże różnice w naszych indywidualnych percepcjach.
Jaki poziom technologiczny i jaki wpływ społeczny będzie reprezentował sierpień 2025 roku? A co przyniesie rok 2027 (za dwa lata) i 2030 (za pięć lat)? To znacznie różni się w zależności od osoby. Co więcej, ta luka w postrzeganiu jest prawdopodobnie większa teraz, w 2025 roku (dwa lata po boomie generatywnej AI w 2023 roku), niż była wtedy.
Społeczeństwo, w którym jednostki mają tak odmienne postrzeganie czasów, nazywam Społeczeństwem Chronoskramblowanym. „Chrono” to greckie słowo oznaczające czas.
I w rzeczywistości tego Społeczeństwa Chronoskramblowanego musimy zmierzyć się z problemami kompresji czasu i technologicznych społecznych martwych punktów, których nie potrafimy wspólnie i dokładnie postrzegać.
Wizja i Strategia
Aby zastanowić się, jak rozwiązać problem technologicznych społecznych martwych punktów – biorąc pod uwagę możliwość, że nasze własne poczucie czasu może nie pokrywać się z faktyczną kompresją czasu, a co więcej, we współpracy z innymi, których percepcja różni się od naszej – wizja i strategia są niezbędne.
Wizja w tym kontekście oznacza wskazywanie niezmiennych wartości i kierunków, niezależnie od dominującego poczucia czasu.
Na przykład, upraszczając dyskusję, „zapewnienie, że ryzyko technologii nie przewyższa jej korzyści” jest jedną z ważnych wizji. Jest to wizja, na którą więcej osób może się zgodzić, niż na przykład „rozwijanie technologii” czy „minimalizowanie ryzyka technologicznego”.
I kluczowe jest umożliwienie jak największej liczbie ludzi współpracy w celu osiągnięcia tej wizji. Nawet przy zgodzie na wizję, nie można jej osiągnąć bez działania.
Tutaj ponownie, konieczne jest sformułowanie strategii, rozumiejąc, że znajdujemy się w Społeczeństwie Chronoskramblowanym, gdzie występują różnice w poczuciu czasu. Na przykład, strategia polegająca na dostosowaniu poczucia czasu każdego do rzeczywistej kompresji czasu prawdopodobnie nie powiedzie się. Nałożyłoby to na jednostki znaczne obciążenie edukacyjne, a energia wymagana do tego samego doprowadziłaby do wyczerpania. Co więcej, ponieważ ta luka pogłębia się z każdym rokiem, wymagana energia również by rosła.
Nie mogę przedstawić każdej idealnej strategii, ale jednym z przykładów strategii jest wykorzystanie czegoś, co automatycznie wzmacnia się z czasem, aby osiągnąć wizję.
Jest to samo wykorzystanie generatywnej AI. Jest to nieco skomplikowane, ponieważ wiąże się z wykorzystaniem samego problemu, którym próbujemy się zająć, ale jest oczywiste, że w przypadku problemu kompresji czasu konwencjonalne podejście będzie z czasem stawało się coraz trudniejsze. Aby temu przeciwdziałać, nie ma innego wyboru, jak tylko wykorzystać zdolności, które również podlegają kompresji czasu, do opracowania środków zaradczych.
I, jeśli nam się poszczęści, jeśli ostatecznie uda nam się wykorzystać same możliwości generatywnej AI do 調速 (regulowania prędkości) rozwoju technologii napędzanej generatywną AI i kontrolowania jej tak, aby nie przyspieszała poza granice, będziemy znacznie bliżej rozwiązania problemu.
Zakończenie
W Społeczeństwie Chronoskramblowanym każdy z nas będzie miał wiele, różniących się martwych punktów. Dzieje się tak, ponieważ nikt nie jest w stanie ogarnąć wszystkich najnowszych informacji bez martwych punktów i odpowiednio połączyć ich z oszacowaniem teraźniejszości i przewidywaniem przyszłości.
Wtedy, w pewnym momencie, pojawia się okazja, by nagle uświadomić sobie istnienie martwego punktu. Dzieje się to wielokrotnie, za każdym razem, gdy pojawia się martwy punkt i zostaje wypełniona luka.
Za każdym razem nasze postrzeganie osi czasu dla naszej obecnej pozycji i przyszłych perspektyw jest znacznie kompresowane. Czujemy się, jakbyśmy nagle przeskoczyli w czasie — to percepcyjny przeskok czasowy w kierunku przyszłości.
W niektórych przypadkach, w ciągu jednego dnia może ujawnić się wiele martwych punktów. W takich sytuacjach można by doświadczyć wielokrotnych przeskoków czasowych w bardzo krótkim okresie.
W tym sensie, jeśli nie uznamy istnienia naszych własnych martwych punktów i nie będziemy posiadać solidnej wizji zdolnej do wytrzymania wielostopniowych przeskoków czasowych, podejmowanie trafnych, krytycznych decyzji dotyczących przyszłości stanie się trudne.
Innymi słowy, dążąc do zbliżenia naszego poczucia czasu do rzeczywistości, rośnie potrzeba myślenia o sprawach w oparciu o zasady i reguły, które wykraczają poza epoki.
Ponadto musimy zmierzyć się z rzeczywistością, że w warunkach kompresji czasu nie będziemy już w stanie wdrażać środków zaradczych na ryzyko w tym samym tempie, co wcześniej.
Co więcej, jeśli nie spowolnimy samej prędkości tej kompresji czasu, przekroczy ona granice naszej percepcji i kontroli.
Aby to osiągnąć, musimy poważnie rozważyć wykorzystanie szybkości i wpływu samej sztucznej inteligencji, która przyspiesza z powodu kompresji czasu.
Jest to podobne do tak zwanych wbudowanych stabilizatorów w ekonomii, takich jak progresywny system podatkowy i systemy zabezpieczeń społecznych, które ograniczają przegrzewającą się gospodarkę.
Krótko mówiąc, musimy opracować mechanizmy, aby sztuczna inteligencja funkcjonowała nie tylko jako akcelerator technologiczny, ale także jako społeczny wbudowany stabilizator.