우리는 기술 발전의 가속화, 특히 AI 기술의 기하급수적인 발전의 문턱에 서 있습니다.
생성형 AI는 유창하게 대화할 수 있을 뿐만 아니라 프로그램을 작성할 수도 있습니다. 이는 인간 작업의 효율성과 개선을 촉진할 뿐만 아니라, 생성형 AI 자체의 향상에도 기여합니다.
이는 단지 생성형 AI의 모델 구조나 사전 학습 방법을 강화하는 것에 국한되지 않습니다.
생성형 AI가 연결하고 활용할 수 있는 소프트웨어에 더 많이 접근하게 되면, 단순히 채팅하는 것 이상을 할 수 있게 될 것입니다. 또한, 생성형 AI가 작업에 필요한 지식을 수집하고 적절한 순간에 해당 지식을 검색할 수 있도록 하는 소프트웨어가 개발된다면, 사전 학습 없이도 올바른 지식을 사용하여 더 지능적으로 행동할 수 있습니다.
이러한 방식으로 AI 기술의 발전은 응용 기술 및 시스템을 포함한 AI 기술 전체를 가속화합니다. 이러한 가속화는 다시 AI 기술의 추가 가속화로 재귀적으로 이어집니다. 더욱이 AI 기술이 가속화되고 AI가 더 많은 것을 할 수 있게 됨에 따라, AI가 사용되는 장소와 상황은 자연스럽게 가속적으로 증가할 것입니다.
이는 AI 기술에 관심을 갖는 투자자와 엔지니어의 수를 증가시킬 수밖에 없습니다. 이러한 방식으로 AI 기술의 가속화는 사회경제적 관점에서도 강화됩니다.
한편, 이러한 기술 발전은 간접적으로든 직접적으로든 우리에게 다양한 영향을 미칩니다.
일반적으로 기술 발전은 좋은 것으로 인식되는 경향이 있습니다. 새로운 기술의 위험에 대한 우려가 제기되지만, 발전의 긍정적인 효과가 대체로 더 크고, 위험은 시간이 지남에 따라 완화될 수 있으므로, 전반적으로 이점은 상당하다고 간주됩니다.
그러나 이는 기술 발전의 속도가 점진적일 때만 해당됩니다. 기술 발전의 속도가 가속화되어 특정 한계를 초과하면, 이점이 위험보다 더 이상 크지 않게 됩니다.
첫째, 심지어 개발자 자신도 신기술의 본질이나 응용 범위를 완전히 이해하지 못합니다. 특히 응용 범위에 관해서는 개발자조차 놀랄 만한 사용법이나 다른 기술과의 조합을 다른 사람들이 발견하는 경우가 드물지 않습니다.
더 나아가, 그러한 응용이 사회에 어떻게 이익을 주고 위험을 초래할지에 대한 범위까지 넓히면, 거의 아무도 그 전모를 알지 못합니다.
진보가 점진적일 때, 기술의 그러한 사회적 사각지대는 시간이 지남에 따라 점차 채워지고, 결국에는 충분한 사각지대가 제거된 상태에서 기술이 사회에 적용됩니다.
그러나 기술 발전이 특정 속도를 초과하면, 사회적 사각지대를 채울 유예 기간도 단축됩니다. 기술 발전의 가속화는 사회적 사각지대를 채우는 관점에서 볼 때, 마치 시간이 상대적으로 압축된 것처럼 보입니다.
새로운 기술 변화가 연이어 발생하고, 이러한 변화가 수많은 기술에서 동시에 병렬적으로 일어나므로, 사회적 사각지대를 채우는 사회적 인지 과정이 따라갈 수 없게 됩니다.
그 결과, 우리는 사회적 사각지대 상태로 남아 있는 다양한 기술에 둘러싸이게 될 것입니다.
그러한 기술이 지닌 잠재적 위험은 우리의 사각지대에서 갑자기 나타나 사회에 해를 끼칠 수 있습니다. 우리가 대비하지 않았거나 대응책을 마련하지 않은 위험이 갑자기 나타나기 때문에, 피해의 영향은 더 커지는 경향이 있습니다.
이러한 상황은 기술 발전의 이점과 위험의 크기를 변화시킵니다. 시간 압축 효과로 인해 사회적 사각지대가 채워지기 전에 위험이 현실화되면서 각 기술의 위험은 증가합니다.
생성형 AI 발전의 자기 강화적 가속화는 결국 거의 채울 수 없는 사회적 사각지대를 가진 수많은 기술을 만들어낼 수 있으며, 이는 위험과 이점 사이의 균형을 크게 기울게 할 수 있습니다.
이는 우리가 경험해 본 적 없는 상황입니다. 따라서 사회적 사각지대로서 잠재적으로 존재할 위험의 정도나 그 영향이 얼마나 클지 아무도 정확하게 추정할 수 없습니다. 유일한 확실성은 가속화될수록 위험이 증가한다는 논리적 구조뿐입니다.
크로노스-스크램블 사회
한편, 우리는 기술 발전의 현재 속도는 물론, 미래에 어떤 속도가 될지도 정확히 파악할 수 없습니다.
이는 생성형 AI 연구자와 개발자에게도 마찬가지입니다. 예를 들어, 인간의 모든 능력을 뛰어넘는 AI인 AGI가 언제 등장할지에 대해 전문가들 사이에서도 의견이 크게 엇갈립니다.
더 나아가, 생성형 AI 연구자와 개발자는 응용 기술 및 시스템 전문가와는 다른 사람들입니다. 따라서 그들은 생성형 AI의 최신 연구 상태와 미래 전망에 대해 잘 알고 있을지라도, 생성형 AI를 활용한 응용 기술 및 시스템이 현재 어떤 것들이 존재하며, 미래에 어떤 가능성이 열릴지에 대해 모든 것을 파악할 수는 없습니다.
더욱이 응용 기술 및 시스템의 경우, 다양한 기존 메커니즘과 결합될 때 그 가능성은 사실상 무한합니다. 응용 기술 및 시스템을 연구하고 개발하는 사람들 사이에서도, 서로 다른 분야의 것들을 포함하여 모든 것을 파악하기는 어려울 것입니다.
그러한 응용 기술 및 시스템이 사회에 어떻게 확산되고 어떤 영향을 미칠지 추론하거나 예측하는 것은 훨씬 더 어렵습니다. 특히 연구자와 엔지니어는 사회적 영향에 대해 반드시 잘 알거나 높은 관심을 가지고 있지 않습니다. 반면에 그러한 사회적 영향에 높은 관심을 가진 사람들의 기술적 통찰력은 필연적으로 한계를 가집니다.
따라서 아무도 생성형 AI의 현재 상태나 미래 비전 전체를 파악할 수 없습니다. 그리고 각자의 이해에는 불일치가 존재합니다.
문제는 단순히 불일치가 있다는 것이 아니라, 진보의 속도가 미지수라는 점입니다. 우리는 기술 발전이 가속화되고 시간이 압축되는 시대의 문턱에 서 있는 것이 확실하지만, 그 속도가 얼마나 빠른지에 대한 공통된 이해가 없습니다.
설상가상으로, 기술 발전의 속도가 일정한지 아니면 가속적인지에 대해 사람들마다 인식의 차이가 있습니다. 또한, 가속화에 동의하는 사람들 사이에서도, 그 가속화가 오직 생성형 AI의 기반 기술 발전에 의해서만 야기된다고 인식하는지, 아니면 응용 기술 및 시스템에 의한 가속화와 사회경제적 요인(인력 및 자본의 유입)에 의한 가속화도 고려하는지에 따라 인식이 크게 다릅니다.
이러한 방식으로 현재 상태와 미래 비전에 대한 인식의 가변성, 그리고 진보 속도에 대한 인식의 불일치는 우리의 개별적인 이해에 놀라울 정도로 큰 차이를 만들어냅니다.
2025년 8월의 기술 수준과 사회적 영향은 어떠할까요? 그리고 2027년(2년 후)이나 2030년(5년 후)에는 어떠할까요? 이는 사람마다 크게 다릅니다. 게다가 그러한 인식의 차이는 아마도 2023년에 생성형 AI 붐이 도래한 시점보다 2년이 지난 2025년 현재 더 클 것입니다.
개인별로 시대 인식이 이렇게 크게 다른 사회를 저는 "크로노스-스크램블 사회"라고 부릅니다. 크로노스는 시간을 의미하는 그리스어입니다.
그리고 이 크로노스-스크램블 사회라는 현실 속에서 우리는 공통적으로 그리고 정확하게 인식할 수 없는 시간 압축과 기술적 사회적 사각지대라는 문제에 직면해야 합니다.
비전과 전략
자신의 시간 감각이 실제 시간 압축과 일치하지 않을 수 있는 상황에서, 또한 서로 다른 관점을 가진 다른 사람들과 함께 기술적 사회적 사각지대 문제를 해결해야 할 때, 비전과 전략은 필수불가결합니다.
여기서 비전은 시간 감각이 어떻든 간에 변치 않는 가치와 방향을 제시하는 것을 의미합니다.
예를 들어, 논의를 단순화하자면, "기술의 위험이 이점을 능가하지 않도록 보장하는 것"이 하나의 중요한 비전입니다. 이는 "기술 발전" 또는 "기술적 위험 최소화"와 같은 비전보다 더 많은 사람들이 동의할 수 있는 비전입니다.
그리고 가능한 한 많은 사람들이 그 비전의 실현을 위해 협력할 수 있도록 하는 것이 중요합니다. 비전에 동의하더라도 행동이 따르지 않으면 달성될 수 없습니다.
여기서도 우리는 시간 감각이 서로 다른 크로노스-스크램블 사회에 있다는 점을 이해하고 전략을 수립해야 합니다. 예를 들어, 모든 사람의 시간 감각을 실제 시간 압축에 맞추는 전략은 효과가 없을 것입니다. 이는 개인에게 엄청난 학습 부담을 주어, 그에 필요한 에너지만으로도 지치게 만들 것입니다. 게다가 이 격차가 해마다 벌어지면서 필요한 에너지 또한 증가할 것입니다.
저는 모든 완벽한 전략을 제시할 수는 없지만, 한 가지 전략의 예는 시간이 지남에 따라 자동으로 강화되는 무언가를 활용하여 비전을 달성하는 것입니다.
이는 생성형 AI 자체를 사용하는 것을 의미합니다. 해결하고자 하는 바로 그 대상을 사용하는 것이 다소 복잡하기는 하지만, 시간 압축 문제를 다룰 때 기존 방식으로는 시간이 지남에 따라 점점 다루기 어려워질 것이 분명합니다. 이를 상쇄하기 위해서는 시간과 함께 압축되고 있는 역량을 활용하여 대책을 강구하는 수밖에 없습니다.
그리고 바라건대, 궁극적으로 생성형 AI 자체의 역량을 활용하여 생성형 AI로 인한 기술 개발을 조절하고 그 한계를 넘어 가속화되지 않도록 제어할 수 있다면, 문제 해결에 상당히 가까워질 것입니다.
결론
크로노스-스크램블 사회에서 우리는 각자 여러 가지 다른 사각지대를 가질 것입니다. 이는 어느 누구도 모든 최전선 정보를 사각지대 없이 파악하고 현재 추정치와 미래 예측에 적절하게 연결할 수 없기 때문입니다.
그리고 어느 시점에 갑자기 그곳에 사각지대가 존재했음을 깨닫는 기회가 찾아올 것입니다. 이는 사각지대가 형성되고 그 간격이 메워질 때마다 반복적으로 일어날 것입니다.
그때마다 우리의 현재 위치와 미래 비전에 대한 시간 인식은 현저히 압축될 것입니다. 마치 우리가 갑자기 시간을 뛰어넘은 것 같은 느낌이 들 것입니다. 그것은 미래를 향한 인지적 시간 도약입니다.
어떤 경우에는 하루 안에 여러 개의 사각지대가 드러날 수도 있습니다. 그런 경우, 매우 짧은 시간 안에 여러 번의 시간 도약을 경험하게 됩니다.
그런 의미에서, 우리 자신의 사각지대 존재를 인정하고 다단계 시간 도약에도 견딜 수 있는 견고한 비전을 가지지 않는다면, 미래에 관한 정확하고 중요한 결정을 내리기가 어려워질 것입니다.
다시 말해, 우리의 시간 감각을 현실에 가깝게 만들려고 노력하는 동시에, 시대를 초월하는 원칙과 규범에 기반하여 사고하는 필요성이 점점 더 커질 것입니다.
그리고 시간 압축 속에서 우리는 위험 대책을 이전과 같은 속도로 구현할 수 없다는 현실 또한 인정해야 합니다.
더 나아가, 이 시간 압축 자체의 속도가 늦춰지지 않는다면, 우리의 인지와 통제 한계를 넘어설 것입니다.
이를 달성하기 위해 우리는 시간 압축으로 인해 가속화되는 AI 자체의 속도와 영향력을 활용하는 것을 진지하게 고려해야 합니다.
이는 과열된 경제를 억제하는 누진세나 사회 보장 제도와 유사하며, 이른바 "자동 안정화 장치(built-in stabilizers)"라고 불리는 메커니즘과 같습니다.
즉, AI가 기술 가속기 역할뿐만 아니라 사회적 자동 안정화 장치로서 기능할 수 있는 메커니즘을 고려해야 한다는 것입니다.