私たちは、技術進歩の加速、特にAI技術の加速度的な進歩の入り口に立っています。
生成AIは、既に言葉を流暢に話すだけでなく、プログラムを作成することもできるようになっています。これは人間の作業の効率化や改善を促すだけでなく、生成AI自身の強化にもフィードバックされます。
それは、生成AIのモデルの構造や事前トレーニング方法を強化するという側面だけではありません。
生成AI自身が接続して利用できるソフトウェアが増加することで、単なるチャット以上のことができるようになります。また、生成AIが作業に必要となる知識を集めて適切な場面でその知識を引き出すようなソフトウェアを作れば、事前トレーニングをしなくても生成AIは適切な知識を使ってより賢く振る舞う事ができるようになります。
このようにして、AI技術の進歩は、応用技術や応用システムを含めたAI技術全体を加速させます。そして、その加速は再帰的にAI技術の加速へとつながります。また、AI技術が加速してAIにできることが増えれば、当然それが使われる場所や場面が加速度的に増えていきます。
それは、AI技術に関心を持つ投資家やエンジニアの数を増やすことに他なりません。このようにして、社会経済的な面からも、AI技術の加速は強化されるのです。
一方で、こうした技術の進歩は、私たちに間接的にも直接的にも様々な影響を与えます。
一般に、技術の進歩は良いものとして捉えられる傾向にあります。新しい技術は、そのリスクについて懸念の声も上がりますが、基本的に進歩のプラスの効果を上回ることが多く、また、リスクは時間と共に低減させることができるため、総合的にはメリットが大きいと見做されます。
しかし、それは技術の進歩の速度が緩やかである場合に限ります。技術の進歩が加速し、その進歩の速度がある限界を超えると、メリットがリスクを上回らなくなるのです。
まず、新しい技術がどのような性質を持つのかや、どのような応用範囲を持つのかは、開発者自身も全て分かっているわけではありません。特に応用範囲については開発者も驚くような使い方や他の技術との組み合わせを、別の人が見つけることも少なくありません。
また、そうした応用範囲も含めて、社会にその技術がどのようなメリットとリスクを与えるのか、という点まで視野を広げると、ほとんど誰にもわかりません。
こうした技術の社会的盲点は、進歩が緩やかな場合は、時間と共に徐々に埋められていき、最終的には十分に盲点がなくなった状態で社会でその技術が応用されることになります。
しかし、技術の進歩が一定の速度を超えると、社会的盲点を埋めるための猶予時間も短くなっていきます。技術進歩の加速は、社会的盲点を埋めるというプロセスから見ると、相対的に時間が圧縮されたようなものに見えるわけです。
次から次へと新しい技術の変化が生じ、それが多数の技術において同時並行で起きるため、社会的盲点を埋めるという社会的な認知作業が追いつかなくなっていきます。
そうなると、私たちは社会的盲点が残ったままの状態にある様々な技術に取り囲まれることになります。
このような技術が持っている潜在的なリスクは、私たちの死角から突然現れて社会に被害を与える可能性があります。心の準備や対策を立てていないようなリスクが、突然現れるわけですから、より被害の影響は大きくなる傾向にあります。
この状況は、技術進歩のメリットとリスクの大きさを変化させてしまいます。時間圧縮効果により、社会的盲点が埋められないままリスクが顕在化することで、それぞれの技術はリスクが大きくなっていくのです。
生成AIの自己強化的な進歩速度の加速は、やがて社会的盲点をほとんど埋められないような無数の技術を生み出し、リスクとメリットのバランスを大きく傾けてしまいかねません。
これは、私たちが経験したことがない状況です。このため、どの程度のリスクが社会的盲点として潜在的に存在することになるのか、その影響がどのくらい大きなものであるのか、誰も正確に見積もることはできません。ただ、確かなことは、加速すればするほど、リスクは増える一方だという論理的な構造だけです。
クロノスクランブル社会
一方で、この技術進歩の速度が現在どの程度であるのか、そして将来どの程度になるのかについてすら、私たちは正確に把握することができません。
それは生成AIの研究者や開発者も同じです。例えばAGIという人間の能力全ての面で超えるAIが登場するのがいつ頃になるのか、専門家の間でも大きく見解が異なっています。
加えて、生成AIの研究者や開発者は、その応用技術や応用システムの専門家とは別の人です。このため、生成AIの最新の研究状況や将来の見込みについては詳しくても、生成AIを使った応用技術や応用システムとしてどのようなものが既にあり、将来どのような可能性が拓けているのかを全て把握できるわけではありません。
まして、応用技術や応用システムともなると、様々な既存の仕組みとの組み合わせによって、可能性は事実上無限に考えられます。応用技術や応用システムを研究開発している人たち同士でも、異なるジャンルの物を含めて全て把握することは困難でしょう。
そうした応用技術や応用システムが、社会にどのように普及するか、そしてどのような影響を与えるかを推測したり予測したりすることは、さらに困難です。特に、研究者や技術者は、社会への影響について詳しいわけでも関心が高いわけでもありません。一方で、そうして社会的な影響に関心が高い人たちが持つ技術についての知見には、どうしても限界があります。
このように、生成AIの現在地も、将来像も、誰も全てを把握することはできません。そして、それぞれの人の理解には乖離があります。
単にそこに乖離があるということだけでなく、進歩の速度が分かっていないということが問題です。私たちは技術進歩が加速度的に時間圧縮される時代の入り口に立っていることは確かですが、それがどのくらいの速度なのかについての共通見解を持っていません。
さらに悪いことに、人によって、技術進歩の速度が一定速度なのか、加速的なのかは認識の差があります。加えて、加速することに同意している人の間でも、加速が生成AIの基礎技術の進歩のみによって引き起こされるという認識の人と、応用技術や応用システムによる加速や、社会経済的な人と資金の流入による加速も加味しているかによって、大きく認識が異なります。
このように、現在地や将来像の認識のバラつきと、進歩速度の認識の乖離は、私たち個々人の認識に驚くほど大きな差を生み出しています。
現在2025年8月時点が、どういった技術水準と社会影響下にあるのか。そして2年後の2027年、5年後の2030年がどうなるのか、それは人によって大きく異なっています。しかも、その認識の差は、おそらく2023年に生成AIのブームがやってきた時点よりも、2年経った2025年現在の方が、大きくなっています。
このように、個人によって時代認識が大きく異なる社会を、私はクロノスクランブル社会と呼ぶことにしています。クロノとは時間を意味するギリシア語です。
そして、このクロノスクランブル社会という現実の中で、私たちは私たちが共通で正しく認識することができない時間圧縮と技術の社会的盲点の問題に向き合わなければならないのです。
ビジョンと戦略
自分自身の時代感覚が実際の時間圧縮と一致していない可能性の中で、さらに自分とは異なる他者と共に、技術の社会的盲点の問題とどのように向き合うのかについて考えるためには、ビジョンと戦略が不可欠です。
ここでのビジョンとは、時代感覚がどのようなものであっても不変の価値や方向性を示すことです。
例えば、ここでの議論を単純に表現してしまえば「技術のリスクがメリットを上回ることがないようにする」というのは1つの重要なビジョンです。これは技術を進歩させていく、とか技術リスクを最小化する、といったビジョンよりも、多くの人が合意できるビジョンです。
そして、できる限り多くの人がそのビジョンの実現に向けて協力できるようにすることが重要です。ビジョンに同意が得られても、行動が伴わなければビジョンは達成できません。
ここでも、時代感覚の差異があるクロノスクランブル社会であることを理解した上で戦略を立てる必要があります。例えば、全員の時代感覚を現実の時間圧縮に合わせる、という戦略は上手くいかないでしょう。それは個々人に大きな学習負担を強いることになり、そのために必要なエネルギーだけで疲れ切ってしまいます。また、このギャップは年々広がっていくため、必要なエネルギーも増加していってしまいます。
私には、全ての完ぺきな戦略を提示することはできませんが、戦略の一例として挙げられるのは、ビジョンの達成に対して、時間と共に自動的に強化されるものを利用する、という方向性があります。
それは生成AI自体の利用です。対処しようとしているもの自体を利用するという点でややこしいのですが、時間圧縮の問題に対応する場合、正攻法では年々時間的な対処が難しくなることは自明です。それに対抗するためには、同じく時間圧縮されていく能力を活用して対策を考えるより他ありません。
そして、あわよくば、最終的には生成AI自体の能力を活用して、生成AIを起因とする技術開発を調速し、限界を超えて加速しないように制御することができれば、かなり問題の解決に近づけるでしょう。
さいごに
クロノスクランブル社会においては、私たちは個人毎に異なる複数の盲点を持つことになります。全ての面で盲点なく最前線の情報を把握し、それを適切に現在地の推定と将来の予測に結びつけることは、誰にもできないためです。
そして、何かのきっかけで、突然そこに盲点があったことに気づく機会が訪れます。それは、盲点ができ、そのギャップが埋まるたびに何度も起きます。
その度に、私たちの現在地や将来像の時間軸の認識が大きく圧縮されます。それは突然時代を跳躍したかのような感覚です。未来に向かう認識上のタイムリープです。
場合によっては1日のうちに複数の盲点が明らかになることもあり得ます。その場合は非常に短い時間で、何度もタイムリープが起きたような体験をすることになります。
その意味でも、私たちは自らの盲点の存在を認め、多段階のタイムリープにも耐えられるほどの堅牢なビジョンを持たなければ、将来に関わる重大な意思決定を的確に行うことは難しくなるでしょう。
つまり、時間感覚を現実に近づける努力をしながらも、時代を超えて通用する原理や原則に基づいて物事を考える必要性が、今後ますます高まっていくということです。
そして、時間圧縮の中では、リスクの対策をこれまでのようなテンポで行うことができなくなるという現実も踏まえなければなりません。
加えて、この時間圧縮の速度自体を緩やかにしなければ、私たちの認識や制御の限界を超えてしまうでしょう。
そのためには、時間圧縮により加速していくAI自体の速度や影響力を利用することも真剣に考えなければなりません。
これは経済において景気の過熱を抑える累進課税や社会保障制度のような、いわゆるビルトイン・スタビライザーのような仕組みです。
つまりAIを技術の加速装置としてだけでなく、社会的ビルトイン・スタビライザーとして機能するような仕掛けを考える必要があるということです。