我们正站在技术进步加速的门槛上,特别是人工智能技术突飞猛进的入口。
生成式AI现在不仅能流利地对话,还能编写程序。这不仅促进了人类工作的效率和改进,也反过来增强了生成式AI自身。
这不仅仅是关于强化生成式AI模型的结构或预训练方法。
随着生成式AI能够连接和利用的软件应用数量增加,它将不仅仅限于聊天。此外,如果开发的软件能让生成式AI收集任务所需的知识,并在适当的时机检索出来,那么它就能在不经过预训练的情况下,利用正确的知识更智能地运作。
通过这种方式,AI技术的进步加速了整个AI技术领域,包括应用技术和应用系统。这种加速又会递归地进一步加速AI技术。随着AI技术加速发展,AI能做的事情越来越多,其应用的场所和情境自然也会呈指数级增长。
这必然会增加对AI技术感兴趣的投资者和工程师的数量。因此,AI技术的加速也从社会经济层面得到了强化。
另一方面,这种技术进步以各种方式,或间接或直接地影响着我们。
通常,技术进步往往被视为一件好事。尽管新技术的风险会引起担忧,但进步的积极影响通常会超过风险,而且风险可以随着时间推移而减轻,因此总体效益被认为是巨大的。
然而,这仅限于技术进步速度适中的情况。当技术进步的加速度超过某个限度时,其效益将不再大于风险。
首先,即使是开发者自己也无法完全理解一项新技术的全部特性或潜在应用范围。尤其在应用方面,其他人发现开发者未曾预料到的惊人用途或与其他技术的组合,这种情况并不少见。
此外,如果我们将视野扩展到这些应用,并思考这项技术会给社会带来哪些好处和风险,那么几乎没有人能完全理解。
在技术进步缓慢的情况下,技术中的此类社会盲点会随着时间推移逐渐被填补。最终,该技术在社会盲点得到充分解决的状态下应用于社会。
然而,当技术进步超过一定速度时,解决社会盲点的缓冲期也会缩短。从填补社会盲点的角度看,技术进步的加速仿佛是时间压缩相对发生了一般。
新的技术变革层出不穷,同时在众多技术中并行发生,导致社会应对社会盲点的认知任务滞后。
结果,我们发现自己被各种技术包围,这些技术都存在挥之不去的社会盲点。
这些技术所潜在的风险可能会突然从我们的盲点中出现,并对社会造成损害。由于我们未曾准备或没有对策的风险突然出现,其造成的损害影响往往会更大。
这种情况改变了技术进步的益处和风险的程度。由于时间压缩效应,风险在社会盲点尚未填补之前就已显现,从而增加了每项技术的风险。
生成式AI自我强化的加速进步最终可能导致无数技术的诞生,而这些技术的社会盲点几乎无法填补,从而严重打破风险与效益之间的平衡。
这是我们从未经历过的情况。因此,没有人能准确估计作为社会盲点的潜在风险范围有多大,或者其影响有多显著。唯一确定的是,从逻辑结构上看,加速越快,风险就越大。
时空错乱社会
此外,我们无法准确把握技术进步的当前速度,更不用说未来的速度。
即使是生成式AI的研究人员和开发者也是如此。例如,关于AGI(一种在所有方面超越人类能力的AI)何时出现,专家们之间存在巨大分歧。
此外,生成式AI的研究人员和开发者与应用技术和应用系统的专家是不同的群体。因此,尽管他们可能对生成式AI的最新研究状况和未来前景非常了解,但却无法完全掌握已经存在哪些使用生成式AI的应用技术和应用系统,以及未来可能开启哪些可能性。
而当涉及应用技术和应用系统时,由于与各种现有机制的结合,可能性实际上是无限的。即使是那些研究和开发应用技术和应用系统的人,也很难全面掌握所有内容,包括不同领域的事物。
推断或预测此类应用技术和应用系统如何在社会中普及以及会产生何种影响,则更加困难。特别是研究人员和工程师,不一定对社会影响有深入了解或高度关注。反之,那些高度关注社会影响的人,其技术知识往往又存在固有限制。
因此,没有人能够完全掌握生成式AI的现状或未来愿景。而且每个人的理解都存在差异。
问题不仅在于存在差异,还在于进步的速度是未知的。我们确实正处于技术进步加速时间压缩的时代门槛上,但我们对其速度缺乏共识。
更糟糕的是,个体之间对技术进步是恒定还是加速存在认知差异。此外,即使是那些同意加速的人,他们的认知也大相径庭,这取决于他们是否认为加速完全由生成式AI核心技术的进步驱动,或者他们是否也考虑了由应用技术和应用系统以及社会经济层面的人员和资本涌入所带来的加速。
通过这种方式,对现状和未来愿景理解的差异,加上对进步速度感知的偏差,正在我们每个人的认知中造成惊人的巨大差异。
2025年8月将代表怎样的技术水平和社会影响?2027年(两年后)和2030年(五年后)又将如何?这因人而异。而且,这种认知上的差距很可能在2025年(生成式AI热潮于2023年爆发两年后)比当时更大。
我将这种个体对时代感知差异巨大的社会称为时空错乱社会。“Chrono”是希腊语中“时间”的意思。
而在这个时空错乱社会的现实中,我们必须面对时间压缩和技术社会盲点的问题,这些问题我们无法普遍而准确地感知。
愿景与策略
要思考如何在技术社会盲点问题上采取对策——考虑到我们自身的时间感知可能与实际的时间压缩不符,并且需要与感知与我们不同的人合作——愿景和策略是不可或缺的。
这里的愿景意味着无论时代感知如何,都要指明不变的价值和方向。
例如,简单来说,“确保技术风险不超过其效益”就是一个重要的愿景。与“推动技术进步”或“最小化技术风险”等愿景相比,这是一个更多人能够达成共识的愿景。
至关重要的是,要让尽可能多的人能够为实现这一愿景而合作。即使对愿景达成一致,如果没有行动,愿景也无法实现。
在此,同样需要在理解我们身处时空错乱社会,即时间感知存在差异的背景下制定策略。例如,让所有人的时间感知都与实际的时间压缩保持一致的策略可能不会成功。它会给个体带来巨大的学习负担,仅仅为此所需的精力就会让人筋疲力尽。此外,由于这种差距每年都在扩大,所需的精力也会不断增加。
我无法提出所有完美的策略,但其中一个策略示例是利用随时间自动增强的事物来实现愿景。
那就是使用生成式AI本身。这有点复杂,因为它涉及到利用我们试图解决的问题本身,但很明显,在处理时间压缩问题时,传统方法将随着时间的推移变得越来越困难。为了对抗这一点,除了利用同样经历时间压缩的能力来制定对策之外,别无选择。
而且,如果幸运的话,如果我们最终能够利用生成式AI本身的能力,对生成式AI驱动的技术开发进行调速(速度调节),并控制其不超越极限加速,那么我们将大大接近问题的解决。
结论
在时空错乱社会中,我们每个人都将拥有多个、不同的盲点。这是因为没有人能够在没有盲点的情况下掌握所有前沿信息,并将其适当地与对现在和未来的估计和预测联系起来。
接着,在某个触发点,我们会突然意识到盲点的存在。这种情况会反复发生,每次盲点出现并被填补时都会如此。
每一次,我们对当前位置和未来展望的时间轴感知都会被大大压缩。感觉就像我们突然穿越了时间——一次感知上向未来的时间跳跃。
在某些情况下,一天之内可能会出现多个盲点。此时,人们会在非常短的时间内经历多次时间跳跃般的体验。
从这个意义上讲,除非我们承认自身盲点的存在,并拥有一个足以抵御多阶段时间跳跃的强大愿景,否则我们将难以对未来做出准确的关键决策。
换句话说,在努力使我们的时间观念更接近现实的同时,基于超越时代原则和规则来思考事物的必要性将日益增长。
此外,我们还必须面对一个现实:在时间压缩的情况下,我们无法再以与以往相同的速度实施风险应对措施。
再者,除非我们减缓这种时间压缩本身的速度,否则它将超出我们的感知和控制极限。
为实现这一目标,我们必须认真考虑利用AI本身的速度和影响力,而AI正是因时间压缩而加速的。
这类似于经济学中所谓的内置稳定器,例如累进税和旨在抑制经济过热的社会保障制度。
简而言之,我们需要设计出能让AI不仅充当技术加速器,还能作为社会内置稳定器的机制。