Estamos à beira de uma aceleração do progresso tecnológico, em particular o avanço exponencial da tecnologia de IA.
A IA generativa não só consegue falar fluentemente, como também escrever programas. Isto não só promove a eficiência e a melhoria do trabalho humano, como também retroalimenta o aprimoramento da própria IA generativa.
Isto não se trata apenas de fortalecer a estrutura do modelo ou os métodos de pré-treino da IA generativa.
À medida que a IA generativa obtém acesso a mais software ao qual pode ligar-se e utilizar, será capaz de fazer mais do que apenas conversar. Além disso, se for desenvolvido software que permita à IA generativa recolher o conhecimento necessário para as suas tarefas e recuperar esse conhecimento nos momentos apropriados, ela poderá comportar-se de forma mais inteligente utilizando o conhecimento certo, mesmo sem pré-treino.
Desta forma, o avanço da tecnologia de IA acelera todo o campo da tecnologia de IA, incluindo tecnologias e sistemas aplicados. Esta aceleração, por sua vez, leva recursivamente a uma maior aceleração da tecnologia de IA. Além disso, à medida que a tecnologia de IA acelera e a IA se torna capaz de fazer mais coisas, os locais e situações onde é utilizada aumentarão naturalmente a um ritmo acelerado.
Isto só pode aumentar o número de investidores e engenheiros interessados na tecnologia de IA. Desta forma, a aceleração da tecnologia de IA também é reforçada de uma perspetiva socioeconómica.
Por outro lado, tal progresso tecnológico afeta-nos de várias formas, tanto indireta como diretamente.
Em geral, o progresso tecnológico tende a ser visto como algo positivo. Embora sejam levantadas preocupações sobre os riscos das novas tecnologias, os efeitos positivos do progresso geralmente superam-nos, e os riscos podem ser mitigados ao longo do tempo, pelo que, no geral, os benefícios são considerados significativos.
No entanto, isto só é verdade quando o ritmo do progresso tecnológico é gradual. Quando o ritmo do progresso tecnológico acelera e excede um certo limite, os benefícios deixam de superar os riscos.
Em primeiro lugar, nem mesmo os próprios programadores compreendem totalmente a natureza ou a gama completa de aplicações das novas tecnologias. Especialmente no que diz respeito ao âmbito das aplicações, não é incomum que outros descubram utilizações ou combinações com outras tecnologias que surpreendem até os programadores.
Além disso, ao alargar o âmbito para incluir como tais aplicações beneficiarão e arriscarão a sociedade, quase ninguém conhece a extensão total.
Quando o progresso é gradual, tais pontos cegos sociais na tecnologia são gradualmente preenchidos ao longo do tempo, e, eventualmente, a tecnologia é aplicada na sociedade com pontos cegos suficientes eliminados.
No entanto, quando o progresso tecnológico excede uma certa velocidade, o período de carência para preencher os pontos cegos sociais também encurta. A aceleração do progresso tecnológico parece, da perspetiva de preencher os pontos cegos sociais, como se o tempo tivesse sido relativamente comprimido.
Novas mudanças tecnológicas ocorrem uma após a outra, e estas acontecem simultaneamente em inúmeras tecnologias, tornando impossível para o processo cognitivo social de preencher os pontos cegos sociais acompanhar.
Como resultado, seremos rodeados por várias tecnologias que permanecem em estado de pontos cegos sociais.
Os riscos potenciais possuídos por tais tecnologias podem surgir subitamente dos nossos pontos cegos e causar danos à sociedade. Uma vez que os riscos para os quais não estamos preparados ou não tomámos contramedidas aparecem de repente, o impacto do dano tende a ser maior.
Esta situação altera a magnitude dos benefícios e riscos do progresso tecnológico. Devido ao efeito de compressão do tempo, à medida que os riscos se materializam antes que os pontos cegos sociais sejam preenchidos, os riscos de cada tecnologia aumentam.
A aceleração autorreforçada do progresso da IA generativa poderá, eventualmente, criar inúmeras tecnologias com pontos cegos sociais quase impossíveis de preencher, potencialmente alterando significativamente o equilíbrio entre risco e benefício.
Esta é uma situação que nunca experienciamos. Portanto, ninguém pode estimar com precisão o grau de risco que potencialmente existirá como pontos cegos sociais, nem quão significativo será o seu impacto. A única certeza é a estrutura lógica de que, quanto mais rápido acelera, mais os riscos aumentarão.
Sociedade Cronos-Scramble
Por outro lado, não conseguimos compreender com exatidão o ritmo atual do progresso tecnológico, nem qual será no futuro.
Isto é verdade mesmo para investigadores e desenvolvedores de IA generativa. Por exemplo, existe uma grande divergência de opiniões entre especialistas quanto à data de emergência da AGI, uma IA que supera as capacidades humanas em todos os aspetos.
Além disso, os investigadores e desenvolvedores de IA generativa são pessoas diferentes dos especialistas nas suas tecnologias e sistemas aplicados. Portanto, embora possam estar a par do estado mais recente da investigação e das perspetivas futuras da IA generativa, não conseguem apreender tudo sobre as tecnologias e sistemas aplicados que já existem utilizando IA generativa, ou quais as possibilidades futuras que se estão a abrir.
Além disso, no que diz respeito às tecnologias e sistemas aplicados, as possibilidades são virtualmente ilimitadas quando combinados com vários mecanismos existentes. Mesmo entre as pessoas que investigam e desenvolvem tecnologias e sistemas aplicados, seria difícil compreender tudo, incluindo os de diferentes géneros.
É ainda mais difícil inferir ou prever como tais tecnologias e sistemas aplicados se irão espalhar na sociedade e qual será o seu impacto. Em particular, os investigadores e engenheiros não estão necessariamente informados ou altamente interessados no impacto social. Por outro lado, os conhecimentos tecnológicos daqueles que estão altamente interessados em tal impacto social têm, inevitavelmente, limitações.
Assim, ninguém consegue apreender a totalidade do estado atual da IA generativa ou da sua visão futura. E existem discrepâncias na compreensão de cada pessoa.
O problema não é meramente que existam discrepâncias, mas que o ritmo do progresso é desconhecido. Estamos certamente no limiar de uma era em que o progresso tecnológico está a acelerar e o tempo está a ser comprimido, mas não temos uma compreensão comum de quão rápido é esse ritmo.
Para piorar a situação, existem diferenças de perceção entre as pessoas quanto a saber se o ritmo do progresso tecnológico é constante ou acelerado. Além disso, mesmo entre aqueles que concordam na aceleração, as perceções diferem muito, dependendo se reconhecem que a aceleração é causada apenas pelo progresso da tecnologia fundamental da IA generativa, ou se também consideram a aceleração devido a tecnologias e sistemas aplicados, bem como a aceleração devido ao influxo de pessoas e capital de fatores socioeconómicos.
Desta forma, a variabilidade na perceção do estado atual e da visão futura, e a discrepância na perceção do ritmo do progresso, criam diferenças surpreendentemente grandes nas nossas compreensões individuais.
Qual é o nível tecnológico e o impacto social em agosto de 2025? E como será em 2027 (dois anos depois) ou 2030 (cinco anos depois)? Isto varia amplamente de pessoa para pessoa. Além disso, a diferença nessa perceção é provavelmente maior agora em 2025, dois anos depois da chegada do boom da IA generativa em 2023.
Chamo a uma sociedade onde as perceções individuais da era diferem tão grandemente "Sociedade Cronos-Scramble". Cronos é a palavra grega para tempo.
E dentro da realidade desta Sociedade Cronos-Scramble, devemos enfrentar os problemas da compressão do tempo e dos pontos cegos sociais tecnológicos, que não conseguimos perceber comum e corretamente.
Visão e Estratégia
Numa situação em que a nossa própria perceção do tempo pode não se alinhar com a compressão temporal real, e sendo necessário abordar o problema dos pontos cegos sociais tecnológicos com outros que têm perspetivas divergentes, a visão e a estratégia tornam-se indispensáveis.
Aqui, visão significa apresentar valores e direções imutáveis, independentemente da nossa perceção do tempo.
Por exemplo, para simplificar a discussão, "garantir que os riscos da tecnologia não superem os seus benefícios" é uma visão importante. Esta é uma visão com a qual mais pessoas podem concordar do que visões como "avançar a tecnologia" ou "minimizar os riscos tecnológicos".
E é crucial permitir que o maior número possível de pessoas coopere para a realização dessa visão. Mesmo que uma visão seja acordada, ela não pode ser alcançada sem ação.
Aqui, também, uma estratégia deve ser formulada com a compreensão de que estamos numa Sociedade Cronos-Scramble com diferentes perceções do tempo. Por exemplo, uma estratégia de fazer com que a perceção do tempo de todos se alinhe com a compressão temporal real não funcionaria. Imporia um enorme fardo de aprendizagem aos indivíduos, exaurindo-os apenas com a energia necessária para tal. Além disso, à medida que esta lacuna se alarga ano após ano, a energia necessária também aumentará.
Não posso apresentar todas as estratégias perfeitas, mas um exemplo de estratégia é alavancar algo que se fortalece automaticamente ao longo do tempo para alcançar a visão.
Isto refere-se à utilização da própria IA generativa. Embora seja um tanto complicado usar a mesma coisa que se está a tentar resolver, é claro que, ao lidar com o problema da compressão do tempo, os métodos convencionais tornar-se-ão cada vez mais difíceis de gerir ao longo do tempo. Para contrariar isso, não há outra escolha senão considerar contramedidas utilizando capacidades que também estão a ser comprimidas no tempo.
E, esperançosamente, se pudermos eventualmente alavancar as capacidades da própria IA generativa para regular o desenvolvimento tecnológico causado pela IA generativa e controlá-lo para que não acelere para além dos seus limites, estaremos consideravelmente mais próximos de resolver o problema.
Conclusão
Numa Sociedade Cronos-Scramble, cada um de nós terá múltiplos pontos cegos diferentes. Isto porque ninguém consegue apreender toda a informação da linha da frente sem pontos cegos em todos os aspetos e conectá-la apropriadamente às estimativas atuais e previsões futuras.
E, a certo ponto, surgirá subitamente uma oportunidade para perceber que existia um ponto cego ali. Isto acontecerá repetidamente, cada vez que um ponto cego se formar e a lacuna for preenchida.
De cada vez, a nossa perceção da linha temporal da nossa posição atual e da visão futura será significativamente comprimida. Parece que saltámos subitamente no tempo. É um salto temporal cognitivo em direção ao futuro.
Em alguns casos, múltiplos pontos cegos podem ser revelados num único dia. Nessas situações, experimenta-se múltiplos saltos temporais num período muito curto.
Nesse sentido, a menos que reconheçamos a existência dos nossos próprios pontos cegos e possuamos uma visão robusta capaz de suportar saltos temporais em várias etapas, tornar-se-á difícil tomar decisões críticas precisas sobre o futuro.
Por outras palavras, enquanto nos esforçamos para aproximar o nosso sentido do tempo da realidade, a necessidade de pensar com base em princípios e preceitos que transcendem as eras aumentará cada vez mais.
E no meio da compressão do tempo, devemos também reconhecer a realidade de que as contramedidas de risco não podem ser implementadas ao mesmo ritmo de antes.
Além disso, se a própria velocidade desta compressão temporal não for abrandada, excederá os limites da nossa perceção e controlo.
Para conseguir isso, devemos considerar seriamente a utilização da velocidade e influência da própria IA, que está a acelerar devido à compressão do tempo.
Isto é semelhante a mecanismos como a tributação progressiva ou os sistemas de segurança social que travam uma economia superaquecida, o que é conhecido como "estabilizadores automáticos".
Por outras palavras, precisamos de pensar em mecanismos que permitam à IA funcionar não só como um acelerador tecnológico, mas também como um estabilizador automático social.