menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

2026, o ano em que a Inteligência acelera mais depressa do que nós

17 6
20.02.2026

Durante décadas acreditámos que a tecnologia evoluía a um ritmo elevado, mas ainda assimilável. Havia tempo para aprender, regular, adaptar processos e ajustar culturas. Essa perceção colapsou nos últimos três anos. A adoção massiva da Inteligência Artificial generativa não foi apenas rápida… foi abrupta. Em pouco tempo, sistemas que começaram por responder a perguntas passaram a apoiar decisões, executar tarefas complexas e influenciar escolhas humanas em múltiplos domínios da vida económica, social e política. Não se trata mais de apenas um novo ciclo tecnológico. Trata-se de uma alteração estrutural da relação entre quem decide e aquilo que decide.

Entre 2023 e 2026, assistimos a uma compressão histórica do tempo. Capacidades que antes exigiam equipas, anos de formação ou estruturas pesadas, tornaram-se acessíveis a um indivíduo munido de um modelo de IA. A produtividade individual aumentou, mas também aumentou a dependência. O conhecimento democratizou-se, mas o pensamento crítico nem sempre acompanhou essa democratização. A pergunta que importa fazer não é se a IA é boa ou má, nem se veio para ficar, pois isso é um dado adquirido. A pergunta relevante é outra, bem mais incómoda: quem está efetivamente no controlo?

A fronteira entre decidir e seguir pode ser difusa

A inteligência humana continua a definir intenções, objetivos e valores. Pelo menos em teoria. Na prática, cada recomendação aceite sem questionamento, cada decisão delegada a um sistema, cada cenário “ótimo” escolhido porque foi gerado por um modelo estatisticamente robusto, desloca subtilmente o centro de decisão. O controlo deixa de ser explícito e passa a ser implícito. Não há ordens diretas, há sugestões. Não há imposições, há probabilidades. E é precisamente aí que reside a mudança mais profunda: quando a decisão humana passa a ser moldada por sistemas que operam numa lógica inacessível à intuição humana, a fronteira entre decidir e seguir torna-se difusa.

Não estamos perante uma substituição do ser humano pela máquina. Estamos perante uma relação de dependência crescente. A Inteligência Artificial não pensa como um humano, mas pensa por humanos, em escalas e velocidades que nenhum cérebro individual consegue acompanhar. Quanto mais complexos se tornam os contextos, maior é a tentação de delegar. Quanto mais delegamos, menor é a nossa capacidade de auditar, compreender e contrariar. O risco não está na IA errar. Está em aceitarmos que, por ser eficiente, deve ser seguida.

Este dilema ganha outra dimensão quando observado à escala do poder global. A infraestrutura tecnológica que sustenta esta nova inteligência está concentrada em poucos atores. Empresas, plataformas e Estados que controlam dados, modelos fundacionais e capacidade computacional passam a deter um poder que não é apenas económico ou tecnológico, mas cognitivo. Figuras como Elon Musk, Jeff Bezos, Mark Zuckerberg ou Xi Jinping simbolizam essa concentração: não apenas de capital ou influência, mas da capacidade de definir como é que os sistemas moldam decisões em escala global, bem como poderão moldar todo um novo paradigma geopolítico, social e económico.

A soberania, tal como a conhecíamos, altera-se profundamente. Já não é apenas territorial, económica ou militar. Passa a ser algorítmica. Quem define os modelos define os (i)limites do possível. Quem controla os dados condiciona as conclusões. Quem desenha os sistemas influencia, ainda que indiretamente, as decisões de governos, empresas e cidadãos. O maior risco não é a Inteligência Artificial controlar os Estados. É os Estados aceitarem ser governados por sistemas que não compreendem plenamente, por falta de capacidade ou incompetência técnica, visão estratégica ou coragem política para enfrentar o peso “das massas” para bloqueio e tornear as ondas de comunicação manipuladas por interesses difusos.

Este cenário intensifica-se com a consolidação dos modelos multimodais. Durante anos, a IA foi fragmentada: texto de um lado, imagem de outro, voz noutro sistema. Essa fragmentação desapareceu. Surgem modelos capazes de integrar texto, imagem, áudio, vídeo e ação numa única arquitetura cognitiva. Estes sistemas não se limitam a responder a pedidos isolados; interpretam contextos completos, cruzam sinais e antecipam intenções. A IA deixa de ser reativa e passa a ser proativa. De ferramenta passa a agente.

As consequências são transversais. Na educação, o aluno passa a aprender com tutores que se adaptam continuamente ao seu ritmo e contexto. Na saúde, os diagnósticos resultam da análise integrada de exames, imagens e históricos clínicos. Na indústria, as decisões operacionais combinam dados sensoriais, imagens e padrões históricos. Nos serviços, o atendimento compreende emoções, linguagem e comportamento. Na gestão, os copilotos interpretam informação complexa e sugerem caminhos estratégicos. Em todos estes casos, a eficiência aumenta, mas … também aumenta a dependência da lógica do sistema.

Controlar é compreender o processo

A questão central volta a impor-se: quem está no controlo quando a recomendação vem de um sistema que “sabe mais”, vê mais padrões e calcula mais cenários do que qualquer humano? Controlar não é apenas decidir no final. Controlar é compreender o processo, questionar os pressupostos e assumir responsabilidade pelas consequências. Sem isso, o controlo é apenas formal.

Não é preciso recorrer a futurologia para antecipar o que se aproxima. Há um dado objetivo que não pode ser ignorado: se em três anos a mudança foi desta magnitude, e se a lógica é exponencial, então 2026 não será apenas continuidade. Será aceleração da aceleração de uma curva exponencial. Deixámos rapidamente as ondas da brincadeira à beira-mar, para surfar as ondas gigantes da Nazaré, sem saber bem como pegar na prancha. O que levou três anos a acontecer poderá acontecer em meses. O intervalo entre inovação, adoção e dependência será cada vez mais curto.

Este artigo não é um alerta apocalíptico. É um convite à lucidez. A Inteligência Artificial pode amplificar o melhor do pensamento humano ou pode anestesiá-lo. Pode reforçar a capacidade de decisão ou pode substituí-la de forma silenciosa. Tudo depende de como escolhemos governar esta relação.

A pergunta que fica não é tecnológica. É profundamente humana e estratégica: estamos a construir sistemas que ampliam a nossa inteligência ou estamos a habituar-nos, lentamente, a abdicar dela? Responder a esta pergunta não é opcional. É inevitável.


© Jornal Económico