DesCodificar o Futuro #11: Quando a Decisão Deixa de Ter Rosto
O próximo Presidente da República terá invulgar importância porque o centro das decisões que afetam as pessoas deslocar-se-á para fora dos lugares onde a democracia sempre aprendeu a reconhecê-las.
🇵🇹 Edição Portuguesa — English version here.
Nos próximos cinco anos, o Presidente da República terá uma importância ainda maior. Não por vir a governar mais, mas porque o centro real das decisões que afetam a vida das pessoas está a deslocar-se para fora dos lugares onde a democracia sempre aprendeu a reconhecê-las.
Durante séculos, mesmo nas sociedades mais burocráticas, as decisões relevantes eram sempre tomadas por pessoas. Podiam ser injustas ou erradas, mas tinham um autor identificável. Hoje, começa a tornar-se normal que decisões com impacto real surjam como resultados automáticos: notificações, classificações ou recusas emitidas por sistemas que ninguém consulta no momento em que decidem.
A discussão (que não está a ser feita) em torno do euro digital que se avizinha ilustra bem esta mudança. Independentemente da forma final que venha a assumir, tornará tecnicamente possível algo novo: que regras monetárias, restrições ou incentivos sejam aplicados automaticamente a cada cidadão em particular, sem um ato humano específico no momento das decisões que afetam a sua carteira digital. Isto marca uma rutura. O futuro próximo não será uma reedição do passado, porque o próprio lugar onde as decisões são tomadas está a mudar.
Até aqui, quando falávamos de “escala”, referíamos-nos a decisões iguais aplicadas a muitos. O que muda com sistemas automáticos de IA é outra coisa: a capacidade de aplicar regras gerais de forma diferente a cada pessoa, em tempo real. O alcance deixa de ser apenas sobre quantos são afetados pelas decisões, pois estas passam a poder atingir, de forma personalizada, cada cidadão.
É neste contexto que se torna visível uma fragilidade silenciosa do nosso aparelho democrático. A Constituição foi concebida para um mundo de decisões humanas, identificáveis e contestáveis. Quando as decisões passam a ser executadas por sistemas automáticos inteligentes, os direitos mantêm-se no texto, mas perdem eficácia prática: já não é claro quem decide, a quem pedir explicações ou onde exercer contraditório.
Diante disso, a resposta não é uma revisão constitucional. O problema não está na falta de leis, mas na deslocação do poder para processos que operam fora do alcance normal da responsabilidade democrática. Quando o poder deixa de ter rosto, o legalismo chega sempre tarde.
Mesmo quando o impacto da tecnologia foi raramente mencionado no espaço público, o enquadramento manteve-se genérico, centrado na adaptação e na requalificação profissional. Sem retirar mérito de quem, pelo menos, tocou no assunto (só detetei o caso de Cotrim de Figueiredo), isso revela, sobretudo, a dificuldade coletiva em formular o problema quando o que está em causa é a transformação dos próprios mecanismos de decisão, de responsabilidade e de poder.
É aqui que a magistratura de influência se torna decisiva: a capacidade institucional de evidenciar, perante a opinião pública, onde e como as decisões são tomadas antes de se normalizarem sem escrutínio. Decisões inteligentes no plano instrumental podem ser obtusas no plano democrático e até do ponto de vista humano. No tempo que se avizinha, o discernimento ético e cívico contará mais do que a experiência política ou a mera capacidade de mediação de interesses.
Esse papel já foi exercido entre nós. Em 2021, o Presidente da República vetou um diploma que permitiria o uso de tecnologias de reconhecimento facial em espaços públicos. Não o fez por rejeitar a tecnologia, mas por considerar que as garantias oferecidas aos cidadãos eram insuficientes. O veto não resolveu o problema técnico, mas impediu que decisões automáticas, com impacto direto sobre pessoas concretas, se tornassem normais sem debate público e sem responsabilidade claramente assumida.
Estes problemas não são novos, mas a IA torna-os incomparavelmente mais intensos. Nos Países Baixos, sistemas automáticos usados para detectar fraude em subsídios classificaram milhares de famílias como culpadas, sem defesa eficaz, repetindo o erro, caso a caso, até que os danos se tornaram irreversíveis. Hoje, algo semelhante acontece na liberdade de expressão: sistemas automáticos decidem quem é removido, limitado ou tornado invisível nas plataformas digitais, em tempo real e de forma diferente para cada pessoa. A novidade não é o erro; é a sua velocidade, repetição e profundidade. Quando estas decisões se tornam infraestrutura, corrigir depois já não chega.
As democracias raramente colapsam quando alguém decide demais.
Colapsam quando ninguém decide e ninguém responde.
É desse ponto silencioso e fatal para a democracia que nos aproximamos.


