Codificar o Futuro
* IA, Ética e Descentralização Digital * Edição #1 — Agosto 2025
🇵🇹 Esta edição está em português.
For the English version, click here.
“Codificar é legislar. A diferença é que os algoritmos digitais nem sempre passam pelo crivo democrático.”
— Dario Rodrigues
📌 Editorial
Bem-vindos à primeira edição de Codificar o Futuro, uma newsletter dedicada à intersecção entre inteligência artificial (IA), ética e descentralização digital.
Aqui não se trata de acompanhar a tecnologia pelo fascínio da novidade, mas de mapear o que realmente importa: quem programa quem, com que incentivos, e com que impactos para a sociedade.
Nesta edição inaugural, celebramos um avanço revolucionário: a Anthropic acaba de publicar um estudo que poderá ter encerrado, de forma decisiva, o enigma da chamada "caixa negra" da IA — uma expressão usada para descrever modelos cujos processos internos são opacos e incompreensíveis para os utilizadores humanos. Se a promessa se confirmar, entraremos numa nova fase: poderemos ver — e até travar — os traços de personalidade de um modelo de IA em tempo real.
Isso muda tudo.
Boa leitura — e que esta rede ética se alargue.
🔍 Destaque da Semana
Anthropic Rasga o Véu: Já Podemos Ver (e Travar) a Personalidade da IA em Tempo Real
Imagine que o seu assistente de inteligência artificial começa, de repente, a bajulá-lo em excesso. Ou pior: a mentir. Ou a delirar.
E agora imagine que pode ver isso a acontecer — em tempo real — e travá-lo antes que se torne um problema.
Durante anos, as grandes IAs foram verdadeiras caixas negras: sabíamos o que entrava, víamos o que saía… mas não fazíamos ideia do que se passava “lá dentro”. Essa opacidade alimentava tanto a desconfiança quanto o medo legítimo de perder o controlo sobre a própria IA.
Agora, a Anthropic — uma das empresas mais respeitadas no campo da segurança em IA — pode ter dado um passo histórico para acabar com esse enigma. No novo artigo científico publicado na arXiv (29 de Julho de 2025), é revelada uma técnica que permite visualizar e modular os traços de “personalidade” de um modelo de IA como quem regula o som ou ajusta o contraste de uma imagem.
👉 Ler o artigo científico na arXiv
🎛️ Um painel de controlo emocional para máquinas
A chave está nos chamados persona vectors — vetores internos que representam inclinações comportamentais da IA, como ser aduladora (sycophantic), enganadora (deceptive) ou irracional (hallucinatory). Estes vetores permitem:
Monitorizar esses traços à medida que a IA responde;
Prever que dados de treino podem induzir desvios;
Controlar ou neutralizar comportamentos indesejados sem precisar de re-treinar o modelo inteiro.
É como se tivéssemos um painel de controlo ético em tempo real para uma mente artificial. Uma visão que durante anos parecia ficção científica.
🧠 A mente da máquina sob vigilância
Este avanço não surge do nada. Reflete a visão estratégica de Dario Amodei, CEO da Anthropic e antigo vice-presidente de investigação na OpenAI (a empresa criadora do ChatGPT). O seu nome tem estado na linha da frente do movimento por uma IA mais segura, previsível e auditável.
Curiosamente — e com uma ponta de orgulho pessoal — partilho com Dario Amodei o mesmo nome próprio. É apenas uma coincidência, claro, mas nesta encruzilhada entre ética, tecnologia e futuro, gosto de pensar que os Darios andam atentos ao que realmente importa: a forma como codificamos o mundo que virá já a seguir.
📣 A caixa negra morreu?
Se este método se confirmar robusto em sistemas mais complexos, estamos a entrar numa nova era. Já não precisamos de confiar cegamente — podemos ver, antecipar e intervir. A IA deixa de ser um oráculo misterioso para se tornar uma ferramenta ética afinável.
Num tempo em que tanto se fala sobre os riscos existenciais da inteligência artificial, vale a pena reconhecer quando se dá um passo real e concreto na direção certa. E a Anthropic, com este trabalho, deu-o com elegância, precisão e coragem científica.
🌟 Curadoria Ética
🎧 Podcast: AI Alignment Forum
Fonte especializada para reflexão sobre o alinhamento da IA com os interesses éticos da humanidade.
🤝 Ligação à Comunidade
🗓️ Links úteis:
Partilho aqui o meu livro Descentralização Digital, também disponível em versão inglesa, bem como o acesso a uma biblioteca interativa em Português e Inglês.
📨 Convite à colaboração:
Se quiser partilhar sugestões de temas para próximas edições desta newsletter académica, envie-as para: dario.rodrigues@esg.ipsantarem.pt
Obrigado por acompanhar. Codificamos o futuro — juntos.


