Mythos: o que ficou por dizer
Estive no programa “Perceções e Realidades”, no canal NOW, a falar sobre o Claude Mythos Preview, um modelo de IA que está a levantar muitas preocupações.
Começo por uma chamada de atenção que devo ao rigor.
Em televisão, usei a analogia da “chave-mestra” para tornar o tema mais acessível. Mas essa analogia tem limites, como todas têm, e este artigo é o espaço para a precisão que a televisão não permite.
A Anthropic documentou que o Mythos identificou vulnerabilidades nas bibliotecas criptográficas mais usadas do mundo, incluindo implementações de TLS, AES-GCM e SSH. Isto não é quebrar a matemática; é encontrar erros na forma como a matemática foi implementada em código. A diferença é crucial, mas o resultado prático pode ser igualmente devastador: se a implementação apresenta um bug, a encriptação falha mesmo que o algoritmo seja perfeito. E à medida que estes modelos progridem no raciocínio matemático, a possibilidade de virem a comprometer os próprios fundamentos da criptografia actual deixa de ser ficção científica, o que torna ainda mais urgente o investimento em criptografia de nova geração e em infraestruturas de confiança adaptáveis. Há que reforçar a blindagem dos sistemas informáticos de que dependemos. O Mythos não fabrica “chaves-mestras”, mas sim “maçaricos” e “pés-de-cabra”…
Os factos concretos estão documentados no system card de 244 páginas da Anthropic: uma vulnerabilidade de 27 anos no OpenBSD, outra de 16 anos no FFmpeg (testada cinco milhões de vezes sem sucesso) e uma cadeia autónoma de exploits no Linux Kernel que resultou no controlo total de uma máquina sem intervenção humana. Foi suficientemente grave para que Powell e Bessent convocassem, numa reunião não agendada no Departamento do Tesouro, os CEOs do Goldman Sachs, Bank of America, Citigroup, Morgan Stanley e Wells Fargo. Foi o que expliquei no canal NOW.
Modelo ou agente?
Alguns comentadores criticaram nas redes sociais o facto de eu ter chamado “agente” ao Mythos, em vez de “modelo.” A crítica é compreensível, mas revela um mal-entendido. Como julgo ter conseguido explicar no programa, um sistema que percebe o seu ambiente (tem sensores), decide o que fazer (encadeia acções complexas) e age no mundo (envia emails, publica conteúdo, explora vulnerabilidades) não é um modelo de linguagem que apenas dá respostas. É, por definição, um agente. A própria Anthropic documentou que o Mythos escapou de uma sandbox, enviou um email ao investigador sem que ninguém lho pedisse, e publicou detalhes do exploit por iniciativa própria. Chamar-lhe apenas “modelo” é subestimar o que ele demonstrou ser capaz de fazer.
O que não consegui dizer na televisão
O tempo foi consumido, compreensivelmente, pelo problema. Ficou de fora o mais importante: a solução. É aqui que este artigo começa verdadeiramente.
O problema resume-se a três frases: existe uma ferramenta que pode comprometer os sistemas de que a nossa vida depende; ninguém que tenhamos eleito decidiu o que fazer com ela; e as instituições que temos não estão preparadas para isto. Mas existe solução. E a solução não é proibir a IA.
O que a Constituição não prevê
A Constituição da República Portuguesa foi escrita para um mundo onde todas as decisões com impacto nos direitos fundamentais são tomadas por seres humanos identificáveis, dentro de instituições com legitimidade democrática, e contestáveis por via judicial. Ela prevê abusos humanos.
Hoje, há decisões que já não têm rosto. Um algoritmo nega um crédito, recusa um seguro, seleciona um currículo, determina quais conteúdos vemos e quais ficam invisíveis. Em muitos casos, o cidadão não sabe que foi uma máquina a decidir, não sabe o porquê e não tem a quem recorrer. Os abusos tendem a ser automáticos.
O RGPD europeu já prevê o direito do cidadão de ser informado quando uma decisão é tomada exclusivamente através de meios automatizados. Mas é lei ordinária, alterável por maioria simples. E, na prática, quase ninguém a cumpre. O que proponho é o seguinte princípio constitucional: toda a decisão automatizada que afecte direitos fundamentais tem de ser auditável, explicável e contestável por um ser humano. Estar na lei ou na Constituição é a diferença entre uma recomendação e um direito fundamental.
Mas como se audita o que ninguém consegue ver?
Esta é a objeção mais séria e é legítima. Quando sistemas tomam milhões de decisões por segundo, nenhum tribunal, nenhum regulador, nenhuma comissão parlamentar consegue verificar manualmente o que está a acontecer. O princípio constitucional, por si só, seria um direito inaplicável. É aqui que entra a tecnologia que não tive tempo de explicar na televisão.
Já existem protocolos criptográficos, testados e operacionais, que permitem verificar automaticamente se as regras estão a ser cumpridas, sem depender da boa vontade de quem opera o sistema. O Telegram foi banido pela Rússia, pelo Irão e pela China porque dá aos cidadãos uma protecção que esses governos não conseguem quebrar: quando ditaduras proíbem uma tecnologia, estão a certificar a sua eficácia. O Bitcoin, cujo protocolo merece mais atenção do que a especulação que o rodeia, funciona há 17 anos sem dono, sem governo e sem autoridade central, e nunca foi comprometido: a maior prova viva de que é possível construir confiança verificável sem depender de terceiros. E a Estónia, um país europeu como Portugal, protege há mais de uma década os registos de saúde dos seus cidadãos com criptografia avançada. Cada indivíduo pode verificar quem acede aos seus dados e qualquer adulteração é matematicamente detectável: a prova de que esta tecnologia já serve a democracia na Europa.
Tal como o registo predial garante a propriedade, a criptografia, ao serviço do Estado de Direito, garante a constitucionalidade.
O número de Dunbar é 1
Os seres humanos conseguem confiar uns nos outros quando vivem em pequenos grupos. A ciência indica que o limite natural é de cerca de 150 pessoas (o número de Dunbar). Muitos dos nossos ancestrais viveram assim. Acima disso, precisámos de instituições: leis, tribunais, registos. Toda a civilização foi construída para resolver esse problema.
Agora nasceu uma nova espécie de agentes. Não importa se pensam ou não. O que importa é a tríade que define o seu poder agêntico: percebem o ambiente, decidem e agem. E basta um. Um único agente autónomo é suficiente para comprometer os sistemas de que todos dependemos. O Mythos demonstrou-o. Com esta nova espécie, o número de Dunbar já não é 150. É 1.
Sem um nível de confiança à altura dos automatismos que se avizinham, a humanidade não terá uma coexistência viável com esta nova espécie de agentes inteligentes. A tecnologia para construir essa confiança já existe. O que pode faltar é vontade política.
O risco de não fazer nada
Se não agirmos, os sistemas que governam a nossa vida ficam opacos. O euro digital, por exemplo, sem uma camada de verificação criptográfica, permite que regras sejam aplicadas automaticamente à carteira de cada cidadão, sem que todos possam verificar se essas regras são as previstas em lei. Quanto mais delegamos decisões críticas a sistemas autónomos poderosos, mais precisamos de garantias de que nenhuma entidade, sozinha, as possa manipular. A omissão pode ser a nova violação de direitos.
Convém reconhecer o que a Anthropic fez de diferente: foi uma empresa que se autorrestringiu, alertou os governos antes do lançamento e investiu 100 milhões de dólares para que o Mythos fosse usado exclusivamente para fins de defesa. Criou um consórcio com algumas das maiores empresas do mundo. O problema não é o que a Anthropic fez; é que nenhum governo tenha participado desta decisão. Não por exclusão, mas por ausência de quadro institucional que lhes permita estar à mesa.


Boa tarde. Confesso que no programa mesmo com informações curtas, o que alertou para alguns foi entendivel. Agora acredito que muitas pessoas.”, mas mesmo muitas, não entendem o que se está a passar ou mesmo o que poderá vir a acontecer. Obrigado por complementar o tema. Cumprimentos e parabéns pela sua dedicação.