Tem uma cena no Matrix que eu nunca esqueço. Morpheus olha pro Neo e diz: "Há uma diferença entre conhecer o caminho e trilhar o caminho."

A AMD acabou de anunciar que quer trilhar o caminho. E o caminho é ousado pra caralho.

O que a AMD fez, sem economês

A empresa lançou o OpenClaw — um framework open source (código aberto, pra quem não fala nerdês) que permite rodar agentes de inteligência artificial localmente nos seus processadores Ryzen e placas de vídeo Radeon.

Traduzindo: ao invés de você depender dos servidores bilionários da Microsoft, Google ou Amazon (a tal "nuvem"), a AMD quer que a IA rode direto na sua máquina. No seu hardware. Na sua casa. No seu escritório.

Isso não é um detalhe técnico. Isso é uma declaração de guerra filosófica.

Por que isso importa (e não é papo de nerd)

Veja, o mercado de IA hoje funciona como um pedágio eterno. Você quer usar o ChatGPT no nível sério? Paga. Quer treinar um modelo? Aluga GPU na nuvem da Nvidia via AWS. Quer rodar agentes que automatizam tarefas? Paga de novo. E de novo. Todo santo mês.

O modelo inteiro da revolução da IA está construído sobre aluguel perpétuo de poder computacional. É o sonho molhado de qualquer empresa SaaS: receita recorrente até o fim dos tempos.

A AMD, que historicamente apanha da Nvidia no mercado de IA como o Coringa apanha do Batman — sempre volta, mas sempre sangrando — está tentando mudar a lógica do jogo.

Com o OpenClaw, a proposta é: compre o hardware uma vez, rode a IA localmente, sem pagar aluguel pra ninguém.

Skin in the game? Talvez

Agora, antes de sair correndo pra comprar ações da AMD (ticker: AMD, negociada na Nasdaq), vamos colocar o pé no chão como Nassim Taleb mandaria.

Primeiro: o anúncio é promissor, mas execução é tudo. A Nvidia tem o CUDA — um ecossistema de software tão dominante que desenvolvedores praticamente cresceram dentro dele. É como tentar convencer alguém que usa iPhone há 15 anos a mudar pro Android. Possível, mas a inércia é brutal.

Segundo: rodar agentes de IA localmente em hardware consumer (doméstico) ainda tem limitações sérias de memória e poder de processamento. Modelos grandes — os que realmente impressionam — precisam de quantidades absurdas de VRAM. As Radeon melhoraram, mas ainda não são páreo para as RTX 4090 e muito menos para as H100/H200 da Nvidia em cargas de trabalho pesadas de IA.

Terceiro: o fato de ser open source é uma faca de dois gumes. Por um lado, atrai a comunidade. Por outro, a AMD precisa monetizar isso de alguma forma. Framework grátis que vende hardware? Pode funcionar — é o modelo da Gillette (dá o barbeador, vende a lâmina) — mas no mercado de semicondutores a margem está nos chips, não no software.

O ângulo que ninguém está discutindo

Aqui vai o que me interessa de verdade: privacidade e soberania de dados.

Grandes empresas, governos, escritórios de advocacia, hospitais — todo mundo que lida com dados sensíveis tem um problema sério com IA na nuvem. Mandar seus dados confidenciais pros servidores do OpenAI é, no mínimo, desconfortável. No máximo, ilegal em certas jurisdições.

IA local resolve isso na raiz. E é aqui que o OpenClaw pode encontrar seu nicho antes de competir no mainstream.

Se a AMD for esperta — e a Lisa Su não chegou onde está sendo burra — o foco deveria ser vender essa narrativa de IA soberana para o mercado corporativo e governamental. Não tentar bater de frente com a Nvidia no data center agora, mas conquistar o edge computing, as estações de trabalho profissionais, o mercado que precisa de IA sem nuvem.

E as ações?

AMD está negociando bem abaixo das máximas históricas. O mercado precificou a dominância da Nvidia como se fosse lei da física. Mas mercados mudam. Narrativas mudam.

O OpenClaw sozinho não muda o jogo. Mas é mais uma peça num tabuleiro que a AMD está montando pacientemente. MI300X, ROCm melhorando a cada versão, e agora um framework de agentes open source.

Quem estudou a história do próprio mercado de GPUs sabe que a Nvidia já foi subestimada quando a ATI (que a AMD comprou) dominava. O pêndulo oscila.

A pergunta que fica é: você vai continuar pagando aluguel eterno pra rodar inteligência na nuvem dos outros, ou vai ter a coragem de rodar a sua própria?

Porque no final das contas, como diria o velho Taleb — se os dados não estão na sua máquina, eles não são seus.