Deixa eu te contar como funciona o roteiro.

Uma empresa de tecnologia anuncia uma medida que, no papel, parece o mínimo de responsabilidade civilizada. No caso do Discord, verificação de idade para proteger crianças de conteúdo adulto. Algo que qualquer pai de família olharia e diria: "óbvio, deveria ter sido feito há anos."

Aí vem o barulho. Usuários reclamam. Influenciadores gravam vídeo. A comunidade "se mobiliza". E a empresa — surpresa — recua.

Roteiro manjado. Velho como o mercado.


O Discord e o Espelho da Big Tech

O Discord é uma plataforma de comunicação que nasceu para gamers e virou o bar de esquina da internet. Mais de 500 milhões de contas registradas. Comunidades de tudo quanto é tipo — da teologia cristã ao conteúdo que nenhum pai quer que o filho de 13 anos acesse.

A plataforma anunciou que iria implementar verificação de idade obrigatória para acessar determinados servidores e conteúdos. Parecia simples. Parecia óbvio.

Durou menos que promessa de político em ano eleitoral.

Após pressão pública — e provavelmente pressão muito menos pública vinda de quem tem interesse financeiro em manter o acesso irrestrito — o Discord adiou o rollout. A empresa usou a linguagem clássica do corporativismo moderno: "ouvimos o feedback da comunidade", "queremos implementar da forma correta", "estamos revisando a abordagem."

Tradução do economês corporativo para o português raiz: a gente recuou, mas vamos fingir que foi uma decisão estratégica.


Skin in the Game? Zero.

Aqui entra Taleb com o porrete.

Quem tomou a decisão de recuar no Discord tem filhos que usam a plataforma? Os executivos que "ouviram o feedback da comunidade" têm adolescentes navegando em servidores sem moderação de idade? Os investidores que certamente torcem para o engajamento não cair — eles têm pele no jogo quando o assunto é quem consome o conteúdo?

Claro que não.

Isso é o problema central do Vale do Silício e de boa parte da Big Tech: as decisões são tomadas por pessoas que não arcam com as consequências. O engenheiro que projeta o algoritmo de recomendação não é o pai do menino de 11 anos que foi empurrado para conteúdo de automutilação. O CEO que recua na política de verificação de idade não é quem vai ter aquela conversa difícil em casa.

É o velho problema do agente versus o principal. Só que aqui o "principal" é uma criança que não tem voto na assembléia de acionistas.


O Negócio Por Trás da Proteção

Vamos ser honestos sobre o que está em jogo financeiramente.

O Discord tem pressão para crescer. Mais usuários, mais engajamento, mais dados, mais valuation. Fricção no onboarding — como uma verificação de idade — reduz conversão. Menos conversão, menos crescimento. Menos crescimento, analista de terno franzindo a testa no modelo de DCF.

É simples assim.

A proteção de menores é custo. O engajamento sem barreira é receita. Quando você entende essa equação, o recuo do Discord deixa de ser surpreendente e vira absolutamente previsível.

E o pior: não é só o Discord. É o roteiro de qualquer plataforma que tenta equilibrar regulação, pressão de usuários e apetite de investidores. O Meta fez isso por anos com saúde mental de adolescentes. O YouTube faz isso com recomendações para crianças. O TikTok elevou isso a uma forma de arte.

O circo tem donos. E os donos têm metas de crescimento.


O Que o Investidor Deveria Ler Nessa História

Se você investe em tech — seja direto, seja via ETF, seja via fundo que aloca lá fora — essa história te diz algo importante.

Regulação vem aí. E vem pesada.

Europa já está na frente com o Digital Services Act. Estados Unidos estão se movendo, mesmo que lentamente. Brasil tem o Marco Civil e o ECA, e mais cedo ou mais tarde alguém vai lembrar que plataformas digitais têm obrigações com usuários menores.

Empresa que não se antecipa à regulação e fica no jogo do recua-e-avança está acumulando risco regulatório no balanço. Esse risco não aparece no P&L trimestral. Aparece de repente, como multa, como restrição operacional, como CPI.

Quem avisou, avisou.


O Discord vai implementar a verificação de idade eventualmente. Porque vão ser obrigados. Não porque quiseram. Não porque "ouviram a comunidade".

E quando isso acontecer, algum executivo vai dar uma entrevista dizendo que a empresa sempre se preocupou com a segurança dos usuários.

Aí você já sabe o que fazer: apertar o joelho, morder o lábio, e lembrar que no mercado — como na vida — quem não tem skin in the game não tem moral pra falar.

Pergunta que fica: quantas decisões "estratégicas" que você já acreditou eram, na verdade, só recuo disfarçado de sabedoria?