Era da Internet Morta: A Teoria é ou será realidade?
O Fim das Redes Sociais e o trágico destino para todo o trabalho digital
Era da Internet Morta: quando agentes automáticos passam a produzir e a consumir a maior parte da Web.
Dessa forma estou destinando uma parte do meu tempo todos os dias em trabalhar na Era da Internet Morta, não mais uma teoria, mas uma realidade crescente e assustadora do mercado e industria digital. Sabendo do destino trágico da internet poderemos nos preparar melhor?
Uma visão inicial sobre um algo que está pouco a pouco se tornando uma verdade global
Automação já superou humanos na Web. Em 2024, tráfego automatizado (bots bons + bots ruins) foi 51% de todo o tráfego global; bots maliciosos sozinhos foram 37% e bons bots, 14%. A Imperva registra 13 trilhões de requisições de bots bloqueadas em 2024 e 46% de todos os logins observados como tentativas de ATO (Account Takeover). 44% do tráfego de bots avançados mirou APIs. Setores mais atacados: Viagens (27% dos ataques) e Varejo (33% do tráfego dos sites já é de bad bots).
“IA que navega” já é visível nos logs. O tráfego de crawlers de busca e IA cresceu ~18% a/a (2023→2024) e segue em alta em 2025; quase 80% dessa coleta é para treinamento de modelos (não para enviar cliques). “Crawl‑to‑refer” é extremamente desequilibrado: em julho/2025, bots como GPTBot e ClaudeBot consumiam centenas a dezenas de milhares de páginas para cada visita referida. 14% dos 10 mil maiores sites já têm diretivas específicas a AI bots no
robots.txt
.Publicidade e conteúdo: a explosão de sites gerados por IA é mensurável — a NewsGuard já rastreia 1.271 sites de “notícias” operados com pouca ou nenhuma supervisão humana. Em paralelo, MFA / conteúdo de baixa qualidade absorve >10% do gasto programático global (jun/2024), chegando a 15% na América Latina.
Indústria reage: provedores de infraestrutura mudaram o padrão: a Cloudflare bloqueia AI crawlers por padrão e lançou o Pay‑Per‑Crawl (AI paga por acesso), sinal de que o acesso de agentes virou vetor econômico de primeira ordem.
Jogos online são laboratório histórico de automação: de macros (ex.: Ultima Online) à ban‑waves massivas (ex.: 1,5 milhão de bots banidos em um único dia em RuneScape; 100 mil contas do WoW suspensas em 2015), os MMOs anteciparam o que hoje vemos
Segurança e APIs: 2024 registrou 311 bilhões de ataques a aplicações e APIs (↑33% a/a), com crescimento claro de abusos automatizados e foco crescente em endpoints.
Tese: A “Era da Internet Morta” caracteriza‑se pela prevalência de agentes automáticos que produzem (conteúdo sintético, MFA, spam, scraping) e consomem (crawling, scraping, credential stuffing, automação de navegação por IA) a maior parte do tráfego, formando um loop de baixo retorno para humanos (pouco referral, saturação de informação e degradação de sinais de qualidade).
1) Definições e escopo
Bots bons: indexadores, monitores de uptime, verificação legítima.
Bots ruins: scraping agressivo, brute force, fraude de anúncios, ATO, abuso de APIs, evasão.
Agentes de IA: crawlers de treinamento/answering (GPTBot, ClaudeBot, PerplexityBot, Google‑Extended etc.) e assistentes que navegam “em nome do usuário” (“ChatGPT‑User”, “Perplexity‑User”) — hoje detectáveis por User‑Agent e padrão de acesso.
MFA (Made‑for‑Advertising): inventário de baixa qualidade e alto volume, com IVT (Invalid Traffic) acima da média. Em jun/2024, 13% do gasto programático global foi para MFA (LATAM 15%).
REPs e preferências de IA:
robots.txt
é padrão IETF (RFC 9309); surgiram diretivas e propostas de sinalização de uso por IA (ex.: Content‑Usage / AI Preferences no IETF).
2) Linha do tempo da automação (pré‑IA → IA)
a) Pré‑IA (1997–2016)
MMORPGs:
• Ultima Online normalizou macros oficiais (automatização de ações repetitivas).
• RuneScape: “Bot Nuke Day” (2011) removeu ~1,5 milhão de bots em 1 dia.
• World of Warcraft: onda de ~100 mil suspensões (2015) por uso de bots.
Mercados financeiros tradicionais: ascensão do trading algorítmico e HFT; órgãos como SEC/CFTC documentam a ubiquidade da negociação automatizada, com forte presença especialmente em futuros e equities (base conceitual para bots de arbitragem/latência depois vistos em cripto).
b) Transição (2017–2021)
Scraping e fraude escalam; credential stuffing torna‑se rotina de atacantes.
DeFi/cripto: surgem bots de arbitragem e o fenômeno MEV (Maximal Extractable Value), com monitoramento público pela Flashbots — o valor extraível torna‑se um mercado próprio.
c) Era dos agentes de IA (2022–2025)
Bots de IA (GPTBot, ClaudeBot, Perplexity, Google‑Extended, Bytespider etc.) tornam‑se visitantes constantes de sites; logs de servidores passam a registrar padrões persistentes de treinamento e answering. Crescimento anual do segmento e desequilíbrio entre crawls e cliques são medidos em escala global.
Conteúdo sintético: NewsGuard já lista 1.271 sites de “notícias” gerados por IA com baixa/nenhuma supervisão humana.
Mudança regulatória de fato (infra): Cloudflare bloqueia bots de IA por padrão e testa monetização por acesso (Pay‑Per‑Crawl), difundindo um modelo de permissão/compensação.
3) O que os números mostram (2024–2025)
3.1 Tráfego e segurança
51% do tráfego global é automatizado (2024). 37% é bad bot; 14% good bot. 44% dos bots avançados miram APIs. 46% das tentativas de login eram ATO. Brasil = 6% dos ataques globais. Setores críticos: Viagens (27%) e Varejo (33% de bad bots no tráfego).
Cloudflare (visão global de rede): ~1/3 do tráfego observado é automatizado e 93% desse volume não é de bots “verificados” (alta probabilidade de malicioso). APIs já somam ~60% do tráfego.
Ataques a apps/APIs: 311 bilhões em 2024 (↑33% a/a).
3.2 Crawlers de IA e “navegação por IA”
Crescimento ~18% a/a em crawlers de busca + IA; quase 80% do crawling é treinamento (baixo retorno em referência de tráfego). Sites já endereçam bots de IA no
robots.txt
(14% dos top‑10k).Padrões de User‑Agent e opt‑out: OpenAI GPTBot/ChatGPT‑User, ClaudeBot, PerplexityBot documentados com diretrizes de bloqueio por
robots.txt
.Controvérsia e enforcement: casos de evasão de diretivas e “stealth crawlers” geram delist de bots não‑conformes e bloqueio em provedores; Cloudflare tornou público o descredenciamento do Perplexity no programa de bots verificados.
3.3 Publicidade e conteúdo
MFA/IVT: 13% do gasto global em jun/2024 foi para MFA; na LATAM, 15%. Benchmarks regionais de IVT em Q4/2024 ficaram na ordem de 19%–27% por dispositivo em NA (indicativo de quanto tráfego é não‑humano). Ao mesmo tempo, iniciativas setoriais estimam US$ 10,8 bi de perdas evitadas por antifraude em 2023 (sinal de escala do problema e impacto de padrões TAG/ANA/IAB).
Proliferação de sites IA: 1.271 domínios rastreados pela NewsGuard em 16 línguas, com audiência comprada programaticamente, reforçando o loop de produção e monetização quase sem humanos.
4) Jogos online: do macro ao mining por bots
Evidências históricas
• UO: macros oficiais demonstram a normalização da automação de microtarefas desde os anos 90.
• RuneScape: ação “Bot Nuke Day” removeu ~1,5 milhão de bots em 24h (2011).
• WoW: ban‑wave de ~100 mil contas (2015).Lições: economias virtuais distorcidas por automação → migram para a economia real (scalping, arbitragem, fraude) quando pagamentos e ativos digitalizados entram no loop.
5) Finanças digitais e cripto: arbitragem e MEV
Bots de trading/arbitragem são padrão há mais de uma década. Em DeFi, o MEV formaliza a extração automatizada de valor por reordenação/inserção de transações; a Flashbots mantém repositórios públicos e documentação técnica do fenômeno. Conclusão para a pesquisa: bots econômicos operam sistematicamente onde houver latência, assimetria de informação e superfícies automatizáveis.
Nota metodológica: métricas exatas de MEV acumulado variam por fonte/metodologia; use os painéis e definições da Flashbots para evitar números sensacionalistas sem lastro.
6) Como medir a “morte” (sinais práticos em analytics/logs)
Indicadores operacionais que você pode instrumentar em qualquer site/app:
Proporção de tráfego automatizado (bot score, assinatura TLS/JA3/JA4, headless, horário, frequência de requests). Baseie‑se em vendors ou em heurísticas (mas documente critérios). Referência: ~51% automatizado é o baseline global 2024.
Participação de AI User‑Agents (GPTBot, ClaudeBot, Perplexity, Google‑Extended, Bytespider etc.); Crawl‑to‑refer ratio por bot (páginas coletadas / visitas referidas). Espera‑se razões muito altas (centenas a dezenas de milhares para 1).
Hits a endpoints de API (sobretudo GET anômalos em rotas sensíveis; abuso de lista/pesquisa e login). Lembre que 44% dos bots avançados miram APIs.
Taxa de logins mal‑sucedidos e origens ASN/residenciais (uso de residential proxies é comum).
Padrões de conteúdo no seu nicho (tráfego vindo de sites IA/MFA, variações de CTR e RPM). Use listas da NewsGuard e benchmarks de Pixalate para excluir domínios.
Robots/AI policy coverage: presença de políticas (
robots.txt
,ai‑usage
headers/Content‑Usage, Cloudflare AI Crawl Control), eficácia (respeito × evasão).
7) Cenários futuros (2025–2030): consequências e oportunidades
7.1 Consequências (riscos)
Loop sintético: mais conteúdo gerado por IA consumido por crawlers de IA → erosão de sinais de qualidade (SEO/descoberta), queda de referral e inflação de dados treináveis (ruído).
Superfície de ataque maior: APIs como backbone (60%+ do tráfego) atraem automação ofensiva (ATO, scraping, fraude); ataques a apps/API subiram 33% em 2024.
Economia da atenção sob pressão: MFA e IVT drenam budget; 13% do gasto global indo para MFA (LATAM 15%) distorce métricas e ROI.
Conflitos de acesso: casos de desrespeito a diretivas (stealth crawlers) geram bloqueios por infra e disputa legal/técnica.
7.2 Oportunidades (respostas estratégicas)
Monetização de dados: Pay‑Per‑Crawl e acordos de data licensing com agentes de IA (negociação por área/rota; 402 custom, autenticação).
Arquitetura bot‑first: segmentar infraestrutura (edge + rate‑limit + trap endpoints) e observabilidade dedicada a bots/IA; classificar automação “boa” (que traz valor) vs abusiva. Cloudflare/Imperva fornecem benchmarks úteis.
Sinalização e governança: adotar RFC 9309, rascunhos IETF AI‑Preferences, e metadados “no‑ai/usage” para compliance e prova de intenção.
Produtos anti‑saturação: curadoria humana, trusted sources, transparência algorítmica e métrica de utilidade humana (tempo útil, resolução de tarefas) em vez de pageviews.