BUG

Queda da Cloudflare expõe o custo dos apagões digitais

Falha na rede global da Cloudflare derrubou serviços no mundo inteiro e escancara como demissões, automação excessiva e economia de custos aumentam o risco de apagões digitais.

Escrito en Opinião el
Diego Feijó de Abreu é repórter investigativo e Jornalista de Dados. Com background em Tecnologia (TI), usa ferramentas digitais para auditar contas públicas e fiscalizar a política e a gestão da saúde. Na Fórum, revela o que os documentos oficiais tentam esconder.
Queda da Cloudflare expõe o custo dos apagões digitais
Cloudfare causou bug em aplicativos na internet. Marcello Casal JrAgência Brasil

Nesta terça-feira (18), uma falha na rede global da Cloudflare fez milhões de pessoas ao redor do mundo verem a internet simplesmente parar. Serviços que vão de redes sociais a plataformas de inteligência artificial passaram a exibir a mesma mensagem seca: “erro 500”. O problema não estava no roteador da sala, mas em um ponto crítico da infraestrutura global.

A própria Cloudflare admitiu um problema em sua “Global Network”, com erros 500 generalizados atingindo clientes em diferentes países. Plataformas como X (antigo Twitter), ChatGPT, Gemini, Perplexity, sites de criptomoedas e até ferramentas de monitoramento de falhas ficaram instáveis ou totalmente fora do ar. O diagnóstico oficial ainda está em investigação, mas o roteiro já é conhecido: uma única falha vira apagão mundial.

A primeira matéria da Fórum sobre o bug de hoje já mostrou o tamanho do estrago. Agora, vale olhar um passo atrás e perguntar: por que esses apagões se repetem cada vez com mais frequência, enquanto as mesmas empresas seguem registrando lucros bilionários e cortes agressivos de custos?

Apagões na nuvem: Cloudflare não é caso isolado

O colapso da Cloudflare não é um raio em céu azul. Há menos de um mês, uma pane na nuvem da Amazon derrubou sites e aplicativos em todo o mundo, afetando do comércio eletrônico a plataformas de videoconferência. A Fórum mostrou naquele episódio como a dependência de poucos provedores concentrados transforma qualquer problema técnico em coisa de Estado.

Nos últimos anos, sucessivas falhas em nuvens de gigantes como Amazon, Microsoft e Google expuseram a mesma fragilidade: a internet de que dependemos para trabalhar, estudar, fazer transações bancárias e tocar políticas públicas está apoiada em uma infraestrutura cada vez mais concentrada e opaca. É o famoso ponto único de falha, só que em escala planetária.

Quando uma empresa como a Cloudflare engasga, não cai “um site”, mas uma cadeia inteira de serviços que terceirizou segurança, entrega de conteúdo e desempenho para esse intermediário. E é aí que entra a discussão sobre a lógica de negócios que está por trás desses apagões.

Cortar custos virou modelo de negócio

Enquanto incidentes se acumulam, o discurso interno das big techs é outro: eficiência, enxugamento, “foco no core”, reorganização. Em linguagem menos asséptica, isso significa demissões em massa, congelamento de contratações e pressão por fazer mais com menos.

O setor de tecnologia viveu uma onda de cortes desde 2022, que se estende por 2024 e 2025. Em empresas de nuvem e infraestrutura, esse movimento atinge justamente áreas de engenharia, suporte e confiabilidade, as equipes responsáveis por manter sistemas críticos de pé 24 horas por dia. Em paralelo, executivos seguem cobrando margens cada vez maiores em um mercado altamente competitivo, que vende “alta disponibilidade” como produto.

A própria Cloudflare virou símbolo dessa contradição. Em 2024, o caso de uma funcionária demitida em uma videochamada, que viralizou nas redes, expôs a prática de cortes pontuais em nome da “performance” e da “reorganização” interna. Na ocasião, a empresa se apressou em dizer que não se tratava de “layoff”, mas de ajustes. Para quem perde o emprego e para quem depende da estabilidade da rede, a diferença é pouco mais que semântica.

Quando a lógica de reduzir custos se impõe sobre a necessidade de redundância, teste e prevenção, o resultado aparece na ponta: menos gente para revisar mudanças críticas, menos tempo para simular cenários de falha, mais pressão para automatizar ao máximo decisões que antes passavam por análise humana.

Automação demais, gente de menos

Automação é palavra mágica na indústria de nuvem. Ferramentas que aplicam mudanças de configuração em milhares de servidores em segundos são fundamentais para manter uma infraestrutura global. O problema é quando esse automatismo passa a operar quase sem freios, em ambientes cada vez mais complexos e com equipes cada vez menores e mais sobrecarregadas.

A recente pane da AWS, por exemplo, teve relação com um sistema automatizado de DNS que falhou e não se autorecuperou, exigindo intervenção manual e deixando serviços fora do ar por horas. Ou seja, um mecanismo criado para reduzir risco acabou sendo o gatilho de um mega incidente.

Com a Cloudflare, o filme é semelhante, ainda que o roteiro técnico definitivo não esteja público. A empresa admite “widespread 500 errors” e problemas no próprio painel e API, o que indica uma falha profunda na camada de controle da rede. Quando o sistema que gerencia a infraestrutura quebra, a capacidade de reagir também fica comprometida, e o tempo de resposta aumenta.

Em um cenário de equipes enxutas, o risco explode. Mudanças de configuração que antes passariam por revisão e testes mais cautelosos acabam empurradas em janelas cada vez menores, frequentemente sob pressão comercial para lançar novos produtos, atender grandes clientes ou reduzir custos de operação. O resultado é esta sensação de que a internet está cada vez mais frágil.

 

Quem paga a conta: do trabalhador remoto ao serviço público

Na tela, o usuário só vê um erro 500. Mas por trás dessa linha, há uma cadeia de dependências invisíveis. Pequenos negócios que usam plataformas de pagamentos em nuvem, trabalhadores remotos que dependem de ferramentas hospedadas em provedores terceirizados, serviços de streaming, jogos online, sites de notícia e até portais de instituições públicas, tudo isso passa, em maior ou menor grau, por empresas como Cloudflare, AWS, Microsoft e afins.

Quando um desses intermediários falha, o prejuízo é distribuído. Quem perde vendas, horas de trabalho e credibilidade com seus próprios clientes é a ponta da cadeia, não o provedor que opera datacenters em outro país. No Brasil, onde boa parte dos sistemas de bancos, comércio e serviços digitais se apoia em nuvens privadas estrangeiras, o risco é ainda maior.

A Fórum já mostrou, na reportagem “O apagão de dados públicos sobre datacenters no Brasil”, como a falta de transparência sobre onde estão e quem controla essas infraestruturas reforça um “colonialismo digital” que desloca poder e decisão para fora do país. E hoje, mais uma vez, esse poder se manifestou na forma de um botão que alguém apertou do outro lado do mundo.

 

Lucros recordes, transparência de menos

Enquanto usuários enfrentam páginas fora do ar, o discurso oficial costuma seguir um padrão bem conhecido: comunicado curto, linguagem técnica genérica, poucas pistas sobre o que de fato aconteceu e nenhuma autocrítica sobre escolhas de negócio. A nota da Cloudflare falando em “problema na Global Network” cabe em algumas linhas. Os impactos reais, não.

Empresas desse porte são listadas em bolsa, reportam lucros trimestrais e são pressionadas por acionistas para cortar gastos e aumentar margens. Investimento em redundância, testes de caos, equipes robustas de confiabilidade e transparência pública não geram manchetes em relatórios financeiros. Já rodadas de demissões e “ganhos de eficiência” costumam ser bem recebidos por analistas de mercado.

O resultado é uma equação perversa: a sociedade inteira assume o risco de ficar sem internet, sem banco, sem serviço público digital, enquanto o benefício desse modelo concentrado de nuvem é apropriado por um punhado de corporações. Quando ocorre um apagão, a narrativa dominante fala em “falha técnica” ou “incidente isolado”, nunca em modelo de negócio.

 

Brasil entre a dependência e a soberania digital

A queda da Cloudflare também joga luz sobre um debate que já está em curso no Brasil. O governo federal anunciou recentemente uma nuvem de dados própria para garantir soberania digital, operada por estatais como Serpro e Dataprev. A proposta é que dados sensíveis do Estado deixem de depender exclusivamente de infraestruturas privadas estrangeiras.

Esse movimento não elimina a necessidade de usar grandes provedores globais, mas recoloca a discussão no lugar certo: quem controla a infraestrutura que sustenta a democracia digital brasileira? Em um cenário de apagões recorrentes, cortes de custos e precarização das equipes que mantêm a nuvem global de pé, apostar apenas na “boa vontade” e na eficiência das big techs é um risco político e econômico.

Como lembrou a coluna da Fórum sobre a nova geopolítica da nuvem, soberania digital também é soberania nacional. Apagões como o de hoje ajudam a traduzir isso para o dia a dia: quando a internet “cai”, o problema não é a tomada da sala, mas um modelo de infraestrutura global que maximiza lucro e minimiza responsabilidade.

 

Próximos passos: regular, diversificar e colocar gente de volta na engenharia

A queda da Cloudflare deve entrar para a lista de incidentes que servirão de estudo de caso em cursos de computação e relatórios de risco. Mas, para além da análise técnica, há decisões políticas urgentes. Regulação de serviços essenciais em nuvem, exigência de transparência mínima sobre falhas, incentivos a infraestruturas públicas e mistas, fortalecimento de datacenters sob legislação nacional e, sobretudo, fim da ideia de que engenharia é apenas custo.

A internet não é um milagre abstrato. Ela é um conjunto de cabos, roteadores, datacenters e, principalmente, pessoas que projetam, operam e corrigem sistemas. Enquanto a lógica da “eficiência a qualquer preço” seguir expulsando essas pessoas das empresas de infraestrutura, novos apagões globais deixarão claro, de tempos em tempos, que a conta dessa economia de custos é paga por todos nós.

 

Logo Forum