A popularização de ferramentas de inteligência artificial (IA) reacendeu a discussão sobre a chamada teoria da “internet morta”, segundo a qual boa parte do que circula online — de postagens e comentários a perfis inteiros — já não seria produzida por pessoas, mas por sistemas automatizados orientados por algoritmos de recomendação.
O tema ganhou tração a partir de 2016 em comunidades on-line dedicadas a investigar influência algorítmica e manipulação de tráfego. Anos depois, relatórios de segurança cibernética passaram a estimar que uma parcela relevante do tráfego global da web é automatizada, alimentando a percepção de que interações sintéticas competem com — e às vezes superam — a atividade humana.
Te podría interesar
O que mudou com a IA generativa
Modelos capazes de criar textos, imagens, áudio e vídeo reduziram a barreira para produzir conteúdo em escala. Além disso, pesquisadores apontam um risco estrutural: sistemas de IA são treinados em grandes conjuntos de dados que, crescentemente, incluem material gerado por outras IAs, criando um ciclo autorreferente que pode degradar qualidade, diversidade e confiabilidade das informações.
Redes sociais já testam ou oferecem recursos automatizados para responder dúvidas, gerar posts e moderar conversas. Em paralelo, imagens e textos artificiais viralizam acompanhados de milhares de interações de baixa qualidade, enquanto mecanismos de busca e feeds tendem a priorizar conteúdos “otimizados para algoritmo”. O resultado é um ambiente em que a origem do que se vê torna-se mais difícil de identificar.
Te podría interesar
Críticas e limites da teoria
Especialistas consideram improcedente a ideia de uma web “totalmente tomada” por máquinas e lembram que há lacunas de evidência para sustentar um controle coordenado e centralizado. Ainda assim, há consenso de que a automação cresce e pressiona a experiência do usuário, o jornalismo e a pesquisa on-line, exigindo rotulagem clara de conteúdo sintético, métricas de transparência e políticas de mitigação de spam e bots.
Mesmo sem validação científica integral, a teoria funciona como termômetro de confiança na vida digital. A sensação de que a internet perdeu espontaneidade e autenticidade decorre de fatores mensuráveis — aumento de automação, otimização para algoritmos e saturação informacional — e abre espaço para debates sobre governança de plataformas, regulação e educação midiática.