Nos últimos meses, o YouTube foi invadido por um fenómeno tão bizarro quanto preocupante: o chamado “AI slop”, expressão usada para descrever conteúdos gerados por inteligência artificial que se espalham a uma velocidade vertiginosa, sem critério nem valor real. O The Guardian, num artigo de 11 de agosto de 2025, relata casos extremos. Bebés presos no espaço, gatos em telenovelas melodramáticas, figuras públicas recriadas digitalmente para tramas impossíveis — que, apesar da sua natureza absurda, acumulam milhões de visualizações.
Só em julho, nove dos 100 canais que mais cresceram na plataforma eram dedicados exclusivamente a este tipo de produção. A facilidade com que novas ferramentas de geração de vídeo, como o Veo 3 da Google ou o Grok Imagine de Elon Musk, permitem criar conteúdos em massa está a amplificar o problema.
Para quem trabalha em comunicação, esta tendência é mais do que uma curiosidade cultural: é uma ameaça direta à relevância, à credibilidade e à capacidade de construir narrativas sólidas. A multiplicação destes vídeos aumenta o ruído digital, tornando mais difícil distinguir mensagens genuínas num mar de conteúdos descartáveis. A confiança do público é corroída quando a linha entre o humano e o sintético se esbate sem aviso, e a lógica do storytelling intencional é substituída por uma corrente interminável de “conteúdo pelo conteúdo”. Pior: quando marcas ou organizações são inadvertidamente associadas a este tipo de material, enfrentam riscos reputacionais sérios.
A preocupação não é apenas perceção subjetiva. Os dados europeus confirmam que existe uma sensibilidade clara para este tema. Segundo o Eurobarómetro, 84% dos cidadãos da União Europeia defendem que a inteligência artificial deve ser cuidadosamente gerida para proteger a privacidade e garantir transparência. Um estudo académico, com uma amostra de 4.006 cidadãos de oito países europeus, revela que, embora as atitudes face à IA sejam maioritariamente positivas, a confiança depende de literacia digital, ética e transparência. O relatório da European Broadcasting Union reforça que os consumidores continuam a confiar mais nos media tradicionais, precisamente pela perceção de maior responsabilidade editorial e presença humana. Já o European Centre for Algorithmic Transparency alerta para a necessidade de supervisão ativa e rotulagem clara de conteúdos gerados por algoritmos.
Há também exemplos concretos de como responder a esta maré de conteúdos artificiais sem abdicar da tecnologia. O jornal norueguês VG rotula explicitamente qualquer conteúdo com intervenção de IA e explica como foi produzido, construindo confiança pela transparência. A BBC recorre à IA apenas para análise de dados, mantendo o enquadramento narrativo nas mãos de jornalistas. A DW alemã investe na literacia do seu público, produzindo peças educativas sobre deepfakes e geração automática. E o espanhol El País usa IA para apoiar o design de infográficos, mas garante validação humana antes da publicação. Estes exemplos mostram que é possível usar tecnologia de forma responsável, com curadoria e assinatura editorial claras.
O que estas práticas e dados nos dizem é simples, mas urgente: o público valoriza autenticidade, transparência e presença humana na comunicação. O “AI slop” ameaça estes pilares ao transformar a internet num espaço saturado de estímulos descartáveis. O papel dos profissionais de comunicação não é competir com mais volume ou maior velocidade, mas reforçar a integridade, o propósito e a narrativa que sustentam a relação de confiança com a audiência. A tecnologia é inevitável, mas a qualidade não é opcional. E a confiança, mais do que se medir em cliques, constrói-se com consistência, clareza e alma.
Consultora de comunicação