Inteligência Artificial

‘AI Slop’: O conteúdo tosco gerado por inteligência artificial que invadiu as redes sociais

As redes sociais mudaram radicalmente nos últimos anos. Anteriormente, era espaço para partilhar momentos reais. Agora, transformou-se noutra coisa completamente diferente. Actualmente, imagens e vídeos falsos, criados por inteligência artificial, dominam os feeds de forma crescente.

Théodore, estudante de 20 anos de Paris, testemunhou esta transformação em primeira mão. Particularmente, uma imagem específica tirou-o do sério completamente. Mostrava dois meninos sul-asiáticos magérrimos e pobres. Estranhamente, apesar dos traços infantis, tinham barbas volumosas. Além disso, um não tinha mãos e tinha apenas um pé. Entretanto, o outro segurava um cartaz pedindo curtidas de aniversário.

Inexplicavelmente, os dois estavam sentados no meio de uma rua movimentada, sob chuva intensa, com um bolo de aniversário. Surpreendentemente, apesar dos indícios óbvios de manipulação por IA, a imagem viralizou no Facebook. Efectivamente, recebeu quase 1 milhão de curtidas e emojis de coração.

Nesse momento, algo ‘estalou’ em Théodore.

O nascimento de uma campanha contra o ‘AI Slop’

“Aquilo deixou-me perplexo”, explicou o estudante posteriormente. “As imagens absurdas feitas por IA estavam por toda parte no Facebook. Além disso, recebiam montes de engajamento, sem qualquer escrutínio. Francamente, era insano para mim.”

Consequentemente, Théodore criou uma conta no X (anteriormente Twitter) chamada “Insane AI Slop”. O objectivo? Essencialmente, expor e ironizar publicações que enganavam os utilizadores. Rapidamente, outros perceberam a iniciativa. Em pouco tempo, a sua caixa de entrada ficou lotada de contribuições.

Progressivamente, com o tempo, temas recorrentes ficaram evidentes. Nomeadamente, religião, militares e crianças pobres fazendo acções comoventes dominavam este tipo de conteúdo.

“Crianças do terceiro mundo fazendo coisas impressionantes sempre fazem sucesso”, observou Théodore. “Similarmente, um menino pobre criando uma estátua insana a partir de lixo. Aparentemente, as pessoas consideram isso edificante. Portanto, os criadores pensam: ‘Óptimo, vamos inventar mais coisas desse tipo’.”

Rapidamente, a conta de Théodore ultrapassou 133 mil seguidores. Evidentemente, tocou num nervo sensível da comunidade online.

A enxurrada imparável de conteúdo falso

Actualmente, a enxurrada de AI slop parece impossível de conter. Basicamente, Théodore define o fenómeno como vídeos e imagens falsos, pouco convincentes e produzidos rapidamente. Simultaneamente, empresas de tecnologia abraçaram a inteligência artificial entusiasticamente. Algumas afirmam estar a coibir certas formas desse conteúdo. Todavia, muitos feeds de redes sociais ainda parecem dominados por este material.

Notavelmente, em apenas alguns anos, a experiência de usar as redes sociais mudou profundamente. Naturalmente, surge então uma questão importante: como isto aconteceu? Adicionalmente, que efeito terá sobre a sociedade?

Talvez mais urgente ainda: até que ponto os biliões de utilizadores de redes sociais realmente se importam?

A ‘terceira fase’ das redes sociais segundo Zuckerberg

Recentemente, em Outubro passado, durante uma teleconferência de resultados, Mark Zuckerberg fez uma declaração reveladora. Especificamente, o CEO da Meta afirmou entusiasticamente que as redes sociais haviam entrado numa terceira fase, agora centrada na inteligência artificial.

“A primeira fase foi quando todo o conteúdo vinha de amigos, familiares e contas que seguias directamente”, explicou. “Posteriormente, a segunda foi quando adicionámos o conteúdo dos criadores. Agora, à medida que a IA torna mais fácil criar e remixar conteúdo, vamos acrescentar ainda mais um grande conjunto de conteúdos.”

Significativamente, a Meta não apenas permite que utilizadores publiquem conteúdo gerado por IA. Pelo contrário, a empresa também lançou produtos para possibilitar a criação de ainda mais desse material. Consequentemente, geradores de imagem e vídeo e filtros cada vez mais poderosos passaram a ser oferecidos amplamente nas plataformas.

Posteriormente, quando a BBC procurou a empresa para comentar, a Meta direcionou para a teleconferência de Janeiro. Nela, Zuckerberg afirmou que a empresa estava a apostar ainda mais em IA. Notavelmente, não mencionou qualquer iniciativa para coibir o AI slop.

“Em breve, veremos uma explosão de novos formatos de mídia, mais imersivos e interactivos, possíveis graças aos avanços da IA”, declarou confiante.

O YouTube e a explosão de conteúdo gerado por IA

Similarmente, o CEO do YouTube, Neal Mohan, escreveu no seu blog de perspectivas para 2026 dados impressionantes. Apenas em Dezembro, mais de 1 milhão de canais do YouTube usaram as ferramentas de IA da plataforma para criar conteúdo.

“Assim como o sintetizador, o Photoshop e o CGI revolucionaram o som e o visual, a IA será uma dádiva para os criadores que estiverem prontos para adoptá-la”, escreveu Mohan optimisticamente.

Porém, o executivo também reconheceu preocupações crescentes. Especificamente, com “conteúdo de baixa qualidade, também conhecido como AI slop”. Segundo ele, sua equipa trabalha activamente em formas de aprimorar os sistemas para identificar e remover “conteúdo repetitivo e de baixa qualidade”.

Contudo, descartou fazer qualquer julgamento definitivo sobre o que deveria ter espaço para prosperar. Nomeadamente, ressaltou que conteúdos antes de nicho, como ASMR e jogos de videogame ao vivo, agora são populares.

Alarmantemente, de acordo com pesquisa da empresa de inteligência artificial Kapwing, 20% do conteúdo mostrado a uma conta recém-criada no YouTube é agora “vídeo de IA de baixa qualidade”. Especialmente preocupante é o vídeo de formato curto. Efectivamente, a Kapwing descobriu que estava presente em 104 dos primeiros 500 clipes de YouTube Shorts exibidos para uma conta nova.

A economia lucrativa por trás do AI Slop

Fundamentalmente, a economia dos criadores parece ser um grande impulsionador deste fenómeno. Basicamente, pessoas e canais podem ganhar dinheiro com engajamento e visualizações. Curiosamente, a julgar pelas visualizações de alguns canais de IA, as pessoas efectivamente se interessam pelo conteúdo. Alternativamente, pelo menos os algoritmos que ditam o que vemos se interessam.

Impressionantemente, segundo a Kapwing, o canal de AI slop com mais visualizações é o indiano Bandar Apna Dost. Acumula impressionantes 2,07 biliões de visualizações. Consequentemente, isto rende aos criadores um ganho anual estimado de 4 milhões de dólares (cerca de 3,8 milhões de euros).

Porém, já existe uma espécie de reacção contrária em curso. Actualmente, sob muitos vídeos virais de IA, é agora comum ver uma enxurrada de comentários furiosos condenando o conteúdo.

Monstros gigantes e parasitas mortais: o lado perturbador

Activamente, Théodore ajudou a impulsionar essa onda de críticas. Usando sua influência recém-adquirida no X, reclamou directamente a moderadores do YouTube sobre a enxurrada de desenhos animados estranhos gerados por IA. Na avaliação dele, eram perturbadores e prejudiciais. Preocupantemente, em alguns casos, pareciam direccionados a crianças.

Especificamente, os vídeos tinham títulos como “Gata mãe salva filhote de parasitas intestinais mortais” e exibiam cenas explícitas. Além disso, outro clipe mostrava uma mulher de camisola que ingeria um parasita. Posteriormente, transformava-se num monstro gigante e furioso, que acabava a ser curado por Jesus.

Consequentemente, o YouTube removeu os canais. A plataforma informou ter tomado a medida porque violavam suas directrizes da comunidade. Oficialmente, afirmou estar “focada em conectar utilizadores a conteúdo de alta qualidade, independentemente de como foi feito”. Adicionalmente, disse trabalhar para “reduzir a disseminação de conteúdo de IA de baixa qualidade”.

Contudo, esta experiência, somada a muitas outras semelhantes, acabou desgastando Théodore. Surpreendentemente, até sites aparentemente acolhedores, como o Pinterest, foram afectados.

A resposta do Pinterest

Frustrados, os utilizadores ficaram tão irritados com a enxurrada de AI slop que o Pinterest introduziu um novo sistema. Essencialmente, permite a exclusão desse tipo de conteúdo. Porém, a medida depende de que os próprios utilizadores admitam que as imagens publicaram foram feitas por IA.

Fúria crescente na secção de comentários

Actualmente, no feed de muitos utilizadores, a reacção adversa ao AI slop tornou-se incessante. Seja no TikTok, no Threads, no Instagram ou no X, parece haver um movimento de pressão popular contra esse conteúdo.

Frequentemente, em alguns casos, o número de curtidas em comentários críticos supera largamente o do post original. Foi exactamente o que ocorreu com um vídeo recente mostrando um praticante de snowboard a resgatar um lobo de um urso. Especificamente, o vídeo teve 932 curtidas. Em contrapartida, um comentário dizendo “Levante a mão quem está cansado dessa porcaria de IA” recebeu 2.400 curtidas.

Ironicamente, tudo isto alimenta o monstro. Essencialmente, para as plataformas de redes sociais, todo engajamento é bom engajamento. Basicamente, manter as pessoas a rolar a tela é o essencial.

Inevitavelmente, surge então a questão: importa se o vídeo incrível, comovente ou chocante no seu feed é real ou não?

O efeito do ‘cérebro podre’

Emily Thorson, professora associada da Syracuse University (EUA), especializada em política e desinformação, oferece perspectiva interessante. Fundamentalmente, afirma que a questão depende do que as pessoas fazem na plataforma.

“Se uma pessoa está numa plataforma de vídeos curtos apenas para entretenimento, então o critério para avaliar se algo vale a pena é simplesmente ‘é divertido?'”, explicou. “Porém, se alguém usa a plataforma para aprender sobre um tema ou para se conectar com membros de uma comunidade, pode perceber o conteúdo gerado por IA como mais problemático.”

Adicionalmente, a forma como o AI slop é apresentado influencia significativamente a reacção do público. Geralmente, quando algo é claramente feito como piada, tende a ser recebido dessa forma. Porém, quando o AI slop é criado especificamente para enganar, pode provocar indignação das pessoas.

A confusão entre real e falso

Recentemente, um vídeo exemplifica perfeitamente esta questão. Mostrava um registo extremamente realista, no estilo de documentário de história natural, de uma impressionante caçada de leopardo. Nos comentários, alguns espectadores foram enganados completamente. Outros ficaram em dúvida.

“De que documentário isso é?”, perguntou um comentarista confuso. “Por favor, é a única maneira de provar que não é IA.”

Alessandro Galeazzi, da Universidade de Padova (Itália), pesquisa o comportamento nas redes sociais. Segundo ele, verificar se um vídeo foi gerado por IA exige esforço mental considerável. Preocupantemente, no longo prazo, teme que as pessoas simplesmente deixem de verificar.

“Minha impressão é que a enxurrada de conteúdos sem sentido gerados com IA pode reduzir ainda mais a capacidade de atenção das pessoas”, afirmou seriamente.

Significativamente, Galeazzi distingue o conteúdo criado com intenção de enganar daquele AI slop mais cómico e obviamente falso. Por exemplo, peixes usando sapatos ou gorilas a levantar peso na academia.

Contudo, mesmo esse material mais fantasioso pode ter efeitos nocivos. Especificamente, aponta o risco do “brain rot” (apodrecimento cerebral). Este conceito associa a exposição constante às redes sociais ao prejuízo das capacidades intelectuais.

“Eu diria que o AI slop intensifica o efeito do brain rot”, explicou preocupado. “Essencialmente, faz com que as pessoas consumam rapidamente conteúdos que sabem não apenas ser improváveis, mas provavelmente sem significado ou interesse.”

Implicações mais graves: desinformação e manipulação

Além do AI slop trivial, parte do conteúdo produzido por IA pode ter implicações bem piores. Recentemente, empresas controladas por Elon Musk, incluindo a xAI e a rede social X, foram obrigadas a alterar suas regras. Especificamente, o chatbot Grok estava a ser usado para despir digitalmente mulheres e crianças na rede X.

Adicionalmente, após conflitos geopolíticos, vídeos falsos espalham-se rapidamente mostrando reacções fabricadas. Preocupantemente, conteúdos assim podem moldar a opinião pública e dar impressões falsas sobre sentimentos populares.

Analistas dizem que isto é especialmente preocupante, já que tantas pessoas usam redes sociais como única fonte de notícias.

A necessidade de autenticação

Manny Ahmed, CEO da OpenOrigins, empresa que distingue entre imagens geradas por IA e imagens reais, afirma ser necessário um novo método. Especificamente, para que quem posta conteúdo autêntico possa provar que seus vídeos e fotos são genuínos.

“Já chegámos ao ponto em que não é possível afirmar com confiança o que é real apenas pela inspecção”, afirmou claramente. “Portanto, em vez de tentar detectar o que é falso, precisamos de uma infraestrutura que permita que conteúdos autênticos provem publicamente sua origem.”

Aparentemente, esta seria uma tarefa que as empresas de redes sociais poderiam assumir. Porém, muitas delas, incluindo a Meta e a X, reduziram drasticamente suas equipas de moderação. Subsequentemente, adoptaram uma abordagem mais colectiva. Consequentemente, tendem a confiar nos próprios utilizadores para rotular conteúdos como falsos ou enganosos.

Será possível uma rede social sem ‘slop’?

Se as grandes empresas de tecnologia parecem satisfeitas em deixar o AI slop circular livremente, seria possível que uma nova rede social surgisse? Teoricamente, uma que prometesse alternativa livre desse conteúdo e, eventualmente, com o tempo, desafiasse as plataformas dominantes?

Infelizmente, isto parece improvável. A detecção de conteúdo gerado por IA está a tornar-se cada vez mais difícil. Actualmente, as máquinas já não conseguem identificar com precisão se um vídeo ou imagem são definitivamente falsos. Adicionalmente, teriam ainda mais dificuldade para fazer julgamento subjectivo sobre se determinado conteúdo pode ser classificado como slop.

Ainda assim, se uma nova rede social surgir e as pessoas “votarem com os pés”, isto pode provocar alguma mudança. Historicamente, a rede social BeReal ganhou popularidade durante a pandemia ao incentivar utilizadores a mostrarem versões autênticas de si mesmos. Especificamente, selfies sem filtros, feitas em horários aleatórios.

Admitidamente, o BeReal nunca alcançou o patamar de gigantes como Facebook e Snapchat. Provavelmente nunca alcançará. Contudo, conseguiu chamar a atenção das outras plataformas, que, em alguns casos, copiaram a ideia.

Possivelmente, talvez isso volte a acontecer se surgir um concorrente com proposta explícita contra o AI slop.

Conclusão: A batalha perdida?

Relativamente a Théodore, sente que a batalha está perdida. Fundamentalmente, o AI slop veio para ficar, na sua perspectiva.

Apesar de ainda receber contribuições na sua caixa de mensagens, enviadas pelos seus 133 mil seguidores, já não publica com a mesma frequência. Gradualmente, em grande medida, resignou-se ao novo normal da vida online.

“Ao contrário de muitos dos meus seguidores, não sou dogmaticamente contra a IA”, explicou honestamente. “Essencialmente, sou contra a poluição online de AI slop, feita para entretenimento rápido e para gerar visualizações.”

Importantemente, esta distinção é crucial. A inteligência artificial tem usos legítimos e valiosos. Porém, a sua utilização para criar conteúdo enganoso, perturbador ou simplesmente sem valor polui gravemente o espaço digital.

Indubitavelmente, as redes sociais entraram numa nova era. Uma era onde distinguir real de falso torna-se progressivamente mais difícil. Onde o engajamento importa mais que a autenticidade. Onde algoritmos optimizados para manter atenção podem inadvertidamente promover exactamente o tipo de conteúdo que degrada a experiência.

Consequentemente, para os utilizadores, resta uma escolha. Aceitar passivamente esta nova realidade. Ou, alternativamente, resistir activamente, exigindo autenticidade e responsabilidade das plataformas que dominam o nosso panorama informacional.

Finalmente, a questão permanece em aberto: que tipo de internet queremos habitar?

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo