Tarleton Gillespie, Microsoft Research e Cornell University (EUA)


Moderação: Paulo Nuno Vicente (NOVA FCSH, ICNOVA)





Tarleton Gillespie, Investigador Principal na Microsoft e Professor Associado Afiliado no Departamento de Comunicação da Cornell University, foi convidado pelo ciclo de conversa Os Dados & Nós para responder à questão: que estratégias usam as redes sociais para moderar conteúdos e com que implicações?

A moderação de conteúdos tem estado no centro do debate público com foco na remoção de conteúdos e suspensão de utilizadores, muitas vezes pensada como única solução. Nos últimos anos a redução de visibilidade de conteúdos problemáticos está a tornar-se comum e é feita através de classificadores de aprendizagem automática que conseguem identificar conteúdos prejudiciais e ofensivos que não justificam a remoção permanente mas sim a redução da sua visibilidade.

Tarleton Gillespie começa por pensar na moderação de conteúdos como um problema social, mais do que como um problema das plataformas. Para Tarleton, pensar na moderação de conteúdos é também pensar como as plataformas funcionam, como se posicionam na sociedade e como os intermediários de informação decretam e alteram normas culturais controversas através da sua conceção e das suas políticas. O investigador considera necessário explicar-se como justificam as plataformas a sua intervenção e tentam ao mesmo tempo passar a mensagem de que essa intervenção não existe.


Nos últimos anos, a imprensa europeia e os líderes políticos europeus têm investigado como podem garantir que as grandes redes sociais como o Facebook, o Twitter e o Youtube moderam conteúdos de uma forma justa e responsável ao mesmo tempo que respondem a problemas sociais delicados como o discurso de ódio, o assédio e o terrorismo. Todos estes fatores geram um debate em torno do fornecimento e da organização da informação: afinal quem gere os dados que circulam? As plataformas, os públicos ou os governos?

Em 2019, após reconhecer o aumento do discurso de ódio, o Facebook formou uma equipa de resposta estratégica com o objetivo de gerir as intervenções violentas por motivos raciais, no entanto, as questões da moderação de conteúdos pelas plataformas têm sido sujeitas a debates politizados onde é questionada a liberdade de expressão e comparada a moderação à censura.

Surgem assim novas formas de moderação que consistem em estratégias distintas da remoção, como a recomendação. Tarleton Gillespie explica que enquanto a moderação está relacionada com aquilo que não se vai mostrar, geralmente associada a conteúdos que podem originar danos, a recomendação é o contrário, trata-se daquilo que se quer enfatizar, fazendo chegar aos públicos aquilo que eles mais gostam.

A recomendação permite que as grandes plataformas cumpram o seu objetivo comum: tornar os conteúdos virais para que possam ser partilhados o maior número de vezes possível. Então quando é que a recomendação pode ser utilizada como moderação? Segundo Tarleton Gillespie, quando os conteúdos não são considerados perigosos o suficiente para serem removidos, as plataformas reduzem a visibilidade dos mesmos. Só que esta redução gera dúvidas aos criadores de conteúdo que não conseguem obter dados que comprovem que isto acontece.

O investigador explica que reduzir conteúdos significa retirar algo por recomendação, ou seja, os conteúdos continuam a existir no arquivo e podemos aceder-lhes através de links ou se seguirmos os seus criadores. No entanto, eles não aparecem nas listas de recomendação nem através das pesquisas por hashtag.

Estas plataformas pensam na recomendação como uma ferramenta de moderação mas também como uma forma de melhorar a qualidade dos conteúdos que agregam. Para Tarleton Gillespie, no entanto, estas precisam de assumir uma posição mais transparente sobre os conteúdos que retiram e reduzem e que tipo de processos e escolhas estão associados a estas ações. Uma das propostas do investigador é o envio de uma indicação aos criadores a informar que o seu conteúdo foi retirado ou reduzido por determinado motivo.

Até hoje ainda não é claro o que acontece aos conteúdos quando são sujeitos a esta moderação e isto é algo que tem causado transtorno em alguns grupos de utilizadores, como por exemplo, a comunidade LGBTQ que nos últimos tempos tem tentado documentar que os seus conteúdos estão a ser reduzidos, sem acesso a dados que o comprovem.

As perspetivas futuras indicam que a redução vai ser utilizada cada vez mais para moderar em detrimento de outras técnicas como o controlo de qualidade que, segundo Tarleton Guillespie, podem ter efeitos moderados. O investigador afirma que cometemos um erro ao pensarmos nas plataformas apenas como arquivos onde os conteúdos vivem, é também necessário pensar que elas ajustam e influenciam a circulação de informação, já que elas amplificam e limitam quer o façam por técnicas de moderação ou apenas em prol do entretenimento e qualidade. Todos estes pontos deixam espaço para uma reflexão: tendo em conta a importância que as plataformas dão à moderação de conteúdo, como é que a sua utilização molda aquilo que vemos?