Tarleton Gillespie é Investigador Principal na Microsoft Research, New England e Professor Associado Afiliado no Department of Communication da Cornell University, EUA. Concluiu o seu mestrado (1997) e doutoramento (2002) em Comunicação pela University of California, San Diego. A sua investigação centra-se nas relações controversas dos meios digitais e seus fornecedores. O seu livro mais recente intitula-se Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions that Shape Social Media (Yale 2018).
O debate público sobre a moderação de conteúdos tem-se concentrado na remoção: plataformas de meios de comunicação social eliminam conteúdos e suspendem utilizadores, ou optam por não o fazer. Mas a remoção não é o único remédio disponível. A redução da visibilidade dos conteúdos problemáticos está a tornar-se uma parte comum da governação das plataformas. Estas plataformas utilizam classificadores de aprendizagem automática para identificar conteúdos suficientemente enganadores, prejudiciais e ofensivos que, embora não justifiquem a remoção de acordo com as directrizes do sítio, justificam a redução da sua visibilidade através da sua desmobilização em classificações e recomendações algorítmicas, ou a sua exclusão total. Esta conversa reflete sobre esta mudança e explica como funciona a redução.