Timnit Gebru, Fundadora e Diretora Executiva do Distributed Artificial Intelligence Research Institute (DAIR), foi convidada pelo ciclo de conversa Os Dados & Nós para refletir sobre a ética da inteligência artificial e sobre como podemos responsabilizar os gigantes tecnológicos.
A investigadora começou por referir um tweet da jornalista e cientista de dados Karen Hao, que refere que empresas como a Google e a Microsoft têm um monopólio tão gigantesco sobre o mundo das tecnologias que isso lhes permite decidir de forma individual que tipo de problemas querem que os seus modelos examinem. Isto, diz-nos Gebru, não torna o mundo um lugar mais justo, pelo contrário. Por essa razão, Timnit fundou um instituto de investigação de pequena escala com o objetivo de ajudar pessoas e dar retorno às comunidades.
Para Gebru, quer falemos de plataformas de redes sociais ou grandes sistemas de aprendizagem, a pressa de construir sistemas de inteligência artificial (IA) faz parte da crença de que a automatização garante às empresas muito dinheiro. No entanto, a maioria destas empresas explora os seus trabalhadores, muitos deles no continente africano. Tudo isto porque não existe uma verdadeira automatização, mas sim exércitos de pessoas que trabalham com dados para facilitar esta automatização. Assim, aumentar a consciência global para as condições de trabalho garantidas pelos gigantes tecnológicos permite mitigar alguns dos danos e promover uma verdadeira ética da inteligência artificial.
O artigo Facebook’s African Sweatshop Inside Facebook’s African Sweatshop de Billy Perrigo, publicado na revista Time e citado por Gebru, relata o caso de uma empresa de classificação de dados chamada Sama, uma das muitas empresas subcontratadas pelas gigantes tecnológicos como a Google, o Facebook e a Amazon, e que emprega sobretudo pessoas que residem em comunidades vulneráveis e não têm outras oportunidades de trabalho. A automatização requer aprendizagem e esta é suportada por pessoas que identificam e classificam todo o tipo de dados, por exemplo, vídeos violentos ou imagens gráficas. A maioria destes trabalhadores sofre de stress pós-traumático não só pelo conteúdo dos dados mas também pela velocidade que lhes é imposta – apenas uns segundos para classificar cada pacote de dados.
Tendo em conta a quantidade de dados existentes são necessárias milhares de pessoas para os tratar e moderar, sujeitas a salários e condições laborais bastante precárias. Para Timnit Gebru é necessário um novo paradigma que crie ferramentas que realmente nos ajudem. Esse tem sido o seu trabalho e o do instituto que fundou, o Distributed Artificial Intelligence Research Institute (DAIR).
Gebru explica que o ponto de partido do DAIR é a escolha de casos e objetos de estudo onde haja possibilidade de ter um efeito positivos. Por exemplo, o caso dos Maori, um povo colonizado na Nova Zelândia que viu a sua língua foi proibida durante mais de um século o que fez com que esta se tornasse cada vez menos falada. Para a preservar, uma estação de rádio sem fins lucrativos, a Te Hiku Media, decidiu gravar 300 horas de áudio e transcrevê-lo através de ferramentas tecnológicas linguísticas para criar uma base de dados que permita a tradução de/para Maori. Após a criação desta ferramenta, que contou com a colaboração da comunidade, receberam uma proposta para vender estes dados a uma empresa americana chamada Lionbridge. A recusa desta proposta foi divulgada nos meios de comunicação defendendo que esta era a língua de um povo e que a venda destes dados seria a fronteira final da colonização.
Outro dos exemplos apresentados na sessão por Gebru foi o de Ernest Mwebaze e da sua equipa que criaram uma aplicação que ajuda os agricultores a identificar e diagnosticar vírus e doenças na cassava, a segunda maior fonte de carboidratos em África. O último exemplo foi o do projeto liderado por Raesetja Sefala que analisa os impactos do apartheid no território através de técnicas de visão computacional que utilizam imagens de satélite e permitem observar a separação entre os bairros e os subúrbios. Através destas imagens a equipa tem recolhido e catalogado dados que permitem identificar terrenos vazios, bairros ricos e bairros pobres e as alterações que acontecem nestes ao longo dos anos, algo que não é possível através dos censos. Ambos projetos estudam temas que não são contemplados pelos Big Tech não só porque não há lucros – são projetos que beneficiam comunidades pobres – mas também porque requerem muita mão de obra e anos de análise e categorização de dados. Este tipo de projeto, reitera Gebru, não são fruto de mecanismos automatizados e desmentem a fábula da magia dos algoritmos, sendo produto do trabalho de milhares de pessoas que os recolhem, categorizam, estudam e interpretam.
Para Timnit Gebru trabalhar com os dados requer uma responsabilidade ética que para ser cumprida precisa de tempo. Isto não se coaduna com o imperativo de catalogar dados ou ensinar máquinas em segundos, como é exigido pelos gigantes tecnológicos; nem com a exigência de publicações imediatas e generalizadas tal como é rotineiro na academia. A IA para ser ética requer cuidado na escolha de problemas, requer tempo no tratamento dos dados, requer responsabilidade na sua aplicação e implementação.