Por Luiz Sérgio Canário (*)

No documentário Coded Bias, Preconceito Codificado em uma tradução livre, a pesquisadora Joy Buolamwini, do MIT, uma mulher negra, percebe que um software de reconhecimento facial não reconhece seu rosto como a imagem de uma pessoa. Ao colocar uma máscara branca, dessas que imitam um rosto sem nenhuma feição, o software reconhece ser um rosto, naturalmente sem identificação. Como o título do livro de Frantz Fanon: Pele Negra, Máscara Branca. O rosto com a pele negra da pesquisadora não é identificado como uma pessoa. A máscara branca é. No desenrolar do documentário há a informação de que isso acontece com um percentual alto de pessoas negras, especialmente mulheres. O mais alto percentual de acerto é com homens brancos. O preconceito, ou melhor o racismo, estava codificado no algoritmo de reconhecimento, que usa dados massivos, ou big data, e nos dados utilizados.

Uma busca na internet nos dá duas definições para a palavra algoritmo:

  • Na matemática: sequência finita de regras, raciocínios ou operações que, aplicada a um número finito de dados, permite solucionar classes semelhantes de problemas.
  • Na informática: conjunto das regras e procedimentos lógicos perfeitamente definidos que levam à solução de um problema em um número finito de etapas.

Em referência grosseira, um algoritmo é como uma receita de bolo. Uma sequência finita de instruções que no final, se tudo correr bem, resulta em um bolo pronto. Se é bom ou ruim temos que comer para saber.

No que pese o sentido quase místico que damos hoje a palavra, ela se aplica desde a coisas muito simples de nosso dia a dia a complexos algoritmos matemáticos ou computacionais. De uma receita de bolo até identificar comportamentos complexos das pessoas em uma rede social. E nos dois casos a eficiência do algoritmo depende do nível de detalhamento dele e, do mais importante, de quem faz. A mesma receita de bolo pode gerar um bolo delicioso, nas mãos de alguém com habilidade, ou em um desastre nas mãos de quem nunca chegou perto de um forno. Da mesma forma uma receita imprecisa ou incompleta leva a um bolo que não se sabe como será, mesmo nas mãos mais habilidosas.

Algoritmos são tão antigos que a palavra faz referência a um matemático árabe do século IX, Al Khowarizmi, que registrou regras para a resolução de equações matemáticas. As suas aplicações em computação são tão antigas quanto os computadores. Aplicações para shippar casais datam de 1959 em um projeto na Universidade de Stanford, nos EUA, que shippou 49 homens e 49 mulheres. A primeira aplicação web para esse fim é de 1995, em um site na África do Sul. Um dos maiores do mundo hoje, o PlentyOfFish, é de 2003.

Ao contrário do que indústria de TI, especialmente as maiores, conhecidas como big techs (Google, Uber, Facebook, Amazon, Apple, Microsoft. etc.), querem fazer que acreditemos, os algoritmos, nenhum deles, são neutros, impessoais e trabalham sem a interferência humana. Isso não é verdade com nenhum deles e em nenhum sentido. Primeiro por serem projetados e construídos por pessoas não são naturais e dotados de nenhum tipo de capacidade natural intrínseca. Segundo por serem produzidos com interesses comerciais específicos. E por fim por estarem concebidos e operando em uma sociedade dividida em classes e, por consequência, não estarem imunes as lutas em diversos planos entre essas classes.

E não é somente a intervenção pesada desses algoritmos em nossas relações pessoas e sociais que precisamos entender muito bem. A intervenção desses algoritmos no mundo do trabalho, por exemplo, é ainda mais perigosa e preocupante. Os aplicativos de entrega de refeições, que intermediam a relação entre restaurantes e consumidores, estão subvertendo as relações de trabalho. Como negócio esses aplicativos intermediam a relação entre os restaurantes e os consumidores, que têm acesso a milhares de cardápios para escolher o comer. É um serviço de fato útil, especialmente nesses tempos de pandemia. Mas há um elemento fundamental nesse modelo: os entregadores. Sem um batalhão de entregadores à disposição não há negócio.

A comida pedida tem chegar o mais rápido possível e nas melhores condições na casa de quem pediu. E a relação entre o iFood, por exemplo, e os entregadores é intermediada por um todo poderoso algoritmo. A rigor a decisão de qual entregador deveria ser chamado para a entrega deveria ser tomada de forma neutra por um algoritmo que avaliasse condições objetivas. Mas não é assim. A empresa distribui as entregas de forma insondável, mas não neutra. Cabe somente a ela, sem nenhuma possibilidade de recurso ou de verificação, que entregador será chamado. Isso mantem todos os entregadores na expectativa de serem chamados a qualquer hora. Não atender a um chamado pode significar a redução na quantidade de entregas dirigida a ele.

Esse poder da empresa, exercido através do algoritmo, está fora de qualquer esfera regulatória. E está criando um modelo de uso da força de trabalho just in time, em que o trabalhador está cem por cento do tempo disponível, sem nenhuma jornada de trabalho acordada, mas ganha somente quando é chamado pelo algoritmo. E sem nenhuma obrigação social do “empregador”, que foge dessa qualificação, se dizendo em uma relação contratual entre iguais. A mão de obra, que antes era paga pelo tempo que estivesse disponível para o empregador, agora é paga somente pelo tempo que efetivamente é usada, como uma máquina que é ligada ou desligada conforme as necessidades da produção. E há inúmeros projetos no congresso que ao invés de banir essa prática injusta procura legalizá-la e torná-la extensível a todas as relações de trabalho.

Definitivamente o controle dos algoritmos sobre as nossas vidas vai muito além de criar bolhas de comunicação entre as pessoas nas redes sociais ou de nos oferecer para comprar todo tipo de produtos. Eles estão em várias atividades e serviços que usamos cotidianamente. Controlando funções em aviões e nos carros autônomos, sem motoristas, em diagnósticos médicos, no mercado financeiro tomando decisões de compra e venda de ativos com velocidades acima da capacidade humana, jogando xadrez ou Go. Mas certamente é naquilo que afeta a nossa vida social, as relações entre humanos e as interferências nas atividades produtivas que seus efeitos precisam da atenção da sociedade.

Os algoritmos não podem ser caixas pretas onde somente as empresas que desenvolveram e operam sabem como funcionam. O poder dessas empresas é absoluto. Quando o Facebook decide que postagens e de quem qualquer um de nós pode ver, e não temos como sociedade como saber que critérios são usados, ou quando o iFood decide qual restaurante ele mostra primeiro e para que entregador é passado um chamado, essas empresas estão tomando decisões que afetam as nossas vidas. Que interferem inclusive nas relações de trabalho, além das relações pessoais. Esses algoritmos todos devem estar abertos para que a sociedade saiba que tipos de ações estão sendo tomadas por máquinas que são programadas para não serem neutras, em que as decisões tomadas são guiadas por Coded Bias, os Preconceitos Codificados, presentes em todos eles, como demonstra o documentário citado na abertura desse texto.

As big techs, e até mesmo as nem tão bigs assim, criaram negócios de muitos bilhões que pairam acima do poder de intervenção e regulação dos Estados Nacionais. Todos esses algoritmos precisam ser abertos, analisados e fiscalizados.

(*) Luiz Sérgio Canário é militante petista em São Paulo-SP


(**) Textos assinados não refletem, necessariamente, a opinião da tendência Articulação de Esquerda ou do Página 13.

 

Comente!