O Twitter chamou a atenção da mídia ao anunciar a abertura do código-fonte de seu algoritmo de recomendações.
Embora a iniciativa de liberar o código-fonte de um algoritmo possa ser vista como positiva pela comunidade tecnológica, no caso do Twitter, parece não estar alinhada com o compromisso real da empresa com a transparência e prestação de contas.
No último mês, a rede social silenciosamente encerrou a versão gratuita de sua API, uma ferramenta na qual pesquisadores em todo o mundo confiavam há anos para realizar estudos sobre conteúdo prejudicial, desinformação, saúde pública, monitoramento eleitoral, comportamento político e muito mais.
A nova ferramenta que está substituindo a anterior custará aos pesquisadores e desenvolvedores entre $42.000 e $210.000 por mês para utilizá-la. A decisão do Twitter chamou a atenção de legisladores e organizações da sociedade civil, que a condenaram.
Para especialistas em tecnologia e transparência, a abertura do código-fonte do algoritmo de recomendações do Twitter parece mais uma distração do que uma tentativa genuína de aumentar a transparência da plataforma.
O TikTok já havia usado a mesma estratégia no ano passado, ao anunciar a abertura de seus “Centros de Transparência” físicos, supostamente criados para permitir que especialistas examinassem e verificassem as práticas da plataforma.
Para realmente tornar o algoritmo transparente e escrutinável, o Twitter deveria criar ferramentas que simulassem as saídas de um sistema algorítmico baseado em uma série de entradas. Isso permitiria aos pesquisadores realizar experimentos controlados para testar como os sistemas de recomendação classificariam o conteúdo real. Essas ferramentas deveriam estar disponíveis para pesquisadores que trabalham no interesse público por um custo mínimo ou nenhum.
Felizmente, a Lei de Serviços Digitais da Europa, que entrará em vigor neste verão para plataformas on-line muito grandes, exigirá que as plataformas realizem auditorias de terceiros em seus algoritmos para garantir que não estejam colocando as pessoas em risco. Os dados necessários para essas auditorias vão muito além do que o Twitter, o TikTok ou qualquer outra plataforma fornece atualmente.