E lá vamos nós de novo tratar de fake news. Mas, indo direto ao meu ponto, acredito que haja uma perigosa distorção no importante debate público sobre o uso das redes sociais para disseminar desinformação, violência e medo.
Mesmo como defensor incansável da liberdade de expressão e com profunda ojeriza à simples ideia de censura, concordo que precisamos sim de limites aos conteúdos das plataformas digitais. Em especial considerando que é um espaço público e basicamente sem limites de idade ou maturidade.
Este conceito, inclusive, é aceito e adotado até mesmo por empresas de tecnologia responsáveis por estas plataformas. Não é por outro motivo que todas contam com limites claros do que pode ou não ser postado. Em geral, conteúdos “adultos” ou excessivamente violentos são proibidos até no Twitter (quer dizer, isso se até este texto ser publicado os caras que se divertem enviando emojis escatológicos para a imprensa não tiverem liberado geral).
Assim, considero oportuna a discussão sobre uma abrangência maior destes limites, considerando a divulgação de fake news e a apologia ao crime, além de considerar a responsabilidade das plataformas quanto a estes conteúdos. Claro que se trata de um debate árduo e que não será superado com soluções simplistas – exemplo: para um ateu, a criação do mundo como descrito no Gênesis pode ser considerada fake news?
Mas, se eu concordo com tudo, qual exatamente é o meu problema, você estará se perguntando. Pois bem, são os algoritmos. Como todos que usam as redes para promover conteúdo (profissionalmente ou não), percebi nos últimos anos como as próprias plataformas assumiram o papel de decidir quais as postagens orgânicas que serão promovidas de forma massiva e quais morrerão no limbo digital. Com a premissa de “nos ajudar” a selecionar o que mais se alinha a meus interesses, elas criaram uma “curadoria” do que aparece no meu feed. E é o tal do algoritmo que faz isso.
E quanto mais estes algoritmos evoluíram, mais eles passaram a privilegiar as grandes polêmicas, a “lacração”, os discursos de ódio, as teorias de conspiração e por aí vai. Pois, tristemente, é esta linha de conteúdo que gera mais engajamento. Em sua excelente entrevista para Walter Porto, publicada na edição de 16 de abril, na Folha de S.Paulo, o também jornalista e especialista em tecnologia Max Fisher alerta para esse ponto.
Em resumo Fisher indica que os estudiosos norte-americanos consideram que o foco deve estar não mais na moderação do “conteúdo danoso” – que seria difícil e, pior, de baixo efeito – e sim na forma como este material é promovido nas redes. Ou seja, no algoritmo. O colega vai além: “As empresas odeiam essa abordagem. Preferem falar em moderação (...). Essa mudança (no algoritmo) os assusta porque vai ao coração do modelo de negócios.”
Ou seja, usando uma também batida analogia com a medicina, ao focar no conteúdo, e não na sua distribuição, sociedade, governo, Justiça e afins agem como o médico que tenta cuidar dos sintomas sem olhar a sua origem. O risco é a doença permanecer e voltar mais forte. Espero que possamos rapidamente mudar essa abordagem e passar a tratar tanto do efeito quanto da causa.
Comments