Eli Pariser*
Era uma vez, reza a história, uma época em que vivíamos numa sociedade radiodifundida. Naqueles tempos ancestrais pré-internet, as ferramentas para compartilhar informação não eram amplamente disponíveis. Quem quisesse partilhar seus pensamentos com as massas, tinha de possuir uma impressora ou um naco das ondas aéreas, ou ter acesso a alguém que o tivesse. No controle do fluxo de informação estava uma classe de elite de editores, produtores e magnatas da mídia que decidia o que as pessoas veriam e ouviriam sobre o mundo. Eles eram os "guardiães".
Aí veio a internet, que tornou possível a comunicação com milhões de pessoas com pouco ou nenhum custo. De repente, alguém com uma conexão de internet podia partilhar ideias com o mundo inteiro. Uma nova era de mídia noticiosa democratizada despontou.
O leitor pode ter ouvido essa história antes - talvez do blogueiro conservador Glenn Reynolds (blogar é "tecnologia solapando os "guardiães"") ou o blogueiro progressista Markos Moulitsas (seu livro se intitula Crashing the Gate, "Esmagando o portal", em tradução livre).
É uma bela história sobre o poder revolucionário do meio e, na qualidade de um antigo praticante da política online, eu a contei para descrever o que fizemos na MoveOn.org. Mas estou cada vez mais convencido de que escolhemos a conclusão errada - talvez perigosamente errada. Há um novo grupo de "guardiães" por aí e, desta vez, eles não são pessoas, são códigos.
Os gigantes de internet de hoje - Google, Facebook, Yahoo e Microsoft - veem o crescimento notável de informações disponíveis como uma oportunidade. Se puderem oferecer serviços que vasculhem esses dados e nos forneçam os resultados pessoalmente mais relevantes e atraentes, eles conseguirão a maioria dos usuários e a maioria das visitas a anúncios. Por conseguinte, eles estão correndo para oferecer filtros especializados que nos mostram a internet que acham que devemos ver.
Esses filtros, aliás, controlam e limitam a informação que chega a nossas telas.
Por enquanto, estamos familiarizados com anúncios que nos perseguem online com base em nossas conexões recentes em sites comerciais. Mas, cada vez mais e de maneira quase invisível, nossa busca por informação está sendo personalizadas também. Duas pessoas que fazem uma busca com a palavra "Egypt" no Google podem receber resultados significativamente diferentes, com base em suas conexões passadas. Mas o Yahoo News e o Google News fizeram ajustes em suas home pages para cada visitante individual. E, no mês passado, essa tecnologia começou a fazer incursões nos sites de jornais como The Washington Post e The New York Times.
Tudo isso é bastante inofensivo quando a informação sobre produtos de consumo é filtrada para dentro e para fora de seu universo pessoal. Mas quando a personalização afeta não só o que se compra, mas como se pensa, surgem questões diferentes. A democracia depende da capacidade do cidadão de deparar-se com múltiplos pontos de vista; a internet limita essa possibilidade quando oferece somente informações que refletem seu ponto de vista já estabelecido. Embora às vezes seja conveniente ver-se apenas o que se quer ver, é decisivo que em outros momentos se vejam coisas que não se costumam ver.
Como os velhos "guardiães", os engenheiros que escrevem o novo código do portal têm o enorme poder de determinar o que sabemos sobre o mundo.
Mas, diferentemente, dos velhos "guardiães", eles não se veem como "guardiães" da confiança pública. Não há algoritmo equivalente à ética jornalística. Mark Zuckerberg, o presidente executivo do Facebook, certa vez disse a colegas que "um esquilo morrendo no seu jardim pode ser mais relevante para seus interesses agora do que pessoas morrendo na África". No Facebook, "relevância" é virtualmente o único critério que determina o que os usuários veem. Fechar o foco nas notícias mais relevantes pessoalmente - o esquilo - é uma grande estratégia de negócios. Mas nos deixa olhando para o jardim em vez de nos informar sobre sofrimento, genocídio e revolução.
Não há volta atrás ao velho sistema dos "guardiães", nem deveria haver.
Mas se os algoritmos estão assumindo a função de editar e determinar o que vemos, precisamos ter certeza de que eles pesam variáveis além de uma "relevância" estreita. Eles precisam nos mostrar Afeganistão e Líbia além de Apple e Kanye West.
As companhias que fazem uso desses algoritmos precisam assumir essa responsabilidade salutar com muito mais seriedade do que fizeram até agora. Precisam nos dar o controle sobre o que vemos - deixando claro quando estão personalizando e nos permitindo moldar e ajustar nossos próprios filtros. Nós, cidadãos, também precisamos preservar nosso fim - desenvolvendo a "literatura de filtro" necessária para usar bem essas ferramentas e cobrando conteúdo que amplie nossos horizontes, mesmo quando isso for desconfortável.
É do nosso interesse coletivo assegurar que a internet se coloque à altura de seu potencial como um meio de conexão revolucionário. Isso não ocorrerá se formos confinados em nossos próprios mundos online personalizados. /
*É PRESIDENTE DO CONSELHO DA MOVEON.ORG, É O AUTOR DE "THE FILTER BUBBLE: WHAT THE INTERNET IS HIDING FROM YOU"
**Artigo publicado no Jornal The New York Times - TRADUÇÃO DE CELSO PACIORNIK
Nenhum comentário:
Postar um comentário