NEGÓCIOS
Ódio a judeus coloca em xeque negócio bilionário do Facebook
Ele permitiu oferecer propaganda para consumidores antissemitas.
Em 24/09/2017 Referência CORREIO CAPIXABA - Redação Multimídia
Se os algorítimos do Facebook fossem executivos, o público estaria pedindo suas cabeças neste momento, tal foi a incompetência demonstrada nesta semana.
Primeiro, a empresa admitiu uma falha no seu algorítimo de publicidade - a fórmula com as regras que regem o sistema. Ele permitiu oferecer propaganda para consumidores antissemitas.
Então, na quinta-feira, Mark Zuckerberg, seu fundador e presidente, disse que estava entregando a investigadores americanos informações sobre 3 mil anúncios de conteúdo político comprados por grupos com ligações com o governo da Rússia.
Eles foram identificados em uma investigação interna e exibidos ao público americano por um período de dois anos, até maio de 2017. Não apoiavam uma figura específica. Em vez disso, tratavam de assuntos como imigração, raça e igualdade de direitos.
Uma conduta indevida, você pode dizer - mas não dá para demitir um algorítimo. Além disso, ele estava apenas cumprindo ordens. "Os algorítimos estão fazendo exatamente o que foram criados para fazer", diz Siva Vaidhyanathan, professor de Estudos de Mídia da Universidade da Virgínia, nos Estados Unidos.
É isso que torna essa crise tão difícil de resolver - uma crise que atinge diretamente o núcleo do negócio da maior rede social do mundo.
Inerentemente falho
O Facebook não construiu seu enorme serviço de publicidade obtendo contratos com grandes empresas. Seu sucesso está nos negócios menores: o florista que deseja entrar em contato com os adolescentes que estão organizado a festa de formatura, ou o encanador que acabou de se mudar para uma nova área e precisa anunciar seu trabalho.
Seu incrível lucro de US$ 3,9 bilhões (R$ 12,2 bilhões) entre abril e junho deste ano são por causa de um processo automatizado. Ele identifica o que o usuário quer, encontra anunciantes que desejam atender esse interesse, coloca os dois em contato e leva sua parte por isso. Nenhum humano é necessário no processo.
Mas, infelizmente, a falta de supervisão deixou a companhia vulnerável ao tipo de abuso que a investigação da ProPublica mostrou sobre os anúncios antissemitas. A agência de notícias mostrou que anunciantes podiam escolher falar com 2,3 mil pessoas que expressavam interesse em tópicos como "ódio aos judeus", "como queimar judeus" ou "história de 'por que os judeus arruínam o mundo'".
"O algorítimo do Facebook criou as categorias antisemitas. É um sinal de quão absurdo um sistema sem a participação de humanos pode ser, e como isso pode ser perigoso", diz Vaidhyanathan, que é autor de "Anti-Social Network" ("Anti-Rede Social"), um livro sobre o Facebook previsto para ser publicado até o fim deste ano.
Esse sistema vai se tornar um pouco menos automatizado no futuro, explicou Zuckerberg em um comunicado de nove minutos. Visivelmente desconfortável, ele veio a público dizer que sua empresa incluirá humanos no processo para prevenir abusos políticos da plataforma e identificará claramente campanhas políticas e seus financiadores.
No dia anterior, o diretor de operações do Facebook já havia declarado que mais pessoas estariam dedicadas a resolver a questão antissemita. "Mas o Facebook não é capaz de contratar pessoas suficiente para vender anúncios para outras pessoas em uma escala assim", argumenta Vaidhyanathan. "É a própria ideia do Facebook que é o problema."
'Ideia maluca'
Mark Zuckerberg está em águas nunca antes navegadas. Como o "líder" (como ele diz às vezes) da maior comunidade já criada, ele não tem a quem pedir conselhos ou onde buscar precedentes;.
Isso ficou evidente em 10 de novembro, o dia após que Donald Trump foi eleito presidente dos Estados Unidos. Quando questionado se as notícias falsas tinham afetado a votação, Zuckerberg rapidamente negou a hipótese e a considerou uma "ideia maluca".
Essa frase acabou se provando a maior trapalhada dele como presidente do Facebook.
Sua inocência sobre o poder de sua empresa gerou uma grande reação negativa - interna e externamente - e uma investigação sobre o impacto das notícias falsas e outros abusos digitais foi criada.
Na quinta-feira, o executivo de 33 anos se encontrava ele próprio admitindo não apenas um abuso com efeitos sobre a eleição, sem ter feito muita coisa para impedir que isso ocorresse.
"Gostaria de dizer a vocês que vamos acabar com todo tipo de interferência, mas isso não é realista. Sempre haverá pessoas ruins no mundo, e não podemos nos precaver de todas as interferências de todos os governos do mundo", disse.
Uma reviravolta na sua posição em dez meses. "Parece que ele está basicamente admitindo que não tem controle sobre o sistema que construiu", afirma Vaidhyanathan.
Lobos na porta
Essa não é a primeira vez que a confiança depositada pelo Facebook nas máquinas o deixou em maus lençóis - e seria injusto dizer que esse problema só da empresa de Zuckerberg.
Na última semana, por exemplo, uma investigação da emissora Channel Four revelou que o algorítimo da Amazon era capaz de sugerir os componentes para fazer uma bomba caseira com base no que outros consumidores haviam comprado.
Exemplos assim e casos como a propagação de vídeos de conteúdo extremista no YouTube - algo que o Google promoteu combater - motram que a tensão política está fazendo os algorítimos fugirem de controle.
Ao menos dois senadores americanos estão anunciando seu apoio a uma nova lei que forçaria redes sociais com mais de 1 milhão de membros a seguir um código de conduta sobre publicidade.
O discurso de Zuckerberg na quinta-feira e sua promessa de fazer melhor são vistos como uma forma de manter os lobos da regulamentação na porta. Ele e todos os outros presidentes de empresas de tecnologia preferem lidar com o problema do seu próprio jeito.
Mas eles podem não ter esse luxo, alerta Vaidhyanathan: "Todos esses problemas são resultado do fato de Zuckerberg ter criado e lucrado com um sistema que cresceu a ponto de englobar o mundo e colher informação de mais de 2 bilhões de pessoas."