No Facebook, emoji de raiva valia mais que curtida e ajudou a espalhar conteúdo tóxico - Link - Estadão

Como a matemática da rede social promoveu ódio e desinformação

27/10/2021 18:55:00

No Facebook, emoji de raiva valia mais que curtida e ajudou a espalhar conteúdo tóxico -via EstadaoLink

Como a matemática da rede social promoveu ódio e desinformação

 deu a seus usuários cinco novas maneiras de reagir a uma postagem em seu feed de notícias, além do famoso “joinha” para curtir: “amei”, “haha”, “uau”, “triste” e “grr”.Nos bastidores, o Facebook programou o algoritmo que decide o que as pessoas veem em seus feeds de notícias para usar as reações com emojis de reação como indicações para empurrar mais conteúdo comovente e provocador - inclusive aquilo que poderia deixá-las irritadas. Desde 2017, o algoritmo de classificação do Facebook trata as reações com emojis como cinco vezes mais relevantes do que “curtidas”, revelam os documentos internos. A teoria era simples: postagens que provocavam muitas reações com emojis tendiam a manter os usuários mais engajados, e fazer isso era fundamental para os negócios do Facebook.

Thales Bretas, marido de Paulo Gustavo, joga cinzas do humorista em parque em Nova York Moro diz acreditar na liderança do seu projeto eleitoral e põe em cheque polarização Lula-Bolsonaro - Política - Estadão Por que lembrar mal de algumas coisas pode significar uma boa memória - BBC News Brasil

Os próprios pesquisadores do Facebook foram rápidos em suspeitar de uma falha grave. Favorecer postagens “polêmicas” - inclusive aquelas que irritam os usuários - poderia abrir “a porta para mais abuso de spam e material caça-cliques involuntariamente “, escreveu um funcionário, cujo nome foi apagado, em um dos documentos internos. Um colega respondeu: “É possível”.

O aviso mostrou-se profético. Os cientistas de dados da empresa confirmaram em 2019 que as postagens que provocavam uma reação com o emoji de raiva tinham uma probabilidade desproporcional de conter informações falsas, toxicidade e informações duvidosas. headtopics.com

Isso significa que, durante três anos, o Facebook amplificou sistematicamente a pior parte de sua plataforma, dando-lhe destaque nos feeds dos usuários e espalhando isso para um público muito maior. O poder da promoção algorítmica minou os esforços dos moderadores de conteúdo do Facebook e das equipes de integridade, que estavam travando uma batalha árdua contra o conteúdo tóxico e prejudicial.

O debate interno a respeito do emoji  de raiva e as descobertas em relação aos seus efeitos lançam luz sobre os julgamentos humanos altamente subjetivos que fundamentam o algoritmo do feed de notícias do Facebook - o complicado software de aprendizado de máquina que decide para bilhões de pessoas quais tipos de postagens elas verão toda vez que abrirem o aplicativo. As deliberações foram reveladas no material entregue à Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) e apresentadas ao Congresso de forma redigida pelo advogado da ex-funcionária que denunciou a empresa,  

. As versões editadas foram verificadas por um consórcio de veículos de comunicação, entre eles oWashington Post.“Raiva e ódio são a maneira mais fácil de crescer no Facebook”, disse Frances ao Parlamento britânico na segunda-feira.

Em vários casos, os documentos mostram funcionários das equipes de “integridade” do Facebook chamando a atenção para os custos humanos de elementos específicos do sistema de classificação - avisos que os executivos às vezes deram ouvidos e outras tantas, aparentemente, deixaram de lado. Os funcionários avaliaram e debateram a importância da raiva na sociedade: a raiva é uma “emoção humana básica”, escreveu um funcionário, enquanto outro apontou que as postagens que causavam raiva talvez fossem essenciais para protestar contra os regimes corruptos. headtopics.com

General Heleno autoriza projetos de garimpo em área mais preservada da Amazônia O presidente não gosta de trabalhar - ISTOÉ Independente Moro adere à tradição do presidenciável com chapéu nordestino - Política - Estadão

Um algoritmo como o do Facebook, que depende de técnicas sofisticadas e pouco transparentes de aprendizado de máquina para gerar suas previsões de engajamento, “pode parecer misterioso e ameaçador”, disse Noah Giansiracusa, professor de matemática da Universidade Bentley, em Massachusetts, e autor do livro “How Algorithms Create and Prevent Fake News” (Como os algoritmos criam e evitam notícias falsas, em tradução livre). “Mas, no fim das contas, há um número que é previsto - um resultado. E um humano está decidindo qual é esse número.”

Dani Lever, porta-voz do Facebook, disse: “Continuamos a trabalhar para entender qual conteúdo cria experiências negativas, para que possamos reduzir sua divulgação. Isso inclui conteúdo com uma quantidade desproporcional de reações de raiva, por exemplo”.

O peso da reação de raiva é apenas um dos muitos mecanismos que os engenheiros do Facebook usam para determinar o fluxo de informações e conversas na maior rede social do mundo - e que comprovadamente influencia tudo, desde as emoções dos usuários até campanhas políticas e atrocidades.

O Facebook leva em consideração vários fatores - alguns dos quais são ponderados para contar muito, outros para contar pouco e alguns para ter peso negativo - que totalizam uma única pontuação que o algoritmo do feed de notícias gera para cada postagem no feed do usuário, toda vez que ele o atualiza. Essa pontuação, por sua vez, é usada para classificar as postagens, decidindo quais aparecem no topo e as que aparecem tão embaixo, que provavelmente você nunca as verá. Esse sistema de pontuação único e abrangente é usado para categorizar e classificar grandes áreas de interação humana em quase todos os países do mundo e em mais de 100 idiomas. headtopics.com

O Facebook não divulga os valores que seu algoritmo atribui a diferentes tipos de engajamento, muito menos as mais de 10 mil “indicações” que ele afirma que seu software pode levar em consideração para prever a probabilidade de que cada postagem produza essas formas de engajamento. A empresa costuma mencionar o medo de dar munição às pessoas mal-intencionadas como motivo para manter o funcionamento interno sob sigilo.

Os mecanismos do Facebook dependem de indicações que a maioria dos usuários deixaria passar em branco, como quantos comentários longos uma postagem gera, ou se um vídeo é ao vivo ou gravado, ou se os comentários foram feitos apenas com textos ou com figurinhas, mostram os documentos. A empresa ainda considera o peso computacional que cada postagem demanda e a intensidade do sinal de internet do usuário. Dependendo do mecanismo, os efeitos de até mesmo um pequeno ajuste podem repercutir pela rede, determinando se as fontes de notícias em seu feed são confiáveis ou duvidosas, se são políticas ou não, se você visualizou mais conteúdo de seus amigos ou mais postagens de grupos que o Facebook quer que você participe, ou se você viu algo que poderia irritá-lo, aborrecê-lo ou inspirá-lo.

Bolsonaro quer passaporte da vacina nas mãos do governo federal Candidato da extrema direita à presidência francesa promete 'reconquistar' o país - Internacional - Estadão Carro que explodiu ao abastecer com gás natural teria 'gambiarra' com cilindro de gás de cozinha

Além do debate a respeito da reação com o emoji de raiva, os documentos mostram funcionários do Facebook lutando com questões difíceis sobre os valores da empresa, executando análises construídas com sagacidade. Quando perceberam que o algoritmo estava exacerbando danos, eles defenderam ajustes que achavam que poderiam ajudar. Mas essas propostas às vezes eram rejeitadas.

Quando as acelerações, como as reações com emojis, se chocavam com “desacelerações” ou “rebaixamentos” destinados a limitar o conteúdo potencialmente prejudicial, toda aquela complicada matemática se somava a um problema de proteção dos usuários. Uma postagem mediana recebia uma pontuação de algumas centenas, de acordo com os documentos. Mas em 2019, um cientista de dados do Facebook descobriu que não havia limite para o quão alto as pontuações do ranking poderiam chegar.

Se os algoritmos do Facebook consideravam uma postagem ruim, o Facebook podia cortar sua pontuação pela metade, diminuindo as chances de ela aparecer nos feeds dos usuários. Porém, algumas postagens podem conseguir pontuações de até um bilhão, segundo os documentos. Reduzir uma pontuação astronômica pela metade para “rebaixá-la” ainda permitia que ela ficasse com uma pontuação alta o suficiente para aparecer no topo do feed do usuário.

“Pensamento assustador: rebaixamentos cívicos não estão funcionando”, observou um funcionário do Facebook.A cultura de experimentação é forte no Facebook, já que os engenheiros mexem nos mecanismos e medem os resultados. Um experimento em 2014 almejava manipular a valência afetiva das postagens mostradas nos feeds dos usuários para serem mais positivas ou mais negativas, e, depois, observar se as postagens mudavam e passavam a corresponder ao que foi mostrado, levantando preocupações éticas, relatou o

Washington Postna época. Outro caso, relatado por Frances ao Congresso neste mês, envolvia desligar as medidas de segurança para um subconjunto de usuários como grupo de controle para ver se as medidas funcionavam.Um conjunto de experimentos não divulgados anteriormente envolvia fazer com que algumas pessoas aparecessem com maior frequência nos feeds de alguns de seus amigos, escolhidos aleatoriamente -, e, então, uma vez terminado o experimento, analisar se os amigos continuavam a se comunicar, de acordo com os documentos. Um pesquisador levantou a hipótese de que, em outras palavras, o Facebook poderia fazer com que os relacionamentos se tornassem mais próximos.

Em 2017, o Facebook estava tentando reverter uma queda preocupante na quantidade de pessoas postando e conversando umas com as outras no site, e as reações com emojis deram a ele cinco novos mecanismos para usar. Cada reação emocional valia cinco curtidas naquela altura. A lógica era que uma reação com emoji indicava que a postagem causava um efeito emocional maior do que uma curtida; reagir com um emoji era algo que ia além do simples clique ou toque no botão “curtir”. Mas o Facebook falou pouco sobre a importância que estava atribuindo a essas reações: A empresa disse ao site de notícias

Mashableem 2017 que estava avaliando as reações apenas como “um pouco mais do que curtidas”.A jogada foi coerente com um padrão, destacado nos documentos, em que o Facebook dava um grande peso aos novos recursos que estava tentando incentivar os usuários a adotar. Ao treinar o algoritmo para otimizar esses recursos, os engenheiros do Facebook praticamente garantiram que eles fossem amplamente usados e vistos. Não apenas isso, mas qualquer pessoa fazendo uma postagem no Facebook com a esperança de alcançar um público vasto - inclusive veículos de comunicação e figuras políticas - fatalmente perceberá que certos tipos de publicações estão funcionando melhor do que outras.

A certa altura, o CEO da empresa,Mark Zuckerberg até encorajou os usuários, em uma resposta pública a um comentário, a usar a reação de raiva para sinalizar que eles não gostavam de algo, embora isso fizesse o Facebook mostrar conteúdo semelhante com maior frequência.

As respostas a uma postagem, que indicavam um esforço maior do que o toque no botão de reação, tinham um peso ainda maior, até 30 vezes mais do que uma curtida. O Facebook tinha descoberto que a interação entre amigos de um usuário no site criava uma espécie de círculo vicioso que levava os usuários a postar ainda mais. O

Wall Street Journalpublicou uma reportagem no mês passado a respeito de como a maior importância dada pelo Facebook a comentários, respostas a comentários e respostas a compartilhamentos - parte de uma métrica chamada de “interações sociais significativas” - incentivou ainda mais postagens políticas polêmicas. (A reportagem também mencionava o peso inicial dado à reação com o emoji de raiva, embora não os debates subsequentes a respeito de seu impacto.)

O objetivo dessa métrica é “melhorar a experiência das pessoas priorizando postagens que motivem interações, especialmente conversas, entre familiares e amigos”, disse Dani.A primeira redução no peso da reação com emoji de raiva surgiu em 2018, quando o Facebook diminuiu a força dele para o equivalente a quatro curtidas, mantendo o mesmo peso para todas as reações de emoção.

Mas era evidente que nem todas as reações de emoções eram iguais. A raiva foi a menos usada entre as seis reações com emojis, com 429 milhões de cliques por semana, em comparação a 63 bilhões de curtidas e 11 bilhões de reações de “amei”, de acordo com um documento de 2020. Os cientistas de dados do Facebook descobriram que as reações de raiva eram “muito mais frequentes” em postagens problemáticas: “notícias duvidosas sobre um país, informações cívicas erradas, toxicidade entre cidadãos, informações equivocadas em relação à saúde e conteúdo antivacina, segundo um documento de 2019. A pesquisa da empresa naquele ano mostrou que a reação de raiva estava “sendo transformada em arma” por figuras políticas.

Em abril de 2019, o Facebook pôs em prática um mecanismo para “rebaixar” o conteúdo que estava recebendo reações de raiva desproporcionalmente, embora os documentos não deixem claro como ou onde isso foi aplicado, ou quais foram seus efeitos.

Em julho, começou a circular uma proposta para diminuir o peso de várias reações com emoji até elas se igualarem ao de uma curtida, ou até mesmo contabilizá-las como zero. A reação de “raiva”, junto com as de “uau” e “haha”, ocorreu com maior frequência em conteúdo “tóxico” e com informações enganosas. Em outra proposta, do final de 2019, “amei” e “triste” - aparentemente chamada de “sinto muito” pelos funcionários - valeriam quatro curtidas, por serem mais seguras, de acordo com os documentos.

A proposta dependia de os mandachuvas do Facebook estarem “confortáveis com o princípio dos diferentes valores para os diferentes tipos de reação”, afirmam os documentos. Isso teria sido uma solução fácil, disse o funcionário do Facebook, com “menos preocupações com políticas” do que uma tentativa tecnicamente desafiadora de identificar comentários tóxicos.

Mas, no último minuto, a proposta de ampliar aquelas medidas em todo o mundo foi negada.“A voz da cautela levou a melhor por não tentar distinguir diferentes tipos de reação e, portanto, diferentes emoções”, escreveu um funcionário depois.

Posteriormente, naquele ano, como parte de um debate sobre como ajustar o algoritmo para deixar de amplificar conteúdo que talvez subvertesse as normas democráticas, a proposta de dar menos peso às reações com emoji de raiva surgiu mais uma vez. Outro funcionário propôs remover o botão completamente. Mas, de novo, os pesos continuaram como antes.

Finalmente, no ano passado, a grande quantidade de dados conseguiu fazer efeito. Novas pesquisas concluíram que os usuários invariavelmente não gostavam quando suas postagens recebiam reações de “raiva”, fosse de amigos ou de pessoas aleatórias, segundo os documentos. O Facebook diminuiu o peso de todas as reações para o equivalente a uma curtida e meia.

Em setembro deste ano, o Facebook finalmente parou de usar a reação de raiva como indicativo do que seus usuários queriam e reduziu seu peso a zero, tirando-a da equação, mostram os documentos. Seu peso ainda é zero, disse a porta-voz do Facebook. Ao mesmo tempo, a empresa aumentou o peso das reações “amei” e “triste”, que agora valem o mesmo que duas curtidas.

Isso foi parte de um ajuste fino de indicações. Por exemplo, comentários com um único caractere não contariam mais. Até que essa alteração fosse implementada, um comentário com apenas as palavras “sim” ou “não” - tática usada com frequência para enganar o sistema e conseguir uma posição melhor no feed de notícias - contava como 15 vezes o valor de uma curtida.

“Como qualquer otimização, haverá algumas maneiras de isso ser explorado ou aproveitado”, disse Lars Backstrom, vice-presidente de engenharia do Facebook, em um comunicado por e-mail. “É por isso que temos uma equipe de integridade que está tentando monitorá-las e descobrir como mitigá-las da forma mais eficiente possível.”

Mas, inúmeras vezes, o Facebook fez ajustes nos pesos depois que os recursos causaram danos. A rede social queria encorajar os usuários a fazer transmissões de vídeo ao vivo, o que ela favorecia em relação a fotos e postagens de texto, para que o peso delas pudesse aumentar em até 600 vezes. Isso ajudou a causar “a viralização ultrarrápida de diversos vídeos com baixa qualidade”, disse um documento. Os vídeos de lives no Facebook desempenharam um papel importante em eventos políticos, entre eles os protestos por justiça racial no ano passado depois do assassinato de George Floyd e a invasão do Capitólio dos EUA em 6 de janeiro.

Assim que ocorreu o ataque ao Capitólio, o Facebook desesperadamente pôs em prática suas “medidas de emergência” sobre os esforços de segurança que havia desfeito anteriormente - inclusive limitar o peso dos vídeos ao vivo em apenas 60. A empresa não respondeu às solicitações de comentários a respeito dos pesos dos vídeos ao vivo.

Quando o Facebook finalmente estabeleceu o peso nulo para a reação de raiva, os usuários começaram a ter menos acesso a informações enganosas, conteúdo “perturbador” e  “violência explícita”, descobriram os cientistas de dados da empresa. No final das contas, depois de anos de ativismo e resistência, não houve um acordo de modo algum. De acordo com um dos documentos, o nível de atividade dos usuários na rede social não foi afetado. /

Consulte Mais informação: Estadão »

O Assunto #591: Centrão-raiz - esteio de Bolsonaro para 2022

Depois de dois anos sem legenda, o presidente assinou a filiação ao Partido Liberal em uma cerimônia com presença de lideranças do Progressistas (PP) e do Republicanos - trio de siglas que pretende dar sustentação a sua campanha de reeleição, liderados pelo cacique do PL, o condenado Valdemar Costa Neto.

Link Mais que a porcaria deste jornalzinho? Link Quer conteúdo mais tóxico que essas empresa fazem todos os dias, todas as hora em suas publicações....👇👇👇👇 Link Rede social é formada por pessoas, pessoas não são boazinhas, e as que são, uma parte é fingimento Temos que lidar e aprender que o mundo é mau

Link É por isso que sou da tropa do haha Link Odeio Facebook 😒 Link XeuleBot

Instagram libera link nos Stories para todos os usuários; veja como usar - Link - EstadãoDepois de manter o recurso apenas para contas com muitos seguidores, o Instagram agora permite que qualquer usuário possa compartilhar links nos Stories

Série francesa 'Candice Renoir' chega à quarta temporada - Cultura - EstadãoA atriz francesa Cécile Bois fala ao ‘Estadão’ sobre sua personagem na série policial: 'mais feminina do que feminista' Cultura Chegou Hoje na Televisão o Melhor Jornalismo do Brasil, TV Jovem Pan no Ar, Canal 576 na SKY e 7 na Parabólica. Cultura XeuleBot

Facebook Papers: democracia do Brasil é classificada como assunto urgente - Link - EstadãoConsórcio de veículos jornalísticos americanos divulga pesquisas internas que mostram negligência da rede social com a segurança de usuários Link XeuleBot Link ...pois é...⤵️⤵️⤵️ kkk Link Vcs são cúmplices

Taxa de desemprego fica em 13,2% no trimestre até agosto, informa IBGE - Economia - EstadãoNo total, 13,7 milhões de pessoas estão desempregadas; os desalentados, que são pessoas sem emprego e que não procuram mais por vagas de trabalho, somam mais de 5 milhões

Tesla, de Elon Musk, atinge valor de mercado de US$ 1 trilhão - Link - EstadãoParticipação de 23% de Elon Musk na montadora vale agora cerca de US$ 230 bilhões

A última de Bolsonaro - Opinião - EstadãoOPINIÃO: A última de Bolsonaro - Algumas das mentiras que o presidente conta soariam só ridículas, não fossem tão perigosas no contexto de uma pandemia que já matou mais de 605 mil brasileiros Uma escolha muito difícil... Um cara totalmente desprovido de consciência!!!