É hora de o Facebook e o Twitter coordenarem esforços em discurso de ódio – TechCrunch

É hora de o Facebook e o Twitter coordenarem esforços em discurso de ódio – TechCrunch

Desde a eleição de Donald Trump em 2016, tem havido uma crescente consciência do discurso de ódio em plataformas de mídia social como o Facebook e o Twitter. Embora os ativistas tenham pressionado essas empresas a melhorar sua moderação de conteúdo, poucos grupos (fora do governo alemão) processaram diretamente as plataformas por suas ações.

Isso se deve a uma distinção legal entre publicações de mídia e plataformas de mídia que tornou a solução do discurso de ódio on-line um problema problemático.

Tome, por exemplo, um editorial publicado no New York Times pedindo a matança de todo um grupo minoritário. O Times provavelmente seria processado por publicar discursos de ódio, e os queixosos podem muito bem ser vitoriosos no caso deles. No entanto, se esse editorial fosse publicado em um post no Facebook, um processo contra o Facebook provavelmente falharia.

O motivo dessa disparidade? A seção 230 da Communications Decency Act (CDA), que fornece a plataformas como o Facebook, um amplo escudo de responsabilidade quando uma ação judicial aciona o que seus usuários publicam ou compartilham. O mais recente alvoroço contra Alex Jones e Infowars levou muitos a pedir a revogação da seção 230 – mas isso pode levar o governo a entrar no negócio de regular o discurso online. Em vez disso, as plataformas devem se posicionar e coordenar suas políticas para que o discurso de ódio seja considerado discurso de ódio, independentemente de Jones usar o Facebook, Twitter ou YouTube para propagar seu ódio.

Uma cartilha na seção 230

A seção 230 é considerada uma pedra fundamental da liberdade de expressão na Internet. Aprovada em meados da década de 1990, é creditada a liberdade de plataformas como Facebook, Twitter e YouTube do risco de ser processada por conteúdo que seus usuários carregam e, portanto, impulsionando o crescimento exponencial dessas empresas. Se não fosse a seção 230, os gigantes das mídias sociais de hoje estariam atolados em processos baseados no que seus usuários publicam, com a consequente pré-vetação necessária de posts que provavelmente prejudicariam completamente essas empresas.

Em vez disso, nos mais de vinte anos desde a sua promulgação, os tribunais têm consistentemente considerado que a seção 230 é uma barreira para processar as empresas de tecnologia por conteúdo gerado pelo usuário que hospedam. E não são apenas as plataformas de mídia social que se beneficiaram da seção 230; empresas de economia compartilhada usaram a seção 230 para se defender, com os gostos da Airbnb argumentando que não são responsáveis ​​pelo que um host envia em seu site. Os tribunais até acharam a seção 230 ampla o suficiente para cobrir os aplicativos de namoro. Quando um homem processava um por não verificar a idade de um usuário menor de idade, a corte anulou a ação que considerava que a declaração incorreta do usuário do app sobre sua idade não era responsabilidade do aplicativo devido à seção 230.

Regulação privada do discurso de ódio

Naturalmente, a seção 230 não significa que o discurso de ódio on-line tenha sido desmarcado. Plataformas como Facebook, YouTube e Twitter têm suas próprias políticas extensivas que proíbem usuários de postarem discursos de ódio. As empresas de mídia social contrataram milhares de moderadores para aplicar essas políticas e responsabilizar usuários violadores, suspendendo-os ou bloqueando o acesso deles por completo. Mas o recente desastre com Alex Jones e Infowars apresenta um estudo de caso sobre como essas políticas podem ser aplicadas de forma inconsistente.

Jones tem fabricado há anos teorias de conspiração, como a que afirma que o tiroteio na escola de Sandy Hook foi uma farsa e que os democratas dirigem um círculo global de tráfico de crianças e sexo . Com milhares de seguidores no Facebook, Twitter e YouTube, o discurso de ódio de Jones teve consequências reais. Desde o brutal assédio dos pais de Sandy Hook a um pistoleiro que invadiu uma pizzaria em D.C. para salvar crianças do porão inexistente do restaurante, suas mensagens tiveram sérias conseqüências deletérias para muitos.

Alex Jones e Infowars foram finalmente suspensos de dez plataformas pela nossa contagem – com até mesmo o Twitter entrando na fila e suspendendo-o por uma semana após o primeiro dithering. Mas as respostas variadas e atrasadas expuseram como plataformas diferentes lidam com o mesmo discurso.

A aplicação inconsistente de regras de discurso de ódio em plataformas, agravada por recentes controvérsias envolvendo a disseminação de notícias falsas e a contribuição das mídias sociais para uma polarização crescente, levou a pedidos para alterar ou revogar a seção 230. Se a imprensa impressa e a TV a cabo puderem ser responsabilizadas por propagarem o discurso do ódio, argumenta o argumento, então por que o mesmo não deve ser verdade on-line – especialmente quando dois terços dos americanos agora relatam ter recebido pelo menos algumas de suas notícias? da mídia social. Em meio ao coro dos que clamam por mais regulamentação das empresas de tecnologia, a seção 230 se tornou um alvo consistente.

O discurso de ódio deve ser regulamentado?

Mas se você precisar convencer por que o governo não está em melhor posição para regular o discurso on-line, não procure mais do que a própria redação do Congresso na seção 230. A seção promulgada em meados da década de 90 afirma que as plataformas online “oferecem aos usuários um alto grau de controle sobre as informações que recebem, bem como o potencial para um controle ainda maior no futuro conforme a tecnologia se desenvolve” e para uma verdadeira diversidade de discurso político, oportunidades únicas para o desenvolvimento cultural e uma miríade de caminhos para a atividade intelectual. ”

A seção 230 continua declarando que é a “política dos Estados Unidos. . . para incentivar o desenvolvimento de tecnologias que maximizem o controle do usuário sobre quais informações são recebidas por indivíduos, famílias e escolas que usam a Internet. ” Com base no acima, a seção 230 oferece a proteção de responsabilidade agora infame para plataformas on-line .

Pelo simples fato de que a maior parte do que vemos em nossas mídias sociais é ditada por algoritmos sobre os quais não temos controle, ao escândalo Cambridge Analytica, para aumentar a polarização devido à propagação de notícias falsas nas mídias sociais, veja rapidamente como as palavras do Congresso em 1996 leram hoje como um catálogo de previsões imprecisas. Mesmo Ron Wyden, um dos redatores originais da seção 230, ele mesmo admite hoje que os redatores nunca esperavam “endossar (ou negar) o extermínio de milhões de pessoas, ou atacar as vítimas de crimes horríveis ou os pais de crianças assassinadas” habilitado através das proteções oferecidas pela seção 230.

Seria difícil argumentar que o Congresso de hoje – tendo demonstrado pouco entendimento em audiências recentes sobre como as mídias sociais operam para começar – está mais qualificado para prever os efeitos da regulamentação do discurso on-line daqui a vinte anos.

Mais importante ainda, o ônus de cumprir as novas regulamentações resultará, definitivamente, em uma barreira significativa à entrada de startups e, portanto, terá a consequência não intencional de consolidar os operadores históricos. Embora o Facebook, YouTube e Twitter possam ter os recursos e a infraestrutura para lidar com a conformidade com o aumento da moderação ou pré-vetação de postagens que as regulamentações possam impor, startups menores estarão em grande desvantagem para acompanhar esse fardo.

Última chance antes da regulamentação

A resposta deve estar nas próprias plataformas on-line. Ao longo das duas últimas décadas, acumularam uma vasta experiência na detecção e eliminação do discurso de ódio. Eles criaram equipes formidáveis ​​com origens variadas para elaborar políticas que levem em consideração uma Internet em constante mudança. Os seus lucros permitiram-lhes contratar talentos de topo, de procuradores do governo a académicos e advogados de direitos humanos.

Essas plataformas também têm sido contratadas nos últimos dois anos para garantir que suas equipes de política de produtos – as que elaboram políticas e supervisionem sua fiscalização – sejam mais representativas da sociedade em geral. O Facebook orgulhosamente anunciou que sua equipe de política de produtos agora inclui “uma ex-conselheira de crise de estupro, uma acadêmica que passou sua carreira estudando organizações de ódio. . . e um professor. ” Já se foram os dias em que um grupo de engenheiros decidia exclusivamente onde traçar as linhas. As grandes empresas de tecnologia têm levado a elaboração e a aplicação de suas políticas cada vez mais a sério.

O que eles precisam fazer agora é dar o próximo passo e começar a coordenar políticas para que aqueles que desejam propagar o discurso de ódio não possam mais disputar políticas entre plataformas. Esperar que controvérsias como Infowars se tornem um verdadeiro pesadelo de relações públicas antes de tomar medidas concretas só aumentará as exigências por regulamentação. Agregar recursos de forma proativa quando se trata de políticas de discurso de ódio e estabelecer padrões para toda a indústria fornecerão uma razão defensável para resistir à regulamentação governamental direta.

Os gigantes das mídias sociais também podem construir a confiança do público ajudando as startups a se atualizarem sobre as abordagens mais recentes para a moderação de conteúdo. Embora seja certo que qualquer consórcio do setor em torno da coordenação do discurso de ódio seja dominado pelas maiores empresas de tecnologia, elas podem garantir que as políticas sejam de fácil acesso e amplamente distribuídas.

A coordenação entre concorrentes ferozes pode soar contra-intuitiva. Mas o problema comum do discurso de ódio e o jogo de plataformas on-line por aqueles que tentam propagá-lo exigem uma resposta de todo o setor. O precedente existe para os titãs da tecnologia que coordenam quando enfrentam uma ameaça comum. No ano passado, o Facebook, a Microsoft, o Twitter e o YouTube formalizaram o seu “Fórum Global da Internet para o Combate ao Terrorismo” – uma parceria para reduzir a ameaça de terrorismo on-line. Lutar contra o discurso de ódio não é um objetivo menos louvável.

A autorregulação é um imenso privilégio. Na medida em que as grandes empresas de tecnologia querem manter esse privilégio, elas têm a responsabilidade de coordenar as políticas que sustentam sua regulamentação do discurso e permitir que startups e pequenas empresas de tecnologia tenham acesso a essas políticas e mecanismos de fiscalização.

Notícia Original

Sugestão: comprar visualizacoes para videos instagram

Siga e curta nas redes sociais:

Deixe uma resposta