Um tribunal americano reabriu um processo contra TikTok, baseado na mãe de uma garotinha de 10 anos que morreu após um “desafio de apagão” (blackout). Algoritmo, recomendações, curadoria, conteúdo, julgamentos, editoriais, terceiros envolvidos compilaram discurso subjacente.
Um tribunal de apelações dos Estados Unidos decidiu dar continuidade a um processo contra o TikTok movido pela mãe de uma menina de 10 anos que faleceu após participar de um desafio perigoso na plataforma. O caso envolve o ‘desafio de apagão (blackout)’, no qual os usuários do TikTok foram encorajados a se sufocar até desmaiar, resultando em consequências fatais.
Embora a legislação federal geralmente proteja as empresas de internet de responsabilidades legais relacionadas ao conteúdo gerado pelos usuários, o Tribunal de Apelações do 3º Circuito dos EUA decidiu que a mãe de Nylah Anderson pode prosseguir com a ação judicial contra o algoritmo do TikTok. A decisão destaca a importância de responsabilizar a plataforma de rede social por recomendar desafios perigosos que podem colocar em risco a vida dos usuários.
TikTok: Decisão Judicial e Implicações na Plataforma de Rede Social
A juíza Patty Shwartz, representando um painel de três juízes, destacou que a Seção 230 da Lei de Decência das Comunicações de 1996 concede imunidade apenas às informações provenientes de terceiros, não abrangendo as recomendações feitas pelo próprio TikTok por meio de um algoritmo subjacente à sua plataforma. Ela reconheceu a distinção dessa decisão em relação a interpretações anteriores de tribunais, que consideravam a Seção 230 como um escudo de responsabilidade para plataformas online que não filtravam conteúdo prejudicial transmitido por usuários.
Shwartz argumentou que, após uma decisão da Suprema Corte dos EUA em julho sobre a limitação do poder das redes sociais, a lógica anterior não se sustenta mais. A Suprema Corte considerou que o algoritmo de uma plataforma reflete ‘julgamentos editoriais’ sobre a compilação do discurso de terceiros, desafiando a ideia de que a curadoria de conteúdo usando algoritmos é um discurso protegido pela Seção 230.
No centro da questão está a influência do TikTok na recomendação e promoção de conteúdo para usuários específicos, o que, segundo Shwartz, constitui seu próprio discurso primário. A empresa faz escolhas ativas nesse processo, moldando a experiência dos usuários de acordo com seus critérios. A ausência de resposta do TikTok aos pedidos de comentários reflete a sensibilidade do tema em discussão.
A decisão recente reverteu o veredicto de um juiz de primeira instância que havia rejeitado, com base na Seção 230, um processo movido por Tawainna Anderson contra o TikTok e sua empresa controladora ByteDance. O caso surgiu após a trágica morte de sua filha Nylah em 2021, em decorrência de um desafio do apagão envolvendo uma alça de bolsa. A reviravolta na decisão judicial foi recebida com entusiasmo pela equipe jurídica da família Anderson.
O juiz do Circuito dos EUA, Paul Matey, emitiu um parecer parcialmente alinhado com a decisão, apontando que o TikTok, em sua busca por lucros, pode inadvertidamente expor crianças a conteúdos questionáveis. Matey ressaltou que a imunidade legislativa não pode ser invocada de forma indiscriminada, especialmente quando os valores em jogo são tão sensíveis. A discussão em torno dessas questões legais promete continuar a moldar o cenário das redes sociais e da responsabilidade das plataformas online.
Fonte: © TNH1