Algumas das maiores empresas de redes sociais estão colaborando em um programa para prevenir a disseminação de suicídio ou conteúdo suicida online.
Meta, Snapchat e TikTok assinaram parceria com a Mental Health Coalition no novo aplicativo Thrive, que foi anunciado na quinta-feira (12 de setembro).
O plano envolve empresas de tecnologia participantes compartilhando sinais sobre conteúdo suicida ou autolesivo para que outras empresas possam investigar e tomar medidas caso o mesmo conteúdo seja compartilhado em sua plataforma.
“Nós da MHC estamos entusiasmados em trabalhar com a Thrive; um uma colaboração única das plataformas de mídia social mais influentes que se uniram para eliminar o conteúdo da automutilação e do suicídio.
“Meta, Snap e TikTok são alguns dos parceiros iniciais a aderir ao ‘share’, empenhados em causar um impacto ainda maior e ajudar a salvar vidas”, disse Kenneth Cole, fundador da Mental Health Coalition.
Se o conteúdo suscitar preocupações, as empresas envolvidas serão notificadas e depois avaliarão de forma independente se devem tomar medidas.
O CEO da Thrive, Dr. Dan Reidenberg, descreveu o projeto como um “grande avanço”:
“A integração da troca de sinais, combinada com a colaboração interdisciplinar e a moderação de um mediador independente e neutro, representa um grande avanço na colaboração da indústria e na proteção pública numa crise global, no suicídio na saúde pública e, em última análise, no salvamento de vidas.”
Temos orgulho de sermos membros fundadores do Thrive, um novo programa que permite que empresas de tecnologia compartilhem sinais sobre conteúdo infrator ou autolesivo e impeçam que ele se espalhe por diversas plataformas.
– Meta Redação (@MetaNewsroom) 12 de setembro de 2024
Como funciona a tecnologia de compartilhamento de sinal para lidar com conteúdo autolesivo?
A infraestrutura técnica por trás do Thrive é fornecida pela Meta e é a mesma tecnologia fornecida ao programa Lantern Tech Coalition, que também permite o compartilhamento de sinal.
“As empresas participantes começarão a compartilhar hashes – códigos numéricos que correspondem a conteúdo ofensivo – imagens e vídeos que retratam suicídio e suicídio gráfico, bem como conteúdo de imagem ou suicídio viral ou promoção de automutilação”, escreve Meta no anúncio.
“Estamos priorizando esse conteúdo porque ele tende a se espalhar rapidamente por diversas plataformas. Esses sinais iniciais representam apenas conteúdo e não contêm informações identificáveis sobre quaisquer contas ou indivíduos.”
A postagem Meta, Snapchat e TikTok estão trabalhando juntos para evitar que conteúdo relacionado ao suicídio apareça no ReadWrite.