Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


O Comitê de Supervisão da Meta avaliou que as ferramentas da empresa para identificar deepfakes são insuficientes para conter a rápida disseminação de desinformação em períodos de conflitos armados, como a guerra no Irã. A informação é de uma reportagem do portal The Verge desta terça-feira (10).
O órgão independente solicitou uma reformulação completa na maneira como o conteúdo gerado por inteligência artificial (IA) é descoberto e rotulado no Facebook, no Instagram e no Threads.
A cobrança do comitê ocorreu após a análise de um vídeo falso, criado por IA, que exibia supostos danos a edifícios em Israel. O material circulou nas plataformas da companhia no ano passado e acumulou visualizações antes de ser interceptado.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
A investigação destacou que as lacunas de segurança se agravam quando o conteúdo viraliza em momentos de crise, afetando narrativas globais. O relatório apontou que o arquivo original surgiu no TikTok antes de atingir as redes da Meta e o X.
Atualmente, a Meta adota abordagens baseadas em padrões da indústria, como a Coalition for Content Provenance and Authenticity (C2PA). Este modelo depende de os próprios criadores inserirem metadados que identifiquem a origem sintética das imagens ou vídeos. O conselho concluiu que a ampla maioria das publicações com IA circula sem esses marcadores.
Além disso, a estratégia da empresa, que aguarda denúncias de usuários ou detecção tardia, falha em acompanhar a velocidade de viralização de vídeos falsos, moldando a percepção pública antes da ação de checadores de fatos. Essa lacuna técnica ganha peso com documentos internos recentes que indicaram uma redução nos recursos de moderação da companhia.
Para corrigir as vulnerabilidades, o Comitê de Supervisão recomendou o desenvolvimento de sistemas proativos de detecção que operem em tempo real. As orientações incluem a aplicação de rótulos mais proeminentes e a construção de sistemas capazes de identificar manipulações mesmo na ausência de metadados voluntários.
O grupo determinou também a melhoria das regras de desinformação vigentes para abranger deepfakes enganosos e a criação de um padrão da comunidade voltado exclusivamente para mídias geradas por IA.
A companhia possui um prazo padrão de 60 dias para responder formalmente às diretrizes do conselho. Embora as decisões do painel de supervisão não possuam caráter tecnicamente obrigatório, ignorar as orientações pode configurar um risco de relações públicas e atrair intenso escrutínio regulatório.
Veja também:
Ouça o Podcast Canaltech:
Leia a matéria no Canaltech.