Justiça

X é notificado a impedir imagens sexualizantes geradas por IA e apresentar relatórios mensais

12 de Fevereiro de 2026 às 10:02

MPF, ANPD e Senacon consideraram insuficientes as respostas da plataforma X sobre a ferramenta Grok e a disseminação de imagens sexualizantes sem consentimento. Os órgãos exigem medidas urgentes para impedir a criação de conteúdo sexualizado envolvendo crianças, adolescentes e adultos sem permissão, além de relatórios mensais sobre a remoção de deepfakes não autorizados. A plataforma foi advertida sobre falta de transparência e pode ser multada caso não cumpra as determinações

O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) avaliaram as respostas da plataforma X sobre o funcionamento de sua ferramenta de inteligência artificial, o Grok, e consideraram as medidas apresentadas insuficientes para coibir a geração e disseminação de imagens sexualizantes produzidas sem consentimento. A avaliação surgiu após as entidades emitirem, no mês anterior, uma série de recomendações à empresa, com foco na identificação e remoção de conteúdos gerados pelo Grok que explorassem pessoas de forma inadequada.

A nova manifestação dos órgãos, divulgada nesta quarta-feira, 11 de fevereiro, determina que a plataforma X adote, de forma urgente, mecanismos eficazes para impedir a criação, por meio do Grok, de conteúdo sexualizado envolvendo crianças, adolescentes e adultos que não tenham dado permissão para tal uso de sua imagem. Além disso, foi solicitado que a empresa apresente informações detalhadas sobre as ações já implementadas para solucionar os problemas identificados na recomendação inicial.

O MPF requisitou relatórios mensais a partir deste mês, com dados sobre a atuação da plataforma na prevenção e repressão à produção de deepfakes não autorizados, especificando o número de publicações removidas e de contas suspensas. A empresa foi também advertida sobre a falta de transparência em sua resposta anterior. A ANPD, por sua vez, estabeleceu que as salvaguardas contra o uso indevido da ferramenta de IA devem ser aplicadas a todas as versões e planos do Grok.

A Senacon, em medida cautelar administrativa, solicitou a comprovação das providências adotadas para mitigar os riscos identificados e corrigir as falhas apontadas. A plataforma também deverá apresentar um relatório métrico detalhado, com dados quantitativos sobre a identificação, moderação, remoção e bloqueio de conteúdos sexualizados relacionados ao Grok, incluindo prazos de resposta e critérios técnicos utilizados.

O descumprimento das determinações pode acarretar multas diárias para a empresa, além de responsabilização por crime de desobediência e a possibilidade de investigações mais rigorosas e ações judiciais. As três instituições atuam de forma coordenada na apuração dos fatos, cada uma dentro de sua área de competência, mantendo procedimentos administrativos em aberto contra a plataforma. A assessoria da Plataforma X no Brasil foi contatada para comentar o caso, mas ainda não se manifestou.

Notícias Relacionadas