Deepfakes sexuais: o PL 2688 e o que a tecnologia já permite
Deepfakes sexuais: o PL 2688 e o que a tecnologia já permite
Em março de 2026, a atriz alemã Collien Fernandes estampou o Der Spiegel com uma denúncia que ecoa em vários países. Seu ex-marido teria criado perfis falsos e distribuído imagens pornográficas geradas por inteligência artificial com o rosto dela, sem consentimento. “Meu corpo foi roubado por anos”, disse Fernandes, que registrou queixa na Espanha e expôs lacunas na legislação alemã. O caso não é isolado — e o Brasil sabe disso.
Três meses antes, em janeiro de 2026, o Ministério Público Federal, a ANPD e a Secretaria Nacional do Consumidor expediram uma recomendação conjunta à plataforma X para que impedisse o uso do Grok — seu assistente de IA — na geração de deepfakes sexuais. Reportagens e testes das próprias instituições confirmaram que usuários produziam imagens erotizadas de mulheres adultas, crianças e adolescentes reais sem autorização. O próprio Grok respondeu: “Lamento profundamente o incidente ocorrido em 28 de dezembro de 2025, no qual gerei e compartilhei uma imagem de IA de duas meninas com idades estimadas entre 12 e 16 anos, vestidas de forma sexualizada, a pedido de um usuário.”
Os dois episódios escancaram algo que os dados já mostravam desde 2019. Segundo o laboratório Deeptrace Labs (hoje Sensity), 96% dos deepfakes em circulação na época eram pornográficos e não consensuais. Em 2023, esse número oscilava entre 92% e 95%, com um aumento de mais de 400% na produção em um ano. A tecnologia amadureceu, as ferramentas se popularizaram, e a legislação, na maioria dos países, ainda corre atrás.
É nesse cenário que o Projeto de Lei 2688/2025, do deputado João Daniel (PT-SE), ganha relevância. Originalmente desenhado como um marco regulatório geral da inteligência artificial — nos moldes do AI Act europeu — o texto sofreu uma guinada significativa em 18 de março de 2026. A Comissão de Comunicação da Câmara aprovou um substitutivo proposto pelo relator, deputado Jadyel Alencar (REPUBLIC-PI), que reduziu o escopo original para focar exclusivamente no combate à geração e disseminação de “conteúdos sintéticos de cunho sexual”.
Um recorte cirúrgico, mas incompleto
O substitutivo abandona a ambição de regular toda a inteligência artificial no país. Ele se concentra em vedar a produção de conteúdo sexual sintético envolvendo crianças, adolescentes ou pessoas com aparência inferior a 18 anos — ainda que não identificáveis. Para adultos, a regra exige consentimento “específico, livre, informado e destacado”. O texto também determina que sistemas de IA incorporem mecanismos de rastreabilidade e marcação digital automática dos conteúdos gerados, e que plataformas elaborem relatórios de impacto à proteção de dados nos termos da LGPD.
A opção por um recorte tão específico tem méritos. Em vez de travar a tramitação de um marco geral de IA — que envolve debates complexos sobre classificação de risco, responsabilidade civil e governança algorítmica — a Comissão optou por uma resposta rápida a um problema concreto e urgente. Enquanto o Congresso discute, mais mulheres têm seus rostos sobrepostos a cenas pornográficas, e mais crianças são transformadas em alvo de ferramentas que qualquer pessoa opera de um celular.
Mas há perguntas que o substitutivo deixa no ar. Quem vai auditar se os sistemas de IA estão de fato impedindo a geração desse conteúdo? A ANPD, que acumula funções de proteção de dados e regulação de IA, tem estrutura suficiente para isso? Outra questão é a responsabilidade das plataformas: a recomendação do MPF contra o Grok já classificava a X como “coautora” dos conteúdos gerados por sua IA, afastando a imunidade prevista no Marco Civil da Internet. O substitutivo não enfrenta esse enquadramento jurídico de forma direta.
Há ainda um possível efeito colateral. Ao concentrar todo o esforço legislativo nos deepfakes sexuais, o PL 2688 pode deixar desguarnecidas outras formas igualmente graves de manipulação sintética — como fraudes financeiras, desinformação política ou difamação. A Alemanha, por exemplo, caminha para aprovar uma lei mais abrangente, que inclui deepfakes não sexuais capazes de causar danos reputacionais. O Brasil pode aprovar uma resposta correta para um problema específico, mas insuficiente para o ecossistema mais amplo de abusos com IA generativa.
O caso Collien Fernandes, o episódio do Grok e a tramitação do PL 2688 compartilham um mesmo dilema: como regular tecnologias cujo desenvolvimento é mais veloz que a capacidade de resposta dos parlamentos? As leis levam meses para serem aprovadas; os modelos de IA generativa são atualizados em semanas. Uma ferramenta que hoje não gera nudez pode passar a gerar amanhã, com um simples ajuste nos pesos da rede neural.
Perguntas que ficam em aberto
O substitutivo do PL 2688 representa um avanço tático, mas deixa ao menos três questões sem resposta. A quem cabe o ônus da prova do consentimento — à plataforma, ao usuário ou à vítima? A regulação por tipo de conteúdo é sustentável a longo prazo, ou precisamos de um marco geral que defina princípios e deixe normas infralegais cuidarem das especificações? O Brasil conseguirá coordenar essa iniciativa com o AI Act europeu, ou criaremos mais um arquipélago regulatório?
Talvez a principal contribuição do PL 2688 não esteja no texto final, mas no precedente que estabelece: o reconhecimento, pelo Legislativo brasileiro, de que conteúdos sintéticos de cunho sexual produzidos sem consentimento não são apenas uma violação moral, mas uma lesão jurídica que exige resposta do Estado. O desafio, como sempre, será transformar a intenção da lei em proteção real para as vítimas. E isso, como mostram os casos de Collien Fernandes e das mulheres brasileiras expostas pelo Grok, ainda está longe de ser resolvido.