POLÍTICA

Uso de IA e deepfakes para constranger mulheres poderá dar até 4 anos de cadeia, prevê projeto

O uso de inteligência artificial (IA) com o objetivo de alterar ou criar fotos, vídeos e áudios para constranger e prejudicar mulheres poderá ser tipificado como crime no país, de acordo com um projeto que está tramitando na Câmara dos Deputados.

A infração pode render até quatro anos de cadeia, segundo o texto, que seria incluído na Lei Maria da Penha.

O projeto de lei 5.695/23, que foi aprovado pela Comissão de Defesa dos Direitos da Mulher, agora precisa ser analisado e aprovado pela Comissão de Constituição e Justiça e de Cidadania (CCJ) para ser levado ao plenário da Câmara. Em caso de aprovação, ele será enviado ao Senado.

Segundo o texto, o intuito é punir quem “adulterar, alterar, criar, desenvolver, elaborar, fabricar, manipular, preparar ou produzir fotos, vídeos ou áudios, utilizando-se de sistema de inteligência artificial, com o objetivo de causar constrangimento, humilhação, assédio, ameaça ou qualquer outro tipo de violência à mulher, no âmbito doméstico ou familiar”.

O projeto, de autoria do deputado federal Fred Linhares (Republicanos-DF), foi proposto inicialmente com pena de um a dois anos de reclusão, com multa.

A punição prevista, no entanto, foi dobrada após a apresentação de um substitutivo da relatora da proposta, a parlamentar Dayany Bittencourt (União-CE). A pena mínima também foi elevada de um para dois anos.

A proposta surge após uma série de casos criminosos que envolvem o uso de IA terem ganhado repercussão no Brasil e no mundo.

Em novembro de 2023, mais de 20 meninas, em sua maioria alunas do Colégio Santo Agostinho, no Rio de Janeiro, foram vítimas de falsos nudes produzidos por outros estudantes com o uso de IA.

As montagens, que se baseavam em fotos reais das meninas, foram amplamente divulgadas em grupos de WhatsApp. No Colégio Marista São Luís, em Recife, outras 18 meninas foram vítimas do mesmo tipo de crime.

Ainda em 2023, a atriz Ísis Valverde também foi vítima de ataques similares. No final de outubro, supostas fotos nuas da artista foram vazadas e atribuídas a ela. Posteriormente, a polícia concluiu que as fotos foram retiradas de uma rede social da atriz e manipuladas através de programas de alteração de imagem, com auxílio de inteligência artificial.

Outro caso que ganhou destaque global, já em 2024, foi o da cantora Taylor Swift. Ela foi vítima de falsos nudes criados por inteligência artificial – também chamados de “deepnudes”, uma variação do termo “deepfakes” –, com imagens que chegaram a ser visualizadas mais de 47 milhões de vezes na rede social X.

 

Com informações da Agência Câmara


CNN BRASIL