Recentemente, o Comitê Gestor da Internet no Brasil (CGI.br) divulgou uma nota técnica com contribuições ao Projeto de Lei nº 2.338/2023, que tem como objetivo estabelecer o Marco Regulatório da Inteligência Artificial no país. Uma das principais sugestões apresentadas no documento é a inclusão explícita da proibição de deepfakes sexuais, uma questão que vem ganhando cada vez mais relevância na discussão sobre ética e tecnologia.
Análise do Projeto de Lei
A nota técnica do CGI.br analisa detalhadamente os pontos do projeto em discussão no Congresso, propondo ajustes em alguns de seus dispositivos. Um dos focos principais é o artigo 13, que já menciona aplicações de inteligência artificial que são consideradas inaceitáveis. Dentro desse contexto, o projeto atualmente proíbe sistemas que permitam a produção ou disseminação de material que envolva abuso ou exploração sexual de crianças e adolescentes.
A necessidade de proteção contra deepfakes sexuais
No entanto, o CGI.br aponta que o projeto não aborda de maneira direta a criação de conteúdos sintéticos de natureza sexual envolvendo adultos, especialmente no que se refere ao consentimento. A nota técnica destaca que as mulheres são as principais vítimas de deepfakes sexuais, com um estudo revelando que mais de 90% dos alvos dessa prática são mulheres. Essa realidade alarmante demanda uma resposta legislativa mais robusta.
Propostas do CGI.br
Diante desse cenário, o comitê sugere a ampliação do escopo das aplicações proibidas no projeto de lei. Uma das propostas é a inclusão de um novo item no artigo 13, que proibiria sistemas de IA utilizados para a produção ou disseminação de material que caracterize ou represente cena de nudez ou conteúdo sexual sem o consentimento expresso das pessoas retratadas. Essa adição não apenas protegeria as mulheres, mas também qualquer grupo que possa ser vitimizado por esse tipo de violência sexual online.
Importância da proteção legal
A nota técnica enfatiza que o conceito de conteúdo sexual abrange tanto material explícito quanto implícito, manipulativo ou sugestivo. Isso é crucial para garantir que todos os tipos de abusos sejam cobertos pela legislação. Além dessa proposta, o documento também sugere outras alterações no projeto, como exceções para o uso de identificação biométrica a distância, desde que acompanhadas de uma legislação específica.
Considerações finais
Outras recomendações incluem a proibição do policiamento preditivo baseado em perfis, a classificação de sistemas de pontuação de crédito como de alto risco e a retirada de um artigo que poderia restringir a regulamentação de sistemas de IA que impactam a liberdade de expressão. Essas sugestões refletem uma preocupação com o equilíbrio entre inovação tecnológica e proteção dos direitos individuais, um tema cada vez mais relevante na era digital.