Presidente da Comissão de Direito Digital da OAB e relatora do anteprojeto em discussão no Senado Federal para regulamentação da inteligência artificial, Laura Schertel Mendes afirma que o ano de 2024 pode ser decisivo para medir o impacto da IA em eleições dentro e fora do Brasil.
”Há uma preocupação muito grande no mundo inteiro porque em mais de 60 países há eleições. A velocidade que você escreve um email é a velocidade com que você pode criar um conteúdo falso. A escala é muito maior e os custos são muito reduzidos”, disse, em entrevista à Folha.
Professora do IDP (Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa) e da UnB (Universidade de Brasília), Schertel foi relatora da Comissão de Juristas criada pelo Senado para a regulação da inteligência artificial. O texto final deu origem ao projeto de lei apresentado pelo presidente da Casa, Rodrigo Pacheco (PSD-MG).
A chamada inteligência artificial generativa, que produz textos, áudios e vídeos de forma artificial, com base em dados disponíveis e de difícil identificação, ajudou a aumentar a desinformação em torno da tragédia no Rio Grande do Sul ao produzir imagens como a de um helicóptero das lojas Havan resgatando pessoas em uma área alagada. Em reação, a figura de um helicóptero do MST, igualmente artificial, também começou a circular nas redes.
Apesar de tanto a inteligência artificial como a produção de fake news estarem conectadas pela possibilidade de desinformação, Schertel afirma que os temas exigem discussão e arcabouços distintos.
”São dois temas igualmente complexos e igualmente estruturantes. Ambos exigem mudanças de paradigma e têm conexões, mas são diferentes na essência. São dois grandes arcabouços. E talvez os dois grandes arcabouços normativos do século 21.”
Na visão dela, a regulação de plataformas é uma discussão de como garantir um espaço digital em que todos tenham a liberdade de expressão, em que as plataformas também façam uma moderação de conteúdo adequada, com devido processo legal, para que a circulação do conteúdo se dê da melhor forma possível.
Sobre a IA, o debate toca em outros pontos. ”A gente está falando de como fazer com que os ciclos de vida do sistema de inteligência artificial sejam rastreáveis, transparentes, que esses sistemas sejam seguros”, afirma.
Embora o uso da inteligência artificial na propaganda de partidos e candidatos tenha sido regulamentado pelo TSE (Tribunal Superior Eleitoral) para as eleições municipais de 2024, especialistas defendem uma legislação robusta que dê conta da aplicação em diferentes setores da economia.
Em fevereiro, o tribunal reformou a resolução sobre propaganda, incluindo artigos específicos voltados à inteligência artificial. O trecho exige transparência, marca d’água identificando o uso de IA na criação das peças e proíbe “deep fakes” –técnica que usa imagens reais para a criação de outras artificiais– que possam descontextualizar, desinformar e influenciar o eleitorado.
No caso do Brasil, ela diz que o TSE age quase como uma agência regulatória. Ou seja, além de julgar processos eleitorais, a corte elabora normas que regulam o processo eleitoral em si. Segundo ela, essa atuação da corte faz sentido diante do fato de que o Legislativo não consegue agir na velocidade que essa tecnologia exige.
Um dos grandes desafios não só no Brasil, afirma, é identificar quais conteúdos foram produzidos por IA generativa –o que faria, por exemplo, com que os usuários pudessem verificar facilmente se as imagens dos helicópteros da Havan e do MST são reais ou fruto de inteligência artificial.
”O grande debate no mundo é para que as próprias empresas que criaram IA generativa façam os sistemas de autenticação e identificação. Não há ainda, nem no Brasil nem no mundo, um sistema de autenticação que seja infalível ou muito crível. Muitos deles são facilmente burláveis, especialmente quando a gente fala de texto.”
O relator do projeto no Senado, Eduardo Gomes (PL-TO), leu o parecer preliminar no mês passado para que os colegas fizessem sugestões de mudanças. O senador pretende apresentar uma segunda versão em 5 de junho e promover uma sessão de debates no dia 10. Se o cronograma for seguido, o relatório pode ser colocado em votação no plenário em 18 de junho.
Schertel avalia que o relatório de Gomes evoluiu em ao menos três pontos importantes: a supervisão híbrida -feita por um órgão coordenador e pelas agências reguladoras setoriais–, a proteção de direitos autorais de obras protegidas e a maior flexibilidade na classificação de riscos.
”Um sistema de filtragem de spam é diferente de um sistema de identificação de imagens, que é muito diferente de um aplicado, por exemplo, à segurança e à investigação criminal. Sistemas de alto risco precisam estar submetidos a regras de governança mais restritas”, afirma a professora.
Um dos pontos que levantou preocupação em torno do projeto de lei foi justamente o uso de reconhecimento facial na segurança pública –para, por exemplo, auxiliar a captura de fugitivos e o cumprimento de mandados de prisão. Outro trecho permite armas autônomas com controle humano.
Schertel diz acreditar não ser necessária a criação de uma agência específica para IA no país e defende o fortalecimento da ANPD (Autoridade Nacional de Proteção de Dados).
”Ela teria que ser reforçada, transformada, ter as suas competências e a sua capacidade também ampliadas. No fim, sendo outro órgão ou sendo a ANPD, a gente precisa de uma autoridade coordenadora forte e robusta. Certamente não seria a ANPD que cuida só de proteção de dados”, afirma.