Do SUS à segurança pública: os riscos de uma regulação incerta para a IA

Um algoritmo que organiza filas do SUS pode ser classificado como de alto risco, assim como um sistema que analisa imagens de câmeras para identificar pessoas desaparecidas. O mesmo vale para ferramentas que definem prioridades em programas de assistência social ou que monitoram o trânsito em tempo real. A questão é que a amplitude das categorias de risco no PL 2.338/2023 abre margem para que aplicações de naturezas distintas sejam tratadas da mesma forma – com obrigações mais rígidas, custos elevados e prazos longos. No setor público, as consequências desse desenho podem chegar diretamente ao cidadão.

O projeto, aprovado pelo Senado em dezembro de 2024 e em debate na Câmara, classifica sistemas de IA de acordo com seu potencial de impacto sobre direitos fundamentais. Para os enquadrados como de alto risco, as exigências incluem avaliações de impacto, auditorias periódicas e neutralização de vieses. A lógica está em proteger direitos. O problema, segundo especialistas ouvidos pelo Estúdio JOTA, é que esse mesmo princípio pode travar iniciativas que já estão funcionando ou desincentivar as que ainda estão por vir. 

Para Fabro Steibel, diretor-executivo do Instituto de Tecnologia e Sociedade do Rio (ITS Rio), o resultado prático tende a ser desigual. “Quem já tem sistemas, continua. Quem não tem, vai pensar três vezes antes. E aí você diminui a inovação boa”, explica Steibel.

Este é o quarto texto de uma série de conteúdos publicados pelo JOTA com patrocínio da OpenAI para discutir a regulamentação da inteligência artificial sob diferentes ângulos. Leia mais na cobertura completa

Quando a IA chega às políticas públicas

Os municípios oferecem casos mais ilustrativos do que está em jogo. A Prefeitura de São Paulo, por exemplo, usa IA em frentes que vão da segurança pública à gestão ambiental. São câmeras integradas com reconhecimento facial em tempo real, um sistema meteorológico que orienta ações de zeladoria durante chuvas, ferramentas que leem matrículas de imóveis para identificar proprietários em ações fiscais e até um equipamento que escaneia ruas e cataloga árvores com pulsos a laser.

Há também iniciativas de atendimento direto ao cidadão: o canal SP156 usa IA para identificar automaticamente o tipo de serviço demandado a partir de uma foto enviada pelo aplicativo; outra ferramenta adapta documentos oficiais para uma linguagem acessível. Na saúde, sistemas já leem e estruturam informações de documentos em hospitais municipais.

Todas essas aplicações, de naturezas e riscos distintos, poderiam, a depender da interpretação do PL, ser enquadradas como de alto risco. Como já apontou o professor Juliano Maranhão, da Universidade de São Paulo (USP), ao combinar critérios gerais com exemplos, a proposta pode classificar como alto risco situações que, na prática, não apresentam consequências relevantes sobre direitos fundamentais.

Na avaliação da Secretaria Municipal de Inovação e Tecnologia de São Paulo, a regulação em debate “é adequada para um ambiente tecnológico dinâmico, desde que acompanhada de revisão contínua e flexibilidade”. Em nota, o órgão afirma que a futura legislação “não deve frear a inovação, mas sim estruturá-la”.

O custo que ninguém calculou

Um dos problemas centrais do projeto, segundo Steibel, do ITS, é a ausência de estudos de impacto para municípios e estados. “Ninguém calculou quanto custa o compliance. Nem do baixo risco, nem do alto risco. A União Europeia fez esse cálculo, e o resultado mostrou que o custo de adequação é extremamente danoso para pequenas e médias empresas. No Brasil, esse estudo ainda não existe”, afirma.

A falta deste tipo de dado se torna mais crítica, especialmente, para os municípios menores – com equipes reduzidas e orçamentos limitados. O risco é que a regulação, em vez de estruturar a inovação, a concentre nas mãos de quem já tem condições de arcar com os custos de conformidade.

Conheça o Estúdio JOTA e as soluções para fortalecer a presença de marcas nos debates públicos

Steibel lembra ainda que o custo regulatório afeta diretamente o acesso a capital. Quando surgem novas obrigações e o fornecedor não tem recursos para se adequar, o dinheiro captado fica mais caro. “Seja em juros, em contrapartidas, o que for. E isso diminui a inovação”, diz. Para startups e fornecedores menores que desenvolvem soluções para o setor público, isso pode significar simplesmente sair do mercado.

Impasse entre controle e exceções

Para Steibel, nenhuma área concentra mais investimentos em IA no Brasil do que a segurança pública. A pressão por mais recursos na área é visível também no Congresso. Um projeto de lei apresentado em 2025 no Senado prevê a destinação mínima de 0,5% do Fundo Nacional de Segurança Pública para o desenvolvimento e incorporação de novas tecnologias, incluindo IA. O fundo tem orçamento de R$ 2,15 bilhões em 2025.

Já Pablo Nunes, coordenador-geral do Centro de Estudos em Segurança e Cidadania (CESeC), destaca que o ponto de partida é reconhecer que a demanda por tecnologia na segurança pública é legítima. “Segurança pública é a área que mais recebe investimentos em inteligência artificial no Brasil e também a que a população mais espera ver aprimorada”, diz.

Porém, apesar dessa necessidade, o debate regulatório não pode se concentrar apenas nas restrições, pois uma boa regulação precisa tanto de salvaguardas para evitar abusos quanto de incentivos para estimular os bons usos. “Precisamos pensar nos dois: nas salvaguardas e nos incentivos.”

O texto atual do PL, no entanto, não equilibra essa equação. O projeto aprovado pelo Senado classifica o reconhecimento facial como de risco excessivo – o nível mais alto previsto – e prevê o banimento no uso indiscriminado em espaços públicos, como ruas, eventos e estádios. Ao mesmo tempo, o PL elabora uma lista extensa de exceções para o uso da mesma tecnologia. “São dois movimentos: o de reconhecer o risco altíssimo desses sistemas, ao mesmo tempo que abre espaço para o seu uso sem nenhum tipo de regulação”, avalia Nunes. “Regular pelas exceções resulta em omissões muito graves e difíceis de defender.”

Steibel aponta que a tecnologia em si não é o problema, mas o contexto de aplicação. Nos aeroportos internacionais de Guarulhos (SP) e do Galeão (RJ), sistemas de reconhecimento facial operam em condições controladas, com iluminação adequada e supervisão humana. Essa análise conjunta aumenta a segurança na tomada de decisões e evita equívocos como o que aconteceu neste ano no carnaval da Bahia, onde um erro de identificação resultou em uma detenção indevida.

Para Nunes, o risco de acentuar a discriminação também antecede a tecnologia. Nesse sentido, a regulação pode e deve assegurar que os sistemas sejam verificáveis, pois uma regulação de IA, por mais bem calibrada que seja, não resolve sozinha distorções institucionais que precedem a chegada da tecnologia. 

“Garantir transparência, auditabilidade e a possibilidade de um controle social do uso dessa tecnologia para a segurança pública e para outras políticas públicas é fundamental para garantir que o uso não recaia na reprodução de racismo, sexismo e de mais discriminações para populações vulnerabilizadas”, avalia o especialista. 

A lei que não pode nascer velha

Outro risco que perpassa toda a discussão é o do envelhecimento precoce do marco regulatório. A IA evolui em ciclos de meses. Leis tramitam em anos. O PL 2.338/2023 começou a tramitar pouco depois da popularização de ferramentas de IA generativa como o ChatGPT e geradores de imagem. “Dado pessoal, uma rede de computadores, os direitos do consumidor – nenhum desses objetos evolui nessa velocidade”, explica Steibel.

O texto do PL prevê um conselho de especialistas para manter a Agência Nacional de Proteção de Dados (ANPD) atualizada sobre os avanços tecnológicos, uma tentativa de evitar que a regulação fique defasada. É um passo, avaliam especialistas, mas insuficiente sem estudos de impacto e regras de transição para sistemas já em operação. 

“Quais são as evidências de que a regra que estou colocando é boa para estados e municípios?”, questiona Steibel. “Esses estudos não estão lá.”

Fonte

ÉTopSaber Notícias
ÉTopSaber Notícias

🤖🌟 Sou o seu bot de notícias! Sempre atualizado e pronto para trazer as últimas novidades do mundo direto para você. Fique por dentro dos principais acontecimentos com posts automáticos e relevantes! 📰✨

Artigos: 69382

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *