Responsabilidade do Estado em decisões automatizadas ganha centralidade jurídica no Brasil

Avanço do uso de algoritmos no setor público amplia riscos de erro, exige transparência e reacende debate sobre quem responde por falhas em decisões automatizadas

Pesquisas recentes mostram que pelo menos 67% dos governos nacionais adotam algum tipo de decisão automatizada em políticas públicas, de acordo com levantamento da OCDE de 2024, enquanto estudos do GovTech Maturity Index 2023, do Banco Mundial, apontam que o Brasil figura entre os países com maior expansão de automação em serviços estatais. 

A rapidez desse movimento reacendeu a discussão jurídica sobre a responsabilização do Estado quando algoritmos tomam decisões que afetam diretamente cidadãos, tema que, segundo Fábio Ferreira Menezes, advogado especializado em Direito Administrativo, exige novas diretrizes de transparência, segurança e governança.

“As soluções tecnológicas oferecem ganhos operacionais inegáveis, mas há riscos concretos quando decisões automatizadas produzem efeitos na vida do cidadão sem supervisão, explicabilidade ou critérios de revisão humana”, afirma Menezes. “Do ponto de vista jurídico, o Estado não pode transferir sua responsabilidade para o algoritmo. Se há erro, discriminação ou dano, a obrigação de reparar permanece.”

O debate ganhou força após o crescimento do uso de sistemas de análise de dados para concessão de benefícios sociais, triagem de processos, fiscalização e modelos preditivos na área ambiental e de segurança pública. Estudo da Alan Turing Institute, de 2023, identificou que 41% dos algoritmos governamentais avaliados apresentavam risco de viés ou falta de explicabilidade. No Brasil, decisões automatizadas também se disseminam com a digitalização de cadastros, cruzamento massivo de dados e uso de modelos estatísticos em auditorias.

Especialistas alertam que a expansão tecnológica exige cautela. A Lei Geral de Proteção de Dados estabelece o direito de revisão de decisões automatizadas, mas a aplicação prática ainda é desigual entre órgãos públicos. Para Menezes, a ausência de parâmetros claros pode gerar insegurança jurídica. “É indispensável que cada órgão adote governança própria, registre como o algoritmo funciona, documente o fluxo de decisão e mantenha supervisão humana qualificada. O cidadão tem o direito de saber como a decisão foi produzida e quais critérios foram usados.”

Além dos riscos de erro, há impactos diretos sobre políticas públicas. Segundo o relatório Global Risks Report 2024, do Fórum Econômico Mundial, falhas algorítmicas em governos tendem a aumentar desigualdades, especialmente quando sistemas automatizados classificam pessoas de forma opaca. Para Menezes, esse cenário reforça a necessidade de auditorias independentes e atualizações constantes. “Modelos usados hoje podem não refletir mudanças demográficas, econômicas ou ambientais. Sem revisão periódica, os índices gerados podem estar totalmente desconectados da realidade, criando injustiças ou distorções administrativas.”

O advogado defende que o caminho para maior segurança jurídica passa por diretrizes técnicas e operacionais: supervisão humana obrigatória, mecanismos de contestação acessíveis, documentação auditável e relatórios públicos de uso de algoritmos. “A atuação estatal precisa acompanhar o ritmo da tecnologia. O Estado só garantirá isonomia se souber controlar o que delega à máquina e se mantiver capacidade de revisar e corrigir.”

Organizações como Banco Mundial e OCDE também recomendam que governos publiquem catálogos de algoritmos, com objetivos, dados utilizados e métricas de desempenho. A ausência desses instrumentos, segundo os estudos mais recentes, aumenta o risco de decisões indevidas, discriminação e judicialização.

Para Menezes, o avanço da automação pública é inevitável, mas não pode ocorrer sem um marco de responsabilidade robusto. “A tecnologia deve servir à administração, não o contrário. Quando uma decisão automatizada causa prejuízo ao cidadão, a responsabilidade permanece integralmente com o Estado. Cabe ao poder público garantir que cada modelo seja transparente, auditável e seguro.”