Entrar

    Cadastro

    Notícias

    Colunas

    Artigos

    Informativo

    Estados

    Apoiadores

    Radar

    Quem Somos

    Fale Conosco

Entrar

Congresso em Foco
NotíciasColunasArtigos
  1. Home >
  2. Artigos >
  3. Big Brother Brasil: quando a vigilância sai da TV e aborda você na rua | Congresso em Foco

Publicidade

Publicidade

Receba notícias do Congresso em Foco:

E-mail Whatsapp Telegram Google News

Segurança pública

Big Brother Brasil: quando a vigilância sai da TV e aborda você na rua

Sistema caro e impreciso expõe inocentes, reforça vieses e transfere ao cidadão o custo do erro algorítmico.

Régis de Oliveira Júnior

Régis de Oliveira Júnior

20/2/2026 13:00

A-A+
COMPARTILHE ESTE ARTIGO

O Big Brother Brasil chegou à sua 26ª edição, celebrando a vigilância como entretenimento. Câmeras observam tudo, o tempo inteiro. Ali, o prêmio é dinheiro. E há escolha. Quem entra aceita ser visto e pode sair. Nas ruas brasileiras, a lógica é outra. A vigilância não paga prêmio algum. O "prêmio" pode ser uma abordagem armada por erro de software. E não existe botão de desistência.

O medo da violência é real. Quase metade dos brasileiros afirma que a segurança pública piorou em 2025. Esse sentimento abriu espaço para soluções rápidas, visíveis e politicamente rentáveis. As câmeras ditas inteligentes ocupam esse papel. Parecem modernas, transmitem sensação de controle e rendem boas imagens institucionais. O problema é simples. Sensação não é política pública.

Entre 2024 e 2025, os projetos de reconhecimento facial mais que dobraram no país, alcançando cerca de 40% da população. Estados como Bahia e Rio de Janeiro tornaram-se laboratórios desse experimento. O discurso oficial fala em eficiência. O dado ausente é outro. Quantos cidadãos inocentes precisam ser abordados para que um único suspeito seja identificado.

O reconhecimento facial opera como uma rede de arrastão digital. A rede é lançada sobre todos. Crianças, trabalhadores, turistas. O sistema tenta capturar poucos "tubarões". O problema é que erra muito. Estudos indicam que, fora de ambientes controlados, a taxa de erro pode ultrapassar 90%. Iluminação ruim, ângulo desfavorável ou banco de dados desatualizado bastam. Quando o sistema falha, o erro deixa de ser estatístico. Ele vira abordagem armada por falha de cálculo.

Em Aracaju, durante um evento pré-Carnaval, em 2024, uma jovem negra foi algemada e colocada em um camburão após o sistema apontá-la, de forma equivocada, como foragida. Não era. O erro foi reconhecido depois. A presunção de culpa, não. A tecnologia cria uma culpa automatizada. O rosto vira prova provisória. O cidadão comum passa a depender da sorte para não ser o próximo.

Esse viés não é acidental. Algoritmos aprendem com dados antigos. Bases antigas reproduzem desigualdades antigas. O resultado é previsível. Mulheres, pessoas negras e moradores da periferia aparecem com maior índice de erro no sistema. Não porque erram mais na vida real, mas porque o código foi treinado para reconhecê-los pior. O nome disso é discriminação algorítmica. O impacto é concreto, recorrente e socialmente seletivo.

O argumento econômico desmonta a retórica da eficiência. No Rio de Janeiro, os investimentos em câmeras e softwares alcançaram cifras milionárias. Quando se divide o valor total investido pelo número de prisões efetivamente atribuídas ao sistema, o custo médio supera R$ 1 milhão por prisão. É o equivalente a custear o funcionamento de uma delegacia inteira por um ano para realizar uma única captura algorítmica. Esse recurso pagaria peritos criminais, viaturas, inteligência investigativa e policiamento de bairro. Em vez disso, financia um sistema caro, pouco transparente e impreciso. Isso não é inovação. É populismo tecnológico.

Expansão sem transparência ameaça direitos fundamentais e transforma eficiência prometida em populismo tecnológico.

Expansão sem transparência ameaça direitos fundamentais e transforma eficiência prometida em populismo tecnológico.Freepik

A vigilância por reconhecimento facial, em 2025, não deve ser aceita como um custo inevitável do progresso. Trata-se de uma ameaça concreta à dignidade humana que exige parâmetros éticos imediatos. A política precisa escolher entre o populismo tecnológico e a segurança real. Enquanto o Estado investe cifras milionárias para transformar o rosto do cidadão comum em um identificador público, negligencia o fortalecimento da inteligência policial, da infraestrutura básica e da valorização das forças de segurança que atuam na ponta.

A defesa da privacidade e dos direitos fundamentais não é obstáculo à modernização. É a única salvaguarda contra a presunção de culpa automatizada. Nenhum cidadão deve se tornar vítima de erro algorítmico em nome de uma eficiência que se mostra cara, enviesada e incapaz de substituir o discernimento humano e a investigação técnica.

Transformar o rosto do cidadão brasileiro em dado público em servidores estrangeiros não é segurança. É vigilância sem consentimento.

Há ainda um problema pouco debatido. A soberania. Governos estaduais seguem adquirindo softwares estrangeiros, muitos deles russos ou chineses, estruturas fechadas ao escrutínio público. O Estado não sabe como o sistema decide. O cidadão não sabe onde seu rosto é armazenado. E não há transparência suficiente sobre auditoria, código ou critérios de decisão. Entregar dados biométricos da população a empresas estrangeiras sem controle institucional não é descuido administrativo. É risco estratégico.

O debate legislativo tenta correr atrás. O Projeto de Lei nº 2.338, que trata do Marco Legal da Inteligência Artificial, classifica o reconhecimento facial como sistema de alto risco. Isso já não basta. O Congresso precisa decidir agora se o Brasil seguirá o caminho europeu, que trata o monitoramento biométrico remoto em tempo real como prática inaceitável, ou se continuará expandindo a vigilância sem freios legais claros.

Se houver compromisso com segurança real, o Marco Legal deve exigir relatórios de impacto de proteção de dados e transparência algorítmica antes da primeira câmera ser ligada, além de restringir explicitamente o uso policial em espaços públicos abertos. Sem isso, o Estado governa às cegas e transfere o risco do erro para o cidadão.

A inteligência artificial pode ajudar a encontrar desaparecidos, combater fraudes e proteger o meio ambiente. Mas, quando usada como patrulhamento em massa, corrói a presunção de inocência. Segurança pública não se constrói com atalhos visuais. Constrói-se com investigação, perícia e inteligência humana.

No Big Brother, a vigilância termina quando o programa acaba. Nas ruas, ela começa sem aviso e não tem data para terminar. O rosto não pode ser trocado como uma senha nem cancelado como um cartão. A liberdade não pode ser o custo invisível de uma sensação momentânea de segurança. O Brasil não é uma casa de reality show. É uma democracia que exige garantias, não apenas câmeras.


O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].

Siga-nos noGoogle News
Compartilhar

Tags

inteligência artificial

Temas

Segurança Pública
ARTIGOS MAIS LIDOS
Congresso em Foco
NotíciasColunasArtigosFale Conosco

CONGRESSO EM FOCO NAS REDES