Reconhecimento Facial como Estrutura para um panóptico racial.
- Rafael
- 28 de jan.
- 3 min de leitura

Sob a promessa de mais segurança, uma revolução silenciosa e digital avança pelas
cidades do Brasil. Centenas de projetos de tecnologia de reconhecimento facial (TRF) estão
sendo implementados em larga escala, colocando quase 40% da população sob o olhar de
algoritmos. Com um investimento público que já ultrapassa R$160 milhões, especialistas e
ativistas alertam: essa nova forma de vigilância não é neutra e pode estar aprofundando
desigualdades históricas, transformando o preconceito em código.
Um levantamento nacional do Centro de Estudos de Segurança e Cidadania (CESeC), feito
em 2024, revelou um cenário alarmante. Existem 337 projetos de TRF ativos no país, a
maioria implementados sem transparência ou debate público. A eficácia da tecnologia é
questionável e seus erros são perigosos. Estudos internacionais, como o realizado por
Grother; Ngan e Hanaoka (2019), no National Institute of Standards and Technology (NIST),
laboratório científico do Departamento de Comércio dos Estados Unidos da América,
mostram que os sistemas falham até cem vezes mais ao identificar rostos negros. No Brasil,
a consequência é brutal: 90% das pessoas presas com o auxílio da tecnologia em 2019
eram negras.
O caso de São Paulo, com o projeto "Smart Sampa", é emblemático. A prefeitura planeja instalar 20 mil novas câmeras, criando um dos maiores sistemas de vigilância do mundo. Para críticos, o projeto representa a consolidação de um "panóptico digital" que em vez de proteger, servirá para controlar populações periféricas e reprimir movimentos sociais.
Um panóptico, conceito de prisão do século XVIII por Jeremy Bentham, permite que um
único vigilante observe todos os prisioneiros sem que estes saibam quando. Essa
assimetria de poder induz autocontrole. Michael Foucault expandiu a ideia para as
sociedades de controle, onde a vigilância constante e invisível molda o comportamento
social.
A tecnologia, desenvolvida majoritariamente no Norte Global, herda uma lógica de poder
herdada do período colonial. Frantz Fanon, um dos pensadores mais influentes do século
XX no campo da filosofia, psicologia e teoria pós-colonial, escreveu sobre como o "olhar
branco" transforma o corpo negro em objeto. Hoje, o algoritmo assume esse papel,
operando com uma objetividade que mascara um preconceito histórico.
Mas a resistência cresce. Movimentos como a campanha "Tire Meu Rosto da Sua Mira" e
laboratórios de dados em favelas, como o Data_labe, da Favela da Maré, no Rio de Janeiro
(RJ), lutam contra essa vigilância massiva. Eles propõem uma "tecnodiversidade", onde a tecnologia seja desenvolvida a partir de outras realidades e para outros fins que não o controle.
Além disso, o CESeC possui um portal de investigação de todos esses projetos no
Brasil, o qual foi intitulado de O Panóptico, fazendo alusão ao conceito trazido inicialmente
por Jeremy Bentham, e referenciado posteriormente por Michael Foucault, contrariando a
simples ideia de estrutura “vigilante”.
A encruzilhada está posta: seguiremos o caminho de uma sociedade vigiada por algoritmos
enviesados ou construiremos um futuro onde a tecnologia sirva à justiça social?
Considerando a velocidade dos avanços dessas tecnologias, é crucial que o Estado
assegure os direitos fundamentais da população, a qual deve também exigir transparência
antecipada nessas negociações. BIBLIOGRAFIA
CARLINO, Federico A. O Panóptico. Antropia.it, [s.l.], 6 out. 2021. Disponível em:
FANON, Frantz. Pele negra, máscaras brancas. Tradução de Renato da Silveira.
Salvador: EDUFBA, 2008. Disponível em:
ng.
GROTHER, Patrick; NGAN, Mei; HANAOKA, Kayee. Face Recognition Vendor Test
(FRVT) Part 3: Demographic Effects. Gaithersburg: NIST, 2019. (NISTIR 8280). DOI:
10.6028/NIST.IR.8280. Disponível em: https://drive.google.com/file/d/1MdQXXhvFd_11CmubLsUdSQ86QWBskU9Y/view?usp=sharing.
HUI, Yuk. Tecnodiversidade. São Paulo: Ubu Editora, 2020. Disponível em:
NUNES, Pablo et al. Mapeando a vigilância biométrica: levantamento nacional sobre o
uso do reconhecimento facial na segurança pública. Rio de Janeiro: CESeC, 2025.
SÃO PAULO (Município). Secretaria Municipal de Segurança Urbana. Programa Smart
Sampa. São Paulo: Secretaria Municipal de Segurança Urbana, 2025. Disponível em:
TIRE MEU ROSTO DA SUA MIRA. Pelo banimento total do uso das tecnologias digitais
de reconhecimento facial na segurança pública, 2024. Disponível em:





Comentários