Ano político e uma das pautas da maioria dos candidatos é a segurança pública. Apesar da queda de 7% em comparação com o ano de 2020, não são poucos os casos de crimes violentos que podemos observar no Brasil.
Para se ter ideia, de acordo com um
projeto do G1 em conjunto com a USP e o Fórum Brasileiro de Segurança Pública,
o Monitor da Violência, em 2021 o Brasil teve mais de 41 mil crimes violentos,
com destaque para os estados do Amapá, Ceará e Amazonas, que atingiram altos
índices por 100 mil habitantes. Dentro desse contexto, é importante entender se
é possível e como se pode utilizar a Inteligência Artificial a favor da
segurança pública.
O Centro de Proteção de Infraestrutura
Nacional (CPNI) do Reino Unido, vem estudando diferentes formas de conter ondas
de ataques terroristas. Para isso, eles desenvolveram o Sistema de Detecção de
Disparo de Arma de Fogo (GDS) na qual através de sensores interligadas a um
circuito fechado de câmeras (CFTV), podem detectar sons de tiro e classificar o
tipo de arma, auxiliando a rápida resposta de agentes de segurança
pública.
Esse projeto vem sendo testado em
ambientes fechados, mas tem grande potencial para eventos e shows em áreas
abertas na qual ganha um nível maior de complexidade: a capacidade do sistema
em isolar outros sons da potencial ameaça.
Como exemplo, no Brasil, um homem e uma
mulher foram detidos nos acessos do Maracanã, em 2019, em um jogo entre
Flamengo e Palmeiras. Através das câmeras do Centro Integrado de Comando e
Controle (CICC), os foragidos foram identificados e detidos pela polícia militar.
O que esses dois casos têm em comum?
A análise de imagens e áudio, que
através de inteligência artificial, podem classificar ameaças em prol da
segurança pública. De um lado a identificação de sons de disparos de armas de
fogo, de outro lado, pessoas catalogadas como foragidas.
Em maio deste ano, um tiroteio em massa
com motivação racial levou à morte de 10 pessoas em um supermercado na cidade
de Buffalo, nos Estados Unidos. Como podemos criar barreiras no uso de armas de
fogo em locais públicos sem que transformemos shoppings e eventos em um
“aeroporto”?
O desenvolvimento de sistemas de
Inteligência Artificial faz com que seja capaz a identificação de armas, sem
que haja a necessidade de revista manual através da análise de feixes de luz
emitidos. Dessa forma é identificado se a pessoa porta ou não uma arma. Essa é
uma tecnologia que já está sendo utilizada em estádios de futebol e escolas
públicas.
Já a Universidade de Chicago conseguiu
desenvolver um modelo avançado de machine learning, em um estilo
minority report, capaz de prever com antecedência crimes na cidade. O sistema
utilizou dados históricos de crimes violentos e crimes à propriedade e,
atualmente, possui exatidão de 90% em prever tais eventos.
A Inteligência Artificial e Machine
Learning
De forma sintetizada, a inteligência
artificial é a capacidade de uma máquina em operar tarefas complexas de maneira
similar aos humanos como, por exemplo, identificar objetos. Machine Learning
ou Aprendizado de Máquina é a capacidade da máquina em utilizar dados e
informações para poder se aprimorar e cada vez tomar decisões mais assertivas
como, por exemplo, uma máquina poder identificar diferentes tipos de câncer
através de análise de diversas imagens de diversos pacientes.
Podemos então dizer que o Machine
Learning é a capacidade da Inteligência artificial aprender ao longo do tempo
através das informações que nela são consumidas. Muito parecido com o nosso
modelo de aprendizado.
Atualmente, nós podemos observar a
inteligência artificial sendo aplicada em todos os lugares. Reconhecimento de
sorriso ou face em câmeras de celulares, convertendo sua voz em texto na sua
Smart TV, calculando a melhor rota para o seu destino ou até mesmo no seu jogo
de vídeo-game, ou seja, o comportamento inteligente da máquina operando tarefas
e/ou tomando decisões do dia-a-dia.
Como as câmeras analisam chances de
risco?
A visão computacional é um campo de
estudo aplicado para o reconhecimento de objetos e comportamentos utilizando
Machine Learning. Aliado a câmeras modernas, é possível entender a
probabilidade de um comportamento ser classificado como de risco à segurança.
As câmeras utilizadas pelo poder público possuem alta capacidade de zoom
ótico/digital, assim como alta definição, na qual possibilita o melhor
reconhecimento facial.
Para uso residencial, qualquer câmera
moderna pode ser utilizada para o processo. O grande diferencial está no
software de inteligência artificial que irá identificar a ameaça, seja
procurando pessoas catalogadas em uma base de dados, ou analisando o
comportamento do usuário.
Para ensinar a máquina a reconhecer
eventos que potencialmente ferem a segurança, se pode utilizar a mesma lógica
usada com crianças - os exemplos. Através de vídeos já catalogados como
violentos e não violentos, os algoritmos aprendem a classificá-los e junto aos
seus pais, os cientistas de dados, extraem os fatores determinantes para essa
classificação, como: partes do corpo; ambiente; e o ato violento em si.
Após esse aprendizado, o sistema inicia
seu processo de classificação em tempo real e informa a probabilidade daquele
vídeo ser uma potencial ameaça.
O funcionamento das câmeras
Quando o perigo é detectado pelas
câmeras, as autoridades são chamadas para uma identificação manual, que caso
seja verdadeira, toma-se as devidas providências. Essas câmeras já estão
prontas para serem usadas. As pessoas ou o poder público podem utilizar suas
próprias câmeras, o cerne é o software que irá processar as imagens, seja
localmente nas salas de controle, ou remotamente, na nuvem.
A instalação funciona como qualquer
câmera de CFTV, na qual transmite as imagens para uma central ou são salvas na
nuvem para o processamento do software. Essa comunicação se dá de forma segura
através de criptografia ponta a ponta, assim como o Whatsapp funciona.
Além disso, é importante entendermos
que a privacidade do usuário é importante em qualquer contexto. Na Europa com a
GDRP e aqui no Brasil com a LGPD, temos leis na qual restringem o uso não
consentido de dados sensíveis do usuário e, neste caso, a face de alguém é sim
um dado sensível.
Contudo, o poder público possui essa
autorização (Artigo 4º da LGPD) e dentro das normas de segurança da informação
processam os dados para a manutenção da segurança e o bem-estar da população.
Luiz Paulo Oliveira Paula - Professor de Ciência e Análise de Dados, formado pelo
Instituto Brasileiro de Tecnologia Avançada - IBTA
Nenhum comentário:
Postar um comentário