Fotografar em locais públicos como escolas, shopping centers e igrejas tem sido um problema persistente, principalmente nos Estados Unidos. Em diferentes países, o debate acirra-se sobre se as licenças de armas devem ser controladas.
O público continua pagando o preço de um indivíduo que escolhe atirar em pessoas aleatórias. O controlo de armas nos EUA é um direito consagrado e as alterações a este respeito não acontecerão rapidamente.
Nesse ínterim, a inteligência artificial (IA) oferece alguma esperança em oferecer uma melhor resposta ao disparo. Isso não impede o atirador de chegar ao local, mas pode potencialmente ajudar a localizá-lo ou reduzir o custo de vidas humanas.
Várias empresas têm lançado soluções de IA que se integram à segurança em locais públicos, como câmeras de segurança, e fornecem feedback oportuno ao pessoal de segurança para agir quando necessário.
No entanto, as soluções de IA podem não estar isentas de deficiências. Os especialistas afirmam que, em nome da digitalização de locais públicos, a privacidade dos visitantes será comprometida e a IA poderá ser potencialmente usada para discriminar entre comunidades ou raças.
Mas atirar é um grande problema e a segurança e a proteção são preciosas. Não é à toa que o mercado de IA na oferta de soluções tem crescido.
Como a IA pode ajudar a reduzir os tiroteios em massa?
Como estudo de caso, vamos tentar entender como funciona a Zeroeyes, empresa que fornece soluções de IA para monitorar e prevenir ou controlar a violência armada.
O software AI integra-se com câmeras de vigilância em locais públicos e monitora os visitantes.
Quando a câmera detecta uma pessoa com uma arma de fogo visível, o software pisca uma luz vermelha na sala de resposta para um socorrista treinado.
O respondente analisa rapidamente a filmagem e, se uma ameaça for considerada provável, a segurança é imediatamente alarmada, que pode informar as autoridades.
Todo o fluxo pode parecer muito tempo, mas de acordo com Rob Huberty, um dos fundadores do Zeroeyes com Sam Alaimo, ambos ex-Navy SEALS,
“Você anda na frente de uma câmera até o momento em que eles tomaram essa decisão e o horário em que você recebe esse alerta, de 3 a 5 segundos.”
Trata-se de economizar um tempo precioso. Sam Alaimo, um dos fundadores da Zeroeyes, afirma,
Zeroeyes também tem testado robôs e drones para melhorar a capacidade de detectar um atirador, e a IA entra onde a segurança humana enfrenta limitações. É impossível para o pessoal de segurança monitorar constantemente um local público lotado, mas a combinação de IA e câmeras de segurança pode fazer o trabalho com precisão e incansabilidade.
Como funciona?
O sistema de detecção de armas alimentado por IA depende de tecnologias de sensores de ponta e algoritmos sofisticados de aprendizado de máquina. Esses sensores desempenham um papel fundamental na coleta e análise de dados do entorno do sistema, enquanto algoritmos de aprendizado de máquina são empregados para tomar decisões informadas com base nesses dados.
Notavelmente, as câmeras de segurança desempenham um papel crucial nesta configuração, enviando continuamente quadros de amostra para análise usando algoritmos de aprendizagem profunda que foram treinados para identificar armas.
Ao detectar possíveis ameaças, o sistema gera prontamente um alerta contendo o quadro identificado, que é então encaminhado à equipe de segurança para ação imediata.
Perguntas sobre o uso de IA
Três questões sobre o papel da IA no controlo dos tiroteios em massa permanecem sem resposta, incluindo se viola o direito de um indivíduo à privacidade e ao sigilo. E não pode ser usado para discriminar?
Privacidade e segurança
Trinta estados nos EUA permitem que as pessoas possuam e portem legalmente uma arma. Quando você usa o sistema de IA nesses locais, pessoas inocentes provavelmente serão assediadas.
De acordo com Barry Friedman, professor de direito na Universidade de Nova York com interesse em ética em IA,
Como a IA pode distinguir entre armas detidas legalmente e ilegalmente?
Preconceito e discriminação
Os especialistas temem que a IA possa ser usada para assediar pessoas com base na sua raça e cor, dependendo dos conjuntos de dados utilizados para o treino.
Greiner e Alaimo, no entanto, afirmam que o seu software não discrimina com base na raça e na cor.
O resultado final
Apesar das dúvidas e perguntas persistentes dos especialistas, o mercado de software de IA continua a prosperar.
Os clientes parecem priorizar a segurança e a proteção em detrimento das preocupações com a privacidade. Os tiroteios em massa deixam as famílias devastadas e traumatizadas, criando uma forte procura por uma solução duradoura.
Embora a ação governamental em matéria de controlo de armas permaneça ilusória, o software de IA, embora não testado e controverso, preenche uma lacuna na resposta às preocupações do público.
À medida que o debate avança, um sentimento pode ser o de que, por enquanto, a urgência de salvar vidas supera as preocupações com a privacidade.
Até que a intervenção governamental ou circunstâncias imprevistas levem a ajustes nos sistemas de IA, os fabricantes destas soluções poderão continuar a desempenhar um papel significativo no reforço da segurança pública.