Câmeras para detectar comportamento ‘anormal’

ações

Na busca quimérica da segurança perfeita, os países ocidentais estão a recorrer a tecnologia avançada para detectar e impedir ataques terroristas. Mas estes esquemas dispendiosos muitas vezes não conseguem proporcionar maior segurança, ao mesmo tempo que desgastam ainda mais a liberdade pessoal, como observou Sander Venema nos Países Baixos.

Por Sander Venema

Há alguns dias li um neste artigo sobre como a TNO (Organização Holandesa para Pesquisa Científica Aplicada, o maior instituto de pesquisa da Holanda) tecnologia desenvolvida for câmeras inteligentes para uso no Aeroporto Schiphol de Amsterdã. Estas câmaras — instaladas no aeroporto de Schiphol pelo Inteligência Visual Qubit, uma empresa de Haia – são projetados para reconhecer certos “comportamentos suspeitos”, como correr, agitar os braços ou suar.

Curiosamente, tudo isso é comumente encontrado no ambiente estressante que um aeroporto internacional representa para muitas pessoas. As pessoas precisam chegar ao portão a tempo, o que pode exigir corrida (especialmente se você chegou a Schiphol de trem, que na Holanda é notoriamente não confiável); eles podem ter medo de voar e tentar controlar os nervos; e os aeroportos também são locais onde amigos e familiares se encontram depois de longos períodos no exterior, o que (se quiserem se abraçar) exige acenar com os braços.

Aeroporto Schiphol de Amsterdã.

Aeroporto Schiphol de Amsterdã.

Suspeito que muitos falsos positivos ocorrerão com esta tecnologia devido a isso. É a tecnologia errada no lugar errado. Compreendo perfeitamente a necessidade de segurança nos aeroportos e todos queremos um ambiente seguro tanto para os passageiros como para a tripulação. Os voos precisam operar em condições seguras. O que não entendo é a mentalidade de que cada risco na vida precisa ser minimizado pelas agências governamentais e combatido com tecnologia. Mais tecnologia não significa aeroportos mais seguros.

Teatro de Segurança

Muitas das medidas tomadas nos aeroportos constituem um teatro de segurança. Isto significa que as medidas são, na sua maioria, ineficazes contra ameaças reais e servem principalmente para mostrar. O problema com o perfil automático, que é o que este programa também tenta fazer, é que não funciona. O especialista em segurança Bruce Schneier escreveu extensivamente sobre isso e encorajo você a ler seu ensaio de 2010 “A criação de perfis nos torna menos seguros” sobre o caso específico da segurança das viagens aéreas.

O primeiro problema é que os terroristas não se enquadram num perfil específico ou podem evitar cuidadosamente acções “suspeitas”. Assim, estes sistemas de criação de perfis podem ser contornados assim que as pessoas descubram como fazê-lo, e devido à dependência excessiva da tecnologia em vez do bom senso, isto pode na verdade causar mais insegurança.

No romance Irmão mais novo, Cory Doctorow escreveu sobre como Marcus Yallow colocou cascalho em seus sapatos para enganar as câmeras de reconhecimento de marcha em sua escola, para que ele e seus amigos pudessem sair escondidos para jogar fora. Serão feitas coisas semelhantes para tentar enganar estas câmaras “inteligentes”, mas as consequências podem ser muito maiores.

Na verdade, ficamos mais seguros quando selecionamos pessoas aleatoriamente, em vez de depender de um perfil de ameaça ou perfil comportamental específico para selecionar quem rastrear e quem passa pela segurança sem triagem secundária. O objetivo da triagem aleatória é que ela é aleatória. Portanto, um potencial terrorista não pode saber antecipadamente quais são os critérios que farão com que o sistema o selecione. Se um sistema utiliza critérios específicos, e a segurança do sistema depende do segredo dos próprios critérios, isso significaria que alguém teria apenas de observar o sistema durante tempo suficiente para descobrir quais são os critérios.

A tecnologia pode falhar, algo que as pessoas nem sempre percebem. Outro relatório da TNO intitulado: “Afwijkend Gedrag”(Comportamento anormal) afirma na seção (reconhecidamente pequena) que trata de questões de privacidade que a coleta de dados sobre comportamento anormal de pessoas é eticamente apenas porque a sociedade como um todo pode se tornar mais segura com esses dados e tecnologia associada. Também afirma (e este é um argumento que também li noutros lugares), que “a sociedade escolheu que a segurança e a protecção superam a privacidade”.

Agora, digamos, para fins de argumentação, que isso pode ser verdade em um sentido geral (embora possa ser debatido se isso é verdade). sempre Se for o caso, pessoalmente não penso assim, pois por vezes os custos são demasiado elevados e, afinal, precisamos de manter uma sociedade livre e democrática). O problema aqui é que a forma como a tecnologia e os sistemas de segurança são implementados geralmente não é algo que nós, como sociedade, possamos votar primeiro antes de os contratos (sem dúvida altamente lucrativos) serem assinados.

No caso do aeroporto holandês, Qubit provavelmente viu uma maneira de ganhar dinheiro rápido conversando com a liderança de Schiphol e/ou com o governo (como o estado holandês detém 69.77 por cento das ações do Schiphol) em comprar sua tecnologia. Não é algo sobre o qual as pessoas tiveram um debate consciente e, posteriormente, tomaram uma decisão bem informada.

Principais questões de privacidade

Estabelecemos que esses sistemas são ineficazes e podem ser contornados (como qualquer sistema pode), e não melhorarão a segurança geral. Mas, muito mais importante, existem grandes problemas de privacidade com esta tecnologia. O que Schiphol e Qubit estão a fazer aqui é analisar e armazenar dados sobre milhões de passageiros, a esmagadora maioria dos quais são completamente inocentes. É como atirar em um mosquito com uma bazuca.

O que acontece com esses dados? Não sabemos, e temos que acreditar na palavra de Qubit e Schiphol de que dados sobre membros do público não suspeitos serão excluídos. No entanto, à luz dos acontecimentos recentes em que parece conveniente recolher e armazenar o máximo possível de dados sobre as pessoas, duvido muito que quaisquer eliminações realmente aconteçam.

E o que é triste é que nos Países Baixos o Ministério da Segurança e Justiça está agora a falar em implementar o sistema de análise comportamental acima mencionado noutro local (secreto) nos Países Baixos. Estaremos todos cobaias humanas prontas para serem testadas e brincadas?

O que é anormal?

Também existem problemas com as definições. Isso é algo que vejo repetidamente em projetos que violam a privacidade como este. O que constitui “comportamento anormal”? Quem decide sobre isso e quem controla o que é comportamento anormal e o que não é?

Talvez, num futuro não muito distante, o significado da palavra “anormal” comece a mudar e passe a significar “não como nós”, para alguma definição de “nós”. George Orwell mencionou esse efeito em seu livro Mil novecentos e oitenta e quatro, onde teletelas onipresentes observam e analisam cada movimento seu e nunca se pode ter certeza do que são pensamentos criminosos e do que não são.

Em 2009, quando o projecto de investigação europeu INDECTO foi financiado pela União Europeia, houve perguntas críticas feitas à Comissão Europeia pelo Parlamento Europeu. Mais precisamente, foi perguntado:

Pergunta do PE: Como define a Comissão o termo Comportamento anormal usado no programa?

Resposta da CE: Quanto às questões específicas, a Comissão gostaria de esclarecer que o termo comportamento or Comportamento anormal não é definido pela Comissão. Cabe aos consórcios candidatarem-se a fazê-lo no momento da apresentação de uma proposta, onde cada um dos diferentes projectos visa melhorar a eficiência operacional dos serviços de aplicação da lei, através da prestação de assistência técnica inovadora. [Fonte: Europarl (Perguntas escritas de Alexander Alvaro (ALDE) à Comissão)]

Por outras palavras: de acordo com a Comissão Europeia, depende dos projectos individuais, que são todos vagos quanto às suas definições exactas. E quando você não define definições como essa (e as ancora na lei para que governos e corporações poderosos que supervisionam esses sistemas possam ser responsabilizados!), elas podem ser alteradas ao longo do tempo, quando uma nova liderança chegar ao poder, ou dentro da corporação que controla a tecnologia ou dentro do governo.

Este é um perigo que muitas vezes é esquecido. Não há garantia de que viveremos sempre numa sociedade democrática e livre, e a melhor defesa contra o abuso de poder é garantir que aqueles que estão no poder tenham o mínimo possível de dados sobre si.

Manter essas definições vagas é uma tática importante para assustar as pessoas e levá-las à submissão. Isto tem o perigo inerente de um aumento da missão legislativa. Uma medida que uma vez foi implementada para um propósito específico, logo será usada para outro, se a oportunidade se apresentar.

Uma vez observado que as pessoas estão sendo presas por coisas aparentemente inocentes, muitas pessoas ajustam (sub)conscientemente seu próprio comportamento. Funciona de forma semelhante com a liberdade de expressão: uma vez que certas opiniões e declarações são consideradas contra a lei e são postas em prática pelas autoridades, muitas pessoas começam a pensar duas vezes sobre o que dizem e escrevem. Começam a autocensurar-se, e isso corrói a liberdade das pessoas ao ponto de lentamente nos transformarmos num pesadelo tecnocrata orwelliano. E quando acordarmos já será tarde demais para virar a maré.

Sander Venema é um desenvolvedor e programador Web experiente que está preocupado com os estados de vigilância emergentes que minam as liberdades civis e os direitos humanos. Ele também é o fundador da Asteróide Interativo, uma empresa de design e desenvolvimento Web com sede na Holanda. [Uma versão desta história foi publicada originalmente em http://sandervenema.ch/]

7 comentários para “Câmeras para detectar comportamento ‘anormal’"

  1. Carl Stoll
    Setembro 20, 2014 em 19: 39

    Traçar perfis de pessoas (em oposição a traçar perfis de comportamento) é inútil para detectar crimes descentralizados, como roubo de bolsas, assaltos a bancos, assaltos, etc. Por outro lado, no caso do crime em rede (crime organizado, terrorismo, espionagem, etc. ) o perfil é recomendado pelos principais criminologistas, embora seja uma opinião impopular e poucos o digam abertamente. No entanto, se você ler literatura especializada, entenderá a mensagem muito rapidamente. No seu livro “Understanding Terror Networks”, o ex-agente da CIA Marc Sageman diz isso mesmo.
    Esta é a conclusão de um artigo publicado no Journal of Public Economic Theory:
    “A política de aplicação da lei mais eficaz impõe apenas restrições moderadas à capacidade do agente de traçar perfis. Em contraste com os modelos de crime descentralizado, exigir tratamento igual nunca melhora a eficácia da aplicação da lei.”
    Profiling, Screening and Criminal Recruitment, por Christopher Cotton & Cheng Li, Journal of Public Economic Theory,
    http://onlinelibrary.wiley.com/doi/10.1111/jpet.12115/abstract

  2. FG Sanford
    Setembro 18, 2014 em 19: 12

    Joe T. e Steve apresentam pontos excelentes. Passei quase trinta anos trabalhando em uma área em que tive que suportar programas governamentais que buscavam informatizar tarefas que funcionavam melhor sem a informatização. Havia muitas desculpas e racionalizações para estes programas, mas entre as mais ridículas estava a noção de que os dados informatizados forneciam informações em “tempo real”. Meu argumento sempre foi: “Meu escritório tem um telefone e uma porta. Você pode me ligar ou bater na minha porta. Qualquer outra coisa lhe trará informações obsoletas”. A única coisa realmente conseguida foi criar uma ferramenta de vigilância que monitorasse o pessoal que a utilizava. Isso nunca melhorou a tarefa que eles estavam tentando realizar. Mas CERTAMENTE repassou muito dinheiro dos contribuintes para empresas de TI.

    O reconhecimento facial e a identificação de comportamento parecem-me as coisas que agora chamam de “dispositivos médicos charlatães”. Todos aqueles dispositivos eletromagnéticos e de diatermia por ondas curtas, os tubos luminescentes fluorescentes de alta voltagem que brilhavam em verde, azul e roxo, máquinas de raios X para tratar acne e fluoroscópios para diagnosticar as doenças projetadas da época – a maioria deles se mostrou totalmente inútil, mas alguns dos dispositivos de radiação causaram desfiguração maciça, cicatrizes, debilitação e câncer. Mas a “tecnologia” tinha sido descoberta e, por Deus, eles iriam criar um mercado para ela.

    A miríade de fotos e vídeos de “bin Laden” parece negar qualquer confiabilidade para o “reconhecimento facial”. Ele nunca parece o mesmo duas vezes. Mas, novamente, Sir Laurence Olivier também nunca pareceu o mesmo em nenhum de seus filmes. Alguns afirmam que ele gostava de modificar suas feições com cera no tom da pele. Haverá inevitavelmente “hacks” para a tecnologia moderna. Eu me pergunto quantos congressistas e senadores serão pegos fugindo para interlúdios clandestinos com outras pessoas insignificantes porque exibem “comportamento suspeito” em um aeroporto – obviamente, a NSA e a CIA teriam que garantir que exista um algoritmo para fornecer um “passe livre” no ciberespaço. ” – caso contrário, imagine os problemas que Lindsey Graham e John McCain poderiam criar!

    • Joe Tedesky
      Setembro 18, 2014 em 19: 55

      FG Tudo o que você mencionou aí, desde a tecnologia de reconhecimento até a cera, é gerador de dinheiro. É disso que se trata a Segurança Interna. É aqui que aquela coisa da “Doutrina Bin Laden” está a ter o melhor desempenho. Você mencionou isso em outro post.

      Tenho uma ideia melhor. Vamos contratar alguns porteiros de Jersey para sentar em cada entrada do portão. Não é uma segurança difícil de descobrir, mas não teremos nada daquela coisa gordurosa barata, certo?

      Todos deveríamos nos perguntar que depois de 13 anos dessa porcaria… guerras que não são vencidas, espera em longas filas nos aeroportos para serem inspecionadas… INSPECIONADAS! Você está brincando comigo. Eles estão sempre mudando as regras e não contando aos jogadores. Pense em quantas vezes lhe disseram que desde o 9 de setembro precisamos que você preencha este formulário. Ah, inferno, você sabe do que estou falando.
      Joe Tedesky

  3. JB Smith
    Setembro 18, 2014 em 16: 25

    A iniciativa do cérebro e o Obama Care são os grandes enganos e dois dos piores enganos perpetrados contra os cidadãos dos Estados Unidos da América. As autoridades estaduais e locais estão implantando um biochip em cidadãos inocentes. De acordo com “A Note on Uberveillance” de MG e Katina Michael, é “como um irmão mais velho olhando para fora”. “Salvaguardas em um mundo de inteligência ambiental”, de Springer, página 9, afirma: “A aplicação da lei gostaria que acreditássemos que só podemos estar seguros enquanto eles souberem onde estamos o tempo todo, o que estamos fazendo e o que somos 'pensamento'". É uma grande invasão de privacidade. Eles usam o LRAD, também conhecido como sistema de negação ativa, para fazer você pensar que está ouvindo vozes – ele tem tecnologia como o holofote de áudio e tenta colocá-lo em um estado que o NIJ chama de “delírio excitado”. Em seguida, eles usam operações psicológicas como perseguição, drogas, sequestro, tudo o que podem para 1) colocá-lo em uma “ala de estabilização de crises” (para tirar seus direitos da 2ª Emenda) ou 2) uma prisão ou 3) causar-lhe uma doença infecciosa. É um plano para as autoridades confiscarem todas as armas para que possam torturá-lo sem temer por suas vidas. Eles têm como alvo mulheres cristãs e veteranas militares. Vá para o Rutherford Institute e dê uma olhada em Brandon Raub. Seus advogados descobriram a conspiração contra nossos veteranos e a tornaram pública em documentos judiciais. Eles levam você para enfermarias de estabilização de crises, mesmo que você não seja um perigo para si mesmo ou para os outros e não mostre nenhum sinal de doença mental. Por que? Porque há um caso na Suprema Corte do Juiz Cardoza – Schloendorff v. Society of New York Hospital,105 NE 92 (1914) que diz que qualquer pessoa sã e não um criminoso tem o direito de dizer o que se passa em seu corpo ou em seu corpo . Eles querem garantir que não haja como você conseguir isso. Ninguém na América quer este nível de invasão de privacidade. Além disso, permite que as autoridades tenham a oportunidade de torturá-lo à vontade com privação de sono, ataques cardíacos e outras dores. Quem quer dar aos policiais sedentos de poder o controle sobre nosso sistema nervoso central? O sistema de negação ativo pode assassinar sem deixar marca! O Relatório da Bio Initiative com acréscimos de 2014 detalha todos os cânceres, doenças e deficiências que causa. Daí a necessidade do Obama Care e de abrir ao altar todos os registos médicos dos americanos para que as autoridades policiais possam fazê-lo. A Diretoria Conjunta de Armas Não Letais usou aplicações militares não testadas em mim! A polícia do estado da Virgínia assumiu a responsabilidade pelas operações psicológicas que causaram o Massacre de Virginia Tech. Os Psyops de 2010 do JNLWD se gabam de poder criar vítimas de suicídio e assassinos em massa.

    • FG Sanford
      Setembro 19, 2014 em 15: 09

      JB, é melhor verificar seu detector de fumaça – aposto que a bateria está fraca.

  4. Joe Tedesky
    Setembro 18, 2014 em 14: 49

    Esteja ele no céu com as suas 72 virgens, ou sofrendo no fogo do inferno, Osama Bin Laden deve estar sorrindo quando percebe quanto os EUA gastaram no combate ao terrorismo desde o 9 de Setembro. A cada hora, os EUA gastam 11 milhões de dólares em Segurança Interna. Isso é apenas Segurança Interna. Não, não tenho certeza se isso inclui o TSA... vá pesquisar. Lembrem-se disto: Bin Laden, que foi credenciado por levar a Rússia à falência com a guerra no Afeganistão, acreditava que poderia fazer o mesmo com a América. Bem, caímos na armadilha dele? Você me diz.

    https://www.nationalpriorities.org/cost-of/homeland-security-since-911/081114/

    Imagine se gastássemos tanto em energia alternativa, infra-estruturas necessárias ou cuidados de saúde.

  5. Steve Naidamast
    Setembro 18, 2014 em 13: 45

    Eu nem li o ensaio inteiro para concordar com a descrição de Sander sobre a estupidez (na falta de uma palavra melhor) na tentativa de fazer com que processos computadorizados monitorem cada potencial de risco possível no corpo humano. Simplesmente não é possível, embora proporcione excelentes relações públicas em certos círculos empresariais e certamente gere receitas adicionais para aqueles que promovem tais tecnologias.

    Como engenheiro de software sênior por muitos anos, achei incrível como minha profissão é vista pelos leigos. A maioria acredita que fazemos alguma forma de “mágica” quando na verdade é simplesmente o uso de lógica pura. Porém, isso é apenas no nível de profissionais técnicos de qualidade.

    A gestão do desenvolvimento de software, pelo menos nos Estados Unidos, é muitas vezes dirigida por completos incompetentes que não são menos autoengrandecedores do que qualquer outro tipo de gestor de negócios. Pior ainda, eles sabem muito pouco sobre desenvolvimento de software ou como gerenciá-lo, forçando a subqualidade nos produtos que suas equipes produzem.

    Assim, mesmo ao nível do gestor técnico, os programadores e engenheiros profissionais deparam-se com a metodologia completamente ilógica de trabalhar em tais ambientes, segundo a qual temos de desenvolver software tendo em conta especificações em constante mudança, como resultado da tentativa da gestão de apaziguar e mimar as suas comunidades de utilizadores.

    Para aqueles que estão interessados ​​neste paradoxo há um excelente artigo intitulado “Why Programming Sucks” em http://stilldrinking.org/programming-sucks.

    Embora muito preciso no retrato da minha profissão, também é bastante assustador, pois uma vez que o leitor entenda o que está sendo afirmado no ensaio, ele perceberá a total tolice nas tecnologias que Sander descreveu no ensaio aqui…

Comentários estão fechados.