Tecnologia

Ecolocalização para seguir todos os seus movimentos

Se a sua reação automática é “não!”, Então “hein?”, Eu estou com você. Em um novo artigo na Applied Physics Letters, uma equipe chinesa está se intrometendo no complicado equilíbrio entre privacidade e segurança com computadores que usam ecolocalização para seguir seus movimentos. Ao treinar a inteligência artificial para filtrar sinais de conjuntos de sensores acústicos, o sistema pode gradualmente aprender a analisar seus movimentos – em pé, sentado, caindo – usando apenas o som ultra-sônico.

Para estudar o autor Xinhua Guo, da Universidade de Tecnologia de Wuhan, o sistema pode ser mais aceitável para os defensores da privacidade do que as câmeras de segurança. Por depender de ondas ultrassônicas, o tipo que os morcegos usam para navegar em espaços escuros, não captura vídeo ou áudio. Ele rastreará a posição do seu corpo, mas você em si.

Uma série de emissores e receptores acústicos (chip verde) reúne ondas ultrassônicas para ensinar um AI a detectar o movimento humano. Crédito de imagem: Xinhua Guo.

Quando ainda mais miniaturizado, o sistema poderia permitir aos cuidadores monitorar pessoas idosas que moram sozinhas caso elas caiam dentro de casa, ou rastrear a segurança do paciente dentro dos quartos do hospital. Poderia até ser instalado em áreas públicas – trens, Ubers, bibliotecas, banheiros de parques, para se proteger contra violência ou assédio sexual, ou substituir câmeras de vídeo em residências AirBnB para proteger tanto a propriedade quanto a privacidade do hóspede.

Como o sistema só detecta o movimento do corpo, não há problema com o reconhecimento facial – ou talvez com qualquer identificação – baseado apenas em gravações. O sistema nem gera formas corporais semelhantes a bolhas que favorecem as telas das câmeras corporais dos aeroportos dos EUA. Ele está monitorando, sim, mas com um fino véu de privacidade, semelhante a deixar comentários semi anônimos online.

Pelo menos esse é o tom. Se você é um pouco cético, eu também estou. San Francisco proibiu recentemente a tecnologia de reconhecimento facial, e Nova York pode em breve seguir com regras de vigilância ainda mais rigorosas. Mas em países onde as câmeras de segurança variam em centenas de milhares e a privacidade não é necessariamente um direito básico, um sistema de monitoramento por ecolocalização pode tranquilizar melhor as pessoas que estão cada vez mais desconfortáveis ​​em ter cada movimento observado e gravado.

“Proteger a privacidade da intrusão de câmeras de vigilância tornou-se uma preocupação global. Esperamos que essa tecnologia possa ajudar a reduzir o uso de câmeras no futuro”, disse Guo.

Como funciona a ecolocalização para seguir as pessoas?

A equipe deu uma dica de morcegos e outros animais que usam a ecolocalização como sua principal ferramenta de navegação.

Ecolocalização para seguir utilizado pelos morcegos

Para ecolocar, você precisa de dois tipos principais de hardware: um sensor, como um microfone, que dispara ondas ultrassônicas para ressaltar superfícies e um receptor que coleta as ondas refletidas. De acordo com Guo, tentativas anteriores de ecolocalização de máquinas geralmente usavam apenas um único microfone e um punhado de sensores. Eficaz, sim, mas não eficiente, como um morcego um pouco deficiente.

“A precisão do reconhecimento não foi muito alta” em cerca de 90%, disseram os autores. Para que um sistema funcione bem como câmeras de vídeo, a precisão precisa estar quase perfeita.

A equipe montou quatro emissores em um espaço tridimensional, com cada um lançando ondas sonoras a 40kHz – aproximadamente duas vezes acima da capacidade auditiva mais alta de um jovem saudável. Para capturar as ondas que se recuperam, eles usaram um conjunto acústico de 256, perfeitamente alinhados em uma única superfície em uma grade de 16 por 16. Ambos os transmissores e receptores estão fisicamente localizados em uma única estrutura semelhante a um chip, visualmente semelhante a sementes redondas que pontilham uma vagem de lótus verde.

Cada vez que um voluntário se movimenta em frente à matriz – em pé, sentado, caindo ou caminhando – o receptor percorre o manto de ondas sonoras refletidas, uma fileira por vez. Ao todo, a equipe tinha quatro pessoas de diferentes alturas e pesos, permitindo que o sistema generalizasse melhor um padrão de dados específico para um movimento, em vez de para uma determinada pessoa.



Agora vem a parte inteligente. Para imitar o processamento do cérebro de morcegos em computadores, a equipe voltou-se para uma rede neural convolucional (CNN), a criança dourada e o cavalo condutor de muitos sistemas atuais de visão computacional. Eles projetaram um algoritmo que primeiro pré-processa todos os dados de ecolocalização para eliminar ruídos – qualquer coisa que os sensores captem fora do alvo de 40kHz, mais ou menos 5kHz para leniência.

O algoritmo de ecolocalização para seguir então analisou os dados coletados ao longo do tempo para analisar os padrões de movimento, semelhante a como as interfaces cérebro-máquina encontram a intenção muscular nos sinais elétricos neurais. Por exemplo, sentar reflete um padrão ligeiramente diferente de ondas sonoras do que em pé ou em queda. Semelhante a outras redes neurais profundas, é impossível explicar como cada posição do corpo difere em termos de ecolocalização, mas as impressões digitais acústicas são distintas o suficiente para que o algoritmo analise com sucesso as quatro atividades testadas 97,5% das vezes.

Em geral, o algoritmo parece identificar melhor a atividade estática, como sentado e em pé, em vez de movimentos. Isso é esperado, explicaram os autores, porque a queda e a caminhada introduzem diferenças individuais na forma como as pessoas se movimentam, dificultando que os computadores descubram um padrão acústico geral.

Big Brother?

O estudo de Guo dentro da ecolocalização para seguir, amplia ainda mais um campo relativamente novo chamado reconhecimento de atividade humana. Aqui, os computadores tentam prever o movimento de uma pessoa com base apenas nos dados do sensor. Pode parecer incrivelmente “big brother”, mas qualquer um que tenha um FitBit, Apple Watch ou outros rastreadores de atividade já colheu os benefícios – o reconhecimento da atividade humana é como seu smartwatch conta seus passos usando o giroscópio embutido.

Ecolocalização para seguir e monitorar

O campo também inclui vigilância por vídeo, como computadores que descobrem o que uma pessoa está fazendo com base em pixels em imagens ou vídeos. Tem um Microsoft Kinect? Essa caixa bacana usa luz infravermelha, uma câmera de vídeo e sensores de profundidade para identificar seu movimento durante o jogo.

“O reconhecimento da atividade humana é amplamente utilizado em muitos campos, como o monitoramento de casas inteligentes, detecção e resgate de incêndios, gerenciamento de pacientes no hospital, etc.”

explicam os autores.

À medida que os sensores se tornam cada vez mais leves, a tecnologia só se expandirá. Em 2017, uma colaboração sino-americana descobriu que é possível rastrear movimentos humanos apenas com base no Wi-Fi. Muitos desses sistemas ainda são grandes demais para serem totalmente portáteis, mas a miniaturização de hardware é quase inevitável no futuro.

Nem todos protestam contra o aumento do monitoramento. Os cuidadores, em particular, podem apreciar a tecnologia para alertá-los sobre a queda do idoso – algo inócuo quando jovem, mas mortal depois de certa idade. Os autores imaginam um sistema totalmente automatizado em que uma queda automaticamente alerta várias fontes de ajuda, sem necessariamente vazar o que a pessoa está fazendo antes da queda.

Mas boas intenções à parte, o sistema de ecolocalização para seguir de Guo grita de potencial de uso indevido. Em contraste com o reconhecimento facial, pouca discussão se concentrou em questões de privacidade relacionadas ao rastreamento de atividades humanas. De acordo com Jake Metcalf, especialista em ética tecnológica do instituto de pesquisa Data & Society, em Nova York, o sistema poderia ser facilmente reaproveitado para ouvir a vida privada das pessoas, ou combinado com as tecnologias existentes para aumentar ainda mais a cobertura de vigilância.

Por enquanto, a equipe de Guo está relutante em pesar nas ramificações de privacidade. Em vez disso, sua equipe espera adaptar ainda mais o sistema a atividades mais complexas e a situações “aleatórias”, nas quais uma pessoa pode estar descansando.

“Como sabemos, as atividades humanas são complicadas, tomando a queda como exemplo, e podem se apresentar em várias posturas. Esperamos coletar mais conjuntos de dados de atividade em queda para alcançar maior precisão”, disse ele.

Publicado originalmente em Singularity Hub

Etiquetas
Mostrar mais

Eder Oelinton

Jornalista, amante de tecnologia e curioso por natureza. Busco informações todos os dias para publicar para os leitores evoluírem cada dia mais. Além de muitas postagens sobre varias editorias!

Artigos relacionados

Deixe uma resposta

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Botão Voltar ao topo
Fechar
%d blogueiros gostam disto: