domingo, 25 de abril de 2010

Skinput: pele substitui touchpads e telas sensíveis ao toque

Sensores bioacústicos

Esqueça os touchpads dos notebooks ou as telas sensíveis ao toque de computadores, celulares e outros equipamentos portáteis.


Uma combinação de sensores bioacústicos e um programa de inteligência artificial pode transformar dedos e braços (ou virtualmente qualquer parte do corpo) em um teclado virtual para controlar telefones celulares inteligentes e outros equipamentos eletrônicos.

A tecnologia, batizada de skinput (mescla de skin = pele, e input = entrada de dados), foi desenvolvida por Chris Harrison e Desney Tan Dan Morris, ambos da Universidade Carnegie Mellon, nos Estados Unidos.

Teclado Virtual

O Skinput foi apresentado dia 12/04/2010 em Atlanta, na Conferência Anual Fatores Humanos nos Sistemas de Computação.

A inspiração para o desenvolvimento desta "interface natural", segundo os pesquisadores, veio do crescente aumento do poder computacional dos equipamentos portáteis.

Contudo, as dimensões dos smartphones, dos tocadores de MP3 e de outros equipamentos portáteis - dimensões que caminham no sentido oposto do seu poder de processamento - torna difícil a sua utilização, limitando seu uso potencial pela dificuldade de acionar seus teclados ou suas telas sensíveis ao toque.

"Com o Skinput, nós podemos usar nossa própria pele - o maior órgão do corpo humano - como um dispositivo de entrada", disse Harrison. "É meios louco pensar que poderíamos criar interfaces em nossos corpos mas, no final das contas, isso faz muito sentido. Nossa pele está sempre conosco, tornando-se a superfície de toque interativa por excelência."

Sensor acústico e inteligência artificial

No protótipo de teclado virtual apresentado na conferência, os sensores acústicos estão ligados ao antebraço. Esses sensores captam o som gerado por ações como bater levemente com os dedos ou simplesmente tocar no antebraço.

O som captado não é o que é transmitido através do ar, mas aquele que vem por ondas transversais através da pele, e por ondas longitudinais, ou de compressão, que viajam através dos nossos ossos.

Harrison descobriu que o toque de cada dedo sobre diversas localizações ao longo do braço produz uma assinatura acústica única, que pode ser identificada por um programa de aprendizagem de máquina.

O programa de inteligência artificial, que melhora seu desempenho à medida que é usado, é capaz de determinar a assinatura de cada toque analisando 186 toques diferentes características dos sinais acústicos, incluindo sua frequência e amplitude.

Teclado na pele

Em um teste envolvendo 20 voluntários o teclado virtual, projetado sobre a pele, foi capaz de identificar as entradas com 88% de exatidão.

A precisão depende da proximidade do toque com os sensores: toques no antebraço puderam ser identificadas com 96% de exatidão quando os sensores estavam fixados abaixo do cotovelo.

"Não há nada de super sofisticado sobre o sensor em si", disse Harrison, "mas ele exige um certo processamento especial. É como um tipo de mouse - a mecânica em si não é revolucionária, mas ele está sendo usado de uma maneira revolucionária".



O sensor do teclado virtual sobre a pele é formado por uma matriz de sensores de vibração de alta precisão, feitos com películas piezoelétricas, montados de forma a poderem oscilar. O protótipo é grande, mas pode facilmente ser miniaturizado para o tamanho de um relógio de pulso.

Além da braçadeira com os sensores e o programa de interpretação dos dados, o Skinput, inclui um pequeno projetor para desenhar o teclado sobre a pele.

Propriocepção

Equipamentos simples, como tocadores de MP3, podem ser controlados simplesmente tocando a pele com a ponta dos dedos, sem a necessidade da projeção dos botões - ou seja, o teclado seria ainda mais virtual, sem nem mesmo a imagem projetada.

Na verdade, o Skinput pode tirar proveito da propriocepção - o sentido que uma pessoa tem da configuração do próprio corpo, permitindo a interação sem nem mesmo olhar para a pele.

Restrições

Os testes indicaram que a precisão do Skinput é afetada por diferentes biotipos (sexo, idade, peso) e diferentes ações executadas por quem está usando (correndo, andando, dançando), ou seja, o ruído e impactos podem degradar os sinais.

Mas, argumentaram os pesquisadores, a quantidade de testes foi limitada, e a precisão provavelmente seria melhor se o programa de inteligência artificial tivesse oportunidade de colher mais informações em condições adversas.