top of page

Toda a complexidade da arquitetura representada na figura anterior é tratada pelo ARAF (Augmented Reality Application Format), que cria soluções de software que podem reproduzir qualquer tipo de experiência de realidade aumentada e são fáceis de utilizar para não-programadores (é open source e open standard).

Para que haja interação do mundo real com o mundo virtual são necessários sensores. Os sensores podem ser câmaras, acelerómetro, GPS, microfone, etc. Deste modo, os sensores constituem a primeira parte da arquitetura da realidade aumentada. Estes podem ser classificados em duas categorias:

  1. Os que medem as propriedades físicas do ambiente que não são perceptíveis pelo sentido humano, como por exemplo a localização geográfica.

  2. Os que capturam as propriedades que podem ser detetadas pelos humanos, como por exemplo a câmara.

 

A próxima parte da arquitetura é o Context Analyser. Este analisa a informação adquirida pelos sensores. Esta componente pode ter duas funções:

  1. Reconhecer as condições medidas, como por exemplo a deteção de um rosto pela câmara, ou a posição GPS do utilizador numa dada altura.

  2. Reconhecer e acompanhar esta condição, como processar em 3D a posição do rosto detetado.


A informação adquirida pelo Context Analyser, ou mesmo pelos sensores é transferida, para o “cérebro” do sistema, o MAR (mobile augmented reality) Execution Engine. A principal tarefa desta ferramenta é verificar se as condições estabelecidas pelo designer da tecnologia e a cena MAR coincidem. O resultado produzido por esta ferramenta pode ser apresentado ao utilizador usando displays específicos, como ecrãs, altifalantes, dispositivos de vibração, etc. Toda esta arquitetura pode ser representada pela seguinte figura.

Arquitetura da Realidade Aumentada

Um aspeto muito importante no funcionamento da realidade aumentada é a localização. Tem de ser possível aceder à localização do utilizador para que lhe seja enviado o conteúdo correto, e existem três maneiras de o fazer:

  • Usando GPS, que pode ter uma precisão máxima de três metros, e que faz normalmente parte das características de um smartphone.

  • Usando CBIR (Content Based Image Retrieval), que usa uma base de dados de várias imagens associadas a diferentes conteúdos. Basta tirar uma fotografia e carregá-la nessa base de dados para se ter acesso ao conteúdo correspondente.

  • Pode-se usar uma combinação das duas maneiras acima descritas. Assim, com o GPS é possível restringir a área  na qual a base de dados tem de procurar o conteúdo e também não existem problemas de orientação, visto termos informação sobre o que o utilizador está a visualizar. Assim este torna-se o método mais confiável.

A norma utilizada em Realidade Aumentada é MPEG-A Part 13 (ISO/IEC 23000-13). Esta norma especifica:

  • as regras para as quais o conteúdo de realidade aumentada tem de ser apresentado.

  • mecanismos de conexão a sensores e atuadores locais e remotos.

  • mecanismos para exprimir conteúdos de imagem, áudio, vídeo e gráficos.

  • mecanismos de conexão a fontes remotas, como por exemplo  mapas.

bottom of page