Em outros artigos tivemos a oportunidade de comentar sobre alguns critérios quanto às fases de projeto de levantamentos e planejamento de observações por tecnologia GNSS. No presente artigo poderei discorrer um pouco sobre o processamento das observações.

O processamento dos dados gerados pelos receptores de sinais de satélites GPS (ou GNSS) é uma fase do processo de realização de levantamentos geodésicos que requer a devida atenção. Sejam levantamentos que se destinem à construção de redes geodésicas com propósitos gerais, tal como no caso do Sistema Geodésico Brasileiro (SGB), sejam levantamentos com propósitos mais específicos, tal como uma obra de engenharia ou o georreferenciamento de imóveis, nestes casos é necessário que se tenha suficiente confiança de que a posição determinada esteja dentro da tolerância previamente definida.

No cotidiano, a comunidade de profissionais de agrimensura e cartografia faz uso dos programas denominados de “comerciais”, assim designados para distingui-los daqueles voltados para a pesquisa científica. Os primeiros são normalmente dotados de vários módulos e ferramentas com interface mais amigável, resultando em um ambiente mais simplificado devido à automatização de fases e de rotinas pré-definidas de processamento.

Análise dos dados 

Embora se tenha uma aparente sensação de facilidade, o processamento das linhas de base não deve ser tomado como uma atividade simples e automática, como o ato de operação do programa pode supor crer a um operador.

O processamento adequado requer conhecimento sobre geodésia, ajustamento vetorial e estatística. Durante os cálculos, há necessidade de alterar vários parâmetros de processamento e experimentar diferentes tipos de soluções, até que se atinja aquela que proporcione resultados adequados.

Os testes e modelos de soluções podem variar de programa para programa, mas todos apresentam os resultados das soluções associadas a testes estatísticos. Por exemplo, a solução de um vetor pode ser avaliada por um conjunto de parâmetros, sendo alguns deles:
Tipo de solução, se os valores de N (ambigüidades) foram determinados (solução fixa) ou não (solução flutuante);
Taxa da solução fixa (Ratio), obtida pela razão entre a probabilidade de acerto da melhor solução sobre a probabilidade de acerto da segunda melhor solução de ambigüidades;
A variância de referência (Reference Variance), variância a posteriori da unidade de peso do processo de ajustamento da solução).

A boa análise da solução requer que estes parâmetros sejam avaliados em conjunto, para cada solução testada de um mesmo vetor, até que se processe uma na qual eles convirjam para valores aceitáveis. Os vetores que não obtiverem resultados adequados poderão ser eliminados ou observados novamente.

Neste ponto do processamento, tem-se apenas vetores cuja estatística das soluções nos podem indicar se o processamento foi bem sucedido ou não. Porém, ainda se desconhece os valores mais prováveis das coordenadas dos pontos observados. Observe o uso do termo desvio; não devemos dizer erro, pois não se conhece o valor verdadeiro.

Em levantamentos devidamente projetados com critérios de redundância e confiabilidade, para cada ponto, depara-se com mais de um terno de coordenadas geodésicas. Qual delas é a mais próxima ao valor verdadeiro? Houve algum efeito sistemático? Algum engano poderia estar escondido nos valores determinados pelo processamento das sessões? Os equipamentos operam ou são operados sempre de maneira eficaz, infalivelmente? Para evitar problemas, prejuízos e comprovar que os resultados atendem a determinadas especificações, faz-se necessário testar hipóteses e ajustar a rede constituída pelos vetores ou linhas de base.

Ajustamento

Conclusa, então, a fase de processamento das observações, procede-se à fase de ajustamento vetorial, de forma a obter uma análise da qualidade do conjunto de vetores e da rede propriamente dita, e avaliar a sua integração com os demais vértices do SGB.

Este processo tem objetivos de detectar erros grosseiros ou enganos, efeitos determinísticos e estimar os efeitos estocásticos. Chama-se a atenção para o fato de que o ajustamento não melhora a precisão dos dados, e sim proporciona a estimativa desta sob determinadas hipóteses e fornece o desvio mais provável das coordenadas.

Deve ser observado que o ajustamento, aqui descrito, difere de um simples cálculo e compensação de erro de fechamento (distribuição proporcional de erros). Este não proporciona a devida segurança para os resultados.
Os módulos de ajustamento vetorial, nos programas de processamento de dados GPS, empregam um método de ajustamento por mínimos quadrados cuja formulação geral matricial apresentada abaixo:

Ajustamento

onde:
X é o vetor das correções;
Xα é o vetor dos parâmetros ajustados;
X0 é o vetor dos parâmetros aproximados;
A é a matriz das derivadas parciais das observações indiretas: azimute, distância e diferença de altura, obtidas a partir das coordenadas aproximadas e calculadas com os vetores antes do ajuste;
P é a matriz dos pesos, obtida pelo inverso das variâncias dos parâmetros;
L é o vetor das observações menos o das observações ajustadas.

Os valores finais obtidos no ajustamento vetorial devem ser resultantes do ajustamento com injunção, precedido do ajustamento livre e de testes para avaliar a geometria da rede, por exemplo. A solução final deve ser obtida pela fixação das coordenadas de pontos de controle, adequadamente vinculados à rede do novo levantamento.

Estes pontos podem ser vértices do SGB ou combinados a pontos resultantes de levantamentos anteriores.
Os resultados do processamento dos vetores tendem a ser otimistas. Portanto, é normal, no ajustamento de observações GPS, o emprego de pesos. Mais uma vez é necessário cuidado, pois o uso indiscriminado pode distorcer os resultados e conduzir o analista a enganos. Recomenda-se usar estratégias que minimizem esta possibilidade.

Igualmente devem ser analisados parâmetros estatísticos das soluções de ajustamento, como: a variância da unidade de peso a posteriori aceita pelo teste de chi quadrado, considerando-se a hipótese α = 95%, resíduos normalizados, testes de detecção de erros, histogramas dos resíduos normalizados e elipses e elipsóides de erros. Devem-se expressar os resultados com nível de confiança de 95%. Só então pode-se fazer juízo sobre a precisão das coordenadas determinadas no seu levantamento.

Responsabilidade

Sempre verifique e comprove de forma eficiente e transparente a qualidade dos dados produzidos em seus levantamentos. Esta é a atitude adequada e responsável de um profissional perante seu cliente e a sociedade de que ambos são integrantes.

Régis Bueno
Engenheiro agrimensor
Diretor da Geovector Engenharia Geomática
regisbueno@uol.com.br