Assimilação de dados
Em meteorologia, a assimilação de dados é o procedimento que consiste em corrigir, com ajuda de observações, o estado da atmosfera de uma previsão meteorológica.
Princípio
editarA previsão numérica da evolução da atmosfera depende grandemente das condições iniciais que a ele estão proporcionadas. Um bem que é difícil de determinar, a um dado instante, o estado do atmosfera, isto é o conjunto das variáveis atmosféricas (pressão, temperatura, humidade, etc.) no conjunto do volume, com uma boa resolução e uma boa precisão.
As únicas informações disponíveis a um dado momento são as observações meteorológicas de diferente natureza (rádio sondas, Estações meteorológicas, bóia oceânica, etc.). Mas estas informações não são suficientes. Efectivamente o modelo atmosférico requer da ordem de valores (para todos os campos físicos considerados, em todos os pontos do modelo). O bem atual das observações são da ordem de . Uma mera interpolação não basta nestas condições. Ter então recursos a um método chamado "assimilação de dados".
A assimilação de dados é um método "predição/correcção". Uma previsão, calculada ao passo de tempo precedente e válido ao instante considerado, é utilizada como predição. As observações disponíveis permitem corrigir este esboço para estimar ao melhor o estado real da atmosfera.
Exemplo mero (fora da Meteorologia)
editarDeseja-se conhecer a temperatura numa peça que dispõe de uma fonte de calor pontual de 20°C.
A fonte está presa. Ao tempo , faz 15°C em toda a peça. A fonte de calor activa-se, e é observada na peça.
A previsão consiste em dizer o que fará, ao cabo de um verdadeiro tempo 20°C no ponto de aplicativo da fonte, depois a cada vez mais frio em se afastando : trata-se aqui da previsão válida no conjunto da peça.
O observador volta 3 horas depois. Um termômetro fixado na peça indica 17°C num ponto bastante afastado da fonte onde está suposto fazer 18°C. A assimilação parte da ideia que esta informação vai corrigir a previsão precedente. Por exemplo supondo que localmente, uma reação do ar faz baixar esta temperatura. Ou ainda que a descida da temperatura para além da fonte de calor faz-se mais rapidamente. Obtemos assim uma análise da situação.
O termômetro não é muito preciso, por exemplo um erro de +/- 0,5°C. O conhecimento do erro de observação devida à carência de precisão do termômetro reduzirá o impacto desta observação durante a nossa assimilação. O conhecimento do erro de previsão (por exemplo a carência de informação na isolação exacta da peça), vai jogar no outro sentido. Estes diferentes aspectos estarão expostos mais longe após a formulação matemática.
Formulação matemática
editarQuerer conhecer o estado de um sistema que não evolui no tempo representado por um vetor .(com frequência de dimensão infinita). Se supor-mos espacialmente com ajuda de um operador que da o vetor de dimensão .
Fazer medidas a certos lugares no sistema. Reunir estas informações no vetor das observações de dimensão p. Associa-se um vetor de erro de observação cuja se não conhece, em geral, que a esperança e a variante (ou melhor a sua estimativa). Poder pois construir uma matriz de covariantes . Comparar as observações ao estado real do sistema com ajuda da função de observação (que pode ser linear ou não):
Utilizar um modelo que nós permite avaliar o estado do sistema de maneira aproximada. A estimativa de pelo modelo está chamado vetor de esboço anotado . Associar este vetor com um erro e uma matriz de covariante .
A assimilação de dados consiste em dar a melhor aproximação do estado do sistema a retirar do esboço e das observações. O vetor resultante é o vetor de análise . Procurar também a matriz de covariante de erro .
Primeira solução do problema
editarConsidera-se num primeiro momento o operador linear sem prejuízo do linearizar se não o é . Procurar minimizar o erro cometido a posteriori de minimizando .
Procurar a solução com ajuda de uma regreção linear (ver método do mínimo quadrado), chamado um Ansatz.[1]em assimilação de dado:
Supor que os erros de observação e do esboço estão sem distorção sem prejuízo de retorcer a distorção se existe. Se queremos que o erro da análise se apresente sem distorção, se tem . Obtemos então :
onde se chama o vetor inovação
Procurar agora o ganho óptimo para minimizar . A análise BLUE Best linear unbiased estimator permite obter o ganho óptimo.
Sistema dependente do tempo
editarSupomos agora que o estado do sistema evolui no tempo. Desejar efectuar uma sucessão de análise a todos os instantes possíveis. Temos previsões procedentes do modelo às datas e das observações a várias datas cujas . Anotar o vetor de previsão (que corresponde a no parágrafo que precede), o vetor das observações e o vecteur de análise .
Os diferentes métodos de resolução
editarOs métodos sequenciais
editarPode-se primeiramente resolver este problema com ajuda de método dito sequenciais. Neste tipo de método, há primeiramente a etapa de previsão onde se obtém , depois a etapa de análise onde se combina a informação das observações e da previsão para ter . Poder resumir este problema baixo o jogo de equação que segue:
Aqui é o erro do modelo da passagem do tempo a ao modelo. é o erro de previsão acumulada durante a sucessão das etapas. Associar a a matriz de covariante .
O filtro de Kalman com as anotações da assimilação de dados
editarSupõe-se para este filtro que o operador e são lineares e que os erros de observação e de previsão são sem distorção. Poder demonstrar que os erros de análises estão mostrados sem distorções.
Aqui está o algoritmo do filtro de Kalman no marco da assimilação de dados.
1. Initialização Estimar Estimar a matris de covariante 2. Volta sobre as diferentes datas da observação a. Análise Calcular o ganho com o método BLUE Estimativa de Calculo da matriz da covariante b. Previsão Calcular a nova previsão Calcular a matriz de covariante
O filtro de Kalman estendido
editarO filtro de Kalman extenso retoma exactamente o mesmo princípio que o filtro de Kalman. É apenas necessário de linearizar os operadores e em torno do estado . Aplicar logo exactamente o mesmo algoritmo que precedente. Este filtro funciona bem se a amostragem das observações é elevada bastante ou se as não linearizar do modelo não são demasiado grande.
Neste caso, não procuramos as matrizes e mas a densidade de probabilidade de . Falha primeiramente propor este problema sob esta forma chamada filtro bayesiana.
Anotar , o conjunto das observações passadas entre os instantes e . Considerar agora que o operador de observação não é necessariamente linear e depende também do erro . A priori, conhecemos e . Em realidade, corresponde a .
A ideia do filtro de partículas é de calcular as distribuições de probabilidade com ajuda de uma amostragem do espaço do estado do sistema. Criar partículas a marchar dos pontos escolhidos para a amostragem e seu estado vai evoluir à ajuda do modelo.
Aqui está o algoritmo do filtro de partículas bootstrap.
1. Initialização Amostragem à ajuda de partículas Atribuir um peso idêntico às diferentes partículas 2. Voltar sobre as diferentes datas de observação a. Previsão Propagar as partículas à ajuda do model b. Analisar Calcular os novos pesos das partículas Normalizar os pesos para obter a distribuição de c. Re-amostragem O filtro vai privilegiar uma partícula se se não o amostrado (fenómeno chamado degenarativo). Se re-amostrar com do peso idêntico.
Em geral este método é eficaz para modelos fortemente não lineares mas se a dimensão do estado do sistema é demasiado grande então o filtro já não funciona (em geral maior que 8). Poder também encontrar variantes onde se re-amostra só as partículas que têm um peso demasiado elevado.
O filtro de Kalman de grupos
editarO filtro de grupos utiliza também a noção de partícula mas só gerará os momentos de ordem 1 e 2 da análise. A análise é a mesma que o filtro de Kalman mas das partículas estão criar para propagar os erros da observação.
Este filtro funciona com um modelo não linear mas faz falta linearizar a função de observação para calcular o ganho.
Aqui está o algoritmo:
1. Initialização Estimar Estimar a matriz de covariante Criar N partículas que estimam à ajuda a matriz de covariante 2. Volta nas diferentes datas de observação a. Observação Criar um jogo de observação de distorção nula em torno do valor observado Calcular a matriz de covariante associada b. Análise Cálculo do ganho com o método BLUE Aqui lineariza Estimativa de Aqui não lineariza Calcular a média Cálculo da matriz de covariante c. Previsão Calcular as novas previsões Calcular a matriz de covariante
Filtros reduzidos
editarÉ possível de associar filtros para reduzir a dimensionalidade do sistema. Há vários filtros como o filtro RRSQRT,[2] SEEK[3] ou ainda SEIK.[4]
Os métodos de análises variacional
editarO método de assimilação variacional é utilizada para obter os valores aos pontos de grade do modelo os mais para perto da realidade. Implica encontrar um conjunto de pontos do modelo cuja descrição por uma função se acerca o mais perto dos valores aos pontos observados sem introduzir instabilidade no modelo numérico. Consiste pois de procurar o estado o mais verdadeiro a par dos conhecimentos disponíveis nas leis de probabilidades dos erros de observação.
Isto se faz minimizando por iteração a função perda, com mais frequência a soma dos mínimos quadradas dos desvios entre a análise e a observação ponderada pela qualidade destas últimas. Este processo pode ser feito em 3 ou 4 dimensões.
Assimilação a 3 dimensões (3D-Var)
editarO método a três dimensões, comunemente chamada 3D-Var, faz-se a um passo de tempo fixo nas três dimensões cartesianas X, Y e Z. Como para o filtro de Kalman, o 3D-Var consiste em minimizar a distância ao sentido dos mínimos quadrados entre o estado estimado e as diferentes fontes de informações tais que a previsão precedente e as observações ao tempo inicial. O novo estado analisado é, em geral, utilizado como ponto de saída da previsão seguinte.
A função perda expressa-se como[5]:
Onde :
- é a matriz de covariante do erro de ruído de fundo ;
- é a matriz de covariante do erro de observação.
Assimilação a 4 dimensões (4D-Var)
editarA quatro dimensões, a análise faz-se a vários passos de tempos entre o tempo inicial e um tempo futuro da previsão. Trata-se pois de uma extensão do método 3D-Var que não aponta por obter o estado óptimo a um dado instante, mas a trajectória óptima numa janela de dado tempo. As observações são pois tomadas em conta também em sua distribuição espacial e temporária e o 4D-Var propaga pois a informação contribuída pelas observações ao instante inicial da janela de assimilação.[6]
Esta melhoria do 3D-Var permite acrescentar o conhecimento da evolução do sistema como informação para a análise. Ainda que pede um bem maior de grande potência de cálculo que o método precedente, está feito para ser a mais utilizada nos sistemas de previsão operativa atmosféricas do CEPMMT em 1997, da Météo-France em 2000, e de numeroso outros centros meteorológicos internacionais.[6]
Combinação dos métodos variacional e sequenciais
editarAs técnicas variacionais são mais eficazes para encontrar uma boa análise e as técnicas sequenciais permitem uma caracterização dos erros. Assim, os novos métodos estão inventadas para combinar estes dois aspectos.
Notas e referências
editar- ↑ «Curso Marc Bocquet» (PDF) (em inglês)
- ↑ A. J. Segers Data assimilation in atmospheric chemistry models using Kalman filtering
- ↑ D. T. Pham (1998). «A singular evolutive extended Kalman filter for data assimilation in oceanography». J. Marine Systems (em inglês). pp. 323–340
- ↑ D. T. Pham (2001). «Stochastic methods for sequential data assimilation in strongly non-linear systems». Monthly weather review (em inglês). pp. 1194–1207
- ↑ Centro europeu de investigação e de formação adiantada em cálculo científico (ed.). «3D-Var». Méthode variationnelle (em francês). Consultado em 25 de julho de 2016
- ↑ a b Centro europeu de investigação e de formação adiantada em cálculo científico (ed.). «4D-Var». Méthode variationnelle. Consultado em 25 de julho de 2016
Ligações externas
editar- Marc Bocquet, [1], notas de cursos do Groupe des écoles nationales supérieures de techniques avancées e a École nationale des ponts et chaussées.