Tuesday 8 May 2018

Moving average model acf


AR / MA, ARMA Acf - Pacf Visualizations Como mencionado no post anterior. Eu tenho trabalhado com simulações Autoregressive e Moving Average. Para testar a exatidão das estimativas por nossas simulações, empregamos ACF (autocorrelação) e pacf (autocorrelação parcial) para nosso uso. Para diferentes ordens de AR e MA, obtemos as visualizações variáveis ​​com elas, como: Curvas decrescentes exponenciais. Ondas senoidais amortecidas. Picos positivos e negativos, etc. Enquanto analisava e escrevia testes para os mesmos, também demorei um tempo para visualizar esses dados em gráficos de barras e ilusões para obter uma imagem mais clara: processo AR (1) processo AR (1) é a simulação autoregressiva com ordem p 1, ou seja, com um valor de phi. O processo AR (p) ideal é representado por: Para simular isso, instale statsample-timeseries daqui. Para AR (p), acf deve dar uma onda senoidal de amortecimento. O padrão é muito dependente do valor e sinal dos parâmetros phi. Quando o conteúdo positivo nos coeficientes phi é mais, você terá uma onda senoidal começando do lado positivo, senão, a onda senoidal começará do lado negativo. Observe, a onda senoidal de amortecimento a partir do lado positivo aqui: e lado negativo aqui. pacf dá pico no desfecho 0 (valor 1.0, padrão) e do atraso 1 ao atraso k. O exemplo acima, apresenta o processo AR (2), para isso, devemos obter picos no atraso 1 - 2 como: MA (1) processo MA (1) processo é a simulação de média móvel com ordem q 1. ou seja, com um valor de teta. Para simular isso, use o método masim do processo Statsample :: ARIMA :: ARIMA MA (q) ARMA (p, q) processo ARMA (p, q) é uma combinação de simulações autoregressiva e média móvel. Quando q 0. o processo é chamado de processo autorregressivo puro quando p 0. o processo é puramente médio móvel. O simulador de ARMA pode ser encontrado como armasim em Statsample :: ARIMA :: ARIMA. Para o processo ARMA (1, 1), aqui estão as comparações das visualizações do R e este código, que acabou de fazer o meu dia :) Felicidades, - Ankur Goel Postado por Ankur Goel no dia 20 de julho. 2013 Posts Recentes GitHub ReposIdentificando os números de termos AR ou MA em um modelo ARIMA Gráficos ACF e PACF: Após uma série temporal ter sido estacionarizada por diferenciação, a próxima etapa na instalação de um modelo ARIMA é determinar se os termos AR ou MA são necessários para corrigir qualquer autocorrelação que permaneça nas séries diferenciadas. É claro que, com softwares como o Statgraphics, você pode tentar algumas combinações diferentes de termos e ver o que funciona melhor. Mas existe uma maneira mais sistemática de fazer isso. Observando os gráficos de função de autocorrelação (ACF) e autocorrelação parcial (PACF) das séries diferenciadas, é possível identificar experimentalmente os números de termos de AR e / ou MA necessários. Você já está familiarizado com a plotagem de ACF: é meramente um gráfico de barras dos coeficientes de correlação entre uma série temporal e lags de si mesmo. O gráfico PACF é um gráfico dos coeficientes de correlação parcial entre as séries e as defasagens de si mesmo. Em geral, a correlação entre as duas variáveis ​​é a quantidade de correlação entre elas que não é explicada por suas correlações mútuas com um conjunto específico de outras variáveis. Por exemplo, se estamos regredindo uma variável Y em outras variáveis ​​X1, X2 e X3, a correlação parcial entre Y e X3 é a quantidade de correlação entre Y e X3 que não é explicada por suas correlações comuns com X1 e X2. Esta correlação parcial pode ser calculada como a raiz quadrada da redução na variância que é alcançada pela adição de X3 à regressão de Y em X1 e X2. Uma correlação automática parcial é a quantidade de correlação entre uma variável e um atraso de si mesmo que não é explicado pelas correlações em todos os sinais de ordem inferior. A autocorrelação de uma série temporal Y no intervalo 1 é o coeficiente de correlação entre Yt e Yt - 1. que é presumivelmente também a correlação entre Y t -1 e Y t -2. Mas se Yt está correlacionado com Y t -1. e Yt1 é igualmente correlacionado com Yt2. então devemos também esperar encontrar correlação entre Yt e Yt-2. De fato, a quantidade de correlação que devemos esperar na defasagem 2 é precisamente o quadrado da correlação de defasagem 1. Assim, a correlação no desfasamento 1 indica propagações de 2 e, presumivelmente, de defasagens de ordem mais alta. A autocorrelação parcial na defasagem 2 é portanto a diferença entre a correlação real na defasagem 2 e a correlação esperada devido à propagação da correlação na defasagem 1. Aqui está a função de autocorrelação (ACF) da série UNITS, antes que qualquer diferenciação seja realizada: As autocorrelações são significantes para um grande número de atrasos - mas talvez as autocorrelações nas defasagens 2 e acima se devam apenas à propagação da autocorrelação na defasagem 1. Isto é confirmado pela plotagem do PACF: Note que a plotagem PACF tem uma significância significativa. pico apenas no atraso 1, o que significa que todas as autocorrelações de ordem superior são efetivamente explicadas pela autocorrelação lag-1. As autocorrelações parciais em todos os lags podem ser calculadas ajustando uma sucessão de modelos autorregressivos com números crescentes de lags. Em particular, a autocorrelação parcial no desfasamento k é igual ao coeficiente AR (k) estimado em um modelo autoregressivo com k termos - ou seja, um modelo de regressão múltipla em que Y é regredido em LAG (Y, 1), LAG (Y, 2), etc. até LAG (Y, k). Assim, por meio da simples inspeção do PACF, você pode determinar quantos termos de AR você precisa usar para explicar o padrão de autocorrelação em uma série temporal: se a autocorrelação parcial for significativa na defasagem k e não significativa em defasagens de ordem mais alta - ou seja. se o PACF interrompe o atraso k - isso sugere que você deve tentar ajustar um modelo autorregressivo de ordem k O PACF da série UNITS fornece um exemplo extremo do fenômeno de corte: ele tem um pico muito grande no atraso 1 e não há outros picos significativos, indicando que, na ausência de diferenciação, um modelo AR (1) deve ser usado. No entanto, o termo AR (1) neste modelo será equivalente a uma primeira diferença, porque o coeficiente AR (1) estimado (que é a altura do pico de PACF no desfasamento 1) será quase exatamente igual a 1. Agora, a equação de previsão para um modelo AR (1) para uma série Y sem ordens de diferenciação é: Se o coeficiente AR (1) 981 1 nesta equação for igual a 1, é equivalente a predizer que a primeira diferença de Y é constante - ou seja equivale à equação do modelo de passeio aleatório com crescimento: O PACF da série UNITS está nos dizendo que, se não fizermos diferença, então devemos encaixar um modelo AR (1) que se mostrará equivalente a tomar uma primeira diferença. Em outras palavras, está nos dizendo que as UNITS realmente precisam de uma ordem de diferenciação para serem estacionarizadas. Assinaturas AR e MA: Se o PACF exibir um corte agudo enquanto o ACF decai mais lentamente (ou seja, tem picos significativos em lags maiores), dizemos que a série stationarized exibe uma assinatura quot, significando que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos AR do que adicionando termos MA. Você provavelmente descobrirá que uma assinatura AR é comumente associada à autocorrelação positiva no intervalo 1 - ou seja, tende a surgir em séries que são ligeiramente sub-diferenciadas. A razão para isto é que um termo AR pode agir como uma diferença partidária na equação de previsão. Por exemplo, em um modelo AR (1), o termo AR age como uma primeira diferença se o coeficiente autoregressivo for igual a 1, ele não faz nada se o coeficiente autoregressivo for zero e age como uma diferença parcial se o coeficiente estiver entre 0 e 1. Assim, se a série é ligeiramente subdiaferenciada - ou seja, se o padrão não estacionário de autocorrelação positiva não tiver sido completamente eliminado, será cotada a diferença parcial, exibindo uma assinatura AR. Portanto, temos a seguinte regra para determinar quando adicionar termos AR: Regra 6: Se o PACF da série diferenciada exibir um corte nítido e / ou a autocorrelação lag-1 for positiva - isto é. se a série parecer um pouco "menosprezada", considere adicionar um termo AR ao modelo. O atraso em que o PACF é cortado é o número indicado de termos de AR. Em princípio, qualquer padrão de autocorrelação pode ser removido de uma série estacionária, adicionando termos autorregressivos suficientes (defasagens da série estacionária) à equação de previsão, e o PACF informa quantos termos são provavelmente necessários. No entanto, nem sempre é a maneira mais simples de explicar um determinado padrão de autocorrelação: às vezes, é mais eficiente adicionar termos de MA (atrasos dos erros de previsão). A função de autocorrelação (ACF) desempenha o mesmo papel para os termos de MA que o PACF desempenha para os termos de AR - isto é, o ACF informa quantos termos de AM provavelmente serão necessários para remover a autocorrelação remanescente das séries diferenciadas. Se a autocorrelação for significativa na defasagem k, mas não em defasagens mais altas - ou seja, se o ACF interrompe o atraso, isso indica que exatamente os termos k MA devem ser usados ​​na equação de previsão. Neste último caso, dizemos que a série stationarized exibe uma assinatura “cma”, significando que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos MA do que adicionando termos AR. Uma assinatura de MA é comumente associada à autocorrelação negativa no intervalo 1 - ou seja, tende a surgir em séries que são ligeiramente mais diferenciadas. A razão para isso é que um termo MA pode cancelar parcialmente uma ordem de diferenciação na equação de previsão. Para ver isso, lembre-se de que um modelo ARIMA (0,1,1) sem constante equivale a um modelo de suavização exponencial simples. A equação de previsão para este modelo é onde o coeficiente MA (1) 952 1 corresponde à quantidade 1 - 945 no modelo SES. Se 952 1 é igual a 1, isso corresponde a um modelo SES com 945 0, que é apenas um modelo CONSTANT porque a previsão nunca é atualizada. Isso significa que, quando 952 1 é igual a 1, ele está realmente cancelando a operação de diferenciação que ordinariamente permite que a previsão do SES se ancore novamente na última observação. Por outro lado, se o coeficiente da média móvel for igual a 0, esse modelo se reduz a um modelo de passeio aleatório - ou seja, deixa a operação de diferenciação sozinha. Então, se 952 1 é algo maior que 0, é como se estivéssemos cancelando parcialmente uma ordem de diferenciação. Se a série já está um pouco sobre diferenciado - por exemplo se a autocorrelação negativa tiver sido introduzida - então será cotado para uma diferença ser parcialmente cancelada pela exibição de uma assinatura MA. (Um monte de acenos de braço está acontecendo aqui. Uma explicação mais rigorosa desse efeito é encontrada na Folha de Referência de Modelos Matemáticos ARIMA.) Daí a seguinte regra adicional: Regra 7: Se o ACF da série diferenciada exibir uma corte agudo e / ou a autocorrelação lag-1 é negativa --ie Se a série aparecer um pouco diferente do ponto de vista do cotidiano - considere adicionar um termo MA ao modelo. O atraso em que o ACF é cortado é o número indicado de termos de MA. Um modelo para a série UNITS - ARIMA (2,1,0): Anteriormente determinamos que a série UNITS precisava (pelo menos) uma ordem de diferenciação não sazonal para ser estacionarizada. Depois de tirar uma diferença não sazonal - ou seja ajustando um modelo ARIMA (0,1,0) com constante - os gráficos de ACF e PACF são assim: Observe que (a) a correlação no desfasamento 1 é significativa e positiva, e (b) o PACF mostra um ponto de corte mais agudo do que ACF. Em particular, o PACF tem apenas dois picos significativos, enquanto o ACF tem quatro. Assim, de acordo com a Regra 7 acima, a série diferenciada exibe uma assinatura AR (2). Se, portanto, definir a ordem do termo AR para 2 - ou seja, ajuste um modelo ARIMA (2,1,0) - obtemos os seguintes gráficos ACF e PACF para os resíduos: A autocorrelação nos desfasamentos cruciais - nomeadamente os lags 1 e 2 - foi eliminada e não existe um padrão discernível em lags de ordem superior. O gráfico de séries temporais dos resíduos mostra uma tendência levemente preocupante de se desviar da média: No entanto, o relatório de resumo da análise mostra que o modelo funciona muito bem no período de validação, ambos os coeficientes de AR são significativamente diferentes de zero e o padrão o desvio dos resíduos foi reduzido de 1,54371 para 1,4215 (quase 10) pela adição dos termos AR. Além disso, não há sinal de uma raiz de cotovelo, porque a soma dos coeficientes de AR (0,2522540,195572) não é próxima de 1. (Raízes da unidade são discutidas com mais detalhes abaixo). No geral, este parece ser um bom modelo . As previsões (não transformadas) do modelo mostram uma tendência ascendente linear projetada para o futuro: A tendência nas previsões de longo prazo se deve ao fato de o modelo incluir uma diferença não sazonal e um termo constante: esse modelo é basicamente um passeio aleatório com crescimento ajustado pela adição de dois termos autorregressivos - isto é, duas defasagens das séries diferenciadas. A inclinação das previsões de longo prazo (ou seja, o aumento médio de um período para outro) é igual ao termo médio no resumo do modelo (0,467566). A equação de previsão é: onde 956 é o termo constante no resumo do modelo (0.258178), 981 1 é o coeficiente AR (1) (0.25224) e 981 2 é o coeficiente AR (2) (0.195572). Média versus constante: Em geral, o termo quântico na saída de um modelo ARIMA refere-se à média das séries diferenciadas (ou seja, a tendência média se a ordem de diferenciação for igual a 1), enquanto que o termo "cotação" é o termo constante que aparece no lado direito da equação de previsão. Os termos médio e constante são relacionados pela equação: CONSTANT MÉDIA (1 menos a soma dos coeficientes de AR). Neste caso, temos 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modelo alternativo para a série UNITS - ARIMA (0,2,1): Lembre-se que quando começamos a analisar a série UNITS, não tínhamos certeza absoluta da ordem correta de diferenciação para usar. Uma ordem de diferenciação não sazonal produziu o menor desvio padrão (e um padrão de autocorrelação positiva moderada), enquanto duas ordens de diferenciação não sazonal produziram um gráfico de série temporal mais fixo (mas com autocorrelação negativa bastante forte). Aqui estão tanto o ACF quanto o PACF da série com duas diferenças não sazonais: O pico único negativo no atraso 1 no ACF é uma assinatura MA (1), de acordo com a Regra 8 acima. Assim, se usássemos 2 diferenças não sazonais, também gostaríamos de incluir um termo MA (1), produzindo um modelo ARIMA (0,2,1). De acordo com a Regra 5, também queremos suprimir o termo constante. Aqui, então, estão os resultados de ajustar um modelo ARIMA (0,2,1) sem constante: Observe que o desvio padrão estimado de ruído branco (RMSE) é apenas ligeiramente maior para este modelo do que o anterior (1,46301 aqui versus 1,42515 anteriormente). A equação de previsão para este modelo é: onde theta-1 é o coeficiente MA (1). Lembre-se de que isso é semelhante a um modelo de Suavização Exponencial Linear, com o coeficiente MA (1) correspondendo à quantidade 2 (1-alfa) no modelo LES. O coeficiente MA (1) de 0,76 neste modelo sugere que um modelo LES com alfa na proximidade de 0,72 se ajustaria igualmente bem. Na verdade, quando um modelo LES é ajustado para os mesmos dados, o valor ideal de alfa fica em torno de 0,61, o que não está muito longe. Aqui está um relatório de comparação de modelo que mostra os resultados de ajustar o modelo ARIMA (2,1,0) com constante, o modelo ARIMA (0,2,1) sem constante, e o modelo LES: Os três modelos executam quase identicamente em o período de estimação, e o modelo ARIMA (2,1,0) com constante aparece ligeiramente melhor que os outros dois no período de validação. Com base apenas nesses resultados estatísticos, seria difícil escolher entre os três modelos. No entanto, se traçarmos as previsões de longo prazo feitas pelo modelo ARIMA (0,2,1) sem constante (que são essencialmente as mesmas do modelo LES), vemos uma diferença significativa em relação àquelas do modelo anterior: As previsões têm uma tendência de crescimento um pouco menor do que as do modelo anterior - porque a tendência local perto do final da série é ligeiramente menor do que a tendência média em toda a série - mas os intervalos de confiança aumentam muito mais rapidamente. O modelo com duas ordens de diferenciação assume que a tendência da série é variável no tempo, portanto, considera o futuro distante muito mais incerto do que o modelo com apenas uma ordem de diferenciação. Qual modelo devemos escolher? Isso depende das suposições que estamos confortáveis ​​em fazer com relação à constância da tendência nos dados. O modelo com apenas uma ordem de diferenciação assume uma tendência média constante - é essencialmente um modelo de passeio aleatório ajustado com crescimento - e, portanto, faz projeções de tendência relativamente conservadoras. Também é bastante otimista quanto à precisão com a qual pode prever mais de um período à frente. O modelo com duas ordens de diferenciação assume uma tendência local variável no tempo - é essencialmente um modelo de suavização exponencial linear - e suas projeções de tendência são um pouco mais inconstantes. Como regra geral nesse tipo de situação, eu recomendaria escolher o modelo com a ordem inferior de diferenciação, sendo as outras coisas aproximadamente iguais. Na prática, os modelos de passeio aleatório ou suavização exponencial simples parecem funcionar melhor que os modelos de suavização exponencial linear. Modelos mistos: Na maioria dos casos, o melhor modelo resulta em um modelo que utiliza apenas termos AR ou apenas termos de MA, embora em alguns casos um modelo de cotação com os termos AR e MA possa fornecer o melhor ajuste aos dados. No entanto, deve-se ter cuidado ao instalar modelos mistos. É possível que um termo AR e um termo MA cancelem os efeitos uns dos outros. embora ambos possam parecer significativos no modelo (conforme julgado pela estatística t dos seus coeficientes). Assim, por exemplo, suponha que o modelo quotcorrectquot para uma série temporal seja um modelo ARIMA (0,1,1), mas que você ajuste um modelo ARIMA (1,1,2) - ou seja, você inclui um termo AR adicional e um termo MA adicional. Então, os termos adicionais podem parecer significativos no modelo, mas internamente eles podem estar apenas trabalhando uns contra os outros. As estimativas de parâmetros resultantes podem ser ambíguas e o processo de estimativa de parâmetros pode levar muitas (por exemplo, mais de 10) iterações a convergir. Portanto: Regra 8: É possível que um termo AR e um termo MA cancelem os efeitos uns dos outros, portanto, se um modelo AR-MA misto parece ajustar-se aos dados, tente também um modelo com menos um termo AR e um termo MA a menos - particularmente se as estimativas de parâmetro no modelo original requerem mais de 10 iterações para convergir. Por esse motivo, os modelos ARIMA não podem ser identificados por uma abordagem de "backward stepwise" que inclua os termos AR e MA. Em outras palavras, você não pode começar incluindo vários termos de cada espécie e depois descartando aqueles cujos coeficientes estimados não são significativos. Em vez disso, você normalmente segue uma abordagem por etapas, adicionando termos de um tipo ou outro, conforme indicado pela aparência dos gráficos ACF e PACF. Raízes unitárias: Se uma série é grosseiramente sub ou superdiferenciada - ou seja, se toda uma ordem de diferenciação precisa ser adicionada ou cancelada, isso é freqüentemente sinalizado por uma raiz de cot (quitação) nos coeficientes AR ou MA estimados do modelo. Um modelo AR (1) é dito ter uma raiz unitária se o coeficiente estimado de AR (1) é quase exatamente igual a 1. (Por exemplo, "exatamente igual" não significa significativamente diferente de. Em termos dos coeficientes próprios erros padrão. Quando isso acontece, significa que o termo AR (1) está imitando precisamente uma primeira diferença, caso em que você deve remover o termo AR (1) e adicionar uma ordem de diferenciação. (Isso é exatamente o que aconteceria se você ajustasse um modelo AR (1) à série UNITS não-diferenciada, como observado anteriormente.) Em um modelo AR de ordem mais alta, existe uma raiz unitária na parte AR do modelo se a soma de os coeficientes AR são exatamente iguais a 1. Nesse caso, você deve reduzir a ordem do termo AR em 1 e adicionar uma ordem de diferenciação. Uma série temporal com uma raiz unitária nos coeficientes de AR é não-estacionária - i. e. precisa de uma ordem mais alta de diferenciação. Regra 9: Se houver uma raiz unitária na parte AR do modelo - ou seja, se a soma dos coeficientes de AR for quase exatamente 1 - você deve reduzir o número de termos de RA em um e aumentar a ordem de diferenciação em um. Similarmente, um modelo MA (1) é dito ter uma raiz unitária se o coeficiente MA estimado (1) é exatamente igual a 1. Quando isso acontece, significa que o termo MA (1) está exatamente cancelando uma primeira diferença, em Nesse caso, você deve remover o termo MA (1) e também reduzir a ordem de diferenciação em um. Em um modelo MA de ordem superior, existe uma raiz unitária se a soma dos coeficientes MA for exatamente igual a 1. Regra 10: Se houver uma raiz unitária na parte MA do modelo - ou seja, Se a soma dos coeficientes MA for quase exatamente 1 - você deve reduzir o número de termos MA em um e reduzir a ordem de diferenciação em um. Por exemplo, se você ajustar um modelo de suavização exponencial linear (um modelo ARIMA (0,2,2)) quando um modelo de suavização exponencial simples (um modelo ARIMA (0,1,1)) tiver sido suficiente, você poderá descobrir que a soma dos dois coeficientes MA é quase igual a 1. Ao reduzir a ordem MA e a ordem de diferenciação por um, você obtém o modelo SES mais apropriado. Um modelo de previsão com uma raiz unitária nos coeficientes estimados de MA é considerado não-reversível. o que significa que os resíduos do modelo não podem ser considerados como estimativas do ruído aleatório entre o gráfico que gerou a série temporal. Outro sintoma de uma raiz unitária é que as previsões do modelo podem "aumentar" ou se comportar de maneira estranha. Se o gráfico de séries temporais das previsões de longo prazo do modelo parecer estranho, você deve verificar os coeficientes estimados de seu modelo para a presença de uma raiz unitária. Regra 11: Se as previsões de longo prazo parecerem erráticas ou instáveis, pode haver uma raiz unitária nos coeficientes AR ou MA. Nenhum destes problemas surgiu com os dois modelos aqui instalados, porque tivemos o cuidado de começar com ordens plausíveis de diferenciação e números apropriados de coeficientes RA e MA, estudando os modelos ACF e PACF. Discussões mais detalhadas de raízes unitárias e efeitos de cancelamento entre os termos AR e MA podem ser encontrados na Estrutura Matemática do Formulário de Modelos ARIMA.8.5 Modelos ARIMA não sazonais Se combinarmos a diferenciação com a auto-regressão e um modelo de média móvel, obtemos um resultado não sazonal. Modelo ARIMA. ARIMA é um acrônimo para modelo de Média Móvel Integrada AutoRegressiva (a integração neste contexto é o inverso da diferenciação). O modelo completo pode ser escrito onde y é a série diferenciada (pode ter sido diferenciado mais de uma vez). Os preditores do lado direito incluem os valores defasados ​​dos erros yt e defasados. Nós chamamos isso de modelo ARIMA (p, d, q). onde p ordem da parte autorregressiva d grau de primeira diferenciação envolveu q ordem da parte média móvel. As mesmas condições de estacionariedade e invertibilidade que são usadas para modelos de média regressão e movimento automático aplicam-se a este modelo ARIMA. Quando começamos a combinar componentes dessa maneira para formar modelos mais complicados, é muito mais fácil trabalhar com a notação de backshift. Então equation (ref) pode ser escrito como começar (1-phi1B - cdots - phip Bp) amp (1-B) dy amp amp (1 theta1 B cdots thetaq Bq) e uparrow amp uparrow amp amparrow texto amplificador amp amptext texto final Selecionando valores apropriados para p, d e q podem ser difíceis. A função auto. arima () em R fará isso por você automaticamente. Mais adiante neste capítulo, aprenderemos como a função funciona e alguns métodos para escolher esses valores você mesmo. Muitos dos modelos que já discutimos são casos especiais do modelo ARIMA, conforme mostrado na tabela a seguir. plot 40 previsão 40 fit, h 10 41, include 80 41 Entendendo os modelos ARIMA A função auto. arima () é muito útil, mas qualquer coisa automatizada pode ser um pouco perigosa, e vale a pena entender algo do comportamento dos modelos, mesmo quando você confia em um procedimento automático para escolher o modelo para você. A constante c tem um efeito importante nas previsões de longo prazo obtidas a partir desses modelos. Se c0 e d0, as previsões de longo prazo irão para zero. Se c0 e d1, as previsões de longo prazo irão para uma constante diferente de zero. Se c0 e d2, as previsões de longo prazo seguirão uma linha reta. Se cne0 e d0, as previsões de longo prazo vão para a média dos dados. Se cne0 e d1, as previsões de longo prazo seguirão uma linha reta. Se cne0 e d2, as previsões de longo prazo seguirão uma tendência quadrática. O valor de d também afeta os intervalos de previsão quanto maior o valor de d, mais rapidamente os intervalos de previsão aumentam de tamanho. Para d0, o ​​desvio padrão de previsão de longo prazo irá para o desvio padrão dos dados históricos, portanto os intervalos de previsão serão essencialmente os mesmos. Esse comportamento é visto na Figura 8.8, onde d0 e cne 0. Nesta figura, os intervalos de previsão são os mesmos para os últimos poucos horizontes de previsão, e as previsões pontuais são iguais à média dos dados. O valor de p é importante se os dados mostrarem ciclos. Para obter previsões cíclicas, é necessário ter pge2 junto com algumas condições adicionais nos parâmetros. Para um modelo AR (2), o comportamento cíclico ocorre se phi124phi2lt0. Nesse caso, o período médio dos ciclos é de 1 frac (-phi1 (1-phi2) / (4phi2)). Gráficos ACF e PACF Geralmente, não é possível dizer, simplesmente a partir de um gráfico de tempo, quais valores de peq são apropriados para os dados. No entanto, às vezes é possível usar o gráfico ACF e o gráfico de PACF intimamente relacionado para determinar os valores apropriados para p e q. Lembre-se de que um gráfico ACF mostra as autocorrelações que medem a relação entre yt e y para diferentes valores de k. Agora, se y e y estão correlacionados, então y e y também devem ser correlacionados. Mas então yt e y podem estar correlacionados, simplesmente porque ambos estão conectados a y, e não por causa de qualquer nova informação contida em y que possa ser usada na previsão yt. Para superar esse problema, podemos usar autocorrelações parciais. Estes medem entre y e y depois de remover os efeitos de outros lags de tempo - 1, 2, 3, dots, k - 1. Assim, a primeira autocorrelação parcial é idêntica à primeira autocorrelação, porque não há nada entre eles para remover. As autocorrelações parciais para as defasagens 2, 3 e superiores são calculadas da seguinte forma: Variando o número de termos no lado direito deste modelo de auto-regressão, obtemos alphak para diferentes valores de k. (Na prática, existem algoritmos mais eficientes para calcular o alphak do que ajustar todas essas auto-regressões, mas elas fornecem os mesmos resultados.) A Figura 8.9 mostra os gráficos ACF e PACF para os dados de consumo dos EUA mostrados na Figura 8.7. As autocorrelações parciais têm os mesmos valores críticos de pm 1.96 / sqrt que as autocorrelações comuns, e estas são tipicamente mostradas na plotagem como na Figura 8.9. Figura 8.9: ACF e PACF de variação percentual trimestral no consumo dos EUA. Uma maneira conveniente de produzir um gráfico de tempo, um gráfico de ACF e um gráfico de PACF em um comando é usar a função tsdisplay em R. par 40 mfrow c 40 1. 2 41 41 Acf 40 usconsumption 91. 1 93, main quotquot 41 Pacf 40 usconsumption 91. 1 93, main quotquot 41 Se os dados forem de um modelo ARIMA (p, d, 0) ou ARIMA (0, d, q), então os gráficos ACF e PACF podem ser úteis para determinar o valor de p ou q . Se ambos p e q são positivos, então os gráficos não ajudam a encontrar valores adequados de peq. Os dados podem seguir um modelo ARIMA (p, d, 0) se os gráficos ACF e PACF dos dados diferenciados mostrarem os seguintes padrões: o ACF é decaimento exponencial ou sinusoidal há um aumento significativo no desfasamento p no PACF, mas nenhum além lag p. Os dados podem seguir um modelo ARIMA (0, d, q) se os gráficos ACF e PACF dos dados diferenciados mostrarem os seguintes padrões: o PACF é decaimento exponencial ou sinusoidal há um aumento significativo no atraso q no ACF, mas nenhum além atraso q. Na Figura 8.9, vemos que há três picos no ACF e depois não há picos significativos depois (além de um apenas fora dos limites no desfecho 14). No PACF, há três picos que diminuem com o atraso e, em seguida, não há picos significativos depois disso (com exceção de um apenas fora dos limites no desfecho 8). Podemos ignorar um pico significativo em cada parcela se estiver fora dos limites e não nos primeiros poucos atrasos. Afinal, a probabilidade de um pico ser significativo por acaso é de cerca de um em vinte, e estamos traçando 21 pontos em cada parcela. O padrão nos três primeiros picos é o que esperaríamos de um ARIMA (0,0,3), pois o PACF tende a decair exponencialmente. Portanto, neste caso, o ACF e o PACF nos levam ao mesmo modelo obtido com o procedimento automático. cos cos é a função cosseno inversa. Você deve ser capaz de encontrá-lo na sua calculadora. Pode ser rotulado como acos ou cos .1608617

No comments:

Post a Comment