Autoregressivo Movimento Média Autocorrelação


Objetivo: Verificar os lotes de Autocorrelação de aleatoriedade (Box e Jenkins, pp. 28-32) são uma ferramenta comumente usada para verificar a aleatoriedade em um conjunto de dados. Essa aleatoriedade é verificada pela computação de autocorrelações para valores de dados em diferentes intervalos de tempo. Se aleatório, tais autocorrelações devem estar próximas de zero para separações de tempo e intervalo. Se não aleatório, uma ou mais das autocorrelações serão significativamente diferentes de zero. Além disso, os gráficos de autocorrelação são usados ​​na fase de identificação do modelo para os modelos de séries temporais médias autorregressivas Box-Jenkins. Autocorrelação é apenas uma medida da aleatoriedade Observe que não corretamente não significa aleatoriamente. Os dados que possuem autocorrelação significativa não são aleatórios. No entanto, dados que não mostram autocorrelação significativa ainda podem exibir aleatoriedade de outras maneiras. A autocorrelação é apenas uma medida de aleatoriedade. No contexto da validação do modelo (que é o principal tipo de aleatoriedade que discutimos no Manual), a verificação da autocorrelação é geralmente um teste suficiente de aleatoriedade, uma vez que os resíduos de modelos de montagem pobres tendem a exibir aleatoriedade não sutil. No entanto, algumas aplicações exigem uma determinação mais rigorosa da aleatoriedade. Nestes casos, uma série de testes, que podem incluir verificação de autocorrelação, são aplicados, pois os dados podem ser não-aleatórios de muitas formas diferentes e muitas vezes sutis. Um exemplo de onde uma verificação mais rigorosa da aleatoriedade é necessária seria testar geradores de números aleatórios. Lote de amostra: as correções automáticas devem ser próximas de zero para a aleatoriedade. Tal não é o caso neste exemplo e, portanto, a suposição de aleatoriedade falha. Esse gráfico de autocorrelação de amostra mostra que a série de tempo não é aleatória, mas sim um alto grau de autocorrelação entre observações adjacentes e adjacentes. Definição: r (h) versus h As tramas de autocorrelação são formadas por eixo vertical: coeficiente de autocorrelação onde C h é a função de autocovariância e C 0 é a função de variância Observe que R h está entre -1 e 1. Observe que algumas fontes podem usar o Seguinte fórmula para a função de autocovariância Embora esta definição tenha menor preconceito, a formulação (1 N) possui algumas propriedades estatísticas desejáveis ​​e é a forma mais utilizada na literatura estatística. Veja as páginas 20 e 49-50 em Chatfield para obter detalhes. Eixo horizontal: intervalo de tempo h (h 1, 2, 3.) A linha acima também contém várias linhas de referência horizontais. A linha do meio está em zero. As outras quatro linhas são 95 e 99 bandas de confiança. Observe que existem duas fórmulas distintas para gerar as faixas de confiança. Se o gráfico de autocorrelação estiver sendo usado para testar aleatoriedade (ou seja, não há dependência de tempo nos dados), recomenda-se a seguinte fórmula: onde N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa ) É o nível de significância. Nesse caso, as bandas de confiança possuem uma largura fixa que depende do tamanho da amostra. Esta é a fórmula que foi usada para gerar as faixas de confiança na trama acima. Os gráficos de autocorrelação também são usados ​​no estágio de identificação do modelo para montagem de modelos ARIMA. Neste caso, um modelo de média móvel é assumido para os dados e as seguintes faixas de confiança devem ser geradas: onde k é o atraso, N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa) é O nível de significância. Nesse caso, as bandas de confiança aumentam à medida que o atraso aumenta. O gráfico de autocorrelação pode fornecer respostas para as seguintes questões: Os dados são aleatórios É uma observação relacionada a uma observação adjacente É uma observação relacionada a uma observação duas vezes removida (etc.) É a série de tempo observada ruído branco É a série temporal observada sinusoidal A série temporal observada é autorregressiva O que é um modelo apropriado para as séries temporais observadas O modelo é válido e suficiente É a fórmula sssqrt válida Importância: Garantir a validade das conclusões da engenharia Aleatoriedade (juntamente com modelo fixo, variação fixa e distribuição fixa) é uma Dos quatro pressupostos que subentendem tipicamente todos os processos de medição. A suposição de aleatoriedade é extremamente importante para os seguintes três motivos: a maioria dos testes estatísticos padrão depende da aleatoriedade. A validade das conclusões do teste está diretamente relacionada à validade do pressuposto de aleatoriedade. Muitas fórmulas estatísticas comumente usadas dependem da suposição de aleatoriedade, sendo a fórmula mais comum a fórmula para determinar o desvio padrão da amostra: onde s é o desvio padrão dos dados. Embora fortemente utilizados, os resultados da utilização desta fórmula não têm valor a menos que a suposição de aleatoriedade seja válida. Para dados univariados, o modelo padrão é Se os dados não são aleatórios, este modelo é incorreto e inválido, e as estimativas para os parâmetros (como a constante) tornam-se absurdas e não válidas. Em suma, se o analista não verificar aleatoriedade, a validade de muitas das conclusões estatísticas torna-se suspeita. O plano de autocorrelação é uma excelente maneira de verificar essa aleatoriedade. Padrão de Mudança Automatizada ARMA (p, q) Modelos para Análise da Série de Tempo - Parte 2 Na Parte 1 consideramos o modelo Autoregressivo de ordem p, também conhecido como AR (p) modelo. Nós o apresentamos como uma extensão do modelo de caminhada aleatória em uma tentativa de explicar correlação serial adicional em séries temporais financeiras. Em última análise, percebemos que não era suficientemente flexível para realmente capturar toda a autocorrelação nos preços de fechamento da Amazon Inc. (AMZN) e do SampP500 US Equity Index. O principal motivo para isso é que ambos esses ativos são condicionalmente heterossegativos. O que significa que eles não são estacionários e têm períodos de variação variável ou aglomeração de volatilidade, que não é levado em consideração pelo modelo AR (p). Em futuros artigos, acabaremos por construir os modelos da Média Mover Integrada Autoregressiva (ARIMA), bem como os modelos condicionalmente heterossejidos das famílias ARCH e GARCH. Esses modelos nos fornecerão nossas primeiras tentativas realistas de previsão dos preços dos ativos. Neste artigo, no entanto, vamos apresentar o modelo da Mente Mover da ordem q, conhecido como MA (q). Este é um componente do modelo ARMA mais geral e, como tal, precisamos compreendê-lo antes de avançar. Eu recomendo que leia os artigos anteriores na coleção Time Series Analysis, se você não tiver feito isso. Todos podem ser encontrados aqui. Modelos de ordem média móvel (MA) q Um modelo de média móvel é semelhante a um modelo autoregressivo, exceto que, ao invés de ser uma combinação linear de valores da série temporária passada, é uma combinação linear dos termos de ruído branco passados. Intuitivamente, isso significa que o modelo MA vê tais choques de ruído brancos aleatórios diretamente em cada valor atual do modelo. Isso contrasta com um modelo de AR (p), onde os choques de ruído brancos só são vistos indiretamente. Através de regressão em termos anteriores da série. Uma diferença fundamental é que o modelo MA só verá os últimos choques q para qualquer modelo particular de MA (q), enquanto que o modelo AR (p) tomará em consideração todos os choques anteriores, embora de forma cada vez mais fraca. Definição Matemática, o MA (q) é um modelo de regressão linear e está estruturado de forma semelhante a AR (p): modelo médio em movimento da ordem q Um modelo de séries temporais, é um modelo médio móvel de ordem q. MA (q), se: begin xt wt beta1 w ldots betaq w end Whereis noise branco com E (wt) 0 e variance sigma2. Se considerarmos o Operador de deslocamento para trás (veja um artigo anterior), podemos reescrever o acima como função phi de: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Utilizaremos o phi Funciona em artigos posteriores. Propriedades de segunda ordem Tal como acontece com AR (p), a média de um processo MA (q) é zero. Isso é fácil de ver, pois a média é simplesmente uma soma de termos de ruído branco, que são todos eles próprios zero. Começar texto enspace mux E (xt) soma E (wi) 0 fim começar texto enspace sigma2w (1 beta21 ldots beta2q) texto final enspace rhok esquerda 1 texto enspace k 0 sum betai beta sumq beta2i texto enspace k 1, ldots, q 0 texto O espaçador k gt q acaba direito. Onde beta0 1. Agora, vamos gerar alguns dados simulados e usá-lo para criar correlogramas. Isto fará a fórmula acima para rhok um pouco mais concreta. Simulações e correlações Comece com um processo MA (1). Se definimos o beta1 0.6, obtemos o seguinte modelo: conforme os modelos AR (p) do artigo anterior, podemos usar R para simular uma série e depois traçar o correlograma. Uma vez que tenhamos muita prática na série anterior de séries de séries de séries de séries de execução, vou escrever o código R na íntegra, em vez de dividi-lo: a saída é a seguinte: como vimos acima na fórmula para rhok , Para k gt q, todas as autocorrelações devem ser zero. Desde q 1, devemos ver um pico significativo em k1 e, em seguida, picos insignificantes subseqüentes a isso. No entanto, devido ao viés de amostragem, devemos esperar ver 5 (marginalmente) picos significativos em um plano de autocorrelação de amostra. Este é precisamente o que o correlograma nos mostra neste caso. Temos um pico significativo em k1 e, em seguida, picos insignificantes para k gt 1, exceto em k4 onde temos um pico marginalmente significativo. Na verdade, esta é uma maneira útil de ver se um modelo de MA (q) é apropriado. Ao analisar o correlograma de uma determinada série, podemos ver quantos atrasos sequenciais não-zero existem. Se existem tais atrasos, então podemos legitimar tentar ajustar um modelo de MA (q) a uma determinada série. Uma vez que temos evidências de nossos dados simulados de um processo de MA (1), agora tentaríamos ajustar um modelo de MA (1) aos nossos dados simulados. Infelizmente, não há um comando ma equivalente para o comando autor do modelo autoregressivo em R. Em vez disso, devemos usar o comando arima mais geral e configurar os componentes autoregressivos e integrados em zero. Fazemos isso criando um vetor 3 e configurando os dois primeiros componentes (os parâmetros autogressivos e integrados, respectivamente) para zero: recebemos algum resultado útil do comando arima. Em primeiro lugar, podemos ver que o parâmetro foi estimado como o chapéu 0.602, que é muito próximo do valor verdadeiro de beta1 0.6. Em segundo lugar, os erros padrão já foram calculados para nós, tornando direto calcular os intervalos de confiança. Em terceiro lugar, recebemos uma variação estimada, probabilidade logarítmica e Critério de Informação Akaike (necessário para a comparação do modelo). A principal diferença entre arima e ar é que arima estima um termo de intercepção porque não subtrai o valor médio da série. Portanto, precisamos ter cuidado ao realizar previsões usando o comando arima. Bem, volte para esse ponto mais tarde. Como uma verificação rápida iria calcular os intervalos de confiança para o chapéu: podemos ver que o intervalo de confiança 95 contém o verdadeiro valor do parâmetro de beta1 0,6 e, portanto, podemos julgar o modelo de um bom ajuste. Obviamente, isso deve ser esperado, já que simulamos os dados em primeiro lugar. Como as coisas mudam se modificarmos o sinal de beta1 para -0,6. Realizemos a mesma análise: A saída é a seguinte: podemos ver que na k1 nós temos um significado Pico no correlograma, exceto que mostra correlação negativa, conforme esperado de um modelo de MA (1) com primeiro coeficiente negativo. Mais uma vez, todos os picos além de k1 são insignificantes. Permite um modelo MA (1) e estimar o parâmetro: hat -0.730, que é uma pequena subestimação de beta1 -0.6. Finalmente, vamos calcular o intervalo de confiança: podemos ver que o verdadeiro valor do parâmetro de beta1-0.6 está contido dentro do intervalo de confiança 95, fornecendo-nos evidência de um bom ajuste de modelo. Permite executar o mesmo procedimento para um processo MA (3). Desta vez, devemos esperar picos significativos em k e picos insignificantes para k gt 3. Vamos usar os seguintes coeficientes: beta1 0,6, beta2 0,4 e beta3 0,2. Permite simular um processo MA (3) deste modelo. Ive aumentou o número de amostras aleatórias para 1000 nesta simulação, o que facilita a visualização da verdadeira estrutura de autocorrelação, à custa de tornar a série original mais difícil de interpretar: a saída é a seguinte: como esperado, os primeiros três picos são significativos . No entanto, também é o quarto. Mas podemos sugerir legitimamente que isso pode ser devido ao viés de amostragem, pois esperamos ver 5 dos picos significativos além do kq. Agora, ajuste um modelo de MA (3) aos dados para tentar e estimar parâmetros: as estimativas hat 0.544, hat 0.345 e hat 0.298 são próximas dos valores reais de beta10.6, beta20.4 e beta30.3, respectivamente. Nós também podemos produzir intervalos de confiança usando os respectivos erros padrão: em cada caso, os 95 intervalos de confiança contêm o verdadeiro valor do parâmetro e podemos concluir que temos um bom ajuste com nosso modelo MA (3), como seria de esperar. Dados Financeiros Na Parte 1, consideramos a Amazon Inc. (AMZN) e o SampP500 US Equity Index. Nós montamos o modelo AR (p) para ambos e descobrimos que o modelo não conseguiu efetivamente capturar a complexidade da correlação serial, especialmente no elenco do SampP500, onde os efeitos de memória longa parecem estar presentes. Eu não vou traçar os gráficos novamente para os preços e autocorrelação, em vez disso eu vou encaminhá-lo para a publicação anterior. Amazon Inc. (AMZN) Comece por tentar ajustar uma seleção de modelos MA (q) para AMZN, ou seja, com q in. Como na Parte 1, use o quantmod para baixar os preços diários do AMZN e, em seguida, converta-os em um fluxo de retorno do log de preços de fechamento: Agora que temos o fluxo de retorno do registro, podemos usar o comando arima para ajustar MA (1), MA (2) e MA (3) e, em seguida, estimar os parâmetros de cada um. Para MA (1) temos: podemos traçar os resíduos das retornos diários do log e o modelo ajustado: observe que temos alguns picos significativos nos atrasos k2, k11, k16 e k18, indicando que o modelo MA (1) é Improvável que seja um bom ajuste para o comportamento dos retornos do registro AMZN, uma vez que isso não parece uma realização de ruído branco. Vamos tentar um modelo de MA (2): ambas as estimativas para os coeficientes beta são negativas. Permite traçar os resíduos uma vez mais: podemos ver que existe uma autocorrelação quase zero nos primeiros atrasos. No entanto, temos cinco picos marginalmente significativos em atrasos k12, k16, k19, k25 e k27. Isso sugere que o modelo MA (2) esteja capturando uma grande quantidade de autocorrelação, mas não todos os efeitos da memória longa. Como sobre um modelo de MA (3) Mais uma vez, podemos traçar os resíduos: o gráfico de resíduos de MA (3) parece quase idêntico ao do modelo MA (2). Isso não é surpreendente, assim como a adição de um novo parâmetro a um modelo que aparentemente explicou muitas correlações em atrasos mais curtos, mas isso não terá muito efeito nos atrasos de longo prazo. Toda essa evidência sugere o fato de que um modelo de MA (q) não é provável que seja útil para explicar toda a correlação serial isoladamente. Pelo menos para a AMZN. SampP500 Se você se lembra, na Parte 1, vimos que a estrutura de retorno do diário diferenciado da primeira ordem do SampP500 possuía muitos picos significativos em vários atrasos, tanto curtos quanto longos. Isso proporcionou evidências de heterocedasticidade condicional (ou seja, aglomeração de volatilidade) e efeitos de memória longa. Isso nos levou a concluir que o modelo AR (p) foi insuficiente para capturar toda a autocorrelação presente. Como já vimos acima, o modelo de MA (q) foi insuficiente para capturar a correlação serial adicional nos resíduos do modelo ajustado para a série de preços de registro diária diferenciada da primeira ordem. Agora tentaremos ajustar o modelo MA (q) ao SampP500. Pode-se perguntar por que estamos fazendo isso é se sabemos que é improvável que seja um bom ajuste. Essa é uma boa pergunta. A resposta é que precisamos ver exatamente como isso não é um bom ajuste, porque este é o processo final que seguiremos quando compararmos com modelos muito mais sofisticados, que são potencialmente mais difíceis de interpretar. Comece por obter os dados e convertê-lo em uma série diferenciada de preços de fechamento diário logaritmicamente transformados como no artigo anterior: agora vamos ajustar um modelo MA (1), MA (2) e MA (3) para A série, como fizemos acima para a AMZN. Comece com MA (1): Vamos fazer um gráfico dos resíduos deste modelo ajustado: O primeiro pico significativo ocorre em k2, mas há muitos mais em k. Esta não é claramente uma percepção do ruído branco e, portanto, devemos rejeitar o modelo MA (1) como um potencial bom ajuste para o SampP500. A situação melhora com MA (2) Mais uma vez, vamos fazer um gráfico dos resíduos desse modelo MA (2) ajustado: Enquanto o pico em k2 desapareceu (como esperamos), ainda ficamos com os picos significativos em Muitos desfasamentos nos resíduos. Mais uma vez, achamos que o modelo MA (2) não é um bom ajuste. Devemos esperar, para o modelo MA (3), ver menos correlação em série em k3 do que para o MA (2), mas, mais uma vez, também não devemos esperar nenhuma redução em atrasos adicionais. Finalmente, vamos fazer uma parcela dos resíduos desse modelo MA (3) ajustado: é precisamente o que vemos no correlograma dos resíduos. Daí o MA (3), como com os outros modelos acima, não é um bom ajuste para o SampP500. Próximas etapas. Já examinamos dois grandes modelos de séries temporais em detalhes, ou seja, o modelo autogressivo de ordem p, AR (p) e, em seguida, a Média móvel da ordem q, MA (q). Verificamos que ambos são capazes de explicar alguns dos aspectos da autocorrelação nos resíduos de preços diferenciados de primeira ordem dos índices de ações e índices, mas a acumulação de volatilidade e os efeitos de memória longa persistem. Finalmente é hora de chamar nossa atenção para a combinação desses dois modelos, a saber, a Média de Movimento Autoregressiva da ordem p, q, ARMA (p, q) para ver se isso irá melhorar a situação. No entanto, teremos que esperar até o próximo artigo para uma discussão completa Clique abaixo para aprender mais sobre. A informação contida neste site é a opinião dos autores individuais com base em sua observação pessoal, pesquisa e anos de experiência. A editora e seus autores não são consultores de investimentos registrados, advogados, CPAs ou outros profissionais de serviços financeiros e não prestam assessoria jurídica, fiscal, contábil, de investimento ou outros serviços profissionais. A informação oferecida por este site é apenas de educação geral. Como cada situação factual de indivíduos é diferente, o leitor deve procurar seu próprio conselheiro pessoal. Nem o autor nem o editor assumem qualquer responsabilidade ou responsabilidade por quaisquer erros ou omissões e não têm responsabilidade nem responsabilidade para com qualquer pessoa ou entidade em relação aos danos causados ​​ou alegadamente causados ​​direta ou indiretamente pelas informações contidas neste site. Use por sua conta e risco. Além disso, este site pode receber compensações financeiras das empresas mencionadas através de publicidade, programas de afiliados ou de outra forma. Taxas e ofertas de anunciantes exibidos neste site mudam com freqüência, às vezes sem aviso prévio. Enquanto nos esforçamos para manter informações oportunas e precisas, os detalhes da oferta podem estar desactualizados. Os visitantes devem assim verificar os termos de tais ofertas antes de participar delas. O autor e a editora estão isentos de responsabilidade pela atualização de informações e declinam a responsabilidade por conteúdo, produtos e serviços de terceiros, inclusive quando acessados ​​através de hiperlinks ou propagandas neste site. Um RIMA significa modelos de Módulos Mínimos Integrados Autoregressivos. Univariado (vetor único) ARIMA é uma técnica de previsão que projeta os valores futuros de uma série inteiramente baseada em sua própria inércia. Sua principal aplicação é a previsão de curto prazo que requer pelo menos 40 pontos de dados históricos. Isso funciona melhor quando seus dados exibem um padrão estável ou consistente ao longo do tempo com uma quantidade mínima de valores atípicos. Às vezes, chamado Box-Jenkins (após os autores originais), o ARIMA geralmente é superior às técnicas de suavização exponencial quando os dados são razoavelmente longos e a correlação entre observações passadas é estável. Se o dado for curto ou altamente volátil, algum método de suavização poderá ser melhor. Se você não tem pelo menos 38 pontos de dados, você deve considerar algum outro método que o ARIMA. O primeiro passo na aplicação da metodologia ARIMA é verificar a estacionaria. A estacionarização implica que a série permanece em um nível bastante constante ao longo do tempo. Se existe uma tendência, como na maioria das aplicações econômicas ou empresariais, seus dados NÃO são estacionários. Os dados também devem mostrar uma variância constante em suas flutuações ao longo do tempo. Isso é facilmente visto com uma série que é fortemente sazonal e cresce a um ritmo mais rápido. Nesse caso, os altos e baixos da sazonalidade se tornarão mais dramáticos ao longo do tempo. Sem essas condições de estacionaridade, muitos dos cálculos associados ao processo não podem ser computados. Se um gráfico gráfico dos dados indica não-estacionária, então você deve diferenciar a série. A diferenciação é uma excelente maneira de transformar uma série não estacionária em uma estacionária. Isso é feito subtraindo a observação no período atual do anterior. Se essa transformação for feita apenas uma vez para uma série, você diz que os dados foram diferenciados pela primeira vez. Este processo elimina essencialmente a tendência se sua série estiver crescendo a uma taxa bastante constante. Se estiver crescendo a uma taxa crescente, você pode aplicar o mesmo procedimento e diferenciar os dados novamente. Os seus dados seriam então diferenciados em segundo lugar. Autocorrelações são valores numéricos que indicam como uma série de dados está relacionada a si mesma ao longo do tempo. Mais precisamente, ele mede quão fortemente os valores de dados em um número especificado de períodos separados estão correlacionados entre si ao longo do tempo. O número de períodos separados costuma ser chamado de atraso. Por exemplo, uma autocorrelação no intervalo 1 mede como os valores de 1 período separado estão correlacionados entre si ao longo da série. Uma autocorrelação no intervalo 2 mede como os dados separados por dois períodos estão correlacionados ao longo da série. As autocorrelações podem variar de 1 a -1. Um valor próximo a 1 indica uma alta correlação positiva, enquanto um valor próximo de -1 implica uma alta correlação negativa. Essas medidas são mais frequentemente avaliadas através de gráficos gráficos chamados correlagramas. Um correlagram traça os valores de auto-correlação para uma determinada série em diferentes atrasos. Isso é referido como a função de autocorrelação e é muito importante no método ARIMA. A metodologia ARIMA tenta descrever os movimentos em uma série de tempo estacionária como uma função do que são chamados de parâmetros verticais autorregressivos e móveis. Estes são referidos como parâmetros AR (autoregessivos) e MA (médias móveis). Um modelo AR com apenas 1 parâmetro pode ser escrito como. X (t) A (1) X (t-1) E (t) onde X (t) séries temporais sob investigação A (1) o parâmetro autorregressivo da ordem 1 X (t-1) a série temporal atrasou 1 período E (T) o termo de erro do modelo Isso significa simplesmente que qualquer valor X (t) pode ser explicado por alguma função de seu valor anterior, X (t-1), além de algum erro aleatório inexplicável, E (t). Se o valor estimado de A (1) fosse de .30, então o valor atual da série ficaria relacionado a 30 de seu valor 1 há. Claro, a série poderia estar relacionada a mais do que apenas um valor passado. Por exemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Isso indica que o valor atual da série é uma combinação dos dois valores imediatamente precedentes, X (t-1) e X (t-2), além de algum erro aleatório E (t). Nosso modelo é agora um modelo de ordem autorregressivo 2. Modelos médios em movimento: um segundo tipo de modelo Box-Jenkins é chamado de modelo de média móvel. Embora esses modelos pareçam muito parecidos com o modelo AR, o conceito por trás deles é bastante diferente. Os parâmetros médios em movimento relacionam o que acontece no período t apenas com os erros aleatórios ocorridos em períodos passados, ou seja, E (t-1), E (t-2), etc., em vez de X (t-1), X ( T-2), (Xt-3) como nas abordagens autorregressivas. Um modelo de média móvel com um termo de MA pode ser escrito da seguinte forma. X (t) - B (1) E (t-1) E (t) O termo B (1) é chamado de MA da ordem 1. O sinal negativo na frente do parâmetro é usado somente para convenção e geralmente é impresso Automaticamente pela maioria dos programas de computador. O modelo acima simplesmente diz que qualquer valor dado de X (t) está diretamente relacionado apenas ao erro aleatório no período anterior, E (t-1) e ao termo de erro atual, E (t). Como no caso de modelos autorregressivos, os modelos de média móvel podem ser estendidos a estruturas de ordem superior cobrindo combinações diferentes e comprimentos médios móveis. A metodologia ARIMA também permite a criação de modelos que incorporam parâmetros de média autorregressiva e móvel em conjunto. Estes modelos são frequentemente referidos como modelos mistos. Embora isso faça para uma ferramenta de previsão mais complicada, a estrutura pode simular a série melhor e produzir uma previsão mais precisa. Os modelos puros implicam que a estrutura consiste apenas em parâmetros AR ou MA - e não ambos. Os modelos desenvolvidos por esta abordagem geralmente são chamados de modelos ARIMA porque eles usam uma combinação de autoregressivo (AR), integração (I) - referente ao processo reverso de diferenciação para produzir as operações de previsão e média móvel (MA). Um modelo ARIMA geralmente é declarado como ARIMA (p, d, q). Isso representa a ordem dos componentes autorregressivos (p), o número de operadores de diferenciação (d) e a ordem mais alta do termo médio móvel. Por exemplo, ARIMA (2,1,1) significa que você tem um modelo autoregressivo de segunda ordem com um componente de média móvel de primeira ordem, cuja série foi diferenciada uma vez para induzir a estacionararia. Escolhendo a especificação correta: o principal problema no clássico Box-Jenkins está tentando decidir qual a especificação ARIMA para usar - i. e. Quantos parâmetros AR e ou MA devem incluir. Isto é o que muito de Box-Jenkings 1976 foi dedicado ao processo de identificação. Dependia da avaliação gráfica e numérica da autocorrelação da amostra e das funções de autocorrelação parcial. Bem, para os seus modelos básicos, a tarefa não é muito difícil. Cada um tem funções de autocorrelação que se parecem de uma certa maneira. No entanto, quando você aumenta a complexidade, os padrões não são facilmente detectados. Para tornar as questões mais difíceis, seus dados representam apenas uma amostra do processo subjacente. Isso significa que erros de amostragem (outliers, erro de medição, etc.) podem distorcer o processo de identificação teórica. É por isso que a modelagem ARIMA tradicional é uma arte e não uma ciência.

Comments