Autoregressivt integrerat rörligt medelvärde - ARIMA DEFINITION av autoregressivt integrerat rörligt medelvärde - ARIMA En statistisk analysmodell som använder tidsseriedata för att förutsäga framtida trender. Det är en form av regressionsanalys som syftar till att förutsäga framtida rörelser längs den till synes slumpmässiga promenad som tagits av aktier och finansmarknaden genom att undersöka skillnaderna mellan värden i serien istället för att använda de faktiska datavärdena. Lags av de olika serierna kallas autoregressiva och lags inom prognostiserad data kallas glidande medelvärde. BREAKA NED Autoregressivt integrerat rörligt medelvärde - ARIMA Denna modelltyp kallas generellt ARIMA (p, d, q), med heltal som hänvisar till den autoregressiva. integrerade och rörliga genomsnittliga delar av datasatsen. ARIMA modellering kan ta hänsyn till trender, säsongsmässighet. cykler, fel och icke-stationära aspekter av en dataset när man gör prognoser. Autoregressiv Moving Average ARMA (p, q) Modeller för Time Series Analysis - Del 3 Detta är det tredje och sista inlägget i miniserien om autoregressivt rörande medelvärde ( ARMA) modeller för tidsserieanalys. Weve introducerade autoregressiva modeller och rörande genomsnittsmodeller i de två tidigare artiklarna. Nu är det dags att kombinera dem för att producera en mer sofistikerad modell. I slutändan leder detta oss till ARIMA - och GARCH-modellerna som gör det möjligt för oss att förutsäga avkastning och prognosvolatilitet. Dessa modeller kommer att ligga till grund för handelssignaler och riskhanteringstekniker. Om du har läst del 1 och del 2 kommer du ha sett att vi tenderar att följa ett mönster för vår analys av en tidsseriemodell. Jag upprepar det kortfattat här: Bakgrund - Varför är vi intresserade av denna speciella modell Definition - En matematisk definition för att minska tvetydigheten. Korrelogram - Plottar ett provkorrelogram för att visualisera ett modells beteende. Simulering och montering - Montera modellen för simuleringar, för att säkerställa att vi har förstått modellen korrekt. Verkliga finansiella data - Tillämpa modellen på reala historiska tillgångspriser. Prediction - Prognos efterföljande värden för att bygga handelssignaler eller filter. För att följa denna artikel är det lämpligt att ta en titt på de tidigare artiklarna om tidsserieanalys. De kan alla hittas här. Bayesian Information Criterion I del 1 i denna artikel ser vi på Akaike Information Criterion (AIC) som ett sätt att hjälpa oss att välja mellan separata bästa tidsseriemodeller. Ett nära relaterat verktyg är Bayesian Information Criterion (BIC). I huvudsak har det liknande beteende för AIC genom att det straffar modeller för att ha för många parametrar. Detta kan leda till överfitting. Skillnaden mellan BIC och AIC är att BIC är strängare med dess bestraffning av ytterligare parametrar. Bayesian Information Criterion Om vi tar sannolikhetsfunktionen för en statistisk modell, som har k parametrar, och L maximerar sannolikheten. Då anges Bayesian Information Criterion av: där n är antalet datapunkter i tidsserierna. Vi använder AIC och BIC nedan när du väljer lämpliga ARMA (p, q) modeller. Ljung-Box Test I del 1 i denna artikel berättar serien Rajan som nämns i Disqus att Ljung-Box-testet var mer lämpligt än att använda Akaike Informationskriterium för Bayesian Information Criterion för att avgöra om en ARMA-modell var en bra passform till en tid serier. Ljung-Box-testet är ett klassiskt hypotestest som är utformat för att testa om en uppsättning autokorrelationer av en anpassad tidsseriemodell skiljer sig avsevärt från noll. Testet testar inte varje enskild lag för slumpmässighet, utan testar slumpmässigt över en grupp lags. Ljung-Box Test Vi definierar nollhypotesen som: Tidsseriedata vid varje lag är i. i.d .. det vill säga korrelationerna mellan befolkningsserievärdena är noll. Vi definierar den alternativa hypotesen som: Tidsseriedata är inte i. i.d. och har seriekorrelation. Vi beräknar följande teststatistik. Q: Där n är längden på tidsserieprovet är hat k provautokorrelationen vid lag k och h är antalet lags under testet. Beslutsregeln om huruvida nollhypotesen ska avvisas är att kontrollera om Q gt chi2, för en chi-kvadrerade fördelning med h grader av frihet vid 100 (1-alfa) procenten. Medan detaljerna i testet kan verka lite komplexa, kan vi faktiskt använda R för att beräkna testet för oss, förenkla förfarandet något. Autogressive Moving Average (ARMA) Modeller av order p, q Nu när vi diskuterat BIC och Ljung-Box-testet var vi redo att diskutera vår första blandade modell, nämligen det autoregressiva rörliga genomsnittsvärdet för order p, q eller ARMA (p, q). Hittills har vi övervägt autentegressiva processer och rörliga medelprocesser. Den tidigare modellen betraktar sitt eget tidigare beteende som ingångar för modellen och som sådan försöker fånga marknadsaktörseffekter, såsom momentum och medelåtervändning i aktiehandel. Den sistnämnda modellen används för att karakterisera chockinformation till en serie, till exempel ett överraskningsintäktsmeddelande eller en oväntad händelse (till exempel BP Deepwater Horizon oljeutsläpp). Därför försöker en ARMA-modell fånga båda dessa aspekter när man modellerar finansiella tidsserier. Observera att en ARMA-modell inte tar hänsyn till volatilitetsklypning, ett viktigt empiriskt fenomen i många finansiella tidsserier. Det är inte en villkorligt heteroscedastisk modell. Därför måste vi vänta på ARCH och GARCH-modellerna. Definition ARMA (p, q) modellen är en linjär kombination av två linjära modeller och är således fortfarande linjär: Autoregressiv Moving Average Modell av order p, q En tidsseriemodell,, är en autoregressiv glidande genomsnittsmodell av order p, q . ARMA (p, q), om: börja xt alfa1 x alfa2 x ldots wt beta1 w beta2 w ldots betaq w ände Var är vitt brus med E (wt) 0 och varians sigma2. Om vi betraktar Backward Shift Operator. (se en tidigare artikel) då kan vi skriva om ovanstående som en funktion theta och phi: Vi kan enkelt se det genom att ställa p neq 0 och q0 vi återställer AR (p) modellen. På samma sätt om vi ställer p 0 och q neq 0 återställer vi MA (q) modellen. En av huvudfunktionerna i ARMA-modellen är att den är parsimonisk och redundant i sina parametrar. Det innebär att en ARMA-modell ofta kräver färre parametrar än en AR (p) eller MA (q) modell ensam. Dessutom om vi skriver om ekvationen i form av BSO, kan theta och phi-polynomerna ibland dela en gemensam faktor, vilket leder till en enklare modell. Simuleringar och korrelogram Som med de autoregressiva och rörliga genomsnittsmodellerna simulerar vi nu olika ARMA-serier och försöker sedan anpassa ARMA-modellerna till dessa realisationer. Vi genomför det här eftersom vi vill se till att vi förstår anpassningsförfarandet, inklusive hur man beräknar konfidensintervaller för modellerna, samt se till att förfarandet faktiskt återhämtar rimliga uppskattningar för de ursprungliga ARMA-parametrarna. I del 1 och del 2 konstruerade vi manuellt AR - och MA-serien genom att dra N-prov från en normal fördelning och sedan skapa den specifika tidsseriemodellen med hjälp av lager av dessa prover. Det finns emellertid ett enklare sätt att simulera AR, MA, ARMA och till och med ARIMA-data, helt enkelt genom att använda arima. sim-metoden i R. Lets börja med den enklaste möjliga icke-triviala ARMA-modellen, nämligen ARMA (1,1 ) modell. Det vill säga en autoregressiv modell av order en kombinerad med en rörlig genomsnittsmodell av order en. En sådan modell har endast två koefficienter, alfa och beta, som representerar de första lagren av tidsserierna själv och de chocka vita ljudvillkoren. En sådan modell ges av: Vi måste ange koefficienterna före simulering. Låt oss ta alfa 0,5 och beta -0,5: Utgången är enligt följande: Låt oss även plotta korrelogrammet: Vi kan se att det inte finns någon signifikant autokorrelation, vilket kan förväntas från en ARMA (1,1) modell. Slutligen kan vi försöka bestämma koefficienterna och deras standardfel med hjälp av arima-funktionen: Vi kan beräkna konfidensintervallen för varje parameter med hjälp av standardfel: konfidensintervallen innehåller de sanna parametervärdena för båda fallen, men vi bör notera att 95 konfidensintervall är mycket brett (en följd av de rimligt stora standardfel). Nu kan vi prova en ARMA (2,2) modell. Det vill säga en AR (2) modell kombinerad med en MA (2) modell. Vi måste ange fyra parametrar för denna modell: alpha1, alpha2, beta1 och beta2. Låt oss ta alpha1 0.5, alpha2-0.25 beta10.5 och beta2-0.3: Utgången från vår ARMA (2,2) modell är enligt följande: Och motsvarande autokorelering: Vi kan nu försöka montera en ARMA (2,2) modell till data: Vi kan också beräkna konfidensintervallerna för varje parameter: Observera att konfidensintervallet för koefficienterna för den rörliga genomsnittskomponenten (beta1 och beta2) inte innehåller det ursprungliga parametervärdet. Detta beskriver risken att försöka anpassa modeller till data även när vi vet de sanna parametervärdena. För handelsändamål behöver vi bara ha en prediktiv kraft som överstiger chansen och ger tillräckligt med vinst över transaktionskostnaderna för att vara lönsamt i på lång sikt. Nu när vi har sett några exempel på simulerade ARMA-modeller behöver vi mekanism för att välja värdena på p och q när de anpassas till modellerna till verkliga ekonomiska data. Välja den bästa ARMA-modellen (p, q) För att bestämma vilken ordning p, q av ARMA-modellen är lämplig för en serie, måste vi använda AIC (eller BIC) över en delmängd av värden för p, q och använd sedan Ljung-Box testet för att bestämma om en bra passform har uppnåtts, för speciella värden p, q. För att visa denna metod ska vi för det första simulera en viss ARMA (p, q) - process. Vi släpper sedan över alla parvisvärden av p i och q in och beräknar AIC. Vi väljer modellen med lägsta AIC och kör sedan ett Ljung-Box-test på rester för att avgöra om vi har uppnått en bra passform. Låt oss börja med att simulera en ARMA (3,2) - serie: Vi ska nu skapa ett objekt som är slutligt för att lagra den bästa modellens passform och lägsta AIC-värde. Vi slår över de olika kombinationerna p, q och använder det aktuella objektet för att lagra passformen för en ARMA (i, j) modell för loopingvariablerna i och j. Om den aktuella AIC är mindre än någon tidigare beräknad AIC ställer vi den slutliga AIC till det aktuella värdet och väljer den ordningen. Vid avslutning av slingan har vi ARMA-modellen som lagras i final. order och ARIMA (p, d, q) passar sig (med den integrerade d-komponenten som är inställd på 0) lagrad som final. arma: Låt utmatning AIC , ordning och ARIMA-koefficienter: Vi kan se att den ursprungliga ordningen för den simulerade ARMA-modellen återhämtades, nämligen med p3 och q2. Vi kan plotta korelogrammet av resterna av modellen för att se om de ser ut som en realisering av diskret vitt brus (DWN): Korelogrammet ser verkligen ut som en realisering av DWN. Slutligen utför vi Ljung-Box-testet för 20 lags för att bekräfta detta: Observera att p-värdet är större än 0,05, vilket säger att resterna är oberoende på 95-nivå och sålunda ger en ARMA (3,2) modell en bra modell passform. Det är klart att detta borde vara fallet eftersom vi har simulerat data själva. Men det här är just det förfarande vi ska använda när vi kommer att passa ARMA (p, q) modeller till SampP500-indexet i följande avsnitt. Finansiella data Nu när vi har beskrivit proceduren för att välja den optimala tidsseriemodellen för en simulerad serie är det ganska enkelt att tillämpa det på finansiella data. För det här exemplet kommer vi återigen att välja SampP500 US Equity Index. Låter ladda ner de dagliga stängningskurserna med hjälp av quantmod och skapa sedan loggen returnerar strömmen: Låt oss utföra samma passande procedur som för den simulerade ARMA-serien (3,2) ovan på loggen returnerar serien av SampP500 med hjälp av AIC: den bästa monteringsmodellen har ordning ARMA (3,3): Låt plottar resterna av den monterade modellen till SampP500-loggdagens returflöde: Observera att det finns några betydande toppar, särskilt vid högre lags. Detta indikerar en dålig passform. Låt oss utföra ett Ljung-Box-test för att se om vi har statistiska bevis för detta: Som vi misstänkt är p-värdet mindre än 0,05 och som sådan kan vi inte säga att återstoden är en realisering av diskret vitt brus. Därför finns ytterligare autokorrelation i rester som inte förklaras av den monterade ARMA-modellen (3,3). Nästa steg Som vi har diskuterat hela tiden i den här artikelserien har vi sett bevis på betingad heteroscedasticitet (volatilitetsklypning) i SampP500-serien, särskilt under perioderna 2007-2008. När vi använder en GARCH-modell senare i artikelserien ser vi hur man eliminerar dessa autokorrelationer. I praktiken är ARMA-modellerna i allmänhet aldrig bra passar för att återköp av loggar återfinns. Vi måste ta hänsyn till den betingade heteroscedasticiteten och använda en kombination av ARIMA och GARCH. Nästa artikel kommer att överväga ARIMA och visa hur den integrerade komponenten skiljer sig från den ARMA-modell som vi har övervägt i den här artikeln. Just nu börjar vi med kvantitativ tradingAutoregressive Moving Average ARMA (p, q) Modeller för Time Series Analysis - Del 2 I del 1 ansåg vi den autoregressiva modellen för order p, även känd som AR (p) - modellen. Vi introducerade det som en förlängning av den slumpmässiga promenadmodellen i ett försök att förklara ytterligare seriell korrelation i finansiella tidsserier. I slutändan insåg vi att det inte var tillräckligt flexibelt för att verkligen fånga all autokorrelation i stängningskursen för Amazon Inc. (AMZN) och SampP500 US Equity Index. Den främsta orsaken till detta är att båda dessa tillgångar är villkorligt heteroskedastiska. vilket innebär att de är icke-stationära och har perioder av varierande varians eller volatilitetsklypning, vilket inte beaktas av AR (p) - modellen. I framtida artiklar kommer vi så småningom att bygga upp till de autoregressiva integrerade rörliga genomsnittsmodellerna (ARIMA), liksom de villkorligt heteroskedastiska modellerna för ARCH och GARCH-familjerna. Dessa modeller kommer att ge oss våra första realistiska försök att prognostisera tillgångspriser. I den här artikeln kommer vi dock att introducera Moving Average of Order q-modellen, känd som MA (q). Det här är en del av den mer allmänna ARMA-modellen och som sådan behöver vi förstå det innan vi går vidare. Jag rekommenderar starkt att du läser de tidigare artiklarna i Time Series Analysis-samlingen om du inte har gjort det. De kan alla hittas här. Moving Average (MA) Modeller av order q En Moving Average-modell liknar en autoregressiv modell, förutom att istället för att vara en linjär kombination av tidigare tidsserier, är det en linjär kombination av tidigare vita ljudvillkor. Intuitivt innebär detta att MA-modellen ser sådana slumpmässiga vita bruschocker direkt vid varje aktuellt värde av modellen. Detta står i kontrast till en AR (p) modell, där de vita bruschockerna endast ses indirekt. Via regression på tidigare villkor i serien. En viktig skillnad är att MA-modellen bara kommer att se de sista q-stötarna för en viss MA (q) - modell, medan AR (p) - modellen tar hänsyn till alla tidigare chocker, om än på en svagt svag sätt. Definition Matematiskt är MA (q) en linjär regressionsmodell och strukturerad på AR (p): Moving Average Modell av order q En tidsseriemodell,, är en rörlig genomsnittsmodell av order q. MA (q), om: börja xt wt beta1 w ldots betaq w slut Var är vitt brus med E (wt) 0 och varians sigma2. Om vi betraktar Backward Shift Operator. (Se en föregående artikel) kan vi skriva om ovanstående som en funktion phi av: börja xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Vi kommer att använda phi-funktionen i senare artiklar. Andra ordningens egenskaper Som med AR (p) är medelvärdet av en MA (q) - process noll. Detta är lätt att se som medelvärdet är helt enkelt en summa av medel för vita ljudvillkor, som alla är själva noll. Börja text enspace mux E (xt) summa E (wi) 0 sluta starttext enspace sigma2w (1 beta21 ldots beta2q) sluttext enspace rhok kvar 1 text enspace k 0 summa betai beta sumq beta2i text enspace k 1, ldots, q 0 text enspace k gt q slutet till höger. Var beta0 1. Kommer nu att generera några simulerade data och använda den för att skapa korrelogram. Detta kommer att göra ovanstående formel för rhok något mer konkret. Simuleringar och korrelogram Låt oss börja med en MA (1) - process. Om vi ställer beta1 0,6 får vi följande modell: Som med AR (p) modellerna i föregående artikel kan vi använda R för att simulera en sådan serie och sedan plotta korrelogrammet. Eftersom weve hade en hel del övning i den tidigare tidsserieanalysartikeln för att utföra tomter, skriver jag R-koden i sin helhet, istället för att dela upp den: Utgången är enligt följande: Som vi såg ovan i formeln för rhok , För k gt q bör alla autokorrelationer vara noll. Sedan q 1 borde vi se en signifikant topp vid k1 och sedan obetydliga toppar efter det. På grund av provtagningsperspektivet borde vi dock förvänta oss att vi ser 5 (marginellt) signifikanta toppar på en provautokorrelationsplot. Detta är just vad korrelogrammet visar oss i det här fallet. Vi har en signifikant topp vid k1 och då obetydliga toppar för k gt 1, förutom vid k4 där vi har en marginellt signifikant topp. Faktum är att detta är ett användbart sätt att se om en MA (q) - modell är lämplig. Genom att titta på korrelogrammet för en viss serie kan vi se hur många sekventiella icke-nollflaggor finns. Om q finns så kan vi legitimt försöka passa en MA (q) modell till en viss serie. Eftersom vi har bevis från våra simulerade data om en MA (1) - process, skulle vi nu försöka passa en MA (1) modell till våra simulerade data. Tyvärr finns det inte ett ekvivalent ma-kommando till kommandot för autoregressiv modell ar i R. Istället måste vi använda det mer generella arima-kommandot och sätta de autogegrativa och integrerade komponenterna till noll. Vi gör detta genom att skapa en 3-vektor och ställa in de två första komponenterna (de autogressiva och integrerade parametrarna) till noll: Vi får några användbara resultat från arima-kommandot. För det första kan vi se att parametern har uppskattats som hatt 0.602, vilket ligger mycket nära det verkliga värdet av beta1 0,6. För det andra beräknas standardfelarna redan för oss, vilket gör det enkelt att beräkna konfidensintervaller. För det tredje får vi en beräknad varians, loggbarhet och Akaike Information Criterion (nödvändig för modelljämförelse). Den stora skillnaden mellan arima och ar är att arima uppskattar en avlyssningsperiod eftersom den inte subtraherar seriens medelvärde. Därför måste vi vara försiktiga när vi utför prognoser med arima-kommandot. Tja tillbaka till den här tiden senare. Som en snabb check skulle beräkna konfidensintervaller för hatt: Vi kan se att 95 konfidensintervallet innehåller det äkta parametervärdet på beta1 0,6 och så kan vi döma modellen en bra passform. Självklart bör detta förväntas, eftersom vi simulerade data i första hand Hur förändras saker om vi ändrar tecknet bet1 till -0,6 Låt oss utföra samma analys: Produktionen är enligt följande: Vi kan se att vid k1 har vi en signifikant topp i korrelogrammet, förutom att det visar negativ korrelation, som vi förväntar oss av en MA (1) modell med negativ första koefficient. Än en gång är alla toppar bortom k1 obetydliga. Låt oss passa en MA (1) modell och uppskatta parametern: hat -0.730, vilket är en liten underskattning av beta1 -0.6. Slutligen kan vi beräkna konfidensintervallet: Vi kan se att det sanna parametervärdet för beta1-0.6 finns inom 95 konfidensintervallet, vilket ger oss bevis på en bra modellpassform. Låt oss gå igenom samma procedur för en MA (3) - process. Den här gången borde vi förvänta oss signifikanta toppar vid k och obetydliga toppar för k gt 3. Vi ska använda följande koefficienter: beta1 0,6, beta2 0,4 och beta3 0,2. Låt oss simulera en MA (3) - process från denna modell. Ive ökade antalet slumpmässiga prover till 1000 i denna simulering, vilket gör det lättare att se den verkliga autokorrelationsstrukturen, på bekostnad av att originalserien blir svårare att tolka: Produktionen är enligt följande: Som förväntat är de första tre toppar signifikanta . Men så är det fjärde. Men vi kan legitimt föreslå att detta kan bero på provtagning, eftersom vi förväntar oss att vi ser att 5 av topparna är signifikanta bortom kq. Låt oss nu passa en MA (3) modell till data för att försöka uppskatta parametrar: Uppskattningarna hatt 0.544, hatt 0.345 och hatt 0.298 ligger nära de sanna värdena beträffande beta10.6, beta20.4 och beta30.3. Vi kan också producera konfidensintervaller med hjälp av respektive standardfel. I varje fall innehåller 95 konfidensintervaller det sanna parametervärdet och vi kan dra slutsatsen att vi har en bra passform med vår MA (3) modell, vilket borde förväntas. Finansiella data I del 1 ansåg vi Amazon Inc. (AMZN) och SampP500 US Equity Index. Vi monterade AR (p) - modellen på båda och fann att modellen inte kunde effektivt fånga komplexiteten i seriekorrelationen, särskilt i SampP500-gjutet, där långminneseffekter tycks vara närvarande. Jag brukar inte plotta listorna igen för priser och autokorrelation, istället hänvisar jag till föregående inlägg. Amazon Inc. (AMZN) Låt oss börja försöka passa ett urval av MA (q) modeller till AMZN, nämligen med q in. Som i del 1, använd använd kvant kvant för att ladda ner de dagliga priserna för AMZN och konvertera dem sedan till en logg returnerar flödet av stängningskurser: Nu när vi har loggen returnerar vi kan använda arima-kommandot för att passa MA (1), MA (2) och MA (3) modeller och beräkna sedan parametrarna för varje. För MA (1) har vi: Vi kan plotta resterna av den dagliga avkastningen och den monterade modellen: Observera att vi har några signifikanta toppar vid lags k2, k11, k16 och k18, vilket indikerar att MA (1) modellen är osannolikt att det inte är en bra passform för AMZN-loggens retur, eftersom det inte ser ut som en realisering av vitt brus. Låt oss prova en MA (2) modell: Båda uppskattningarna för betakoefficienterna är negativa. Låt oss granska resterna igen: Vi kan se att det finns nästan ingen autokorrelation i de första lagren. Vi har emellertid fem marginellt signifikanta toppar vid lags k12, k16, k19, k25 och k27. Detta tyder på att MA (2) modellen tar mycket av autokorrelationen men inte alla långminneseffekter. Vad sägs om en MA (3) modell Återigen kan vi plotta resterna: MA (3) residualplot ser nästan identisk ut med MA-modellen (2). Det här är inte förvånande, det var att lägga till en ny parameter till en modell som tydligen förklarat bort mycket av korrelationerna vid kortare lags men det har inte mycket effekt på längre sikt. Allt detta bevis tyder på det faktum att en MA (q) modell sannolikt inte är användbar för att förklara all seriekorrelation i isolation. åtminstone för AMZN. SampP500 Om du kommer ihåg, i del 1 såg vi att den första orderens avvikande dagliga avkastningsstruktur för SampP500 hade många signifikanta toppar vid olika lager, både korta och långa. Detta gav bevis för både villkorlig heteroskedasticitet (dvs volatilitetsklypning) och långminneseffekter. Det leder oss att dra slutsatsen att AR (p) modellen inte var tillräcklig för att fånga all den autokorrelation som är närvarande. Som vi har sett ovan var MA (q) - modellen otillräcklig för att fånga ytterligare seriekorrelation i resterna av den monterade modellen till den första orderens olika dagliga loggprisserie. Vi ska nu försöka anpassa MA (q) modellen till SampP500. Man kan fråga varför vi gör detta är om vi vet att det inte är troligt att det passar bra. Det här är en bra fråga. Svaret är att vi behöver se exakt hur det inte passar bra, för det här är den ultimata processen vi kommer att följa när vi möter mycket mer sofistikerade modeller, som är potentiellt svårare att tolka. Låt oss börja med att skaffa data och konvertera den till en första ordningens olika serie av logaritmiskt omformade dagliga stängningskurser som i föregående artikel: Vi ska nu passa en MA (1), MA (2) och MA (3) modell för att serien, som vi gjorde ovan för AMZN. Låt börja med MA (1): Låt oss göra en översikt över resterna av denna monterade modell: Den första signifikanta toppen uppträder vid k2, men det finns många fler vid k in. Detta är tydligt inte en realisering av vitt brus och så måste vi avvisa MA (1) modellen som en potentiell bra passform för SampP500. Förbättrar situationen med MA (2) Låt oss återigen göra en översikt över resterna av denna monterade MA (2) modell: Medan toppen vid k2 har försvunnit (som vi förväntar oss) kvarstår vi fortfarande med de signifikanta toppar vid Många längre lags i resterna. Återigen finner vi att MA (2) modellen inte är en bra passform. För MA (3) - modellen borde vi förvänta oss att ser mindre seriell korrelation vid k3 än för MA (2), men än en gång borde vi också förvänta oss ingen minskning av ytterligare lager. Slutligen gör vi en översikt över resterna av denna monterade MA (3) modell: Detta är just det vi ser i korrelogrammet av rester. Därför är MA (3), som med de andra modellerna ovan, inte en bra passform för SampP500. Nästa steg Weve undersökte nu två stora tidsseriemodeller i detalj, nämligen den autogressiva modellen för order p, AR (p) och sedan Moving Average of order q, MA (q). Weve sett att de båda kan förklara bort några av autokorrelationen i resterna av första orderens olika dagliga logpriser på aktier och index, men volatilitetsklypning och långminneseffekter kvarstår. Det är äntligen dags att rikta vår uppmärksamhet på kombinationen av dessa två modeller, nämligen det autoregressiva rörliga genomsnittsvärdet av order p, q, ARMA (p, q) för att se om det kommer att förbättra situationen ytterligare. Men vi måste vänta tills nästa artikel för en fullständig diskussion. Just Getting Started with Quantitative TradingArabic Bulgarian Chinese Croatian Czech Czech Czech Holländska Engelska Estniska Finska Franska Tyska Grekiska Hebreiska Hindi Ungerska Indonesiska Italienska Japanska Koreanska Lettiska Litauiska Malagasiska Norska Persiska Polska Portugisiska Rumänska Ryska Serbiska slovakiska slovenska spanska svenska tjeckiska turkiska vietnamesiska bulgariska kinesiska kroatiska tjeckiska danska holländska engelska estniska finska franska tyska grekiska hebreiska hindi ungerska indonesiska indonesiska italienska japanska koreanska lettiska litauiska malagasiska norska persiska polska portugisiska rumänska ryska serbiska slovakiska slovenska spanska svenska turkiska vietnamesiska definitionen - autoregressivemoving - genomsnittlig modell Autoregressivemoving-genomsnittlig modell För andra användningar av ARMA, se Arma. I statistik och signalbehandling. autoregressivemoving-average (ARMA) - modeller. kallas ibland BoxJenkins-modeller efter den iterativa BoxJenkins-metoden som vanligtvis används för att uppskatta dem, används vanligtvis på autokorrelerade tidsseriedata. Med tanke på en tidsserie av data X t. ARMA-modellen är ett verktyg för att förstå och kanske förutse framtida värden i denna serie. Modellen består av två delar, en autoregressiv (AR) - del och en glidande medelvärde (MA) - del. Modellen benämns vanligtvis då som ARMA (p, q) modellen där p är ordningen för den autoregressiva delen och q är ordningen för den glidande medeldelen (enligt definitionen nedan). Autoregressiv modell Notationen AR (p) hänvisar till den autoregressiva modellen av order p. AR (p) - modellen är skriven. En autoregressiv modell är i huvudsak ett allpoligt oändligt impulsresponsfilter med ytterligare tolkning placerad på den. Några begränsningar är nödvändiga för värdena för parametrarna i denna modell för att modellen ska vara stationär. Exempelvis är processer i AR (1) - modellen med 1 1 inte stationära. Moving-average model Notationen MA (q) avser den rörliga genomsnittsmodellen av order q: Autoregressivemoving-average model Notationen ARMA (s. Q) refererar till modellen med p autoregressiva termer och q glidande medelvärden. Denna modell innehåller AR (p) och MA (q) - modellerna. Observera felvillkoren N (0, 2) där 2 är variansen. Dessa antaganden kan vara försvagade, men det kommer att förändra modellens egenskaper. I synnerhet en förändring av i. i.d. antagandet skulle göra en ganska grundläggande skillnad. Specifikation när det gäller lagoperatör I vissa texter kommer modellerna att specificeras när det gäller lagoperatören L. I dessa termer ges AR (p) modellen av MA (q) modellen ges av var representerar polynomet. Slutligen ges den kombinerade ARMA-modellen (pq) av eller mer kortfattat. Alternativ notering Vissa författare, inklusive Box, Jenkins amp Reinsel 1 använder en annan konvention för autokegressionskoefficienterna. Detta gör att alla polynomier som involverar lagoperatören kan visas i en liknande form hela tiden. Således skulle ARMA-modellen skrivas som Monteringsmodeller. ARMA-modeller kan i allmänhet efter val av p och q anpassas med minsta kvadratregressionen för att hitta parametervärdena som minimerar felperioden. Det anses allmänt vara bra att hitta de minsta värdena p och q som ger en acceptabel passform till data. För en ren AR-modell kan Yule-Walker-ekvationerna användas för att ge en passform. Att hitta lämpliga värden för p och q i ARMA (p, q) - modellen kan underlättas genom att plotta de partiella autokorrelationsfunktionerna för en uppskattning av p. och på samma sätt använder autokorrelationsfunktionerna för en uppskattning av q. Ytterligare information kan tas upp genom att överväga samma funktioner för resterna av en modell utrustad med ett första val av p och q. Brockwell och Davis 2 (s.273) rekommenderar att du använder AICc för att hitta p och q. Implementeringar i statistikpaket I R. innehåller tseriespaketet en armfunktion. Funktionen är dokumenterad i Fit ARMA Models till Time Series. eller använd statistik :: arima Mathematica har ett komplett bibliotek med tidsseriefunktioner inklusive ARMA 3 MATLAB innehåller en funktion för att uppskatta AR-modeller, se här för mer information. IMSL Numerical Libraries är bibliotek av numerisk analysfunktionalitet, inklusive ARMA och ARIMA-procedurer som implementeras i standardprogrammeringsspråk som C, Java, C och Fortran. gretl kan också uppskatta ARMA-modeller, se här där det nämns. GNU Octave kan uppskatta AR-modeller med hjälp av funktioner från extrapaketet oktavskärm. Stata innehåller funktionen arima som kan uppskatta ARMA och ARIMA modeller. se här för mer information SuanShu är ett Java-bibliotek med numeriska metoder, inklusive omfattande statistikpaket, där univariatemultivariata ARMA, ARIMA, ARMAX, etc. modeller implementeras i ett objektorienterat tillvägagångssätt. Dessa implementeringar dokumenteras i SuanShu, ett Java numeriskt och statistiskt bibliotek. SAS har ett ekonometrispaket, ETS, som uppskattar ARIMA-modellerna, se här för mer information. Applikationer ARMA är lämpligt när ett system är en funktion av en serie obesvarade chocker (MA-delen) förtydligande som behövs såväl som sitt eget beteende. Till exempel kan aktiekurserna chockas av grundläggande information samt uppvisa tekniska trender och medelåterkallande effekter på grund av marknadsaktörer. Generaliseringar X-beroendet av tidigare värden och felvillkoren t antas vara linjär om inte annat anges. Om beroendet är olinjärt är modellen speciellt kallad en icke-linjär rörlig genomsnitts (NMA), olinjär autoregressiv (NAR) eller olinjär autoregressivemoving-average (NARMA) - modell. Autoregressivemoving-genomsnittliga modeller kan generaliseras på andra sätt. Se även autoregressiva villkorliga heteroskedasticitetsmodeller (ARCH) - modeller och autoregressiva integrerade glidande medel (ARIMA) - modeller. Om flera tidsserier ska monteras kan en ARIMA-vektor (eller VARIMA) - modell monteras. Om den aktuella tidsserien uppvisar långt minne kan fraktionerad ARIMA (FARIMA, ibland kallad ARFIMA) modellering vara lämplig: se Autoregressivt fraktionalt integrerat glidande medelvärde. Om uppgifterna antas innehålla säsongsbetonade effekter kan det modelleras av en SARIMA (säsongsbetonad ARIMA) eller en periodisk ARMA-modell. En annan generalisering är den multiscale autoregressiva (MAR) modellen. En MAR-modell indexeras av noder av ett träd, medan en standard (diskret tid) autoregressiv modell indexeras med heltal. Observera att ARMA-modellen är en univariativ modell. Extensions för det multivariata fallet är Vector Autoregression (VAR) och Vector Autoregression Moving-Average (VARMA). Autoregressivemoving-genomsnittsmodell med exogena ingångsmodeller (ARMAX-modell) Notationen ARMAX (s. Q. B) avser modellen med p-autoregressiva termer, q glidande medelvärden och b exogena ingångsvillkor. Denna modell innehåller AR (p) och MA (q) modellerna och en linjär kombination av de sista b-villkoren för en känd och extern tidsserie. Den ges av: Några olinjära varianter av modeller med exogena variabler har definierats: se till exempel icke-linjär autoregressiv exogen modell. Statistiska paket implementerar ARMAX-modellen genom användning av exogena eller oberoende variabler. Försiktighet måste vidtas vid tolkning av utmatningen av dessa paket, eftersom de beräknade parametrarna vanligtvis (till exempel i R4 och gretl) hänvisar till regressionen: där mt innehåller alla exogena (eller oberoende) variabler: Denna artikel innehåller en referenslista . men dess källor är fortfarande oklara för att den inte har tillräckliga inline citeringar. Vänligen hjälp att förbättra denna artikel genom att införa mer exakta citat. (Augusti 2010) Referenser George Box. Gwilym M. Jenkins. och Gregory C. Reinsel. Tidsserieanalys: prognos och kontroll. tredje upplagan. Prentice-Hall, 1994. Brockwell, P. J. och Davis, R. A. Tidsserie: Teori och metoder. Andra ed. Springer, 2009. Tidsserieegenskaper i Mathematica ARIMA Modeling of Time Series. R dokumentation Mills, Terence C. Tidsserietekniker för ekonomer. Cambridge University Press, 1990. Percival, Donald B. och Andrew T. Walden. Spektralanalys för fysiska tillämpningar. Cambridge University Press, 1993. Denna post är från Wikipedia, den ledande användarbidragna encyklopedin. Det kanske inte har granskats av professionella redaktörer (se fullständig ansvarsfriskrivning)
No comments:
Post a Comment