Monday 6 November 2017

Przeprowadzka średnia proces jest stacjonarna


Rozważmy proces MA nieskończonego porządku zdefiniowany przez ytepsilonta (epsilon epsilon.), Gdzie a jest stałą, a epsilonts to i. i.d. N (0, v) zmienna losowa. Jaki jest najlepszy sposób pokazania, że ​​jest niestacjonarny? Wiem, że muszę przyjrzeć się charakterystycznym korzeniom wielomianu charakterystycznego, a następnie ocenić, czy są one poza kręgu jednostkowym, ale jaki jest najlepszy sposób podejścia do tego problemu? Czy powinienem spróbować przepisać nieskończone zamówienie MA jako proces AR skończonego rzędu, czy też łatwiej pracować proces MA zapytany 19 października 19 o 21: 11 Co to są stacjonarne autoregresje (AR), średnia ruchoma (MA) i mieszanka stacjonarna (ARMA Procesy stacjonarnego autoregresji (AR) Stacjonarne procesy autoregresyjne (AR) mają teoretyczne funkcje autokorelacji (ACF), które rozpadają się w kierunku zera, zamiast odcinać się do zera. Współczynniki autokorelacji mogą często naprzemiennie pojawiać się w znaku lub wykazywać falowy wzorzec, ale we wszystkich przypadkach są one skierowane w kierunku zera. Natomiast procesy AR z porządkiem p mają teoretyczne częściowe funkcje autokorelacji (PACF), które odcinają się do zera po opóźnieniu p. (Długość opóźnienia końcowego skoku PACF jest równa rzędowi AR procesu, p.) Proces średniej ruchomej (MA) Teoretyczne ACF procesu MA (średnia ruchoma) z rzędem q obcięte do zera po opóźnieniu q, zamówienie MA procesu. Jednak ich teoretyczne PACF spadają do zera. (Długość opóźnienia końcowego spiętrzenia ACF jest równa kolejności MA procesu, q.) Proces stacjonarny mieszany (ARMA) Proces stacjonarny mieszany (ARMA) pokazuje mieszaninę charakterystyk AR i MA. Zarówno teoretyczny ACF, jak i PACF odchylają się w kierunku zera. Copyright 2018 Minitab Inc. Wszelkie prawa zastrzeżone. Krótkie wprowadzenie do współczesnej serii czasowej Definicja Szeregi czasowe to funkcja losowa x t argumentu t w zbiorze T. Innymi słowy szereg czasowy jest rodziną zmiennych losowych. x t-1. x t. x t1. odpowiadający wszystkim elementom w zbiorze T, gdzie T ma być zbiorem nieograniczonym, nieskończonym. Definicja Obserwowany szereg czasowy t T e T o T traktowany jest jako część jednej realizacji funkcji losowej x t. Nieskończony zestaw możliwych realizacji, które można było zaobserwować, nazywa się zespołem. Aby bardziej rygorystycznie rzecz ujmować, szereg czasowy (lub funkcja losowa) jest rzeczywistą funkcją x (w, t) dwóch zmiennych w i t, gdzie wW i t T. Jeśli ustalimy wartość w. mamy prawdziwą funkcję x (t w) czasu t, która jest realizacją szeregów czasowych. Jeśli ustalimy wartość t, mamy zmienną losową x (w t). Dla danego punktu w czasie istnieje rozkład prawdopodobieństwa na x. Zatem funkcja losowa x (w, t) może być traktowana jako rodzina zmiennych losowych lub jako rodzina realizacji. Definicja Definiujemy funkcję rozkładu zmiennej losowej w danej t 0 jako P o) x (x). Podobnie możemy zdefiniować wspólny rozkład dla n zmiennych losowych Punkty, które odróżniają analizę szeregów czasowych od zwykłych analiz statystycznych, są następujące (1) Zasadniczą rolę odgrywa zależność między obserwacjami w różnych chronologicznych momentach w czasie. Innymi słowy, kolejność obserwacji jest ważna. W zwykłej analizie statystycznej zakłada się, że obserwacje są wzajemnie niezależne. (2) Domena t jest nieskończona. (3) Musimy wywnioskować z jednej realizacji. Realizacja zmiennej losowej można zaobserwować tylko raz w każdym momencie. W analizie wielowymiarowej mamy wiele obserwacji dotyczących skończonej liczby zmiennych. Ta krytyczna różnica wymaga założenia stacjonarności. Definicja Funkcja losowa x t jest uważana za ściśle stacjonarną, jeśli wszystkie funkcje rozkładu skończonego wymiaru określające x t pozostają takie same, nawet jeśli cała grupa punktów t 1. t 2. t n jest przesuwane wzdłuż osi czasu. Oznacza to, że dla dowolnych liczb całkowitych t 1. t 2. t n i k. Graficznie można sobie wyobrazić realizację serii stacjonarnej jako mającej nie tylko ten sam poziom w dwóch różnych przedziałach, ale także tę samą funkcję rozkładu, aż do parametrów, które ją definiują. Założenie stacjonarności czyni nasze życie prostszym i mniej kosztownym. Bez stacjonarności musielibyśmy często próbować proces w każdym punkcie czasowym, aby uzyskać charakterystykę funkcji rozkładu we wcześniejszej definicji. Stacjonarność oznacza, że ​​możemy skupić naszą uwagę na kilku najprostszych funkcjach numerycznych, tj. Momentach dystrybucji. Centralne momenty są określone przez Definicję (i) Średnia wartość szeregu czasowego t jest t j. Momentem pierwszego rzędu. (ii) Funkcja autokowariancji t to t j. drugi moment wokół średniej. Jeśli ts, masz wariancję x t. Będziemy używać do oznaczenia autokowariancji stacjonarnej serii, gdzie k oznacza różnicę między t i s. (iii) Funkcja autokorelacji (ACF) t jest używana do oznaczenia autokorelacji stacjonarnej serii, gdzie k oznacza różnicę między t i s. (iv) Częściowa autokorelacja (PACF). f kk. jest korelacją między z t i z tk po usunięciu ich wzajemnej liniowej zależności od zmiennych pośrednich z t1. z t2. z tk-1. Jednym prostym sposobem obliczenia częściowej autokorelacji między z t i z tk jest przeprowadzenie dwóch regresji, a następnie obliczenie korelacji między dwoma resztkowymi wektorami. Lub po zmierzeniu zmiennych jako odchyleń od ich średnich, częściowa autokorelacja może być znaleziona jako współczynnik regresji LS dla z t w modelu, w którym kropka nad zmienną wskazuje, że jest mierzona jako odchylenie od jej średniej. (v) Równania Yule-Walkera zapewniają istotną zależność pomiędzy częściowymi autokorelacjami a autokorelacjami. Pomnóż obie strony równania 10 przez z tk-j i spełnij oczekiwania. Ta operacja daje nam następujące równanie różnicowe w autokowariancji lub, jeśli chodzi o autokorelacje Ta pozornie prosta reprezentacja jest naprawdę potężnym wynikiem. Mianowicie, za j1,2. k możemy napisać pełny układ równań, znany jako równania Yule-Walker, Z algebry liniowej wiadomo, że macierz r s ma pełną rangę. Dlatego możliwe jest stosowanie reguły Cramerów kolejno dla k1,2. aby rozwiązać system częściowych autokorelacji. Pierwsze trzy to Mamy trzy ważne wyniki w serii ściśle stacjonarnej. Implikacją jest to, że możemy użyć dowolnej skończonej realizacji sekwencji do oszacowania średniej. Druga . jeśli t jest ściśle stacjonarne, a E t 2 lt. Sugeruje to, że autokowariancja zależy tylko od różnicy między t i s, a nie od ich momentu chronologicznego. W obliczeniach autokowariancji moglibyśmy użyć dowolnej pary interwałów, o ile czas między nimi był stały. I możemy użyć dowolnej skończonej realizacji danych do oszacowania autokowariancji. Po trzecie, funkcja autokorelacji w przypadku ścisłej stacjonarności jest podawana przez. Sugeruje się, że autokorelacja zależy również tylko od różnicy między ti s, i znowu mogą być oszacowane przez dowolną skończoną realizację danych. Jeśli naszym celem jest oszacowanie parametrów opisujących możliwe realizacje szeregów czasowych, to być może ścisła stacjonarność jest zbyt restrykcyjna. Na przykład, jeśli średnia i kowariancje x t są stałe i niezależne od chronologicznego punktu w czasie, to być może nie jest dla nas ważne, aby funkcja rozkładu była taka sama dla różnych przedziałów czasu. Definicja Funkcja losowa jest stacjonarna w szerokim sensie (lub słabo stacjonarna lub stacjonarna w sensie Khinchina lub kowariancja stacjonarna), jeśli m 1 (t) mi m 11 (t, s). Ścisła stacjonarność sama w sobie nie oznacza słabej stacjonarności. Słaba stacjonarność nie oznacza ścisłej stacjonarności. Ścisła stacjonarność z E t 2 lt oznacza słabą stacjonarność. Twierdzenia Ergodyczne dotyczą kwestii niezbędnych i wystarczających warunków do wnioskowania z jednej realizacji szeregu czasowego. Zasadniczo sprowadza się to do przyjęcia słabej stacjonarności. Twierdzenie Jeżeli t jest słabo stacjonarne ze średnią m i funkcją kowariancji, to znaczy, że dla dowolnego danego e gt 0 i h gt 0 istnieje pewna liczba T o taka, że ​​dla wszystkich T gt T o. wtedy i tylko wtedy, gdy Warunkiem koniecznym i wystarczającym jest wymieranie autokowiarian, w którym to przypadku średnia próby stanowi spójny estymator średniej populacji. Wniosek Jeśli t jest słabo stacjonarne z E tk xt 2 lt dla dowolnego t, a E tk xtx tsk x ts jest niezależne od t dla dowolnej liczby całkowitej s, to wtedy i tylko wtedy, gdy A Konsekwencją następstwa jest założenie, że xtx tk jest słabo stacjonarny. Twierdzenie Ergodyczne nie jest niczym więcej jak prawem wielkich liczb, gdy obserwacje są skorelowane. Ktoś mógłby zapytać w tym miejscu o praktyczne implikacje stacjonarności. Najczęstszym zastosowaniem technik szeregów czasowych jest modelowanie danych makroekonomicznych, zarówno teoretycznych, jak i ateistycznych. Jako przykład tego pierwszego można mieć model mnożnika-akceleratora. Aby model był nieruchomy, parametry muszą mieć określone wartości. Test modelu polega wówczas na zebraniu odpowiednich danych i oszacowaniu parametrów. Jeżeli oszacowania nie są zgodne ze stacjonarnością, wówczas należy ponownie przemyśleć model teoretyczny lub model statystyczny, lub oba. Mamy teraz dość maszyn, aby zacząć mówić o modelowaniu jednokierunkowych danych szeregów czasowych. Proces składa się z czterech etapów. 1. budowanie modeli z wiedzy teoretycznej i teoretycznej 2. identyfikacja modeli na podstawie danych (obserwowanych serii) 3. dopasowanie modeli (oszacowanie parametrów modelu (ów)) 4. sprawdzenie modelu Jeśli w czwartym kroku nie jesteśmy zadowolony, że wróciliśmy do pierwszego kroku. Proces jest iteracyjny, dopóki dalsze sprawdzanie i ponowna certyfikacja nie przyniosą dalszej poprawy wyników. Definicja diagramu Niektóre proste operacje obejmują: Operator przesunięcia wstecznego Bx tx t-1 Operator do przodu Fx tx t1 Operator różnicy 1 - B xtxt - x t-1 Operator różnicy zachowuje się w sposób zgodny ze stałą w nieskończonej serii . Oznacza to, że jego odwrotnością jest granica nieskończonej sumy. Mianowicie, -1 (1-B) -1 1 (1-B) 1BB 2. Operator integrujący S -1 Ponieważ jest to odwrotność operatora różnicy, operator integracji służy do konstruowania sumy. BUDOWANIE MODELU W tej sekcji przedstawiamy krótki przegląd najczęstszych rodzajów modeli szeregów czasowych. Na podstawie wiedzy na temat procesu generowania danych wybiera się klasę modeli do identyfikacji i oceny z następujących możliwości. Definicja Załóżmy, że Ex t m jest niezależne od t. Model taki jak z cechami nazywa się autoregresyjnym modelem porządku p, AR (p). Definicja Jeśli zmienna zależna od czasu (proces stochastyczny) t spełnia, wówczas t odpowiada właściwości Markowa. Na LHS oczekiwanie uwarunkowane jest nieskończoną historią x t. Na RHS jest on uwarunkowany tylko w części historii. Z definicji wynika, że ​​model AR (p) jest zgodny z własnością Markowa. Korzystając z operatora wstecznego przesunięcia możemy napisać nasz model AR jako twierdzenie. Warunkiem koniecznym i wystarczającym do tego, aby model AR (p) był stacjonarny, jest to, że wszystkie korzenie wielomianu leżą poza okręgiem koła. Przykład 1 Rozważmy AR (1) Jedynym pierwiastkiem z 1 - f 1 B 0 jest B 1 f 1. Warunek stacjonarności wymaga tego. Jeśli wtedy obserwowana seria okaże się bardzo szalona. Na przykład. rozważmy, w którym termin szumu białego ma rozkład normalny ze średnią zerową i wariancją jednej. Obserwacje zmieniają znak prawie przy każdej obserwacji. Jeśli, z drugiej strony, obserwowana seria będzie znacznie płynniejsza. W tej serii obserwacja ma tendencję do przekraczania 0, jeśli jej poprzednik był powyżej zera. Wariancja e t jest s 2 dla wszystkich t. Wariancja x t. kiedy ma on zero średnie, jest podane przez Ponieważ seria jest stacjonarna, możemy pisać. Stąd funkcja autokowariancji z serii AR (1) jest, zakładając bez utraty ogólności m 0 Aby zobaczyć, jak to wygląda pod względem parametrów AR, skorzystamy z faktu, że możemy napisać xt w następujący sposób Mnożenie przez x tk i przyjmowanie oczekiwań Zauważ, że autokowiary wymierają, gdy rośnie. Funkcja autokorelacji to autokowariancja podzielona przez wariancję terminu szumu białego. Lub,. Stosując wcześniejsze formuły Yule-Walker dla częściowych autokorelacji, które mamy Dla AR (1) autokorelacje wymierają wykładniczo, a częściowe autokorelacje wykazują szczyt z jednym opóźnieniem, a następnie zero. Przykład 2 Rozważmy AR (2) Powiązany wielomian w operatorze lagów. Korzenie można znaleźć za pomocą równania kwadratowego. Korzenie są wtedy, gdy korzenie są prawdziwe i w konsekwencji seria spadnie wykładniczo w odpowiedzi na szok. Kiedy korzenie są złożone, a seria pojawi się jako fala z tłumionym znakiem. Twierdzenie o stacjonarności nakłada następujące warunki na współczynniki AR. Autowariancja dla procesu AR (2), ze średnią zerową, dzieli się przez wariancję xt daje funkcję autokorelacji. Ponieważ możemy pisać podobnie dla drugiego i trzeciego autokorelacji. autokorelacje są rozwiązywane rekurencyjnie. Ich wzór jest sterowany przez korzenie równania różniczkowego liniowego drugiego rzędu. Jeśli korzenie są prawdziwe, wówczas autokorelacje będą się wykładać wykładniczo. Gdy korzenie są złożone, autokorelacje pojawią się jako wytłumiona fala sinusoidalna. Używając równań Yule-Walker, częściowe autokorelacje są ponownie, autokorelacje powoli wymierają. Częściowa autokorelacja z drugiej strony jest dość charakterystyczna. Ma skoki na jednym i dwóch opóźnieniach, a następnie zero. Twierdzenie Jeśli x t jest stacjonarnym procesem AR (p), to może być równoważnie zapisany jako model filtra liniowego. Oznacza to, że wielomian w operatorze przesunięcia wstecznego może być odwrócony, a AR (p) zapisany jako średnia ruchoma nieskończonego rzędu. Przykład Załóżmy, że z t jest procesem AR (1) ze średnią zerową. To, co jest prawdziwe w bieżącym okresie, musi również być prawdziwe w odniesieniu do poprzednich okresów. Tak więc przez rekursywne podstawianie możemy pisać Kwadrat po obu stronach i przyjmować oczekiwania po prawej stronie znikają jako k od f 1. Dlatego suma zbiega się do zt w średniej kwadratowej. Możemy przepisać model AR (p) jako filtr liniowy, o którym wiemy, że jest stacjonarny. Funkcja autokorelacji i częściowo autokorelacja Załóżmy, że stacjonarna seria zt ze średnią zero jest autoregresyjna. Funkcję autokorelacji AR (p) można znaleźć, przyjmując oczekiwania i dzieląc ją przez wariancję z t. Mówi nam to, że rk jest liniową kombinacją poprzednich autokorelacji. Możemy użyć tego w zastosowaniu reguły Cramerów do (i) w rozwiązywaniu dla fkk. W szczególności widzimy, że ta liniowa zależność spowoduje f kk 0 dla k gt p. Ta charakterystyczna cecha autoregresyjnych serii będzie bardzo przydatna, jeśli chodzi o identyfikację nieznanej serii. Jeśli masz MathCAD lub MathCAD Explorer, możesz eksperymentować z niektórymi pomysłami AR (p) przedstawionymi tutaj. Modele średniej ruchomej Rozważmy model dynamiczny, w którym seria zainteresowań zależy tylko od części historii terminu białego szumu. W uproszczeniu może to być reprezentowane jako Definicja Załóżmy, że t jest nieskorelowaną sekwencją i. i.d. zmienne losowe o zerowej średniej i skończonej wariancji. Następnie proces średniej ruchomej rzędu q, MA (q), podaje Twierdzenie: Proces średniej ruchomej jest zawsze stacjonarny. Dowód: Zamiast zacząć od ogólnego dowodu, zrobimy to dla konkretnego przypadku. Załóżmy, że z t jest MA (1). Następnie . Oczywiście t ma zerową średnią i skończoną wariancję. Średnia z t jest zawsze równa zero. Autocowary zostaną podane przez Ciebie. Możesz zobaczyć, że średnia zmiennej losowej w żaden sposób nie zależy od czasu. Można również zauważyć, że autokowariancja zależy tylko od przesunięcia s, a nie od miejsca w serii, którą rozpoczynamy. Możemy udowodnić ten sam wynik bardziej ogólnie, zaczynając od, który ma alternatywną reprezentację średniej ruchomej. Zastanówmy się najpierw nad wariancją z t. Przez rekursywne podstawianie można pokazać, że jest to równe sumie, którą znamy jako szereg zbieżny, więc wariancja jest skończona i niezależna od czasu. Na przykład kowariancje Można również zauważyć, że automatyczne kowariancje zależą tylko od względnych punktów w czasie, a nie od momentu chronologicznego. Naszym wnioskiem z tego wszystkiego jest to, że proces MA () jest stacjonarny. Dla ogólnego procesu MA (q) funkcja autokorelacji jest określona przez funkcję częściowej autokorelacji, która wygasa płynnie. Możesz to zobaczyć, odwracając proces, aby uzyskać proces AR (). Jeśli masz MathCAD lub MathCAD Explorer, możesz eksperymentować interaktywnie z niektórymi przedstawionymi tu ideami MA (q). Autoregresja mieszana - średnia ruchoma Definicja Definicja Załóżmy, że t jest nieskorelowaną sekwencją i. i.d. zmienne losowe o zerowej średniej i skończonej wariancji. Następnie autoregresyjny, ruchomy średni proces porządku (p, q), ARMA (p, q), jest podany przez Korzenie autoregresyjnego operatora muszą wszystkie leżeć poza okręgiem koła. Liczba niewiadomych to pq2. P i q są oczywiste. 2 zawiera poziom procesu, m. i wariancja szumu białego, sa 2. Załóżmy, że łączymy nasze reprezentacje AR i MA tak, że model jest i współczynniki są znormalizowane tak, że bo 1. Wtedy ta reprezentacja jest nazywana ARMA (p, q), jeśli korzenie (1) leżą poza kołem jednostki. Załóżmy, że y t są mierzone jako odchylenia od średniej, abyśmy mogli opuścić o. wtedy funkcja autokowariancji jest wyprowadzana z tego, że jeśli jgtq, a następnie warunki MA ulegną przerwaniu w oczekiwaniu na to, że to jest, funkcja autokowariancji wygląda jak typowy AR dla opóźnień po q wymykają się gładko po q, ale nie możemy powiedzieć, jak 1,2,133, q będzie wyglądać. Możemy również zbadać PACF dla tej klasy modelu. Model można zapisać jako: Możemy to napisać jako proces MA (inf), który sugeruje, że PACF giną powoli. Z pewną arytmetyką możemy pokazać, że dzieje się tak tylko po pierwszych pikach wnoszonych przez część AR. Prawo empiryczne W rzeczywistości stacjonarne szeregi czasowe mogą być reprezentowane przez p 2 i q 2. Jeśli twoim celem jest zapewnienie dobrego przybliżenia rzeczywistości, a dobroć dopasowania jest twoim kryterium, preferowany jest model marnotrawny. Jeśli twoim zainteresowaniem jest skuteczność predykcyjna, preferowany jest model oszczędny. Eksperymentuj z przedstawionymi powyżej pomysłami ARiM z arkuszem MathCADa. Autoregressive Integruj ruchome średnie modele Filtr MA Filtr AR Zintegruj filtr Czasami proces lub seria, którą próbujemy modelować, nie jest stacjonarna na poziomach. Ale może być stacjonarne, powiedzmy, w pierwszych różnicach. Oznacza to, że w swojej pierwotnej postaci autokowiary dla serii mogą nie być niezależne od chronologicznego punktu w czasie. Jeśli jednak skonstruujemy nową serię, która jest pierwszą różnicą w oryginalnej serii, ta nowa seria spełnia definicję stacjonarności. Dzieje się tak często w przypadku danych ekonomicznych, które są bardzo popularne. Definicja Załóżmy, że z t nie jest nieruchomy, ale z t - z t-1 spełnia definicję stacjonarności. Również przy, termin szumu białego ma skończoną średnią i wariancję. Możemy napisać model jako "Ten nazywa się modelem ARIMA (p, d, q). p identyfikuje kolejność operatora AR, d identyfikuje moc. q określa kolejność operatora IZ. Jeśli korzenie f (B) leżą poza okręgiem koła, możemy przepisać ARIMA (p, d, q) jako filtr liniowy. To znaczy. może być zapisany jako MA (). Zastrzegamy sobie dyskusję na temat wykrywania korzeni jednostki dla innej części notatek z wykładu. Rozważmy system dynamiczny z x t jako serią wejściową i y t jako serią wyjściową. W sposób schematyczny Te modele są dyskretną analogią liniowych równań różniczkowych. Przyjmujemy następującą relację, w której b wskazuje na czyste opóźnienie. Przypomnij sobie (1-B). Dokonując tego podstawienia można zapisać model Jeśli współczynnik wielomianu na y t można odwrócić, wówczas model można zapisać jako V (B) znany jako funkcja odpowiedzi impulsowej. Natkniemy się na tę terminologię ponownie w naszej późniejszej dyskusji na temat autoregresji wektorowej. modele kointegracji i korekcji błędów. IDENTYFIKACJA MODELU Po wybraniu klasy modeli należy teraz określić kolejność procesów generujących dane. Oznacza to, że najlepiej jest odgadnąć kolejność procesów AR i MA napędzających stacjonarne serie. Seria stacjonarna jest całkowicie scharakteryzowana przez średnią i autokowariancje. Ze względów analitycznych zwykle pracujemy z autokorelacjami i częściowymi autokorelacjami. Te dwa podstawowe narzędzia mają unikalne wzorce dla stacjonarnych procesów AR i MA. Można obliczyć przykładowe oszacowania funkcji autokorelacji i częściowej autokorelacji i porównać je z wynikami w tabelach dla modeli standardowych. Funkcja autokorelacji próbki Funkcja autokorelacji Przykładowe częściowe autokorelacje będą Używać autokorelacji, a częściowe autokorelacje są zasadniczo proste. Załóżmy, że mamy serię z t. ze średnią zerową, czyli AR (1). Gdybyśmy mieli uruchomić regresję z t2 na z t1 i z t, spodziewalibyśmy się, że współczynnik na z t nie różni się od zera, ponieważ ta częściowa autokorelacja powinna wynosić zero. Z drugiej strony, autokorelacje dla tej serii powinny maleć wykładniczo dla wzrastających opóźnień (patrz przykład AR (1) powyżej). Załóżmy, że seria jest naprawdę średnią ruchomą. Autokorelacja powinna wynosić zero wszędzie, ale przy pierwszym opóźnieniu. Częściowa autokorelacja powinna wygasnąć wykładniczo. Nawet od bardzo pobieżnego omówienia podstaw analizy szeregów czasowych jest oczywiste, że istnieje dwoistość między procesami AR i MA. Ta dwoistość może zostać podsumowana w poniższej tabeli.

No comments:

Post a Comment