tom XXIII / numer 2Ludmiła Zając-Lamparska, Łukasz Warchoł, Monika Deja, Analiza danych podłużnych: Modelowanie latentnych krzywych rozwojowych

powrót do archiwum

Zmiana i jej badanie w psychologii

Zmiana jest zjawiskiem istotnym dla wielu obszarów badań psychologicznych. Stanowi ona kluczową kategorię pojęciową w psychologii rozwoju człowieka, badającej zachowanie z punktu widzenia jego zmian w czasie (Trempała, 2011). Zmienność zjawisk i właściwości psychicznych w czasie jest również przedmiotem zainteresowania psychologów, którzy choć nie lokują swych badań w obszarze psychologii rozwoju człowieka, to przyjmują w nich perspektywę dynamiczną. Na przykład z punktu widzenia psychologii społecznej ważna może być ocena zmian w postawach społecznych wobec jakiegoś zjawiska (czy grupy), zachodzących w czasie (w pewnym jego okresie, np. dekady) od momentu wystąpienia określonego wydarzenia społecznego czy politycznego (np. wybory parlamentarne). W ramach psychologii klinicznej można badać zmiany nastroju osób uczestniczących w psychoterapii od momentu jej rozpoczęcia (lub jeszcze przed rozpoczęciem) do np. roku po zakończeniu. Badania z zakresu psychologii zdrowia dotyczyć zaś mogą zmian w motywacji do leczenia choroby przewlekłej na przestrzeni określonego czasu od momentu diagnozy.

Aby móc prowadzić analizy dotyczące zmienności jakiegoś zjawiska, konieczne jest wykorzystanie schematów badawczych, które pozwalają mierzyć zmianę. Umożliwiają to badania podłużne (longitudinalne), które zakładają pomiar interesującej badacza zmiennej w określonych punktach czasu tym samym narzędziem i w tej samej grupie osób. Identyfikowane w ten sposób zmiany są funkcją różnic w czasie pomiaru (Trempała, 2000). W tym schemacie można też badać zmiany będące efektem oddziaływania między momentami pomiaru określonych czynników, np. zdarzeń życiowych. Powtarzane pomiary znajdują też zastosowanie w badaniach eksperymentalnych prowadzonych według planu z powtarzanymi pomiarami. W ich ramach ta sama grupa osób jest badana w różnych warunkach eksperymentalnych (Brzeziński, 2000). Uwaga badacza koncentruje się tu na zmianach wywołanych tymi warunkami, nie zaś upływem czasu (badanie może być prowadzone w jednym punkcie czasu), a obserwowana dynamika zachowania nie musi odzwierciedlać zmian rozwojowych.

Analiza wyników badań z powtarzanymi pomiarami wymaga zastosowania odpowiednich metod statystycznych. Jedną z metod powszechnie stosowanych zarówno do analizy wyników badań podłużnych, jak i wyników eksperymentów według planu z powtarzanymi pomiarami, jest analiza wariancji z powtarzanymi pomiarami (repeated measures ANOVA; analiza wariancji w schemacie wewnątrzgrupowym). Istotność otrzymanej wartości testu F dla efektu głównego analizowanego czynnika (czasu pomiaru lub różnych warunków eksperymentalnych) pozwala wnioskować, że miał on wpływ na zmienną zależną (lub zmienne zależne, w przypadku MANOVA), tzn. że pomiędzy wartościami zmiennej zależnej w poszczególnych momentach pomiaru istnieją statystycznie istotne różnice. 

Inną metodą analizy dynamiki zjawisk znajdującą zastosowanie w przypadku badań podłużnych jest analiza szeregów czasowych (time series analysis). Szereg czasowy definiowany jest jako ciąg liczb, opisujących wielkość badanego zjawiska, które uporządkowane zostały z punktu widzenia upływu czasu (Juszczak-Szumacher, 2009; Ridley, 2016). Dzielimy je na szeregi okresów (wraz z upływem czasu dochodzi do sumowania się natężenia danego zjawiska) oraz szeregi momentów (w danych punktach czasu określa się stan natężenia danego zjawiska). Analizę szeregów czasowych stosujemy, gdy celem jest zaobserwowanie trendu. Jej istotą jest prześledzenie zmienności danego zjawiska w czasie po to, by móc skutecznie przewidywać jego dynamikę czy też natężenie w przyszłości (Starzyńska, 2009).

W ciągu ostatnich kilkunastu lat obserwuje się rozwój nowych metod analizy zmienności międzyosobniczej w wewnątrzosobniczym wzorze zmian w czasie. Metody te mieszczą się w szerokiej kategorii modelowania krzywych wzrostu (growth curve modeling) (Curran, Obeidat, Losardo, 2010). Do tej grupy metod należy modelowanie hierarchiczne (hierarchical generalized linear modeling, HGLM) czy wielopoziomowe (multilevel generalized linear modeling, MGLM) oraz modelowanie latentnych krzywych rozwojowych (latent growth curve modeling, LGCM), w którym dopasowanie modelu odbywa się w ramach modelowania równań strukturalnych (structural equation modeling, SEM) (Bollen, Curran, 2006) i na którym koncentrujemy się w artykule.

Idea LGCM

W przypadku LGCM zmiana jest traktowana jako proces ciągły, który może różnić się między osobami (Konarski, 2009). Odróżnia to podejście LGCM od wcześniej wskazanych podejść tradycyjnych, w których analiza zmiany odbywa się na poziomie grupy, a jej przedmiotem jest trend grupowy (wartości średnie zmieniającej się właściwości, mierzone w kolejnych punktach czasu), natomiast zróżnicowanie mię- dzyosobnicze w każdym z punktów pomiaru traktowane jest jako błąd (Duncan, Duncan, 2009). Badając rozwój, chcemy jednak zrozumieć dwa jego aspekty: przeciętny („typowy”) przebieg zmiany oraz indywidualne zróżnicowanie tego przebiegu. LGCM umożliwia to, obejmując dwa podejścia: skoncentrowane na zmiennych i skoncentrowane na osobach. W związku z tym, oprócz zmian na poziomie grupy, LGCM uwzględnia też różnice indywidualne w poziomie początkowym i w przebiegu zmiany (Curran, Willoughby, 2003). Wynikiem analizy jest średnia trajektoria zmiany oraz zróżnicowanie wokół niej trajektorii indywidualnych (rysunek 1).

Rysunek 1. Średnia krzywa zmiany dla grupy oraz krzywe indywidualne

Źródło: opracowanie własne.

Najprostszy model krzywych rozwojowych zawiera jedną zmienną zależną mierzoną w ten sam sposób w dwóch punktach czasu. Jednak używanie tylko dwóch pomiarów, choć dostarcza informacji o zmianie, nie jest dobrym rozwiązaniem ani z punktu widzenia badania rozwoju, ani z perspektywy modelowania krzywych rozwojowych (Duncan, Duncan, Strycker, 2006). W przypadku, gdy dysponujemy danymi tylko z dwóch momentów pomiaru, nie ma możliwości testowania kształtu modelu wzrostu, ponieważ dwa punkty determinują kształt liniowy. Możliwość testowania dopasowania modelu liniowego do danych empirycznych dają minimum trzy pomiary (Acock, Li, 2002; Duncan, Duncan, 2009).

W dalszej części tekstu, wyjaśniając istotę LGCM, odnosić się będziemy do takiego najprostszego modelu, w którym badacz dysponuje pomiarami jednej zmiennej zależnej w trzech punktach czasu i zakłada zachodzenie zmiany o charakterze prostoliniowym. LGCM umożliwia budowanie modeli dużo bardziej złożonych, lecz zasadnicza idea analizy danych jest w ich przypadku analogiczna.

Heurystycznie, metodologię analizy krzywych wzrostu można traktować jako złożoną z dwóch etapów. W etapie pierwszym krzywe regresji (niekoniecznie liniowej) są dopasowywane do wyników powtarzanych pomiarów u każdego z badanych w próbie osobno. W drugim etapie przedmiotem analizy są się już nie surowe wyniki, lecz określone w etapie pierwszym parametry krzywych rozwojowych poszczególnych osób (Duncan, Duncan, 2009), dzięki czemu określany jest rozkład trajektorii w próbie.

W kontekście tych dwóch etapów analizy mówi się o modelach dwóch poziomów.

Model poziomu 1 to tzw. model w osobie (Konarski, 2009). Zakłada on, że poszczególne osoby:
– różnią się parametrami indywidualnych krzywych rozwojowych (parametry te są zatem parametrami losowymi), tj.: stanem początkowym (α), wielkością zmiany (β);
– nie różnią się funkcjonalną formą („kształtem”) indywidualnych trajektorii zmiany1.

1  Na przykład zmiana przebiega u wszystkich osób w sposób prostoliniowy lub krzywa rozwojowa u wszystkich osób przyjmuje kształt odwróconej litery U (kształt tzw. funkcji kwadratowej).
W przypadku liniowej trajektorii zmiany, model zmiany dla i-tej osoby można wyrazić wzorem:

yit = αi+ βit + εit

gdzie:
yit  to wartość zmiennej zależnej w momencie pomiaru t,
αi i βi  to parametry indywidualnej krzywej rozwojowej,
εit  to zmienne w czasie błędy pomiaru (reszty, time-varying residuals).

Model poziomu 2, określany jako tzw. model między osobami (Konarski, 2009), dotyczy rozkładu trajektorii zmiany w badanej próbie. W modelu tym parametry indywidualnych krzywych rozwojowych (z modelu poziomu 1) są traktowane jako rozproszone wokół swoich wartości średnich, zgodnie ze wzorami:

αi = μα + ζαi

βi = μβ + ζβi

gdzie:
αi i βi  to parametry indywidualnej krzywej rozwojowej,
μα i μβ  to średnie wartości tych parametrów,
ζαi i ζβi  to reszty regresji (odchylenia wyników poszczególnych osób od średniej w próbie).
W modelu poziomu 2 szacowane są:
– średni stan początkowy (średnia wartość zmiennej zależnej w pierwszym pomiarze) i średnia wielkość zmiany,
– zróżnicowanie w stanie początkowym i w wielkości zmiany,
– kowariancja (związek) stanu początkowego i wielkości zmiany.
Podsumowując, LGCM pozwala oszacować różnice międzyosobnicze w obserwowanych w czasie zmianach wewnątrzosobniczych.

Latentne czynniki charakteryzujące zmianę

LGCM stanowi jedno z zastosowań SEM do analizy zmiany (Preacher, 2010). Model w LGCM przypomina klasyczny model konfirmacyjnej analizy czynnikowej (confirmatory factor analysis, CFA), której celem jest testowanie modelu pomiarowego (określonego a priori) relacji między wskaźnikami obserwowalnymi a postulowanymi czynnikami latentnymi (Konarski, 2009).

W LGCM powtarzane pomiary zmiennej są traktowane jako wskaźniki latentnych czynników, charakteryzujących dwa aspekty zmiany: stan początkowy i wielkość zmiany (odpowiednio: intercept i slope). Ponieważ LGCM umożliwia badaczowi modelowanie aspektów zmiany jako efektów losowych, szacowane mogą być średnie, wariancje i kowariancje indywidualnych różnic w czynnikach latentnych (Preacher, 2010).

O ile w przypadku CFA badacza interesują ładunki czynnikowe jako wskazujące na efekt oddziaływania zmiennych latentnych na zmienne obserwowalne (Konarski, 2009), o tyle w LGCM wszystkie ładunki czynnikowe są przez badacza narzucane podczas identyfikacji modelu, natomiast przedmiot zainteresowania stanowią parametry czynników latentnych (średnie, wariancje, kowariancje) i to one są szacowane.

W LGCM oszacowaniu podlegają (Duncan, Duncan, 2009):

– średnia i wariancja czynnika intercept,
– średnia i wariancja czynnika slope,
– kowariancja czynników intercept i slope,
– wariancje błędu dla każdego z powtarzanych pomiarów.

Interpretacja tych parametrów pozwala udzielić odpowiedzi na pytania kluczowe w badaniu zmiany: (1) czy zachodzi zmiana danej właściwości na poziomie grupy? (2) czy istnieją różnice międzyosobnicze w tej zmianie? (3) czy istnieje mię- dzyosobnicze zróżnicowanie w poziomie wyjściowym danej właściwości? (4) czy zachodzi związek zmiany z poziomem wyjściowym danej właściwości? 

Czynnik intercept (stała krzywej wzrostu) określa punkt, w którym zaczyna się krzywa wzrostu. W modelu dla każdej osoby (modelu poziomu 1) oznacza on punkt przecięcia krzywej wzrostu tej osoby z osią rzędnych (osią Y), czyli wyjściowy poziom mierzonej właściwości (zmiennej zależnej). W próbie (w modelu poziomu 2) czynnik intercept zawiera informacje o średniej i wariancji stałych regresji charakteryzujących krzywe wzrostu wszystkich osób należących do próby. Istotna wariancja czynnika intercept wskazuje na istnienie międzyosobniczego zróżnicowania w poziomie wyjściowym analizowanej właściwości (co stanowi odpowiedź na pytanie nr 3).

Czynnik slope (nachylenie krzywej wzrostu) odzwierciedla wielkość zmian w jednostce czasu. Czynnik ten w modelu dla osoby reprezentuje nachylenie jej krzywej wzrostu, w próbie natomiast, analogicznie jak intercept, ma także średnią i wariancję, które mogą zostać oszacowane z danych (Duncan, Duncan, Strycker, 2006). Istotna średnia wartość czynnika slope świadczy o zachodzeniu zmiany w poziomie danej właściwości na poziomie grupy (odpowiedź na pytanie nr 1). Z kolei istotna wariancja czynnika slope wskazuje na międzyosobnicze różnice w tej zmianie (odpowiedź na pytanie nr 2).

Czynniki intercept i slope mogą pozostawać w kowariancji. Istotna kowariancja czynników intercept i slope oznacza zachodzenie związku między zmianą w zakresie danej właściwości, a jej poziomem wyjściowym (odpowiedź na pytanie nr 4). Znak kowariancji informuje o kierunku tego związku (dodatni świadczy o kowariancji pozytywnej, ujemny zaś o negatywnej). Pozytywna kowariancja wariancji tych dwóch czynników oznaczałaby, że u osób o wyższych wartościach początkowych określonej właściwości (intercept) również jej zmiany byłyby większe (slope). Kowariancja negatywna wskazywałaby na zależność przeciwną, tj. tym większy wzrost im niższy był wyjściowy poziom danej właściwości (Acock, Li, 2002).
Wariancje błędu ujmowanego na obu poziomach analizy wpływają na interpretację parametrów modelu, korygując wariancję otrzymaną ze względu na losowy błąd pomiaru (Duncan, Duncan, 2009).

Etapy procedury LGCM

Badacz stosujący LGCM podejmuje te same kroki postępowania, co w przypadku SEM. Są to: specyfikacja modelu, identyfikacja modelu, a następnie jego estymacja i interpretacja oraz ewentualna modyfikacja.

Specyfikacja i identyfikacja modelu

Specyfikacja modelu polega na graficznym przedstawieniu relacji między zmiennymi obserwowalnymi (powtarzanymi pomiarami) a czynnikami latentnymi (intercept i slope), czego przykład dla trzech pomiarów zmiennej zależnej prezentuje rysunek 2. W graficznej prezentacji modelu wykorzystuje się rozwiązania tradycyjnie przyjęte w SEM. Wyniki powtarzanych pomiarów zmiennej zależnej (y) stanowią zmienne obserwowalne i jako takie przedstawiane są w prostokątach. Z kolei czynniki latentne przedstawiane są w owalach. Zakończone z jednej strony strzałką linie biegnące od czynników intercept i slope do pomiarów zmiennej zależnej w kolejnych punktach czasu odzwierciedlają oddziaływanie tych zmiennych latentnych na poddawane pomiarowi zmienne obserwowalne. Podobnie jest w przypadku strzałek łączących błędy pomiaru (E) ze zmiennymi obserwowalnymi. Natomiast linia zakończona z obu stron strzałkami łącząca czynniki latentne reprezentuje kowariancję między nimi (Acock, Li, 2002; Duncan, Duncan, 2009).

Rysunek 2. Graficzne przedstawienie modelu dwuczynnikowego dla trzech pomiarów

Źródło: opracowanie własne.

Identyfikacja modelu odnosi się do wyznaczania równowagi między parametrami znanymi i nieznanymi. Aby model był zidentyfikowany liczba znanych parametrów musi być większa niż liczba parametrów do oszacowania. Tylko wówczas liczba stopni swobody jest większa od zera, co umożliwia estymację modelu, tj. oszacowanie czy „pasuje” on do obserwowalnych danych uzyskanych w powtarzanych pomiarach. Znane parametry modelu (określone przez dane) to średnie, wariancje  i kowariancje zmiennych obserwowalnych. Ich liczbę można określić na podstawie liczby powtórzonych pomiarów, korzystając ze wzoru:

gdzie T to liczba powtórzonych pomiarów (Bollen, Curran, 2006; Preacher, 2010). Na przykład, dla trzech powtórzonych pomiarów będziemy mieli 3 średnie, 3 wariancje i 3 kowariancje, co daje liczbę 9. Dla oszacowania prostoliniowej trajektorii zmian do oszacowania w modelu pozostają parametry intercept, slope (ich średnie i wariancje), kowariancja slope i intercept oraz błąd pomiaru w każdym z trzech powtórzonych pomiarów, łącznie 8 parametrów (Duncan, Duncan, 2009). W modelu zidentyfikowanym różnica między liczbą informacji zawartych w danych a liczbą parametrów do oszacowania jest równa liczbie stopni swobody w teście modelu (Duncan, Duncan, 2009; Preacher, 2010). W omawianym przykładzie mamy zatem 1 stopień swobody.

Identyfikacja modelu w LGCM odbywa się poprzez narzucanie ładunków czynnikowych (dla czynników intercept i slope) zmiennym obserwowalnym (powtarzanym w czasie pomiarom). Ładunki te zapisujemy na wykresie przy poszczególnych liniach łączących czynniki latentne i zmienne obserwowalne. 

Jeśli chodzi o intercept, dla każdego badanego ma on wartość stałą w czasie, ponieważ to, jaki był wyjściowy poziom mierzonej właściwości, nie zmienia się. Dlatego ładunek tego czynnika jest ustalony i wynosi 1 dla każdego z powtarzanych pomiarów (Acock, Li, 2002; Duncan, Duncan, 2009).

Z kolei czynnik slope jest związany ze skalą czasu, co odzwierciedlają ładunki czynnikowe ustalane dla niego w identyfikacji modelu. Początek skali czasu dla slope odnosi się do tzw. „punktu zerowego” stanowiącego punkt odniesienia dla pozostałych pomiarów. Jego lokalizacja jest znacząca dla interpretacji parametrów modelu związanych z czynnikiem intercept. W badaniach podłużnych jako początek skali najczęściej przyjmuje się pierwszy pomiar, w którym ocenia się poziom wyjściowy mierzonej właściwości. Możliwe są jednak również inne lokalizacje tego punktu, np. czas wystąpienia jakiegoś krytycznego zdarzenia (któryś z kolei z przeprowadzonych pomiarów), czas śmierci pacjenta (ostatni pomiar przed zgonem) (Preacher, 2010). Ładunek czynnikowy slope dla początku skali wynosi zero. Pozostałe ładunki związane są z przyjętą skalą czasu (np. lata, minuty) i odzwierciedlają upływ czasu na tej skali od punktu początkowego. Na przykład, gdy początek skali ulokowany jest w pierwszym pomiarze, a łącznie odbyło się 5 pomiarów powtarzanych co roku (czyli po roku, dwóch, trzech i czterech od pierwszego pomiaru), ładunki czynnikowe slope dla pięciu kolejnych pomiarów będą wynosiły odpowiednio: 0, 1, 2, 3 i 4. Z kolei w przypadku trzech pomiarów w odstępie co 3 miesiące i początku skali umiejscowionym w środkowym pomiarze ładunki będą następujące: -3, 0, 3. W przykładzie zaprezentowanym na rysunku 2 ładunki czynnikowe slope wynoszą dla kolejnych trzech pomiarów: 0 (początek skali czasu), 1 i 2. Przyjęta skala czasu jest istotna dla interpretacji parametrów związanych z czynnikiem slope, ponieważ nachylenie krzywej rozwoju jest rozumiane jako zmiana wartości mierzonej właściwości w danym interwale czasu.

Błędy pomiaru (E) są wprowadzane do modelu jako reprezentujące tę część wariancji zmiennych obserwowalnych, która nie jest wyjaśniona czynnikami latentnymi (Preacher, 2010). Ładunki czynnikowe błędów pomiaru są w modelu ustalone i wynoszą 1. Ponadto w modelu zakłada się zerową średnią każdego z błędów pomiaru, a ich wariancję zazwyczaj pozostawia się do oszacowania, choć niekiedy także narzuca się warunek równości wariancji błędu w kolejnych pomiarach (Bollen, Curran, 2006; Konarski, 2009; Preacher, 2010).

Prześledzimy specyfikację i identyfikację modelu, odwołując się do przykładu badań podłużnych dotyczących m.in. zmian w zakresie preferowanych wartości (Cieciuch, Davidov, Algesheimer, 2016). Badania te prowadzono wśród dzieci z różnych kohort urodzeniowych, tj. będących w różnym wieku w momencie pierwszego pomiaru. Przykłady dotyczyć będą dzieci, które w pierwszym pomiarze miały 10 lat. Preferencje wartości autorzy mierzyli kwestionariuszem Picture-Based Values Survey for Children (Döring i in., 2010), który powstał w oparciu o kołowy model wartości Schwartza (1992) i pozwala ocenić preferencje dotyczące: zachowawczości, przekraczania siebie, otwartości na zmiany oraz umacniania siebie. Wśród dzieci przeprowadzone zostały trzy pomiary oddzielone rocznymi interwałami. W momencie pierwszego pomiaru badane dzieci miały 10 lat, a w pomiarach kolejnych odpowiednio 11 i 12 lat. Dla zilustrowania specyfikacji i identyfikacji modelu w tych badaniach można zatem wykorzystać rysunek 2. Kolejne pomiary zmiennej obserwowalnej (na rysunku: y1, y2 i y3), w przypadku omawianych badań oznaczają pomiary wartości przeprowadzone, gdy dzieci są w wieku kolejno: 10, 11 i 12 lat. Każdemu z tych pomiarów towarzyszy błąd (E). Latentnymi czynnikami, których średnie i wariancje chcemy oszacować, są natomiast: wyjściowy poziom preferencji danej wartości (intercept) oraz zmiana w zakresie tej preferencji – jej wzrost lub spadek (slope). W identyfikacji modelu wyjściowemu poziomowi preferencji danej wartości (intercept) jako niezmiennemu w czasie przypisujemy stały ładunek 1 dla każdego z trzech pomiarów. Z kolei czynnikowi zmiany (slope) przypisujemy ładunki odzwierciedlające przyjętą skalę czasu. W omawianym badaniu poziom preferencji danej wartości w pierwszym pomiarze traktowano jako poziom wyjściowy („punkt zerowy”), dlatego ładunek czynnika zmiany dla pierwszego pomiaru wynosi zero. Kolejne pomiary powtarzane były co roku, stąd ładunki slope dla nich wynoszą odpowiednio: 1 i 2 (jak na rysunku 2), co odzwierciedla czas, jaki upłynął do momentu tych pomiarów od „punktu zerowego”. Ładunki czynnikowe dla błędów pomiaru zmiennej obserwowalnej autorzy ustalili standardowo na 1, narzucili też zerową średnią błędu każdego pomiaru, natomiast wariancję błędów pozostawili do oszacowania. Przy tak zidentyfikowanym modelu w jego teście dysponujemy jednym stopniem swobody, co umożliwia oszacowanie modelu.

Estymacja i interpretacja modelu

Estymacja modelu oznacza testowanie jego dopasowania do danych empirycznych. W tym celu stosuje się odpowiednie oprogramowanie, jak np. Amos (Byrne, 2000), EQS (Byrne, 2006), LISREL/SIMPLIS (Byrne, 1998), Mplus (Wang Wang, 2012), Mx (Hamagami, 1997) oraz SAS’s PROC CALIS (Hatcher, O’Rourke, 2013). Warte uwagi jest także bezpłatne rozwiązanie, jakim jest pakiet lavaan (Rosseel, 2012) działający w środowisku R (R Core Team, 2013).

Założenia. Jak każda metoda statystyczna, LGCM narzuca na badacza pewne ograniczenia co do rodzaju danych i próby. Pierwszym z wymogów jest pozyskanie odpowiedniej liczebności próby. Brak jest jednoznacznych wskazań co do liczebności minimalnej, która uzasadniałaby wykorzystanie metody. Zaleca się jednak, by próba liczyła przynajmniej około 100 osób2 (Curran, Obeidat, Losardo, 2010). Należy mieć na uwadze, że wymogi co do liczebności próby są uzależnione m.in. od złożoności modelu. Im bardziej skomplikowany model, tym trudniej na małej próbie osiągnąć istotne jego dopasowanie (Curran, Obeidat, Losardo, 2010).

2  Inne zalecenia dotyczące liczebności próby to m.in.: od 5 do 10 obserwacji na parametr w modelu czy 50 obserwacji na zmienną (Muthén, Muthén, 2002).

Kolejnym warunkiem, o którym była już mowa, jest posiadanie danych z przynajmniej trzech powtórzonych pomiarów, aby możliwe było oszacowanie trajektorii rozwoju (Curran, Obeidat, Losardo, 2010). Pewnym odstępstwem od tej reguły jest sytuacja braku danych dla części osób z jednego z pomiarów. Modele latentnych krzywych rozwojowych mogą być szacowane w sytuacji braków danych, lecz należy upewnić się, że przeważająca większość przypadków w macierzy posiada dane dla wszystkich pomiarów (Duncan, Duncan, Strycker, 2006; Curran, Obeidat, Losardo, 2010). Ponadto odstęp pomiędzy pomiarami powinien być taki sam dla wszystkich badanych (Duncan, Duncan, Strycker, 2006; Curran, Obeidat, Losardo, 2010).

Korzystając z LGCM, należy też znać założenia konkretnej metody szacowania modelu. W przypadku najczęściej stosowanej metody estymacji, jaką jest metoda największej wiarygodności (maximum likelihood, ML), czynione jest np. założenie, że powtórzone pomiary dotyczą zmiennych ciągłych, które posiadają rozkład normalny. Podobnie jest w przypadku metody uogólnionych najmniejszych kwadratów (generalized least squares, GLS). Brak normalności rozkładu modelowanej zmiennej lub jej nieciągły charakter nie oznaczają jednak braku możliwości wykorzystania LGCM. Założenia wielowymiarowego rozkładu normalnego nie przyjmuje metoda asymptotycznie wolna od rozkładu (asymtotically distribution free, ADF), jednak jej zastosowanie wymaga bardzo dużych prób. Wymagana liczebność próby wzrasta wraz ze złożonością modelu. W przypadku, gdy zmienne obserwowalne mają charakter kategorialny, estymator ADF jest określany jako estymator ważonych najmniejszych kwadratów (weighted last squares, WLS) (Duncan, Duncan, Strycker, 2006). Inne podejście polega nie na stosowaniu odmiennych metod estymacji, a na korekcie statystyk testowych, w efekcie czego otrzymujemy estymatory odporne, które można stosować w przypadku braku wielowymiarowego rozkładu normalnego i małych prób. Do estymatorów tego typu należą: odporny estymator największej wiarygodności (robust maximum likelihood, RML), odporny estymator uogólnionych najmniejszych kwadratów (robust generalized least squares, RGLS) czy odporny estymator diagonalnie ważonych najmniejszych kwadratów (robust diagonally weighted last squares, RDWLS) (Konarski, 2009).

Szacowanie dopasowania modelu. Szacując dopasowanie modelu w przypadku LGCM, postępujemy tak, jak w przypadku SEM (Konarski, 2009). W celu odpowiedzi na pytanie czy nasz model jest wystarczająco dopasowany do danych, analizujemy wartości kilku wskaźników dopasowania. Nie istnieje jeden wskaźnik, który umożliwiałby bezbłędne oszacowanie dopasowania modelu (Bollen, Curran, 2006; Curran, Obeidat, Losardo, 2010), dlatego zadaniem badacza jest zweryfikować dopasowanie modelu, opierając się na kilku indeksach. W tabeli 1 prezentujemy więc kilka przykładowych. Decydując się na wykorzystanie danych indeksów dopasowania, należy upewnić się, że są właściwe z punktu widzenia posiadanych danych czy liczebności próby.

Tabela 1. Charakterystyka wybranych indeksów dopasowania modelu latentnych krzywych rozwojowych

Interpretacja: wyniki oszacowania intercept i slope. W przypadku uzyskania wyników wskazujących na dopasowanie modelu możemy przystąpić do analizy wartości średnich i wariancji slope i intercept oraz kowariancji między tymi czynnikami. 

W analizowanym przykładzie uzyskano wyniki przedstawione w tabeli 2. Oszacowane średnie czynnika intercept oznaczają wyjściowe średnie poziomy preferencji poszczególnych wartości. Z kolei istotne wariancje tego czynnika wskazują, że w momencie pierwszego pomiaru dzieci różniły się między sobą w zakresie preferencji każdej z wartości. Oszacowane średnie czynnika slope określają, o ile w kolejnych pomiarach zmieni się średnio (wzrośnie lub zmaleje) wartość mierzonej zmiennej (w jednostkach używanych do jej pomiaru). Istotność średnich czynnika slope wskazuje, czy zmiany te są istotne. W badanej grupie wraz z wiekiem istotnie rośnie preferencja dla otwartości na zmiany, istotnie maleje natomiast ważność zachowawczości oraz przekraczania siebie. Z kolei istotne wariancje czynnika slope wskazują na międzyosobnicze zróżnicowanie w zidentyfikowanej zmianie. Dane zawarte w tabeli 2 wskazują, że badane dzieci charakteryzują się różną dynamiką zmiany jedynie pod względem preferencji otwartości. Badacze nie podają oszacowania kowariancji między czynnikami intercept i slope.

Tabela 2. Oszacowane wartości czynników intercept i slope w badaniach nad zmianą preferencji wartości u dzieci

Modyfikacja modelu

Otrzymując wyniki SEM wskazujące na brak dopasowania modelu, można podjąć próbę jego modyfikacji, by uzyskać lepsze dopasowanie. Najbardziej zaawansowaną formą modyfikacji modelu jest jego przekształcenie zgodne z teorią alternatywną wobec dotąd przyjmowanej, czyli np. założenie innego kształtu krzywej przebiegu zmian. Sposobem prostszym jest natomiast przeorganizowanie modelu na podstawie otrzymanych wyników testów istotności zmiennych oraz tzw. indeksów modyfikacji (modification indices, MI). W SEM wskazują one, jakie zależności należy dodać do modelu (pozostawić je do oszacowania) a jakie usunąć (poprzez narzucenie parametrowi wartości równej zeru) (Bedyńska, Książek, 2012). Lepsze dopasowanie modelu osiąga się zazwyczaj poprzez usunięcie narzuconych na określone parametry ograniczeń (uwolnienie ich), czyli pozostawienie ich do oszacowania. Postępowanie to nie znajduje jednak prostego przełożenia na LGCM, ponieważ w tym przypadku parametrów możliwych do uwolnienia jest zdecydowanie mniej niż przy innych zastosowaniach SEM (Duncan, Duncan, 2009; Preacher, 2010). Identyfikacja modelu zakłada tu bowiem narzucenie poszczególnym zmiennym obserwowalnym określonych ładunków czynników latentnych. Odzwierciedlają one realne aspekty przeprowadzonych badań, np. umiejscowienie kolejnych pomiarów na skali czasu. Uwolnienie części parametrów może poprawić dopasowanie modelu do zebranych danych, lecz jednocześnie utrudnić lub wręcz uniemożliwić teoretyczną interpretację zmodyfikowanego modelu. Preacher (2010) wskazuje na dwie zasady, których stosowanie uprawomocni modyfikacje modelu w oparciu o MI:
(1) wprowadzane modyfikacje muszą znajdować teoretyczne uzasadnienie; (2) dopasowanie modelu powinno zostać sprawdzone na nowym zbiorze danych, by uniknąć efektu specyficzności modelu, tj. jego dopasowania tylko do konkretnego zbioru danych.

Inne możliwości LGCM

Modelowanie zmian krzywoliniowych

Pomiar podłużny często ujawnia zmianę krzywoliniową. W LGCM możliwe jest oszacowanie dopasowania modelu zmian krzywoliniowych. W tym celu należy włączyć do modelu założenie o nieliniowej trajektorii zmiany.

yit = αi + βit + βit2 + εit

Efektem tego staje się poszerzenie modelu o trzeci czynnik (slope 2, w równaniu: βit2), dla którego wielkość ładunków czynnikowych odpowiada kwadratowi (gdy zmianę odzwierciedla kwadratowa funkcja czasu) czy sześcianowi (gdy zmianę odzwierciedla sześcienna funkcja czasu) itp. wartości dla slope (Bollen, Curran, 2006; Grimm, Ram, Estabrook, 2017). Krzywoliniowy charakter modelowanych zmian jest istotny dla identyfikacji modelu. Model uważa się za zidentyfikowany, gdy liczba pomiarów równa się minimum k + 1, gdzie k jest liczbą latentnych parametrów krzywej (np. gdy model zakłada dwa czynniki w modelu prostoliniowym – slope i intercept, to k = 2, a minimalna liczba pomiarów powinna wynosić 3) (Preacher, 2010). W przypadku kształtu funkcji kwadratowej dochodzi komponent kwadratowy jako trzeci czynnik opisujący trajektorię (slope 2), więc liczba wymaganych pomiarów wzrasta do 4. Jeśli zatem badacz spodziewa się zaobserwować zależność krzywoliniową, musi to uwzględniać już na etapie planowania badań.

Włączanie predyktorów do modelu: warunkowy LGCM

W przypadku zachodzenia międzyosobniczych różnic krzywych wzrostu pojawia się pytanie o źródło tych różnic. Niekiedy od początku istnieją przesłanki, by spodziewać się takich różnic z uwagi na jakąś zmienną, np. płeć czy poziom wykształcenia. Istnieje możliwość włączenia tego typu zmiennych jako predyktorów w LGCM. W efekcie model staje się tzw. warunkowym modelem wzrostu (conditional LGM) (Duncan, Duncan, 2009). Istnieją dwa rodzaje predyktorów możliwych do uwzględnienia w LGCM: (a) predyktory niezmienne w czasie (time invariant covariates, TICs), których wartość jest stała; (b) predyktory zmienne w czasie (time variant covariates, TVCs), których wartość zmienia się jako funkcja czasu (Curran, Obeidat, Losardo, 2010). Predyktorami niezmiennymi w czasie (TICs) mogą być zmienne rzeczywiście niepodlegające zmianom, jak płeć biologiczna czy wiek rozpoczęcia nauki szkolnej, ale także zmienne, które ze swej natury podlegają zmianom, lecz w danych badaniach były poddawane pomiarowi tylko raz (np. wyjściowy poziom lęku lub wyjściowy czas reakcji). Z kolei predyktory zmienne w czasie (TVCs), jak np. zasób słownictwa, wysokość samooceny, pozwalają przewidywać wyniki w kolejnych pomiarach. Wynik w każdym z powtórzonych pomiarów zależy jednocześnie od związanych z nim czynników latentnych krzywej wzrostu i działania predyktora (TVC) w danym odcinku czasu. Predyktory włączane do LGCM stanowią zmienne obserwowalne, dlatego uzupełniając o nie specyfikację modelu, umieszczamy je w prostokątach. TICs należy połączyć z czynnikami latentnymi za pomocą zakończonych strzałką linii biegnących od TIC do intercept oraz do slope. Z kolei TVCs łączymy z powtarzanymi pomiarami. Ponieważ wartość TVCs zmienia się w czasie, wprowadzamy tyle wartości TVC, ile wykonano pomiarów i prowadzimy linie zakończone strzałkami od wartości TVC w danym punkcie czasu do przeprowadzonego w tym punkcie pomiaru zmiennej zależnej. Parametry wprowadzonych w ten sposób do modelu związków (współczynniki regresji, β) pozostawiamy do oszacowania. Istotny związek między TIC i intercept oznacza, że predyktor ten pozwala przewidywać wartość wyjściową zmiennej zależnej, natomiast istotny związek TIC ze slope interpretujemy jako możliwość przewidywania na podstawie predyktora wielkości i kierunku zmiany. Z kolei dla TVC otrzymujemy tyle współczynników, ile było powtórzonych pomiarów. Każdy ze współczynników jest miarą związku zmiennej zależnej z TVC w danym punkcie pomiaru. Przy czym w przypadku uwzględniania w modelu TVC wielkość zmiany (średnia slope) jest szacowana przy kontroli efektów TVC. Przykład włączenia do LGCM zarówno TICs jak i TVC oraz interpretacji uzyskanych w ten sposób wyników odnaleźć można w artykule opisującym badania nad zmianami poczucia integracji z rówieśnikami u dzieci w wieku szkolnym (Grygiel, 2016). Model wykorzystujący TVCs może być ponadto rozszerzony o interakcje między TVCs i czasem (co pozwala ocenić zmienność oddziaływania danego predyktora w czasie) oraz interakcje między TVCs i TICs (co pozwala ocenić różnice w oddziaływaniu TVC w zależności od wartości przyjmowanej przez TIC, np. rolę poziomu lęku w zależności od płci biologicznej) (Acock, Li, 2002; Curran, Obeidat, Losardo, 2010).

Modelowanie efektów międzyosobniczych: LGCM dla wielu grup

Modelowanie krzywych wzrostu może być też przeprowadzone dla wielu grup, np. grupy poddawanej leczeniu i grupy placebo, grup eksperymentalnej i kontrolnej czy różnych grup wiekowych. W wielu badaniach postępowanie służące wykryciu różnic w przebiegu zmiany w różnych grupach (np. wiekowych, etnicznych) polega na odrębnym testowaniu modeli w każdej z grup i porównywaniu otrzymanych rezultatów. Procedura taka nie daje jednak możliwości oszacowania, czy istnieje wiele ścieżek rozwoju typowych dla poszczególnych grup czy też jedna – wspólna dla wszystkich (Duncan, Duncan, 2009). W niektórych przypadkach na pytanie o międzygrupowe różnice w przebiegu zmian rozwojowych może odpowiedzieć zastosowanie warunkowego LGCM i wprowadzenie zmiennej grupującej (np. płci czy rasy) jako niezmiennego w czasie predyktora (TIC). Jednak jest to słuszne wyłącznie przy założeniu, że kształt krzywej rozwoju jest taki sam w porównywanych grupach, a różnice, jakich poszukuje badacz dotyczą warunkowych średnich czynników latentnych. W sytuacji, gdy tego założenia nie można przyjąć, zastosowanie znajduje LGCM dla wielu grup, które zakłada, że parametry modelu mogą się dowolnie różnić między porównywanymi grupami (Curran, Obeidat, Losardo, 2010). Pozwala to oszacować podobieństwa i różnice w przebiegu rozwoju w różnych grupach w zakresie poziomu wyjściowego, wielkości zmiany i przebiegu zmiany, a także roli predyktorów (Duncan, Duncan, 2009).

Opisane możliwości LGCM nie są wszystkimi istniejącymi. Oprócz LGCM pierwszego rzędu, na którym skupiliśmy się w artykule i które opiera się o jedną obserwowalną zmienną będącą wskaźnikiem latentnych czynników wzrostu, stosuje się też LGCM drugiego rzędu, które wykorzystuje wiele wskaźników w każdym punkcie czasowym (Growth Modeling With Multiple Indicators) (Bishop, Geiser, Cole, 2014). Ponadto zamiast zakładać, że wszyscy badani pochodzą z jednej, homogenicznej pod względem przebiegu zmian populacji (jak w klasycznym LGCM) albo wskazywać grupy, dla których mają być modelowane krzywe wzrostu (jak w LGCM dla wielu grup), można zidentyfikować latentne subpopulacje różniące się parametrami tych krzywych za pomocą mieszanych modeli wzrostu (Growth Mixture Modeling, GMM). Metoda ta umożliwia opis przebiegu zmian w każdej ze zidentyfikowanych populacji oraz ich porównanie (Ram, Grimm, 2009).

Podsumowanie

LGCM umożliwia testowanie hipotez teoretycznych dotyczących przebiegu zmiany na poziomie głębszym niż tradycyjnie stosowane metody analizy danych podłużnych. Jednoczesna charakterystyka zmiany na poziomie trendu grupowego oraz różnic indywidualnych w jej przebiegu pozwala uznać LGCM za metodę wykorzystującą całą informację o zmianie zawartą w danych. Korzystając z możliwości, jakie daje LGCM, należy jednak pamiętać, że jest to metoda użyteczna pod warunkiem, że testowany przez badacza model jest dobrze uzasadniony teoretycznie.

Literatura cytowana

Acock, A.C., Li, F. (2002). Latent growth curve analysis: A gentle introduction, http://oregonstate.edu/dept/hdfs/papers/lgcgeneral.pdf [dostęp 18.01.2017].

Bedyńska, S., Książek, M. (2012). Statystyczny drogowskaz. T. 3: Praktyczny przewodnik wykorzystania modeli regresji oraz równań strukturalnych. Warszawa: Wydawnictwo Akademickie Sedno.

Bishop, J., Geiser, C., Cole, D.A. (2015). Modeling latent growth with multiple indicators: A comparison of three approaches. Psychological Methods, 20 (1), 43-62, doi: 10.1037/met0000018

Bollen, K.A., Curran, P.J. (2006). Latent curve models: A structural equation perspective. Social forces (t. 87). Hoboken, NJ: John Wiley & Sons, Inc., doi:10.1353/sof.0.0084

Brzeziński, J. (2000). Badania eksperymentalne w psychologii i pedagogice. Warszawa: Wydawnictwo Naukowe Scholar.

Byrne, B.M. (1998). Structural equation modeling with LISREL, PRELIS, and SIMPLIS: Basic concepts, applications, and programming. Mahwah, NJ: Lawrence Erlbaum Associates.

Byrne, B.M. (2000). Structural equation modeling with AMOS: Basic concepts, applications, and programming. Mahwah, NJ: Lawrence Erlbaum Associates.

Byrne, B.M. (2006). Structural equation modeling with EQS: Basic concepts, applications, and programming. Mahwah, NJ: Lawrence Erlbaum Associates.

Cieciuch, J., Davidov, E., Algesheimer, R. (2016). The stability and change of value structure and priorities in childhood: A longitudinal study. Social Development, 25 (3), 503-527, doi: 10.1111/sode.12147

Curran, P.J., Obeidat, K., Losardo, D. (2010). Twelve frequently asked questions about growth curve modeling. Journal of Cognitive Development, 11 (2), 121-136, doi: 10.1080/15248371003699969

Curran, P.J., Willoughby, M.T. (2003). Implications of latent trajectory models for the study of developmental psychopathology. Development and Psychopathology, 15, 581-612, doi: 10.1017/S0954579403000300

Döring, A.K., Blauensteiner, A., Aryus, K., Drögekamp, L., Bilsky, W. (2010). Assessing values at an early age: The picture-based value survey for children. Journal of Personality Assessment, 92, 439-448, doi: 10.1080/00223891.2010.497423

Duncan, T.E., Duncan, S.C. (2009). The ABC’s of LGM: An introductory guide to latent variable growth curve modeling. Social and Personality Psychology Compass, 3 (6), 979-991, doi: 10.1111/j.1751-9004.2009.00224.x

Duncan, T.E., Duncan, S.C., Strycker, L.A. (2006). An introduction to latent variable growth curve modeling. Concepts, issues, and applications. Mahwah, NJ: Lawrence Erlbaum Associates, Inc.

Grimm, K.J., Ram, N., Estabrook, R. (2017). Growth modeling. structural equation and multilevel modeling approaches. New York-London: The Guilford Press.

Grygiel, P. (2016). Dynamika poczucia integracji z rówieśnikami w klasach 3-6 szkoły podstawowej. Model latentnych krzywych rozwojowych. Edukacja, 3 (138), 57-74.

Hamagami, F. (1997). A review of the mx computer program for structural equation modeling. Structural Equation Modeling: A Multidisciplinary Journal, 4 (2), 157-175, doi: 10.1080/10705519709540068

Hatcher, L., O’Rourke, N. (2013). A step-by-step approach to using SAS® for factor analysis and structural equation modeling. Cary, NC: SAS Institute.

Juszczak-Szumacher, G. (2009). Analiza dynamiki zjawisk. W: W. Starzyńska (red.), Podstawy statystyki (s. 197-219). Warszawa: Wydawnictwo Difin.

Kenny, D.A., McCoach, D.B. (2003). Effect of the number of variables on measures of fit in structural equation modeling. Structural Equation Modeling: A Multidisciplinary Journal, 10 (3), 435-455, doi: 10.1207/ S15328007SEM1003_1

Konarski, R. (2009). Modelowanie równań strukturalnych. Teoria i praktyka. Warszawa: Wydawnictwo Naukowe PWN.

Miles, J., Shevlin, M. (2007). A time and a place for incremental fit indices. Personality and Individual Differences, 42 (5), 869-874, doi: 10.1016/j.paid.2006.09.022

Muthén, L.K., Muthén, B.O. (2002). How to use a Monte Carlo study to decide on sample size and determine power. Structural Equation Modeling: A Multidisciplinary Journal, 9 (4), 599-620, doi: 10.1207/S15328007SEM0904_8

Preacher, K.J. (2010). Latent growth curve models. W: G.R. Hancock, R.O. Mueller (red.), The reviewer’s guide to quantitative methods in the social sciences (s. 185-198). London: Routledge, doi: 10.1007/978-94-007-3024-3 

R Core Team (2013). R: A language and environment for statistical computing. Vienna: R Foundation for Statistical Computing, https://www.r-project.org/

Ram, N., Grimm, K.J. (2009). Growth mixture modeling: A method for identifying differences in longitudinal change among unobserved groups. International Journal of Behavioral Development, 33 (6), 565-576.

Ridley, D. (2016). Advances in antithetic time series analysis. Separating fact from artifact. Operations Research and Decisions, 3, 57-68, doi: 10.5277/ord160304

Rosseel, Y. (2012). lavaan: An R package for structural equation modeling. Journal of Statistical Software, 48 (2), 1-36, doi: 10.18637/jss.v048.i02

Schumacker, R.E., Lomax, R.G. (2016). A Beginner’s guide to strutural equation modeling. Routledge, doi: 10.1198/tech.2005.s328

Schwartz, S.H. (1992). Universals in the content and structure of values: Theory and empirical tests in 20 countries. W: M. Zanna (red.), Advances in experimental social psychology (t. 25, s. 1-65). New York: Academic Press.

Starzyńska, D. (2009). Analiza szeregów czasowych. W: W. Starzyńska (red.), Podstawy statystyki (s. 220-240). Warszawa: Wydawnictwo Difin.

Trempała, J. (2000). Modele rozwoju psychicznego. Czas i zmiana. Bydgoszcz: Wydawnictwo Uczelniane Akademii Bydgoskiej im. Kazimierza Wielkiego.

Trempała, J. (2011). Natura rozwoju psychicznego. W: J. Trempała (red.), Psychologia rozwoju człowieka (s. 28-49). Warszawa: Wydawnictwo Naukowe PWN.

Wang, J., Wang, X. (2012). Structural equation modeling with Mplus: Methods and applications. Chichester, West Sussex: Wiley/Higher Education Press.

PDF Abstrakt

Rocznik: 2018

Tom: XXIII

Numer: 2

Tytuł: Analiza danych podłużnych: Modelowanie latentnych krzywych rozwojowych

Autorzy: Ludmiła Zając-Lamparska, Łukasz Warchoł, Monika Deja

PFP: 395-412

DOI: 10.14656/PFP20180210