Przemysław Tomalski, Aleksandra Dopierała Rozwój funkcjonalny mózgu na przykładzie korowych mechanizmów percepcji twarzy i mowy u niemowląt

PDF Abstrakt

Rocznik: 2018

Tom: XXIII

Numer: 1

Tytuł: Rozwój funkcjonalny mózgu na przykładzie korowych mechanizmów percepcji twarzy i mowy u niemowląt

Autorzy: Przemysław Tomalski, Aleksandra Dopierała

PFP: 64-77

DOI: https://doi.org/10.14656/PFP20180105

Wprowadzenie

W codziennych doświadczeniach większość informacji, jakie postrzegamy, jest polimodalna – obejmuje wiele zmysłów. Zdolność do łączenia sygnałów o częściowo odmiennej zawartości informacyjnej w spójne i znaczące reprezentacje mózgowe ma kluczowe znaczenie dla udanej integracji informacji między zmysłami (Stein, Meredith, 1993; Lewkowicz, 2000). Przykładem takiego rodzaju przetwarzania, który wymaga integracji bodźców o różnej zawartości informacyjnej w różnych modalno- ściach zmysłowych, jest przetwarzanie mowy. Mimo że mowa jest powszechnie uważana za zjawisko ściśle słuchowe, to jej przetwarzanie w codziennych interakcjach obejmuje często także informacje wzrokowe. Z drugiej strony zazwyczaj postrzeganie twarzy wiąże się z postrzeganiem mowy i dostarcza wielu skorelowanych w czasie informacji jednomodalnych, w tym słuchowych: ton głosu i barwa oraz wizualnych: rysy twarzy, kolor skóry itp. Niemniej jednak dostarczają one także informacji wielomodalnych, takich jak informacje o relacjach między widzianą a słyszaną mową (Munhall, Vatikiotis-Bateson, 2004; Chandrasekaran i in., 2009). Podczas oglą- dania mówiącej twarzy można zaobserwować ruchy ust, szczęki, policzków czy ję- zyka związane z wytwarzaniem mowy (Yehia, Rubin, Vatikiotis-Bateson, 1998; Jiang i in., 2002; 2007). W związku z tym niektóre informacje na temat akustycznych wła- ściwości mowy są dostępne dzięki obserwacji artykulacji osoby mówiącej. Integracja informacji polimodalnych jest jednym z procesów składowych przetwarzania języka i ma istotne znaczenie dla percepcji mowy nie tylko w dorosłości, ale także od pierwszych miesięcy życia (Werker, Hensch, 2015).

W niniejszym artykule prezentujemy wybiórczy przegląd najważniejszych badań nad mózgowymi korelatami percepcji twarzy i mowy w pierwszym roku życia. Spektakularnym zmianom rozwojowym na poziomie zachowania towarzyszą równie dramatyczne zmiany w zakresie odpowiedzi korowych na specyficzne kategorie bodźców. Prezentowane badania stanowią ilustrację tego, jak wczesne do- świadczenia percepcyjne kształtują funkcje mózgu w odniesieniu do istotnych bodźców społecznych o charakterze polimodalnym. W kolejnych częściach artykułu przedstawiamy zmiany koncepcji organizacji funkcji mózgu w ostatnich dekadach, a także znaczenie procesów rozwoju dla rozumienia sposobu wyłaniania się specyfiki funkcjonalnej kory mózgowej. Następnie omawiamy zachodzące równolegle w rozwoju procesy ograniczania biegłości percepcyjnej (ang. perceptual narrowing) dla twarzy i dźwięków mowy oraz ich korelaty mózgowe. Na koniec przybliżamy badania wspierające tezę, że rozwój funkcjonalny kory prowadzi do wyłaniania się polimodalnych reprezentacji innych osób w mózgu już we wczesnym dzieciństwie.

Organizacja funkcjonalna kory mózgu: obszary vs sieci

W ciągu ostatnich 30 lat badania neuroobrazowe pozwoliły na dokonanie olbrzymich postępów w zakresie charakterystyki funkcjonalnej kory mózgu u dorosłych. Zwłaszcza w minionych dekadach wiele z tych badań skupiało się na przypisaniu specyficznych funkcji poznawczych regionom kory. Jednak rozwój technik obrazowania różnych rodzajów aktywności mózgu (hemodynamicznej, elektrycznej, magnetycznej) w połączeniu z nowymi metodami modelowania komputerowego doprowadził do konkluzji, że specjalizacja funkcjonalna regionów nie wynika z wrodzonego, genetycznego charakteru rozwoju funkcjonalnego (Johnson, 2001). Ten stan rzeczy uznają nawet uprzedni zwolennicy lokalizacjonizmu, a więc ścisłego i jednoznacznego mapowania struktura-funkcja, inspirowani modularną teorią umysłu (Kanwisher, 2017). Zatem nawet w odniesieniu do organizacji funkcjonalnej mózgu w dorosłości zamiast osobnych mechanizmów odpowiedzialnych za okre- ślone rodzaje przetwarzania (lokalizacjonizm) coraz popularniejszy jest pogląd, że ludzki mózg opiera się na sieciach połączonych regionów, zaangażowanych w wiele funkcji (globalizm), które wzajemnie na siebie oddziałują (Kanwisher, 2017).

Kwestia organizacji funkcjonalnej kory mózgu w dorosłości w coraz większym stopniu może być wyjaśniona w ramach koncepcji rozwojowych, które wskazują na kluczową rolę dwukierunkowych interakcji pomiędzy materiałem genetycznym, środowiskiem komórkowym, sieciami mózgowymi, innymi systemami organizmu a środowiskiem zewnętrznym. Tak rozumiany proces rozwoju, określany jako epigeneza probabilistyczna (Gottlieb, 2007), wskazuje, że organizacja funkcji mózgu: (1) wyłania się w toku złożonych interakcji wielu czynników, (2) na przestrzeni wielu lat, prowadząc do (3) kształtowania się indywidualnych ścieżek rozwoju, które są źródłem różnic indywidualnych obserwowanych zarówno na poziomie zachowania, jak i aktywności mózgu. Zatem aby zrozumieć przyczyny ukształtowania się takiego, a nie innego mapowania struktura-funkcje mózgu, niezbędne jest badanie zmian rozwojowych w zakresie (1) specyfiki odpowiedzi korowych na poszczególne kategorie bodźców oraz (2) charakterystyki przetwarzania informacji, za które odpowiedzialne są dane obszary czy sieci mózgowe.

Kluczowe dla scharakteryzowania samego procesu rozwoju funkcji mózgu jest zrozumienie roli biologicznych ograniczeń w jego rozwoju, co postulują neurokonstruktywiści (Westermann i in., 2007). Biologiczne ograniczenia mają wieloraki charakter, obejmują m.in. (1) informację genetyczną organizmu zawartą w komórkach, (2) spontaniczną i niezależną od bodźców zewnętrznych aktywność neuronów już w okresie prenatalnym czy (3) prenatalny i postnatalny rozwój neuronów i połączeń synaptycznych. Wpływ czynników środowiskowych na rozwój funkcji mózgu jest zatem ograniczony przez specyfikę biologicznych procesów rozwoju w różnych okresach życia. Coraz większa liczba badań obejmujących zarówno okres niemowlęcy, jak i dzieciństwo czy okres dorastania ilustruje te procesy w odniesieniu do istotnych umiejętności poznawczych, jak percepcja twarzy, mowy czy umiejętności czytania. Tak zdefiniowane procesy rozwoju pozwalają również wyjaśnić bardzo wiele aspektów nietypowego rozwoju psychicznego osób z zespołami genetycznymi (np. zespół Williamsa, Downa) czy zaburzeniami neurorozwojowymi (m.in. autyzm, ADHD). Wybitne osiągnięcia w tym obszarze miała zmarła niedawno Annette Karmiloff-Smith, która w badaniach wykazała, jak rzekome „podwójne dysocjacje” deficytów w zakresie różnorodnych funkcji u dzieci z różnymi zespołami genetycznymi, uważane za dowód na modularność umysłu, są w istocie artefaktem błędnej ramy teoretycznej. Dla przykładu, u osób z zespołem Williamsa nawet funkcje uważane za „zachowane”, jak mowa czynna, rozwijały się równie nietypowo i odmiennie od typowego rozwoju mowy, co funkcje uważane za „deficytowe”, jak percepcja twarzy (Karmiloff-Smith, 1998). Według Karmiloff-Smith wyjaśnienie funkcji mózgu w zaburzeniach rozwoju wymaga opisania biologicznych ograniczeń rozwoju mózgu, które wynikają ze specyfiki zaburzenia oraz nietypowych interakcji ze środowiskiem w biegu życia (Karmiloff-Smith, Thomas, 2003).

Koncepcje rozwoju funkcjonalnego mózgu

Podsumowując istniejące teorie rozwoju funkcjonalnego mózgu, Johnson (2001) wyróżnił trzy ogólne perspektywy teoretyczne: maturacyjną, nabywania umiejętności oraz specjalizacji interaktywnej (zob.również Tomalski, 2017). Pierwsza, maturacyjna koncepcja zakłada modularny podział kory mózgowej na regiony, które dojrzewają w określonej kolejności. Nabywanie nowych umiejętności jest zatem związane z biologicznie zaprogramowanym rozwojem kolejnych regionów. Druga, nabywania umiejętności, przyjmuje, że specjalizacja kory mózgowej wynika ze zdobywania nowych umiejętności i treningu (Johnson, 2001). Trzecia, perspektywa interaktywnej specjalizacji, głosi, że specjalizacja jest wynikiem interakcji między poszczególnymi obszarami kory, to znaczy, że w trakcie rozwoju wyłaniają się sieci obszarów mózgu, a interakcje tych obszarów prowadzą do zmian ich właściwości funkcjonalnych – z szeroko zdefiniowanych do coraz bardziej dostrojonych do wąskiej klasy bodźców (Johnson, de Haan, w druku). W kolejnej części artykułu zaprezentujemy, w jaki sposób wczesny rozwój percepcji mowy i twarzy pozwala przetestować empirycznie te jakże odmienne koncepcje teoretyczne.

Percepcja twarzy u niemowląt

Jedną z metod wykorzystywanych do badania umiejętności poznawczych niemowląt jest encefalografia (EEG). EEG mierzy zmiany potencjałów elektrycznych z powierzchni skóry czaszki, które odzwierciedlają aktywność sieci neuronów (Colombo, Brez, Curtindale, 2012). Po zaprezentowaniu bodźca można zaobserwować oddzielną odpowiedź, ograniczoną czasowo do okresu krótko po rozpoczęciu prezentacji bodźca, zwaną potencjałem wywołanym (ang. event-related potential – ERP) (Colombo, Brez, Curtindale, 2012). Uważa się, że zmiany w bieżącej aktywności elektrycznej sieci neuronów, które można zaobserwować w postaci ERP, są wynikiem wielu odrębnych procesów przetwarzania informacji (Purhonen i in., 2005). Poszczególne komponenty ERP zostały powiązanie z konkretnymi procesami poznawczymi, w tym przetwarzania twarzy. U dorosłych komponenta N170 jest uważana za wskaźnik wczesnej kategoryzacji twarzy ludzkich. Badania EEG/ERP wykazały, że między 6. a 12. miesiącem życia można zaobserwować wyłanianie się niemowlęcego odpowiednika komponenty N170 (de Haan, Humphreys, Johnson, 2002). Dwie komponenty, N290 i P400, są uważane za niemowlęce prekursory dorosłej odpowiedzi dla twarzy, a ich pojawianie się pod koniec pierwszego roku życia uznaje się za wskaźnik specjalizacji kory mózgu dla tej kategorii bodźców (de Haan, Johnson, Halit, 2003). A zatem niemowlęta już w pierwszym roku życia przetwarzają twarze w specjalny sposób.

Ograniczanie biegłości percepcyjnej dla twarzy

Między 6. a 10. miesiącem życia można zaobserwować ograniczanie biegłości percepcyjnej dla twarzy. Pomimo preferencji dla własnej rasy (lub grupy etnicznej), 3-miesięczne dzieci wciąż potrafią odróżniać twarze z innej rasy równie dobrze, jak z własnej. W wieku 6 miesięcy niemowlęta odróżniają twarze ludzkie od małp (de Haan, Johnson, Halit, 2003), a w obrębie danej kategorii (twarze ludzkie lub małp) równie dobrze rozróżniają poszczególne egzemplarze (Pascalis, de Haan, Nelson, 2002). Tendencje do lepszego rozróżniania twarzy swojej rasy i gatunku, w porównaniu z rozróżnianiem twarzy innych ras i innych gatunków, rozwijają się w wieku od 3 do 9 miesięcy (m.in. badania behawioralne: Pascalis, de Haan, Nelson, 2002; Kelly i in., 2005; Bar-Haim i in., 2006; Hayden i in., 2007; Simpson i in., 2011; badania ERP: de Haan, Pascalis, Johnson, 2002; Scott, Shannon, Nelson, 2006; Scott, Monesson, 2009). Doświadczenie wzrokowe niemowlęcia pozwala zatem na dostrojenie systemu percepcji twarzy na poziomie mózgowym. W pierwszym roku życia niemowlę staje się zatem coraz bardziej biegłe w rozróżnianiu twarzy często spotykanych w otoczeniu, jednocześnie stopniowo mając coraz mniejszą wprawę w różnicowaniu rzadko obserwowanych twarzy (Simion, Giorgio, 2015).

Percepcja mowy u niemowląt

Zdolność do przetwarzania głosów jest obecna na bardzo wczesnym etapie życia. Badania mierzące rytm serca wykazały, że jeszcze w późnym okresie prenatalnym płód jest zdolny do rozróżniania głosu matki od nieznajomego głosu (Kisilevsky i in., 2003), a noworodki potrafią rozróżniać głosy swoich rodziców od innych (Ockleford i in., 1988). Przedmiotem szczególnego zainteresowania w badaniach nad rozróżnianiem dźwięków jest komponenta słuchowych potencjałów wywołanych zwana falą niezgodności (ang. mismatch response – MMR). Jest ona obserwowana zarówno u dorosłych, jak i u niemowląt (np. Kushnerenko i in., 2002; Martynova, Kirjavainen, Cheour, 2003), i może być używana do oceny procesów percepcji mowy w pierwszych miesiącach życia (Näätänen i in., 2007).

Mózgowe korelaty percepcji mowy

Percepcja mowy u dorosłych angażuje rozległe sieci mózgowe, w tym obustronne obszary skroniowe, skroniowo-ciemieniowe, przedczołowe i potyliczne (Skeide, Friederici, 2016). Przetwarzanie dźwięków mowy u niemowląt wywołuje obustronną aktywację regionów skroniowych (Homae i in., 2006; 2011; Minagawa- -Kawai i in., 2007; Taga, Asakawa, 2007; Bortfeld, Fava, Boas, 2009; Nakano i in., 2009; Kotilahti i in., 2010; Sato, Sogabe, Mazuka, 2010). W badaniu z użyciem spektroskopii bliskiej podczerwieni (NIRS) Homae i in. (2011) zaobserwowali, że sieci czołowoskroniowe są aktywne już we wczesnym wieku i odgrywają rolę w przetwarzaniu dźwięków mowy. Dehaene-Lambertz i in. (2002) pokazali dodatkowo, że regiony czołowe są zaangażowane w przetwarzanie języka, mimo że uważa się, iż dojrzewają one dopiero później. A zatem regiony biorące udział w przetwarzaniu mowy u niemowląt różnią się od aktywacji obserwowanych u dorosłych.

Ograniczanie biegłości percepcyjnej dla mowy

Od razu po urodzeniu niemowlęta preferują mowę (w porównaniu z innymi bodźcami słuchowymi), jednak jej zakres jest w tym wieku bardzo szeroki (Vouloumanos, Werker, 2007). W wieku około 3 miesięcy niemowlęta zaczynają wykazywać preferencję dla mowy ludzkiej (Vouloumanos i in., 2010). Mimo że mają już ustalone preferencje, 6-miesięczne niemowlęta są nadal zdolne do rozróżniania poszczególnych głosów innych niż ludzkie (np. makaków królewskich; Friendly, Rendall, Trainor, 2014). W badaniach behawioralnych niemowląt Friendly i in. (2014) zauwa- żyli, że proces zawężania biegłości percepcyjnej w zakresie rozróżniania głosów trwa do końca pierwszego roku życia.

W przeciwieństwie do dorosłych, którzy potrafią rozróżniać jedynie kontrasty dźwięków mowy używane w ich ojczystym języku (Lisker, Abramson, 1964; Miyawaki i in., 1975), niemowlęta do około 6. miesiąca życia umieją rozróżniać kontrasty wszystkich języków, nawet tych, z którymi nie miały nigdy styczności (Aslin i in., 1981). Z wiekiem niemowlęta stają się coraz mniej wrażliwe na fonemy obcych ję- zyków, zyskując za to większą wrażliwość na kontrasty języka ojczystego (Werker, Tees, 1984). Potwierdzają to badania wykorzystujące różne metodologie – od behawioralnych do neuroobrazowych (m.in. Rivera-Gaxiola, Silva-Pereyra, Kuhl, 2005; Pena, Werker, Dehaene-Lambertz, 2012; Weikum i in., 2012; Elsabbagh i in., 2013). Taka zmiana rozwojowa, polegająca na większej wrażliwości na obce fonemy u młodszych niż u starszych niemowląt sugeruje, że w pierwszych miesiącach życia posiadają ogólne zdolności do percepcji mowy, a dopiero potem stopniowo zaczynają skupiać się na specyficznych cechach, które charakteryzują dźwięki mowy ich ojczystego języka.

Ograniczanie biegłości percepcyjnej w zakresie dźwięków mowy ma inny przebieg w zależności od rodzaju przetwarzanych bodźców. Ograniczanie biegłości percepcyjnej dla samogłosek rozpoczyna się w wieku około 4 miesięcy (Kuhl i in., 1992; Polka, Werker, 1994; Kuhl, 2004), dla spółgłosek – dopiero po ukończeniu 6 miesięcy, a dla tonów leksykalnych (różnicujących niektóre języki, np. mandaryński, ale nie angielski) – około 9-10 miesięcy (Mattock, Burnham, 2006; Mattock i in., 2008; Yeung, Chen, Werker, 2013). Zatem okres, kiedy pojawia się zawężanie percepcyjne, może zależeć od rodzaju informacji (Lewkowicz, Ghazanfar, 2009).

Mowa wizualna

Zdolność do rozróżniania mowy wizualnej również podlega procesowi ograniczania biegłości percepcyjnej. Weikum i in. (2007) pokazywali jedno- i dwujęzycznym niemowlętom w wieku 4, 6 i 8 miesięcy bezdźwięczne twarze mówiące w języku angielskim i francuskim. Sprawdzana była u niemowląt umiejętność odróżnienia od siebie tych dwóch języków na podstawie jedynie mowy wizualnej. Podczas gdy niemowlęta w wieku do 6 miesięcy potrafiły rozróżniać mowę wizualną zarówno w ję- zyku ojczystym, jak i obcym, w wieku 8 miesięcy ta zdolność była obecna jedynie u dwujęzycznych niemowląt (Weikum i in., 2007). Wyniki te ujawniają zaskakująco wczesną umiejętność wzrokowego rozróżniania języka ojczystego i wskazują na występowanie ograniczania percepcyjnego dla mowy wizualnej.

Percepcja mowy audiowizualnej u niemowląt

Już w pierwszym roku życia niemowlęta przetwarzają mowę w sposób wielozmysłowy. Badania Coulon i in. (2013) pokazują, że noworodki potrafią wykrywać niezgodność pomiędzy słyszanym dźwiękiem mowy a jego wizualną artykulacją. Postrzeganie tego rodzaju niezgodności wykształca się wcześniej dla samogłosek niż spółgłosek (Patterson, Werker, 1999). Jest to zgodne z trajektorią wyłaniającej się specjalizacji dla dźwięków mowy, w modalności słuchowej, bowiem ograniczanie percepcyjne ma miejsce wcześniej dla kategorii samogłosek niż spółgłosek (4. vs 6. miesiąc życia). W badaniu potencjałów wywołanych Kushnerenko i in. (2008) zaobserwowali specyficzne mózgowe korelaty wykrywania niezgodności w 5. miesiącu życia, wykazując istnienie mózgowego wskaźnika przetwarzania polimodalnego dla bodźców, w których nie było możliwe zintegrowanie niespójnych dźwiękowych i wzrokowych sygnałów mowy. Co ważniejsze, u dorosłych nie zaobserwowano analogicznej odpowiedzi mózgowej, choć w zadaniach behawioralnych nie mają trudności z wykryciem takich niespójności. Sugeruje to, że u niemowląt przetwarzanie mowy audiowizualnej wymaga większych zasobów mózgowych, lub jest inaczej zorganizowane. U dorosłych wykrywanie niezgodności jest w większym stopniu automatyczne, przez co specyficzna komponenta ERP nie jest widoczna.

Powyższa interpretacja jest zgodna z wynikami badań eye-trackingowych (śledzenia ruchów gałek ocznych) nad zmianą rozwojową w zakresie uwagi na elementy twarzy. W trakcie pierwszego roku życia preferencje patrzenia na obszar ust w porównaniu z obszarem oczu podczas oglądania mówiących twarzy podlegają istotnym zmianom rozwojowym. Od 6. miesiąca życia niemowlęta stopniowo poświęcają relatywnie mniej uwagi na oczy oglądanych, dynamicznych twarzy, skupiając ją przez dłuższy czas na ustach (Hunnius, Geuze, 2004). Oglądając twarze mówiące w ich ojczystym języku, niemowlęta zaczynają względnie dłużej patrzeć na artyku- łujące usta niż oczy pomiędzy 4. a 8. miesiącem życia, zaś ta tendencja ulega odwró- ceniu pod koniec pierwszego roku życia (Lewkowicz, Hansen-Tift, 2012). Ten wynik potwierdzają inne badania, w których dodatkowo już 6-miesięczne niemowlęta patrzyły istotnie najdłużej na twarze, dla których dźwięk mowy i artykulacja były niezgodne (Tomalski i in., 2013).

A zatem niemowlęta w wieku 5-6 miesięcy potrafią wykrywać niezgodność międzymodalną w mowie, co widoczne jest zarówno na poziomie mózgowym, jak i w zakresie uwagi wzrokowej (Tomalski i in., 2013). Okresowi między 6. a 12. miesiącem życia towarzyszą dynamiczne zmiany nie tylko w zakresie ograniczania biegłości percepcyjnej dla twarzy i mowy, ale także uwagi na mówiące twarze, oraz mózgowej organizacji przetwarzania mowy audiowizualnej. Ten ostatni proces ilustruje badanie Kushnerenko i in. (2013), w którym w wieku 6-9 miesięcy wielkość mózgowej odpowiedzi na niezgodność audiowizualną była ściśle związana z indywidualnym czasem patrzenia na artykułujące usta. Niemowlęta, które preferowały fiksowanie wzroku na ustach, nie wykazywały wyrazistej odpowiedzi na niezgodność, co przypominało odpowiedzi u dorosłych. Zaś niemowlęta, które preferowały fiksowanie wzroku na oczach, miały wyrazistą odpowiedź na niezgodność, podobnie do młodszych niemowląt w badaniu Kushnerenko i in. (2008). Można powiedzieć, że zmiany rozwojowe na poziomie mózgowym są ściśle związane ze zmianami w preferencjach uwagowych i to w okresie, w którym obserwowanie ust może mieć istotne znaczenie dla kształtowania się kategorii fonemów (zob. przegląd w Tomalski, 2015).

Podsumowanie

Opisywane badania wskazują na wiele zbieżności w zakresie typowej trajektorii rozwoju percepcji twarzy i mowy u niemowląt w pierwszym roku życia. Zarówno dla dźwięków mowy, jak i artykulacji czy umiejętności rozróżniania twarzy obcego gatunku proces ograniczania biegłości percepcyjnej zachodzi w podobnym okresie życia i ma stosunkowo podobny charakter. W związku z tym nasuwa się pytanie, czy zbieżność kilku podobnych procesów w czasie jest związana ze specyfiką zmian w zakresie mózgowego przetwarzania informacji społecznych. Jest to o tyle istotne, że część z przedstawionych wyników sugeruje, że kształtowanie się kategorii dźwięków mowy prowadzi do powstania polimodalnych reprezentacji fonemów już w pierwszym roku życia (por. także Pons i in., 2009; Pons, Bosch, Lewkowicz, 2015). Zatem proces specjalizacji funkcjonalnej kory mózgowej może obejmować nie tylko specjalizację wybranych obszarów/sieci korowych do przetwarzania pojedynczych aspektów bodźca społecznego, ale do lepszego powiązania tych aspektów w polimodalną, spójną i bogatą reprezentację. Takie reprezentacje tworzą się prawdopodobnie zgodnie z koncepcją specjalizacji interaktywnej Johnsona (2001) poprzez interakcje między obszarami mózgu w odpowiedzi na powtarzające się bodźce ze środowiska. Pomimo trudności badawczych i ograniczeń dostępnych metod, druga połowa pierwszego roku życia jest okresem intensywnych zmian w zakresie właściwości funkcjonalnych kory, które mają długoterminowy wpływ na organizację mózgu na resztę życia. Potrzebne są dalsze badania, aby ustalić dokładne korelaty zmieniają- cych się reprezentacji twarzy i mowy, które być może w przyszłości doprowadzą do opracowania bardzo wczesnych miar ryzyka zaburzeń rozwoju na podstawie bezpośredniego pomiaru aktywności korowej.

Literatura cytowana

Aslin, R.N., Pisoni, D.B., Hennessy, B.L., Perey, A.J. (1981). Discrimination of voice onset time by human infants: New findings and implications for the effects of early experience. Child Development, 52 (4), 1135.

Bar-Haim, Y., Ziv, T., Lamy, D., Hodes, R.M. (2006). Nature and nurture in own-race face processing. Psychological Science, 17 (2), 159-163.

Bortfeld, H., Fava, E., Boas, D.A. (2009). Identifying cortical lateralization of speech processing in infants using near-infrared spectroscopy. Developmental Neuropsychology, 34 (1), 52-65.

Chandrasekaran, C., Trubanova, A., Stillittano, S., Caplier, A., Ghazanfar, A.A. (2009). The natural statistics of audiovisual speech. PLoS Computational Biology, 5 (7), e1000436, doi: 10.1371/journal.pcbi.1000436

Colombo, J., Brez, C.C., Curtindale, L.M. (2012). Infant perception and cognition. W: I.B. Weinter, R.M. Learner, M.A. Easterbrooks, J. Mistry (red.), Handbook of psychology (t. 6, s. 61-89). Hoboken, NJ: John Wiley & Sons.

Coulon, M., Hemimou, C., Streri, A. (2013). Effects of seeing and hearing vowels on neonatal facial imitation. Infancy, 18 (5), 782-796.

De Haan, M., Humphreys, K., Johnson, M.H. (2002). Developing a brain specialized forface perception:A converging methods approach. Developmental Psychobiology, 40 (3), 200-212, doi: 10.1002/dev.10027

De Haan, M., Johnson, M.H., Halit, H. (2003). Development of face-sensitive event-related potentials during infancy: a review. International Journal of Psychophysiology, 51 (1), 45-58, doi: 10.1016/S0167-8760(03)00152-1

De Haan, M., Pascalis, O., Johnson, M.H. (2002). Specialization of neural mechanisms underlying face recognition in human infants. Journal of Cognitive Neuroscience, 14 (2), 199-209.

Dehaene-Lambertz, G., Dehaene, S., Hertz-Pannier, L. (2002). Functional Neuroimaging of Speech Perception in Infants. Science, 298 (5600), 2013-2015, doi: 10.1126/ science.1077066

Elsabbagh, M., Hohenberger,A., Campos, R., Van Herwegen, J., Serres, J., de Schonen, S.,Aschersleben, G., Karmiloff-Smith,A. (2013). Narrowing Perceptual Sensitivity to the Native Language in Infancy: Exogenous Influences on Developmental Timing. Behavioral Science, 3, 120-132.

Friendly, R.H., Rendall, D., Trainor, L.J. (2014). Learning to differentiate individuals by their voices: Infants’ individuation of native- and foreign-species voices. Developmental Psychobiology, 56 (2), 228-237, doi: 10.1002/dev.21164

Golarai, G., Ghahremani, D.G., Whitfield-Gabrieli, S., Reiss, A., Eberhardt, J.L., Gabrieli, J.D.E., Grill-Spector, K. (2007). Differential development of high-level visual cortex correlates with category-specific recognition memory. Nature Neuroscience, 10 (4), 512-522, doi: 10.1038/nn1865

Gottlieb, G. (2007). Probabilistic epigenesis. Developmental Science, 10 (1), 1-11, doi: 10.1111/j.1467-7687.2007.00556.x

Hayden, A., Bhatt, R.S., Joseph, J.E., Tanaka, J.W. (2007). The other-race effect in infancy: Evidence using a morphing technique. Infancy, 12 (1), 95-104.

Homae, F., Watanabe, H., Nakano, T., Asakawa, K., Taga, G. (2006). The right hemisphere of sleeping infant perceives sentential prosody. Neuroscience Research, 54, 276-280.

Homae, F., Watanabe, H., Nakano, T., Taga, G. (2011). Large-scale brain networks underlying language acquisition in early infancy. Frontiers in Psychology, 2 (May), 1-14, doi: 10.3389/fpsyg.2011.00093

Hunnius, S., Geuze, R.H. (2004). Developmental changes in visual scanning of dynamic faces and abstract stimuli in infants: A longitudinal study. Infancy, 6 (2), 231-255.

Jiang, J.,Alwan,A., Keating, P.,Auer, E.T. Jr., Bernstein, L.E. (2002). On the relationship between face movements, tongue movements, and speech acoustics. EURASIP Journal on Advancesin Signal Processing, 1174-1188, doi: 10.1155/S1110865702206046

Jiang, X., Bradley, E.D., Rini, R.A., Zeffiro, T., VanMeter, J., Riesenhuber, M. (2007). Categorization training results in shape- and category-selective human neural plasticity. Neuron, 53, 891-903, doi: 10.1016/j.neuron.2007.02.015

Johnson, M.H. (2001). Functional brain development in humans. Nature Reviews Neuroscience, 2 (7), 475-483, doi: 10.1038/35081509

Johnson, M.H., de Haan, M. (w druku). Neurokognitywistyka rozwoju. Wydawnictwo Harmonia: Gdańsk.

Kanwisher, N. (2017). The Quest for the FFA and Where It Led. The Journal of Neuroscience, 37 (5), 1056-1061, doi: 10.1523/JNEUROSCI.1706-16.2016

Karmiloff-Smith, A. (1998). Development itself is the key to understanding developmental disorders. Trends in Cognitive Sciences, 2 (10), 389-398, doi: 10.1016/S1364- -6613(98)01230-3

Karmiloff-Smith, A., Thomas, M. (2003). What can developmental disorders tell us about the neurocomputational constraints that shape development? The case of Williams syndrome. Development and Psychopathology, 15 (4), 969-990.

Kelly, D.J., Quinn, P.C., Slater, A.M., Lee, K., Gibson, A., Smith, M., Ge, L., Pascalis, O. (2005). Three-month-olds, but not newborns, prefer own-race faces. Developmental Science, 8 (6), F31-F36.

Kisilevsky, B.S., Hains, S.M., Lee, K., Xie, X., Huang, H., Ye, H.H., Zhang, K., Wang, Z. (2003). Effects of experience on fetal voice recognition. Psychological Science, 14, 220-224.

Kotilahti, K., Nissilä, I., Näsi, T., Lipiäinen, L., Noponen, T., Meriläinen, P., Huotilainen, M., Fellman, V. (2010). Hemodynamic responses to speech and music in newborn infants. Human Brain Mapping, 31 (4), 595-603.

Kuhl, P.K. (2004). Early language acquisition: cracking the speech code. Nature Reviews Neuroscience, 5 (11), 831-843, doi: 10.1038/nrn1533

Kuhl, P.K., Williams, K.A., Lacerda, F., Stevens, K.N., Lindblom, B. (1992). Linguistic experience alters phonetic perception in infants by 6 months of age. Science, 255 (5044), 606-608.

Kushnerenko, E., Ceponiene, R., Balan, P., Fellman, V., Huotilainen, M., Näätänen, R. (2002). Maturation of the auditory event-related potentials during the first year of life. NeuroReport, 13, 47-51, doi: 10.1097/00001756-200201210-00014

Kushnerenko, E., Teinonen, T., Volein, A., Csibra, G. (2008). Electrophysiological evidence of illusory audiovisual speech percept in human infants. Proceedings of the National Academy of Sciences of the United States of America, 105 (32), 11442-11445, doi: 10.1073/pnas.0804275105

Kushnerenko, E., Tomalski, P., Ballieux, H., Ribeiro, H., Potton, A., Axelsson, E.L., Moore, D.G. (2013). Brain responses to audiovisual speech mismatch in infants are associated with individual differences in looking behaviour. The European Journal of Neuroscience, 38 (9), 3363-3369, doi: 10.1111/ejn.12317

Lewkowicz, D.J. (2000). Infants’ Perception of the Audible, Visible, and Bimodal Attributes of Multimodal Syllables. Child Development, 71 (5), 1241-1257, doi: 10.1111/1467-8624.00226

Lewkowicz, D.J., Ghazanfar, A.A. (2009). The emergence of multisensory systems through perceptual narrowing. Trends in Cognitive Sciences, 13 (11), 470-478, doi: 10.1016/j.tics.2009.08.004

Lewkowicz, D.J., Hansen-Tift, A.M. (2012). Infants deploy selective attention to the mouth of a talking face when learning speech. Proceedings of the National Academy of Sciences of the United States of America, 109 (5), 1431-1436, doi: 10.1073/pnas.11 14783109

Lisker, L., Abramson, A.S. (1964). A cross-language study of voicing in initial stops: acoustical measurements. Word, 20, 384-422.

Martynova, O., Kirjavainen, J., Cheour, M. (2003). Mismatch negativity and late discriminative negativity in sleeping human newborns. Neuroscience Letters, 340 (2), 75-78.

Mattock, K., Burnham, D. (2006). Chinese and English infants’ tone perception: Evidence for perceptual reorganization. Infancy, 10 (3), 241-265.

Mattock, K., Molnar, M., Polka, L., Burnham, D. (2008). The developmental course of lexical tone perception in the first year of life. Cognition, 106 (3), 1367-1381.

Minagawa-Kawai, Y., Mori, K., Naoi, N., Kojima, S. (2007). Neural attunement processes in infants during the acquisition of a language-specific phonemic contrast. Journal of Neuroscience, 27, 315-321. 

Miyawaki, K., Jenkins, J.J, Strange, W., Liberman, A.M., Verbrugge, R., Fujimura, O. (1975). An effect of linguistic experience: the discrimination of [r] and [l] by native speakers of Japanese and English. Perception & Psychophysics, 18, 331-340.

Munhall, K.G., Vatikiotis-Bateson, E. (2004). Spatial and temporal constraints on audiovisual speech perception. W: G. Calvert, C. Spence, B.E. Stein (red.), The Handbook of Multisensory Processes (s. 177-188). Cambridge, MA: The MIT Press.

Näätänen, R., Paavilainen, P., Rinne, T., Alho, K. (2007). The mismatch negativity (MMN) in basic research of central auditory processing: A review. Clinical Neurophysiology, 118 (12), 2544-2590, doi: 10.1016/j.clinph.2007.04.026

Nakano, T., Watanabe, H., Homae, F., Taga, G. (2009). Prefrontal cortical involvement in young infants’ analysis of novelty. Cerebral Cortex, 19, 455-463.

Ockleford, E.M., Vince, M.A., Layton, C., Reader, M.R. (1988). Responses of neonates to parents’ and others’ voices. Early Human Development, 18 (1), 27-36.

Pascalis, O., de Haan, M., Nelson, C.A. (2002). Is Face Processing Species-Specific During the First Year of Life? Science, 296 (5571), 1321-1323, doi: 10.1126/science. 1070223

Patterson, M.L., Werker, J.F. (1999). Matching phonetic information in lips and voice is robust in 4.5-month-old infants. Infant Behavior and Development, 22 (2), 237-247.

Pena, M., Werker, J.F., Dehaene-Lambertz, G. (2012). Earlier speech exposure does not accelerate speech acquisition. The Journal of Neuroscience, 32 (33), 11159-11163.

Polka, L., Werker, J.F. (1994). Developmental changes in perception of nonnative vowel contrasts. Journal of Experimental Psychology: Human Perception and Performance, 20 (2), 421.

Pons, F., Bosch, L., Lewkowicz, D.J. (2015). Bilingualism modulates infants’ selective attention to the mouth of a talking face. Psychological Science, 26 (4), 490-498.

Pons, F., Lewkowicz, D.J., Soto-Faraco, S., Sebastián-Gallés, N. (2009). Narrowing of intersensory speech perception in infancy. Proceedings of the National Academy of Sciences of the United States of America, 106 (26), 10598-10602, doi: 10.1073/pnas. 0904134106

Purhonen, M., Kilpeläinen-Lees, R., Valkonen-Korhonen, M., Karhu, J., Lehtonen, J. (2005). Four-month-old infants process own mother’s voice faster than unfamiliar voices: Electrical signs of sensitization in infant brain. Cognitive Brain Research, 24 (3), 627-633, doi: 10.1016/j.cogbrainres.2005.03.012

Rivera-Gaxiola, M., Silva-Pereyra, J., Kuhl, P.K. (2005). Brain potentials to native and non-native speech contrasts in 7- and 11-month-old American infants. Developmental Science, 8 (2), 162-172, doi: 10.1111/j.1467-7687.2005.00403.x

Sato, Y., Sogabe, Y., Mazuka, R. (2010). Development of hemispheric specialization for lexical pitch-accent in Japanese infants. Journal of Cognitive Neuroscience, 22, 2503-2513.

Scherf, K.S., Behrmann, M., Humphreys, K., Luna, B. (2007). Visual category-selectivity for faces, places and objects emerges along different developmental trajectories. Developmental Science, 10 (4), doi: 10.1111/j.1467-7687.2007.00595.x

Scott, L.S., Monesson, A. (2009). The origin of biases in face perception. Psychological Science, 20 (6), 676-680, doi: 10.1111/j.1467-9280.2009.02348

Scott, L.S., Shannon, R.W., Nelson, C.A. (2006). Neural correlates of human and monkey face processing in 9-month-old infants. Infancy, 10 (2), 171-186.

Simion, F., Di Giorgio, E. (2015). Face perception and processing in early infancy: Inborn predispositions and developmental changes. Frontiers in Psychology, 6 (July), 1-11, doi: 10.3389/fpsyg.2015.00969

Simpson, E.A., Varga, K., Frick, J.E., Fragaszy, D. (2011). Infants experience perceptual narrowing for nonprimate faces. Infancy, 16, 318-330.

Skeide, M.A., Friederici, A.D. (2016). The ontogeny of the cortical language network. Nature Reviews Neuroscience, 17 (5), 323-332, doi: 10.1038/nrn.2016.23

Stein, B.E., Meredith, M.A. (1993). The merging of the senses. Cambridge, MA: The MIT Press.

Taga, G., Asakawa, K. (2007). Selectivity and localization of cortical response to auditory and visual stimulation in awake infants aged 2 to 4 months. NeuroImage, 36 (4), 1246-1252, doi: 10.1016/j.neuroimage.2007.04.037

Tomalski, P. (2015). Developmental Trajectory of Audiovisual Speech Integration in Early Infancy. A Review of Studies Using the McGurk Paradigm. Psychology of Language and Communication, 19 (2), 77-100, doi: 10.1515/plc-2015-0006

Tomalski, P. (2017). Cognitive neuroscience. W: B. Hopkins, E. Geangu, S. Linkenauger (red.), The Cambridge Encyclopedia of Child Development (wyd. 2, s. 576-581). Cambridge-New York: Cambridge University Press, doi: 10.1017/9781316216491.092

Tomalski, P., Ribeiro, H., Ballieux, H., Axelsson, E.L., Murphy, E., Moore, D.G., Kushnerenko, E. (2013). Exploring early developmental changes in face scanning patterns during the perception of audiovisual mismatch of speech cues. European Journal of Developmental Psychology, 10 (5), 611-624.

Vouloumanos, A., Hauser, M.D., Werker, J.F., Martin, A. (2010). The tuning of human neonates’ preference for speech. Child Development, 81 (2), 517-527.

Vouloumanos, A., Werker, J.F. (2007). Listening to language at birth: evidence for a bias for speech in neonates. Developmental Science, 10, 159-164.

Weikum, W.M., Oberlander, T.F., Hensch, T.K., Werker, J.F. (2012). Prenatal exposure to antidepressants and depressed maternal mood alter trajectory of infant speech perception. Proceedings of the National Academy of Sciences of the United States of America, 109 (2), 17221-17227.

Weikum, W.M., Vouloumanos, A., Navarra, J., Soto-Faraco, S., Sebastián-Gallés, N., Werker, J.F. (2007). Visual language discrimination in infancy. Science, 316 (5828), 1159, doi: 10.1126/science.1137686

Werker, J.F., Hensch, T.K. (2015). Critical Periods in Speech Perception: New Directions. Annual Review of Psychology, 66 (1), 173-196, doi: 10.1146/annurev-psych- -010814-015104

Werker, J.F., Tees, R.C. (1984). Cross-language speech perception: evidence for perceptual reorganisation during the first year of life. Infant Behavior and Development, 7, 49-63, doi: 10.1016/S0163-6383(02)00113-3

Westermann, G., Mareschal, D., Johnson, M.H., Sirois, S., Spratling, M.W., Thomas, M.S.C. (2007). Neuroconstructivism. Developmental Science, 10 (1), 75-83, doi: 10.11 11/j.1467-7687.2007.00567.x

Yehia, H., Rubin, P., Vatikiotis-Bateson, E. (1998). Quantitative association of vocaltract and facial behavior. Speech Communication, 26, 23-43, doi: 10.1016/S0167- -6393(98)00048-X

Yeung, H.H., Chen, K.H., Werker, J.F. (2013). When does native language input affect phonetic perception? The precocious case of lexical tone. Journal of Memory and Language, 68 (2), 123-139.