29 grudnia 2013

Romantyzm kosmiczny

"Romantyzm kosmiczny"[1]
 

Patrzmy w gwiazdy,
gdzie nasz dom.
Skąd pochodzimy,
dokąd przychodzimy.

Gdzie tam, skądś tam,
z innego świata
z innych gwiazd

z kosmosu.

Mały szary człowieku,
czarnooki, którego
ślepia przeszywają
nas do głębi.

Wielkie i szlachetne,
zamiast nosów wystających,
dwie dziurki,
płaskie twarze bez wyrazu.

Łyse głowy,
wielkie głowy,
większe niż ich tułowia,
to ONI.

Nasi twórcy, nasi stwórcy,
nasze przeznaczenie, nasza przeszłość,
Ekstraterrestialność w naszych genach,
Serce i dusza nie z tej Ziemi.


[1]
(Romantyzm + paleoastronatyka oraz alternatywne teorie antropologiczne)
https://www.youtube.com/watch?v=NX-vfFmusXk

Rola elaboratywnego i planowego przetwarzania w zapamiętywaniu opowiadań - Tłumaczenie


Mark A. McDaniel, Uniwersytet Notre Dame, Indiana, USA
Tłumaczenie: Kamil Szostak



Rola elaboratywnego i planowego przetwarzania w zapamiętywaniu opowiadań[1]



W trzech doświadczeniach przebadano przypominanie opowiadania, dla którego zrozumienie niektórych jej jednostek pojęciowych wymagało czynnej rekonstrukcji przez osoby badane (litery były wymazane z wyrazów zawierających w jednej trzeciej jednostki pojęciowej). W doświadczeniu 1, przypominanie było znacząco lepsze dla tych pojęć z wymazanymi literami niż dla tych z literami nie wymazanymi. W doświadczeniach 2 i 3, poinstruowano osoby badane, aby przyswoiły sobie konkretną perspektywę w trakcie czytania opowiadania. Przypominanie jednostek pojęciowych – jak się okazało – stanowi dodatkową funkcję (1) znaczenia pojęcia w stosunku do przyswojonej perspektywy oraz (2)  manipulacji polegającej na usuwaniu liter. Rezultaty te sugerują model zapamiętywania opowiadania, który łączy ze sobą zarówno przetwarzanie elaboratywne (elaborative-processing) jak i mechanizmy oparte na planie (schema-based mechanisms).


 
W ostatniej dekadzie struktura poziomów przetwarzania była bardzo wpływowa w badaniach pamięci. To rozwiązanie umiejscawia to, jak dobrze dane będą zapamiętane, jest funkcją tego, jak „dogłębnie” dane są przetworzone, bardziej dogłębnie będąc powiązanymi w większym stopniu z przetwarzaniem semantycznym. Chociaż podejście polegające na poziomach przetwarzania wykazało swoją produktywność w zrozumieniu procesu zapamiętywania ciągu liter, jego użyteczność przy opisie procesu zapamiętywania tekstu jest ograniczona. Teksty zakładają rozumienie, które z definicji jest bardzo semantyczne. Jak ustalili Lachman i Lachman (1978) „Wszystko, co słusznie może być nazwane <rozumieniem> jest semantycznie przesycone; zrozumienie jest tak semantyczne jak tylko może być. Nie ma sensu uporządkowywać zadań czy też wyników semantyczności … zatem poziomy przetwarzania wydają się kończyć mniej więcej tam, gdzie zaczyna się rozumienie. „(p. 184)
   Jednakże ostatnie uściślenia poziomów przetwarzania dostarczają więcej nadziei do zastosowania ich przy zapamiętywaniu tekstowym. Takie ujęcie sugeruje, że szczegółowość przetwarzania mogła być uzupełniona przez pojęcie elaboratywnego przetwarzania (Jakoby & Craik, 1979…) Zdolność zapamiętywania (retencja) jest ukazana jako funkcja stopnia, do którego dane wejściowe są elaboracyjne. Można wówczas powiedzieć, że zdolność pewnych twierdzeń tekstu do bycia zapamiętanymi zależy od bogactwa, z którym są zostały one poddane elaboracji. Pojedyncza zmienna, która została przyjęta po to, aby oddziałać na elaborację, stanowi trudność albo znajomość danych wejściowych. (Lockhart et al., 1976). Materiał, który jest nieznany lub trudny wymusi przetwarzanie wielu cech i powiązań. Tak więc teoretycznie, z powodu wytworzonego elaboratywnego kodowania, trudne i złożone części tekstu powinny być lepiej zapamiętane niż części łatwiejsze i prostsze [zakładając, że trudność fragmentów tekstu nie prowadzi do rozumienia wewnętrznego (Auble & Franks, 1978; Bransford & Johnson)]. Chociaż nie posługują się one materiałami tekstowymi, wielu badaczy ogłaszało wnioski spójne ze zdaniem (notion), że nie obeznanie lub trudność danych wejściowych wymusza więcej elaboracji, a w konsekwencji wytwarza zwiększoną zdolność zapamiętywania. Przykładowo, Jacoby (1978) odkrył, że wyrazy, z których litery zostały wymazane, były lepiej przechowywane w pamięci niż wyrazy bez braków, zaś McDaniel (1981) odkrył, że zdania zbudowane całościowo syntaktycznie, były lepiej zapamiętane niż te same zdania zbudowane w prostszy sposób. Kolers (1975) pokazał, że zdania zaprezentowane w druku odwróconym, były zapamiętane lepiej niż zdania pokazane w druku normalnym, zwłaszcza dla badanych nie zaznajomionych z czytaniem odwróconej czcionki.
   Następujące doświadczenia zostały przygotowane aby zbadać powszechność powyższych wniosków w kontekście zapamiętywania opowiadań. Jeżeli fragmenty opowiadania, które zostały zrobione trudniejszymi do kodowania, są lepiej zapamiętywane niż fragmenty, które pozostają łatwo kodowane, to wtedy mogłoby z tego wynikać, że niedawno postulowane mechanizmy poziomów przetwarzania są skuteczne przy zapamiętywaniu tekstu.
Takie poszerzenie nie tylko mogłoby wzbogacić naszą wiedzę dotyczącą mechanizmów biorących udział w zapamiętywaniu tekstu, lecz także mogłoby wzbudzić interesujące pytania dotyczące tego, jak pamięciowe konsekwencje elaboratywnych poziomów przetwarzania wiążą ze sobą schemat myślowy wykorzystywany do kodowania oraz przypominanie sobie tekstu (van Dijk, 1977). Na przykład, czy przypominanie sobie opowiadania obejmuje sumę mechanizmów elaboracji oraz mechanizmów wdrażanych schematem, czy może te dwa na siebie oddziaływują w jakiś sposób? W doświadczeniu 1 zbadano czy manipulacja, wpływająca na elaboratywne kodowanie i zapamiętywanie poszczególnych wyrazów, ma także wpływ na zapamiętywanie tekstu. Doświadczenia 2 i 3 były ugruntowane na wynikach doświadczenia 1 przez bezpośrednie odkrywanie wzajemnych związków pomiędzy mechanizmami elaboracji przetwarzania i teorią schematu.
 

Doświadczenie 1
 
   Trudność przetwarzania poszczególnych fragmentów opowieści była manipulowana poprzez wymazywanie liter z wyrazów w niektórych jednostkach pojęciowych (idea units) zawartych w tychże fragmentach. Wedłług Jacoby i jego kolegów (Jacoby, Craik, & Begg, 1979; Lockhart et al., 1976), zwiększona trudność wytworzy elaboratywne bądź ekstensywne przetwarzanie, które odzwierciedli się w bogatszej, łatwiejszym do przypomnienia rekordzie wydarzenia. Tak zatem jednostki koncepcyjne zawierające wyrazy z wymazanymi literami, powinny być przypominane sprawniej niż jednostki koncepcyjne bez ubytków literowych. Jeżeli taki skutek będzie osiągnięty, rozszerzenie metody polegającej na elaboracji przetwarzania na zapamiętywanie tekstu zostanie ukazane. Z drugiej strony, jeżeli uzupełnianie usuniętych  liter i czytanie pełnych wyrazów przypuszczalnie może skutkować odpowiednim rozumieniem jednostek pojęć, to o obu czynnościach można powiedzieć, że są równie semantyczne (Lachman). Zgodnie z tym poglądem, mogłyby być oczekiwane w przybliżeniu równe poziomy przypominania „wymazanych” i pełnych jednostek pojęciowych (Craik & Lockhart, 1972).
Metoda
Obiekty badań. Uczestniczyło 21 studentów wstępnego kursu psychologii na Uniwersytecie Notre Dame pogrupowanych w licznych sekcjach. Wszyscy otrzymali dodatkowe punkty zgodnie z ich ocenami z kursów za ich uczestnictwo.
 
Materiały
 
  Fragment użyty w doświadczeniu był opowiadaniem o dwóch chłopcach wagarujących ze szkoły. Opowiadanie było użyte w poprzednich badaniach oraz w Pichercie i Andersonie (1977). Opowiadanie miało 373 wyrazów długości oraz zawierało 72 jednostki pojęciowe. Opowiadanie zostało napisane w taki sposób, żeby litery każdego wyrazu w co trzeciej jednej trzeciej jednostce pojęciowej zostały usunięte. W miejsce każdej usuniętej litery zostało wprowadzone puste pole. Litery zostały usunięte zgodnie z następującym algorytmem. Po pierwsze, usunięto wszystkie samogłoski. Po drugie, w celu uzyskania dwóch usuniętych liter (jeśli to było konieczne) z wyrazów zawierających po 4 lub 5 litery, usunięto spółgłoski. Dla wyrazów zawierających 6 lub 7 litery, usunięto spółgłoskę(i), żeby zapewnić brak trzech liter. Dla wyrazów zawierających 8 lub więcej liter, usunięto (jeśli to było konieczne) spółgłoskę(i) zapewniając brak czterech liter. Algorytm ten został przyswojony z zamiarem wyprodukowania usunięć, które uniemożliwiłyby osobom badanym natychmiastowe rozpoznanie wyrazu równocześnie sprawiając, żeby ewentualnie udało im się wyraz zidentyfikować. Praca pilotażowa,  w której kilkunastu współpracowników zostało poproszonych o wypełnienie pustych miejsc podczas czytania opowiadania wykazała, że generalnie rzecz biorąc algorytm spełnił wymagane oczekiwania. Czas czytania wzrósł znacznie przy fragmentach z literami usuniętymi (przynajmniej trzykrotnie), chociaż prawie każdy wyraz z wymazanymi literami mógł być zidentyfikowany. Na jedno lub dwa wyrazy, które nie mogły zostać rozpoznane równomiernie („bocznica”, „przeciek”), puste miejsce zostało zastąpione literą. Trzy zestawy materiałów zostały wydrukowane: jeden zestaw zaczynał się od skasowań liter w pierwszej jednostce pojęciowej, następny zaczynał się od skasowań liter z wyrazów w drugiej jednostce pojęć, a ostatni zaczynał się od skasowań liter z trzeciej jednostki pojęciowej. Zatem każdy zestaw zawierał litery usunięte z 24 jednostek pojęciowych, ze szczególnymi jednostkami pojęciowymi zawierającymi usunięte litery zróżnicowane wzdłuż zestawów.
 

Procedura
 

  Badanym osobom przekazano broszury zawierające opowiadanie i instrukcję. Osoby badane przypadkowo otrzymały opowiadania z każdego z trzech usuniętych zestawów, przy czym każda otrzymała taką samą ilość zestawów. Zatem, poszczególne jednostki pojęciowe z usuniętymi literami były równomiernie rozłożone wśród uczestników. W instrukcjach było powiedziane, żeby uczestniczy przeczytali następujące opowiadanie, w którym brakowało liter w niektórych wyrazach. W trakcie czytania mieli spróbować wypełnić luki literowe. Uczestnicy nie zostali wcześniej ostrzeżeni o zadaniu przypominania sobie. Po przeczytaniu instrukcji, uczestnikom dano 11 minut na przeczytanie fragmentu  i wpisanie brakujących liter. Następnie uczestnicy rozwiązywali problem z arytmetyki przez 5 minut. Potem dano im białą kartkę papieru i badacz poinstruował uczestników mówiąc: „Proszę przepisać tyle z właściwego opowiadania, ile tylko możecie. Jeżeli nie możecie sobie dokładnie przypomnieć użytych wyrazów z jakiegoś zdania, ale pamiętacie jego znaczenie, napiszcie to zdanie albo jego część możliwie jak najbliżej z jego oryginałem.” Uczestnikom dano tyle czasu na przypomnienie sobie opowiadania, ile potrzebowali.
 


Wyniki i dyskusja

  Poziom odrzucenia dla wszystkich testów statystycznych wyniósł .05. Protokoły przypominania były punktowane dla liczby zapamiętanych jednostek pojęciowych. Jednostka pojęciowa była punktowana jako poprawna jeśli jej znaczenie została zatrzymane. Dwóch niezależnych sędziów podliczyło punkty jednej trzeciej protokołów. Z pośród poszczególnych jednostek pojęciowych zidentyfikowanych jako te, które były przypomniane, 98 % zostało zidentyfikowanych przez obu sędziów. Pozostałe protokoły zatem zostały wypunktowane przez jednego z sędziów. Proporcja przypomnianych jednostek pojęciowych była wyższa dla tych jednostek, które zawierały usunięte litery niż dla tych, które nie miały usuniętych liter (odpowiednio .49 vs. .33). Wzór ten został zaobserwowany we wszystkich trzech zestawach. Analiza rozbieżności wewnątrz uczestników ujawniła to, że różnica ta była pewna [F(1,20)=37,75, MSe = .008]. Wyrażanie zatem jednostek pojęciowych za pomocą tekstu z usuniętymi literami doprowadziło do lepszego zapamiętania tychże jednostek pojęciowych. Rezultat ten zwiększa wpływ odkryć Donaldsona, Bassa (1980) i Jacobiego (1978) o listy par wyrazów. Odkryli oni, że pary, w których jeden z wyrazów miał brakujące litery, były lepiej zapamiętywane niż pary, w których były pełne wyrazy. Uogólniając, obecny wynik uzupełnia wciąż rosnącą listę badań, w których zwiększanie trudności odczytywania informacji  spowodowało lepsze zapamiętywanie tejże informacji. (Kolers, 1973; Mason & Sala, 1978; McDaniel, 1981).
  W jaki sposób brak liter w wyrazach mógł przyczynić się do polepszenia zdolności zapamiętywania dla tego zdarzenia? Wcześniejsze badania (Donaldson & Bass,1980) zasugerowały to, że nie zależy to od jakiegokolwiek działania usuniętych liter i ich dostępu per se bądź jakiegokolwiek zwiększonego zużycia uogólnionych starań albo uwagi skierowanej ku brakującym wyrazom. Wydaje się, że realne wyjaśnienie jest oparte na przetwarzaniu spowodowanym przez usunięcie liter. Zazwyczaj identyfikacja wyrazu jest przeprowadzana używając dość zautomatyzowane bądź podświadome procedury przetwarzania. Jednakże jeżeli te często praktykowane procedury leksykalnej identyfikacji nie są pomyślne, wtedy dodatkowe i prawdopodobnie bardziej świadome procedury będą zaprzęgnięte do rozpoznania lub wytworzenia wyrazu. (Donaldson & Bass, 1980). Gdy takie trudności pojawiają się z odczytywaniem wyrazów w ciągu linijce tekstu, to mogłoby się wydawać, że te procedury nie tylko obejmują rozległe analizy każdego wyrazu, ale także analizy relacji (semantycznych i syntaktycznych) pomiędzy wyrazami. Względna informacja mogłaby pomóc w sformułowaniu hipotez o każdym wyrazie, która mogłaby być wówczas przetestowana z tą dostarczoną częściową informacją (Graf, 1982). Zaprzęgnięcie tych dodatkowych procedur przetwarzania – jak się okazuje – skutkuje w konstrukcji bardziej charakterystycznych śladów zdarzenia (Jacoby, 1978) bądź bardziej zintegrowanych i elaboratywnych śladów tegoż (Graf, 1982).
   Okazuje się, że ten rodzaj odczytywania jest tak samo ważny dla przypominania sobie fragmentu tekstu jak i dla zapamiętywania poszczególnych wyrazów lub zdań przedstawionych na liście. Jeżeli składniki tekstu wymagają dodatkowego lub bardziej świadomego odczytywania, to nastąpi lepsza retencja niż jeżeli składniki wymagają tylko automatycznego i procesowego odczytywania. Doświadczenie 1 pokazało ten efekt w momencie gdy zaszło bardziej kontrolowane lub elaboratywne odczytywanie wywołane na poziomie identyfikacji leksykalnej. Inne badanie z ostatnich lat (Gloger & Bruning, nota 1) pokazało zbliżony efekt w momencie gdy trudność wystąpiła na etapach odczytywania syntaktycznego: Kiedy zdania w tekście zawierały przypadkowo ułożone wyrazy, zdania były lepiej zapamiętywane niż wtedy, gdy były one pokazywane w syntaktycznie poprawnej formie. Zatem wydaje się jasne, że świeże etapy odczytywania pojęć dotyczących trudności w odczytywaniu, elaboratywne dekodowanie oraz retencja mogą zostać rozciągnięte na materiały słowne o takim stopniu złożoności, co tekst.
   Pytanie, które ujawnia się z obecnego odkrycia dotyczy tego, jak mechanizmy poziomu odczytywania mogłyby wiązać się z odczytywaniem opartym na planie założonym jako hipoteza aby ugruntować kodowanie i odzyskiwanie opowiadania (patrz Anderson & Pichert, 1978 oraz Yekovitch & Thorndyke, 1981). Procesy odczytywania opartego na planie są często przywoływane aby wyjaśnić powszechne odkrycie, że informacja ważna dla tematu opowiadania jest lepiej zapamiętywana niż informacja dla tematu nieistotna („poziomy efektu”). Zgodnie z teorią planu (przyp. tł.) dzieje się tak, ponieważ proces rozumienia pociąga za sobą aktywowanie planu (schema), który kieruje kodowaniem i/albo odzyskiwaniem opowiadania. Wyjaśnieniem tego, jak plan mógłby wpływać na dekodowanie jest to, że ilość odczytywania bądź uwagi skierowanej na poszczególne twierdzenia jest ukształtowana przez plan w taki sposób, że na jednostki pojęciowe o większej istotności jest przeznaczone intensywniejsze odczytywanie oraz większa uwaga (Cirillo & Foss, 1980; Yekovich & Thorndyke, 1981). Oparłszy się na tym wyjaśnieniu, ktoś mógłby postulować, że aby wpłynąć na zdolność zapamiętywania jednostek pojęciowych odczytywanie właściwe dla planu mogłoby się połączyć z odczytywaniem właściwym dla początkowych trudności identyfikacji leksykalnej. Świadectwa, które umiejscawiają skutek planu przy etapie odzyskiwania (retrieval) (Anderson & Pichert, 1978) pozostawiają także otwartą możliwość temu, że elaboratywne odczytywanie uruchomione przez początkowe trudności, mogłoby przyczynić się do zapamiętywania tekstu. Jednakże ani model kodowania planowego (schema-encoding) ani też model odzyskiwania planowego (schema-retrieval) zapamiętywania tekstu nie pomogły explicite zawrzeć ze sobą skutków właściwych trudności spowodowanych przez funkcje tekstowe powierzchni. Doświadczenie 2 było początkowym badaniem procesu przypominania opowiadania w chwili, gdy czynniki oparte na planie (schema-based) i trudności w odczytywaniu (difficulty-of-processing) były explicite wywoływane jednocześnie.
 


Doświadczenie 2 
 
   W tym doświadczeniu trudność identyfikacji leksykalnej znowu była zróżnicowana dzięki użyciu procedury usuwania liter, która została użyta w pierwszym doświadczeniu. Aby aktywować proces planu, zastosowane technikę wymyśloną przez Andersona i Picherta (1978; Pichert & Anderson, 1977). Badane osoby zostały poinstruowane żeby przeczytały sobie opowiadania przyjmując w trakcie lektury perspektywę zarówno kupca nieruchomości jak i włamywacza.
Wzorzec efektów usuwania liter oraz efektów właściwych dla ważności jednostki pojęciowej (zależnej od perspektywy) miał uczynić przejrzystszym sposób, w jaki nie wywołane planowo elaboratywne procesy (non-schema-induced elaborative) oraz  procesy oparte na planie wspólnie wpływają na zapamiętywanie opowiadania. Szczególnie, jeżeli skutki usuwania liter zostały wyeliminowane albo istotnie zredukowane (zależnie do skutków zaobserwowanych w doświadczeniu 1), wtedy mogłoby to dawać do zrozumienia, że oparte na planie procesy wywołane przez perspektywę precyzującą  w jakiś sposób przełamują skutki pamięciowe (memorial effects) nieplanowo powiązanego elaboratywnego przetwarzania, które występuje w sytuacjach, w których żadna perspektywa nie jest wyszczególniona (i.e. doświadczenie 1). Jednakże jeżeli główne skutki zarówno ważność jednostki pojęciowej jak i usuwania liter były zaobserwowane – wraz z brakiem interakcji pomiędzy dwoma – wtedy mogłoby to implikować, że przypominanie sobie jednostki pojęciowej jest dodatkową funkcją jej stosunku do bardziej abstrakcyjnej, poza-doświadczalnej wiedzy (extraexperimental knowlegde) oraz elaboracji towarzyszącej trudności przy początkowych etapach  rozumienia (e.g. identyfikacji danych leksykalnych). Wreszcie, jeżeli zmienna usuwanie liter oddziaływała ze zmienną ważności, wówczas bardziej skomplikowana wzajemna relacja pomiędzy przetwarzaniem opartym na schemacie i czynnikami elaboratywnego przetwarzania mogłaby być wywnioskowana.

Metoda 
  Uczestnicy eksperymentu. Uczestnikami było 32-óch studentów z kursu wprowadzającego do psychologii na UND. Jeden z uczestników został zastąpiony w chwili, gdy  instruktaż po doświadczeniu wykazał, że uczestnik spodziewał się testu na przypominanie (recall) i że próbował zapamiętać opowiadanie. Wszyscy uczestnicy otrzymali punkty za wzięcie udziału w badaniu.

Materiały i procedury.
 

  Użyto także opowiadania z doświadczenia pierwszego. Przed doświadczeniem były zbierane wyniki, na podstawie których zdecydowano o znaczeniu każdej z jednostek pojęciowych w momencie, gdy opowiadanie było czytane z obu perspektyw. Pierwsza perspektywa należała do włamywacza, który specjalizuje się w „łupaniu” prywatnych mieszkań, a drugie należało do przewidującego kupca nieruchomości. Dwudziestu czterech studentów z roku psychologii przygotowało wyniki; 12-stu poinstruowano żeby przyswoili sobie punkt widzenia włamywacza; a 12-stu punkt widzenia kupca. Żaden z tych uczestników nie uczestniczył ani w doświadczeniu 1 ani doświadczeniu 2. Na podstawie tych wyników zidentyfikowano 24 najważniejsze dla każdej perspektywy jednostki pojęciowe oraz 24 najmniej znaczące dla każdej perspektywy jednostki pojęciowe. Dla każdej perspektywy napisano opowiadanie w taki sposób, że połowa najważniejszych i połowa najmniej znaczących jednostek pojęciowych została dobrana z usuniętych liter. Jednostki pojęciowe, dla których litery były usunięte zostały rozłożone równomiernie wśród uczestników. Uczestników podzielono w wiele grup ustawionych od 4-ech do 9-ciu osób w każdej z nich. Procedura była taka sama jak przy doświadczeniu pierwszym. Jedyną różnicą było to, że w tym doświadczeniu połowa studentów została poinstruowana, aby zaadoptowała sobie perspektywę włamywacza w trakcie czytania opowiadania, a druga połowa, żeby zaadoptowała sobie perspektywę kupca. Dodatkowo powiedziano uczestnikom, że mogą oni napotkać pewne wyrazy z brakującymi literami oraz że w trakcie czytania powinni wypełnić te luki.

Wyniki i dyskusja
 

  Tabelka 1 daje uśrednioną proporcje jednostek pojęciowych przypomnianych jako funkcja perspektywy (włamywacza albo kupca nieruchomości), znaczenie (wysokie albo niskie) pojęcia w stosunku do perspektywy oraz całościowości (wszystkie litery lub ich brak) danych leksykalnych składających się na jednostkę pojęciową. Sprawdzanie tych średnich ukazuje, że zarówno znaczenie pojęcia oraz trudność identyfikacji danych leksykalnych wyrażających pojęcie wpłynęły na to, jak dobrze pojęcie mogłoby zostać zapamiętane. Jednostki pojęciowe, które były ważne dla perspektywy, były przypominane lepiej niż jednostki pojęciowe, które były dla perspektywy nieważne. Co jest bardziej interesujące dla celów badania, jednostki pojęciowe, dla których identyfikacja leksykalna była utrudniona, były pamiętane lepiej niż jednostki pojęciowe, dla których identyfikacja leksykalna mogła  przebiec w zwykły sposób, przy czym było to prawdziwie bez względu na znaczenie jednostki pojęciowej. Odczucia te zostały potwierdzone za pomocą trójczynnikowej mieszanej analizy różnorodności z użyciem dwóch wewnętrznych zmiennych (three-factor mixed analysis of variance with two within-subjects variables) (znaczenie, skasowania literowego) oraz jedną zmienną między-obiektów (between-subjects variable) (perspektyw). Główne skutki właściwe zarówno znaczeniu jak i skasowaniu literowemu były znaczące [F(1,30) = 10.78, MSe = 0,3, oraz F(1,30) = 39,55, MSe = 02, odpowiednio, p < ,01 dla obu skutków]. Analiza ujawniła także znaczące wzajemne oddziaływanie pomiędzy ważnością i perspektywą [F(1,22) = 10,28, MSe = 03, p < .01]. Skutek znaczenia był zaobserwowany wtedy, gdy perspektywa włamywacza została przyswojona, ale nie wtedy, gdy perspektywa kupca nieruchomości była przyswojona. Odnotowano to gdzieindziej interpretując to jako odzwierciedlenie brak zaznajomienia studentów colleg’u ze specyfiką handlu nieruchomościami (Anderson & Picherd, 1978). Co istotniejsze, nie wystąpiła żadna interakcja pomiędzy znaczeniem jednostki pojęciowej oraz skasowaniom literowym (F<1). Usuwania liter spowodowało dokładnie identyczne zwiększenie proporcji jednostek pojęciowych o wysokim znaczeniu, które były przypomniane oraz tych jednostek pojęciowych, które były mniej znaczące (odpowiednio .143 i .146).

Uśrednione proporcje przypomnianych jednostek pojęciowych w doświadczeniu 2

Ważność jednostki
 Wysoka
        Niska
Perspektywa
LD
LI
LD
LI
Włamywacz
.53
.42
.34
.19
Kupiec nieruchomości
.42
.24
.40
.25
Średnia
.47
.33
.37
.22







  Rezultaty te powielają wyniki doświadczenia pierwszego w kontekście, w którym osoby badane były instruowane, żeby przyswoiły sobie perspektywę do poprowadzenia zakodowania fragmentu. Elaboracja danych jednostkowych, spowodowana przez utrudnioną identyfikację leksykalną, pobudziła zapamiętywanie tych pojęć pomimo tego, jak te dane były przywiązane do przyjętej perspektywy. Przypuszczalnie w procesie przypominania opowiadania działało przetwarzanie oparte na poznaniu (knowlegde based) albo na planie (schema), ponieważ został osiągnięty zwyczajny efekt poziomów (Anderson & Pichert, 1978). Wzorzec ten sugeruje, że mechanizmy oparte na planie rozumienia (comprehension) i przypominania tekstu nie wymazują skutków pamięciowych spowodowanych przez utrudnienia na wstępnym etapie procesu rozumienia. Raczej oba czynniki grają rolę w determinowaniu zasięgu, do którego pewne aspekty tekstu zostaną zapamiętane. Ponadto efekt manipulacji trudnością był tak mocny jak efekt spowodowany manipulacją perspektywy. Fakt ten implikuje to, że zapamiętywanie pojęcia z opowiadania może zależeć tak samo mocno od bardzo elaboratywnego kodowania - które nasuwa  to pojęcie z powodu trudności na wstępnym etapie rozumienia - jak i od informacyjnej zawartości pojęcia na zasadach jej relacji do wyższego porządku struktury wiedzy (schema). Jednakże rezultaty nie są tak fascynujące jak mogłyby być, ponieważ perspektywa kupca nieruchomości nie spowodowała oczekiwanego poziomu efektów (levels effect) typowo związanego z przetwarzaniem planowym. Zatem nie udało się dostarczyć żadnego skupiającego dowodu dla wzorca osiągniętego dzięki perspektywie włamywacza. Ponadto, ogólność efektu usuwania liter jest także niepewna ze względu na użycie tylko jednego fragmentu opowieści. Tak więc używając innego fragmentu, przeprowadzono 3 doświadczenie, w celu dalszego zbadania tego, jak trudność identyfikacji leksykalnej mogłaby się połączyć z przyswojoną perspektywą we wpływaniu na przypominanie (recall).
 


Doświadczenie 3
 

Metoda
   

Uczestnikami było 20-stu studentów, którzy byli wpisani na listę wstępnego kursu psychologii na Uniwersytecie South Bend i którzy uczestniczyli w nim po to, aby otrzymać za to punkty.
Materiały i procedury. Użyty fragment był opowieścią o działaniach dwóch morskich mew, które żyły na małej, bezludnej wyspie. Opowiadanie było dokładnie takiej samej długości jak opowiadanie użyte wcześniej (359 wyrazów i 60 jednostek pojęć). Przed doświadczeniem zebrano wyniki od 33-ech studentów, aby określić znaczenie każdej jednostki pojęciowej dla obu perspektyw. 15-stu studentów oceniało jednostki pojęciowe w trakcie przyswajania sobie perspektywy rozbitka, zaś 18-stu  studentów oceniało jednostki pojęciowe w trakcie przyswajania perspektywy kwiaciarza. Na bazie tych obliczeń, zidentyfikowano 20 najbardziej i 20 najmniej znaczących jednostek pojęciowych. Dla każdej z tych perspektyw wydrukowano opowiadanie w taki sposób, że połowa znaczących i połowa nie znaczących jednostek pojęciowych złożono z wyrazów z usuniętymi literami. Jednostki pojęciowe, dla których litery były usunięte były równomiernie rozłożone wśród studentów. Liczba usuniętych liter z każdego wyrazu była nieco mniejsza niż ta z doświadczenia 2. W szczególności rozluźniono algorytm w taki sposób, że jeśli było to konieczne, spółgłoski usunięto z pięcio- lub sześcioliterowych wyrazów zapewniając dwie usunięte litery, z siedmio- lub ośmioliterowych wyrazów zapewniając 3 usunięcia literowe, a z dziewięcio- lub dłuższych wyrazów zapewniając 4-czteroliterowe usunięcia. 
   Procedura była taka jak ta użyta przy doświadczeniu 2, za wyjątkiem tego, że studenci dostali pozwolenie na 10-cio i pół minutowe przeczytanie opowiadania. W tym doświadczeniu połowa studentów miała czytając zaadoptować perspektywę rozbitka, a druga perspektywę kwiaciarza pragnącego ustronnego miejsca do hodowania kwiatów.


Uśrednione proporcje przypomnianych jednostek pojęciowych w doświadczeniu 3

Ważność jednostki
 Wysoka
        Niska
Perspektywa
LD
LI
LD
LI
Rozbitek statku
.35
.22
.27
.18
Kwiaciarz
.31
.18
.26
.10
Średnia
.33
.20
.26
.14










Rezultaty i dyskusja
   

  Uśrednione proporcje jednostek pojęciowych przypomnianych jako funkcja perspektywy, znaczenia oraz czynnika usunięcia liter są umieszczone w tabeli 2. Analiza rozbieżności tych danych wykazała, że jednostki pojęciowe znaczące dla perspektyw, były przypominane o wiele lepiej niż te, które były nie znaczące [F(1,18) = 6,72, MSe = .01, p < .02]. Rezultat ten utrzymał się dla obu perspektyw (F<1 dla interakcji pomiędzy perspektywą i poziomem znaczenia). Ponadto, jednostki pojęciowe, dla których litery usunięto, były lepiej zapamiętane niż te, dla których pozostawiono całe wyrazy [F(1,18) = 21.18, MSe = .02, p < .001]. Warte uwagi jest zwłaszcza odkrycie, że usuwanie liter wyprodukowało dokładnie równy wzrost przypominania zarówno dla bardzo jak i mniej znaczących jednostek pojęciowych (.13 i .12, odpowiednio, f <1). Zatem tak samo jak w doświadczeniu 2 początkowa trudność zakodowania i przetwarzania planowego równocześnie wpłynęły na przypominanie opowiadania. Dodatkowo, wzorzec przypominania w tym doświadczeniu sugeruje, że wyniki zakodowania trudności są spójne z analizą zarówno absolutnych wzrostów jak i wzrostów proporcjonalnych w odtwarzaniu właściwym dla usunięcia liter. 

Generalna dyskusja
 
  Aktualne doświadczenia pokazały, że wzrastająca trudność początkowego zakodowania informacji pochodzącej z tekstu zwiększa odtwarzanie tej informacji. Rezultaty te uzupełniają wcześniejsze odkrycia, w których użyto mniej materiału słownego (Jacoby, 1978; Kolers, 1973). Badacze ci także wspierają ostatnie przeformułowania poziomów przetwarzania, które skupiają się elaboratności przetwarzania i skutkują odrębnością poszlak (Eysenck, 1979; Lockhart et al., 1976). Aczkolwiek takie przeformułowania okazują się być teoretycznie bardziej stosowalne dla dziedziny przetwarzania i odtwarzania tekstu niż wcześniejsze poglądy (Craik & Lockhart, 1972), to wsparcie empiryczne było potrzebne. Idąc w tym samym kierunku, Glover, Plake, Roberts, Zimmer i Palmere (1981) zademonstrowali, że zadanie stworzone po to, aby wymusić elaborację semantyczną - po wstępnym ukończonym rozumieniu (parafrazowanie i rozszerzenia logiczne) - wspomaga lepsze zapamiętywanie. Rezultaty tutaj odnotowane pokazują, że powierzchniowe rysy tekstu także zapewniają zakodowanie bardziej pamięciowe. Odkrycie to jest analogiczne z teorią Jacobiego i Craika (1979), że „jeśli pierwotne zakodowanie jest trudne do osiągnięcia, późniejsze zapamiętanie zdarzenia zazwyczaj będzie dobre. Kwestią kontrowersyjną jest to, że początkowa trudność jest powiązana z formacją bardziej pełnego <opisu> bodźca, a zatem bardziej wyróżniającej się poszlaki zdarzenia” (p.6).
   Być może o wiele ważniejsze jest to, że to badanie kieruje nas na to, że oba elaboratywne przetwarzania, tworzone na poziomie leksykalnej identyfikacji rozumienia oraz procesu leżącego u podstaw  poziomu efektu (istotne pojęcia są lepiej przypominane niż pojęcia mnie istotne) przyczynia się do przypominania opowiadania. W szczególności mnemotechniczne skutki właściwe elaboracyjnemu przetwarzaniu wyprodukowane przez usunięcie liter  - jak się okazuje – nakładają się na przetwarzanie, które pośredniczy w poziomach efektu. Występują liczne udokumentowane świadectwa poziomów efektu, w ramach których ten dodatkowy efekt może być opisany. Jedno świadectwo poziomów efektu, skupiającego ramy przetwarzania elaboracyjnego, sugeruje, że ważne pojęcia są trudniejsze do zintegrowania w jedną istniejącą strukturę, którą buduje sobie czytelnik, a zatem wymagają one więcej przetwarzania (Crilo & Foss, 1980). Integrowanie tego świadectwa z obecnym odkryciem rodzi model, w którym rodzaj przywołanej z opowiadania informacji jest po prostu funkcją tego, jak bardzo przetwarzanie/elaboracja narosła na właściwe dla różnych rodzajów trudności, z jakimi styka się czytelnik. Bardziej ześrodkowane świadectwo poziomów efektu dostarcza jakby podobnej charakteryzacji dodatkowych efektów tutaj znalezionych. Jest nim to, że plan kieruje dodatkowym przetwarzaniem jednostek pojęciowych znaczących dla planu skutkując tym, że pojęcia są dobrze zintegrowane z wcześniejszym doświadczeniem czytelnika i opisem podobnych zdarzeń. Zgodnie z powyższym świadectwem, obecne wyniki mogłyby implikować model, w którym pamięć jest zależna od całościowego przetwarzania lub elaboracji, które narasta dla konkretnej jednostki pojęciowej. Jednak w tym modelu przetwarzanie albo elaboracja, która narasta jest właściwa dwóm różnym mechanizmom, pierwszy będący na najwyższym stopniu u dołu w naturze (przetwarzanie kierowanie planem) i drugi będący względnie wyższym stopniem dna (?) (przetwarzanie powiązanych powierzchniowych trudności). Pierwszy mógłby wpływać na stopień elaboracji za wyjątkiem ogólnego tematu, a drugi mógłbym wpływać na elaborację relacji lokalnych wśród pojedynczych pojęć i wyrazów.
Niektóre teorie planu podkreślają rolę schemata w badaniach średniego poziomu i dostępu do informacji tekstowej (Anderson & Pichert, 1978; Yekovich & Thorndyke, 1981). W takich modelach, znaczące i nie znaczące jednostki pojęciowe są zmagazynowane mniej więcej po równo, przy czym znaczące jednostki pojęciowe są lepiej dostępne, dzięki sprawności planu kierowanych poszukiwań przedsięwziętych przez przypominanie (recall). Obecne odkrycia rozciągają ten pogląd sugerując przy tym, że tekst przywołuje funkcję stopnia odrębności, która jest wytworzona przez zakodowanie trudności. Mniemanie to jest podobne do wyjaśnień kwestii, dlaczego informacja niespójna z napisanym fragmentem jest zapamiętywana lepiej niż informacja spójna z tymże fragmentem. Pomimo, że informacja niespójna jest zarówno dostępna jak i odrębna, podczas gdy informacja spójna jest tylko dostępna, ale nie szczególnie wyróżniona.
Jasno widać, że obecne studium nie było stworzone po to, aby dokonać rozróżnienia pomiędzy powyższymi świadectwami rozumienia tekstu i przypominania, skupiającymi się na kodowaniu przeciwko tym, które skupiają się na odzyskiwaniu; doprawdy, modele te nie muszą być wzajemnie wykluczające się. Wkładem tych doświadczeń jest to, że pokazują one, że oparte ani struktura oparta na planie ani jedynie struktura uśredniona nie dostarczają całkowicie satysfakcjonującego pojmowania rozumienia i przypominania tekstu. Okazuje się raczej, że całkowite świadectwo pamięci tekstowej będzie wymagać włączenia obecnych koncepcji elaboracji przetwarzania, możliwie zintegrowanych z istniejącą teorią planu.



1. Można by argumentować, że pomiar wzrostu proporcjonalnego wykazuje lepsze odciążenie pamięci właściwe usunięciu liter dla jednostek pojęciowych mniej istotnych niż dla tych, które są znaczące. Egzaminowanie wzrostu proporcjonalnego w uśrednionych proporcjach danych, które zostały przypomniane (Tabelka 2), ujawnia trochę wyższy wzrost proporcjonalny w przypominaniu spowodowanym przez usunięcia liter dla mniej znaczących jednostek pojęciowych niż dla tych znaczących. Jednakże analiza zmiennych sumy wzrostu proporcjonalnego, pokazała że nie było tam znaczących różnic w tym pomiarze jako funkcji jednostki pojęciowej znaczenia (F=1,36, p < .27).

2. Równoczesna praca opierająca się na manipulacji przy usuwaniu liter w opowieści i objaśniających fragmentach, używając innego paradygmatu (Einstein, McDaniel, Bowers & Stevens, 1984) wyprodukowała cokolwiek zbliżone efekty poziomów połączonych z usuwaniem liter (letter-deletion-combined-with-levels). W badaniu tym, usuwanie liter dążyło do poprawy przypominania na wszystkich poziomach znaczenia; jednakże standard ten napotkał standardowe poziome znaczenia tylko dla twierdzeń o niskim i średnim znaczeniu.




[1] Przypis do tłumaczenia: Mark A. McDaniel, The Role Of Elaborative And Schema Processes In Story Memory, Memory&Cognition, 1984, 12 (1), 46-51, PDF.




1 listopada 2013

Las



Las, co jesiennym spowił mnie
powietrzem.
Przypominając wspomnień garść
bez liku.
O mym życiu barwnym i głośnym,
ale także radosnym, 
którego nie żałuję ani minuty.

Żałować mógłbym tylko,
że  jak Byron nie walczyłem,
nie hulałem po świecie
pełnym przygód i miłostek.

Mój świat malutki, prościutki jest,
jak las...
Ten sam, w którym jestem;
po którym się przechadzam,
czytując poezję.

W myślach układając swoją, 
szukając natchnienia tych
wielkich wieszczów,
co już dawno odeszli,
zmarli, zginęli..

Choć w moim lesie
wciąż na nowo, jak żywi,
gdy ich tylko odtworzyć znów
zechcę.

Mrok już tylko przykrywa mą wizje,
mój wzrok, moje oczy,
lecz dusza ma nadal do Światłości
dąży.

Tylko wiewiórka skacze tu i tam,
wkoło mnie rada zaszczycić mnie
swoim jestestwem.

Mrok coraz silniej przedziera się
przez duszę;
Natury piękno trwa i trwać będzie,
choć ja tak bardzo związany
z tym ciałem, z tym jestestwem.
Bez oczu nie potrafię dostrzec
bez światła nic dla oczu nie ma,
do zobaczenia.

Światło tak potrzebne jest nam do poznania;
Czy to ze Słońca – boskiego dzieła,
czy z żarówki rąk ludzkich.
Bez Światła nic nie ma!?

2 października 2013

Cursed words

Let words be cursed...
Ah! cursed...
Cursed be these scattered words,
that I can't arrange,
for I didn't learn soon enough
a habit of gaining them in some diary.

Cursed be these poets' great words,
which - for the God's sake - I would never copy.
Cursed be my writing also,
which misery won't let,
even a little come closer to the lyric Troi.
In spite of I would give rhymes as many as to pleased.

Ah! Let cursed be WORDS,
which I cannot control!
So beatifully, genuinely, nobly, secretly, neatly and substantially!
Writing poems isn't something new,
but for green ones it comes easier,
when their heads possesses... my dear!?

That slipped throught my lips!

Saiyan's Irresponsibility

What is my opinion about the newest DBZ movie "The Battle of Gods"?

Well, I will start from the bad points of that production which is the Gohan behaviour during the Bulma's party. That is to say what he did or rather he did not. I will not remind you all the story plot for obvious reasons - I do not want to spoil your fun and I do not have that much time.
While everybody were having a good time eating and dancing, well known trio appeared to kiddnapp about 10 years old Trunks. Yes, our almight little prince Trunks who would beat Frieza quite easily. So one of so called villains took and grabb Trunks into its arm. (It was that Chinese girl with black hair). It was sudden, but nobody gave a shit about it for the risk was.. well... there was or seemed to be no risk at all. But then, to use that happening as an entertaiment, Gohan (in his Almighty Saiyaman suit) went on forward to take a challenge and do his famous poses. He intentionally provoked Pilaf's subordinate to shoot at him with her gun, so he could teach them a lesson. Of course, he easily did it with only his one finger. He reflected bullets, so they did not reach him, but one of them, as a ricochet, hit Gohan's girlfriend or maybe at that time fiance (because she was pregnant - Go Gohan!*) into her leg. Well, obviously she was not deathly damaged, but she could be as she was not Super Saiyan, neither Namekian or even Krillin. That bullet could hit her in more important parts of her body, including her womb with a little Pan inside (!). I must say that Gohan was increadibly irresponsible as for a Hero and a boyfriend while he could easily grabb those bullets and not make them hurt anybody. Well, I understand that producers needed that to put Dende's healing technice into use and by doing that letting exclusively him to find out Videl's little secret surprise which was a crucial point in the entire plot. I remind you that if not for Pan's existence all Goku's transformation into Super Saiyan God mode would impossible!
So knowing my point I hope you will understand what I have in mind. This situation with Gohan and Videl was a bit of too brutal and risky. It uncovered Gohan's immaturity and for me was unneccesary move in the story.
The second defect of the movie was ... well, I will put it into question: Just how many gods are there? Putting the God of Destruction into whole DBZ universe was a little too far-fetched. If he was so strong, why he didn't intervened and stop Majin Buu from annihilating all the universe. Wouldn't be that something undesired even for the God of destruction? So I can at least hope that animators and Mister Toriyama will enlighten us and patch the plot holes.




























About good point of the movie I may write in another occassion thought the list would be long. Actually, I appreciate, excluding these two above, everything of that movie and I am very glad that I could watch it.



*That reminds me about some hentai manga I have accidentally picked in the internet.

About anarchy

  The word "anarchy" primarly comes from Greek, in which it meant a state of absence of power. That may be understand as variously as ambiguous is the word "power". However, at the time when anarchistic social movements were establishing themselves in the Europe, that is in the XIX centrury,  the meaning of these concepts has been crystallized and made more precised. There is no need for separated artictle to explain that modern anarchists has started to define power by the kind of relationship in which person or a group of people A had a physical and psychological advantage and control - similar to the relation of an ownership - on a person or a group of people B. Power and State - that is essentially bound with it - have become a centre of the anarchistic attention. These things are obvious and clear for everybody. What is vague and difficult to understand, it is the form and the means by which the state limits the freedom of the individual and the fact that modern slavery exists what is - for an average bread-eater - a kind of shock and heresy. But this is less important now. It may be even said that anarchists are meant to be those who will bring entlightenment for a minds blinded by the propaganda. Indeed, they have a moral as well as an epistemic right to oppose that injustice. Although not everybody agrees with it, mostly everybody accepts that slavery, looting and reification one man by another are truely and undoubtelly wrong and wicked things. This is an ethical standard. However, the things in which most people have a problem of accepting are the solutions of anarchists.  Indeed, they argue that anarchy is too radical approach , too dangerous , and sometimes simply utopian. Without going into a detailed analysis of the allegations , it may look like the main problem of anarchism is a problem of communication. But I am aiming for something else.    
 
 Etienne Gilson, in his great work " Thomistic Realism " had drown the idea that anarchism is basically the result of errors of idealism and turning from the ontological realism of St . Thomas Aquinas [1]. He claims it was the mistake of Cartesian dualism which has been based on John Scotts's philosophy and has distorted the original understanding of the basic metaphysical terms. According to Descartes body and soul in human being are separated realms. Omitting the details of that reasoning, Gilson concludes that from the anthropology the weight of the problem passed to other areas of philosophy. Namely, to social and political philosophy ( Hobbes ) and then to reach its climax in the form of two opposing camps , that is individualistic ( represented mainly by Stirner and Nietzsche ) and collectivist ( Comte , Hegel ) . French Thomist adds that the entire genesis of reaching this level was most logical and based on pure common sense . So he blames neither Stirner or Nietzsche or Hegel , Comte or the fact that they might be illogical or irrational. They accepted the conditions which they  inherited from their masters, and their masters from previous masters, and so on , to the first (un)faithful disciples of St. Thomas Aquinas . Thomas' students who interpreted his teacher's philosophy in the essentialistic spirit. Well, it certainly is an explanation of the problem or at least outline the historical background , but is that enough? Is it that the students of St. Thomas Aquinas in the XIII c. - whom mistakenly read his teacher's writings - is that means all anarchism is a misunderstanding or simply the result of misinterpretation of metaphysics of Aquinas? And do all other philosophical trends after Thomas may be accused for the same unfaithfullnes? Answer for the first objection is definitely negative. So far Gilson didn't claim that. The only thing he was trying to say in his work is that the history of philosophy and culture are closely related, and those connections ought not to be underestimated. But I was more intrigued by the question of anarchism , so I will ask the one question to clarify the matter: Has exploitation been occurring only in times of Stirner? Is the power of the state invention of nineteenth century? Is the tax injustice and slavery something new? In the history many thinkers , writers and philosophers have been noticing that there is evil and that this evil has a specific frame. From East Asia to the Europe almost every wise man, who had social matters close to his heart, has seen that wickednesses of human nature. While each had different medications, depending on their own conclusions, not necessarily anarchistic, but this is not important. The significant is that the fact that exploitation is not something invented today , so it is not something dependent and completely relative . Anarchism does not have to be a "Zeitgeist" or a fashion, but it can and ought to be logical consequence of rational reasoning based on experience and sensual cognition. Although coming to that quite simple conclusion (what is more simple than that each person wants to live peacefully without any gun aimed at his forehead) has taken much time untill its finall intellectual realization. Thought this extension may be regarded as justified.

 Considering the anallogical fact of technological domain in its most basic forms. How many inventions that might have been manufactured and constructed in advance , how many discoveries that might have been noticed before? These are unfortunately barren questions. So this does not mean that people were stupid then , and today are wiser . In fact, the question of the technical development is good enough for a separate essay . However, I will stick to the actual issue . It should be noted that the human species - apart from the collective connotation - need a couple of centuries to come to a anarchism. It was a kind of evolution and in some sense the need of time. In the past the oppresiveness of the State were different, if not just lesser because of the lack of the means to be used. Means that needed to be produced and created with a little free market economy prosperity that has been occurring from time to time in the history of mankind. And of course another matter becomes clear, that is to say the more healthier and richer human civilization grows, the more and more oppressive becomes its parasite - the State . 


 [1] Etienne Gilson, „Realizm tomistyczny”, IW PAX, Warszawa, 1968, s. 38-41.

6 stycznia 2013

Dziękujcie Smoczym Kulom

Dlaczego nie uznaję Dragon Ball GT?

Pośrednio dlatego, że jest to dzieło niekanoniczne, to znaczy, że seria GT nie została stworzona, wymyślona przez autora DBZ i DB, czyli Akirę Toriyama, który wprawdzie maczał palce w powstaniu trzeciej serii przygód Son Goku i spółki, ale nic poza tym. Pośrednio, ponieważ nie jest fanatykiem osoby pana Toriyamy ani bezwzględnym fanem jego twórczości. Gdyby ktoś inny napisał, narysował i sfilmował Smocze Kule, to nie miałbym nic przeciwko temu, a może nawet było by lepiej? Najważniejszą kwestią jest jakość. Jakość, której GT ewidentnie brakuje, a na którą składają się takie cechy jak: koherentność (inaczej spójność) całości fabuły, dobra animacja, logiczne wynikanie i zdrowy rozsądek(w ramach oczywiście danego dzieła. Trudno bowiem wymagać tej samej logiki i zdrowego rozsądku od mangi i od "Lalki" Prusa!).

Dlaczego DBGT nie spełnia tychże kryteriów? Będę pisał zwięźle bez podawania konkretnych szczegółów, jak odcinek, pora dnia, etc.
Zacznijmy od samego początku: Cała fabuła GT zaczyna się w momencie, w którym przez pomyłkę złego Pilafa (vide: DB) smocze kule, po użyciu ich na odmłodzenie Goku, rozpraszają się po całym.. wszechświecie. Już tutaj zaczynają się schody, ponieważ dragon balls nie mogą i nie mają prawa rozproszyć się po wszechświecie! Po spełnieniu życzenia smok rozpada się i kule zostają rozrzucone po kuli ziemskiej. W różnych kierunkach.. wszędzie, ale w ramach planety, z której się bądź co bądź wywodzą!

Przypomnę ich genezę (zgodnie z kanonem). W obliczu wielkiej ekologicznej tragedii planeta Namek przeżywała kryzys. Rasa ją zamieszkująca ginęła i w resztkach sił posłała swoją jedyną nadzieję - ostatniego z Nameczan - w statku kosmicznym. Z bliżej nieznanego powodu (może celowo) statek wylądował na planecie Ziemia. Tym Nameczaninem był oczywiście Piccolo (w zasadzie jego imię zostało zapomniane przez podział osobowości). Ów statek wylądował na jednym z największych pustkowi na Ziemi. Było to miejsce do tego stopnia odosobnione i zapomniane przez ludzkość, że ów młody Nameczanin zdołał dorosnąć tam w spokoju. Lecz w końcu jego pragnienie wiedzy, nieznośna samotność pchnęła go w niebezpieczną podróż poza idyllę pustelnika. Nieznamy szczegółów życia Nameczanina, jego interakcji i odczuć, jakie mogły powstać poprzez konfrontację z zupełnie odmienną od niego rasą. Wiemy natomiast, że udało mu się poznać tę rasę zarówno z jej dobrej jak i złej strony. Udało mu się nawet poznać samego Boga. I wtedy właśnie ów Nameczanin, zobaczywszy jakość życia Wszechmogącego, zapragnął sam nim zostać na drodze naturalnej sukcesji (Bóg Ziemi jest śmiertelny!). Lecz ówczesny Kami-Sama odmówił, powiedział bowiem, że aby zostać wszechmogącym, należy być czystego serca. Serca Nameczanina było splamione ciemnością, której nauczył się od ludzkości. Wszystkie swoje starania nakierował on na wyeliminowanie w sobie tego zła. Do tego stopnia, że dosłownie, fizycznie je od siebie oddzielił stwarzając nowy byt, swoje przeciwieństwo połączone więzami życia i śmierci, czyli Piccolo Daimao. Dalej tłumaczył nie będę. Kami-Sama zmarł, nowym Kami-Samą został Nameczanin. A tak się składało, że Nameczanie posiadali naprawdę nadprzyrodzone zdolności, min. potrafili stworzyć smocze kule i smoka spełniającego życzenia. To dziedzictwo w jakiś sposób odbiło się w pamięci Nameczanina-Wszechmogącego, który zapragnąwszy to powtórzyć na Ziemi uczynił to. Stworzył smocze kule na Ziemi. Chciał w ten sposób zapewne zadośćuczynić za zło i cierpienie wywołane przez swoje alter-ego Piccolo Daimao. Dzięki temu Goku mógł spotkać Bulmę i cała historia DB mogła mieć miejsce. Jak wiadomo, w okresie kryzysu ze sztucznymi ludźmi (Android/Cell Saga), Kami-Sama poświęcił się stając się częścią - dzięki Bogu już dobrego - Piccolo, aby wspomóc wojowników Z w walce z zagrożeniem. Tym samym smocze kule (ważne!), które do tej pory działały, przestały działać i stały się kamieniami na zawsze (Normalnie stawały się nimi na rok po spełnieniu życzenia). I tak było by, gdyby nie sprowadzenie na Ziemię nowego Wszechmogącego, Dende'ego. Dende "wyregulował" dotychczasowe smocze kule i przywrócić jego do działania. I te same kule były używane aż do ostatniego pojawienia się smoka po walce z demonem Buu!!!


Teraz będzie krew: Otóż pomijam kwestię, że z kule normalnie powinny być rozproszone po Ziemi, ale być może, zapobiegawczo, Goku i spółka postanowili je mieć w jednym miejscu, czyli w niedostępnym dla złoczyńców (?) Niebiańskim Pałacu. A tu nie dość, że ktoś zdołał tam dotrzeć (pomijając "precedens" z przylotem Bulmy i małego Trunksa oraz Super Buu, to jeszcze co? To, że to nie były TE kule, ale kule "poprzedniego" Wszechmogącego! Ale którego? Nie tego, który był przed Dende'm, ponieważ te kule zostały "odziedziczone". Wcześniejszego? O nim nie wiemy praktycznie nic. Zresztą, to było by baaardzo dziwne gdyby okazało się, że mógł on stworzyć coś takiego jak kule nie będąc Nameczaninem. Przypominam bowiem, że stwarzanie smoczych domeną rasy Nameczan, a nie atrybutem Wszechmogącego. Poza tym, nawet pomijając tamte argumenty, to czy ów kule nie powinny być kamieniami, skoro ich stwórca już dawno nie żyje? To fajnie, ale całkowicie pomija logikę i spójność moim zdaniem. I w zasadzie stanowi największy problem w akceptacji GT jako ciągu dalszego Zetki. Naprawdę, odmłodzenie Goku mi nie przeszkadza, ale jest głupie. Jeżeli chcieli pokazać kogoś młodszego, to mogli wziąć Uuba, Pan czy zupełnie nową postać, ale ja rozumiem, że dla celów wąskiego interesu (nie lubię pojęcia komercja) własnego musieli tam umieścić naszego Son Goku!

Przytoczę jeszcze parę argumentów w skrócie:
1. Moc - Energia KI jest w stanie niszczyć, w zależności od tego, ile jej ktoś posiada, to jest w stanie zniszczyć wszystko: od góry przez miasto po całą planetę i więcej. W czasie walki z Super Buu nie tylko Ziemia o mało co się nie rozleciała (choć w końcu została unicestwiona, ale celowym atakiem), to jeszcze cały wszechświat nie został zdezintegrowany! Było tak, ponieważ rzeczony demon, za sprawą prowokującego zachowania Vegetto, w złości wyrzucał się z siebie taką ilość energii, której wprawdzie nie potrafił wykorzystać w walce, ale mógł i robił tak, że bariera wymiarów pękała dosł. jak szyba na koncercie grubej śpiewaczki operowej. Porównajmy Buu do poziomów z GT. Baby Vegeta, który był ponoć znacznie silniejszy od Goku na poziomie SSj3, Uub Unleashed (po fuzji z grubym Buu), a nawet - ale bardziej przypuszczalnie od Super Buu. Jakby i nic. Nic.. planeta powinna pękać od zderzeń energii. Ale załóżmy, że Baby Vegeta i ssj 4 Goku nie byli tacy silni. Alright.. Dalej, Super 17-stka? Jako android nie wydziela z siebie energii jak żywa istota (zgodność z tym, co zostało powiedziane w Zetce), ale Super Demoniczny Shenron siedmio-gwiazdkowy? Przecież on zamiatał ssj 4 Goku ulice bez przenośni! Jego moc była na pewno większa od Super Buu, a już z pewnością Gogeta ssj 4, więc nie dość, że miasto, w którym walczyli, powinno zostać doszczętnie wymazane z egzystencji, to jeszcze planeta powinno się rozlecieć.

Co do mocy jest jeszcze poziom. Otóż jak wiadomo występują różne poziomy Super Saiyanina. Na początku znany był tylko SSj, potem Mastere SSj (Opanowany, wytrenowany), następnie SSj 2 aż wreszcie SSj 3. Każda ewolucja wznosi za sobą nową niewyobrażalną moc, ale żeby nie było tak łatwo złoczyńcy także się zmieniają i są coraz silniejsi. Gdy pod koniec Sagi Frizera wydawało się, że SSj to szczyt możliwości i potęgi, pojawiły się androidy i cyborgi, a potem bio-cyborg, mutant, Cell, aż do Buu, który nawet był w stanie pokonać SSj 3. Wyjątkiem jest "przemiana" Son Gohana, którego potencjał został uwolniony przez starszego Boga Światów sprzed 15-tu pokoleń (Kaioshin). Ale mimo tego, że za każdym razem pojawiał się ktoś silniejszy, różnica poziomów została zachowana. Nawet Gdy pojawił się Buu, SSj 2 i SSj nie były tym samym. Aż do GT, które zniwelowało, zrównało tę "subtelną" różnicę czyniąc SSj praktycznie tym samym, co SSj 2, ponieważ ani razu nie widzimy przemiany Saiyana z SSj w SSj 2. Odpowiedź jest taka, że bądź autorzy GT ją zignorowali bądź zapomnieli o odpowiedniej animacji (błyskawicach i etc.). A skoro już o tym mowa, to trzeba też wspomnieć o Gohanie. Pod koniec Zetki Gohan był bezsprzecznie najpotężniejszym wojownikiem na Ziemi, potężniejszym nawet od Goku SSj 3. Tak, tak.. i to bez przemiany w złotowłosego przystojniaka! A tu nagle w GT - wprawdzie pod wpływem Babe'go, ale jednak - Gohan przemienia się w SSj. Mało tego, jego moc spada drastycznie do momentu przed zamieszaniem z Buu i Kaioshinami! Jak to? No dobrze, przyjmijmy, że nie był sobą, Babe go kontrolował i żeby użyć "potencjały", trzeba wykonać jakąś czynność, o której tylko Gohan mógł wiedzieć (I tak mocno naciągane).. ale dlaczego już w walce z Super 17-tką Gohan wchodzi w tryb SSj? Po co? W Sadze Złych Smoków jest to samo!


Mógłbym wymieniać, wymieniać.. skoro sam pomysł ze smoczymi kulami wcześniejszego Kami-Samy jest ad analum, to już cała reszta fabuły się kruszy niczym skała pod wpływem erozji, pęka i pozostaje nie do obrony, bo bez smoczych kul cała reszta nie ma prawa się odbyć!
Zatem napomknę tylko o tym, co było dobre w GT bądź w idei bądź w realizacji:

1. Super Saiyanin 4. Był on nie tylko zgodny z logiką Dragon Balla jak i koniecznością, o ile mielibyśmy się trzymać Goku i jego spółki (Bo można było pójść zupełnie nowym torem, obrać innych, młodszych, słabszych bohaterów..). Wykonanie też nie było najgorsze: małpie futro, dłuższe włosy, włosy pod oczami (?), złote tęczówki, etc. Ale "magiczne" spodnie? Przepraszam bardzo, to było głupie. Goku przemienia się w Oozaru (Błędnie z tym tłustym brzuchem. Spójcie tylko na przemiany Oozaru w Zetce!), jego ubranie zostaje rozerwane, więc skąd spodnie?? Tak samo Vegeta, u którego spodnie pojawiają się w tajemniczy sposób po tym, jak przemiania się w wielką małpę (Mógł założyć elastyczny kombinezon, którego projekt nie był przecież obcy Bulmie). "Cartoonish" powiedziałbym, kreskówkowe, a nie mangowe!

2. Animacja. Oczywiście nie zamierzam narzekać na to, jak zostały animowane DB i DBZ, ponieważ zdaje sobie sprawę, że jak ówczesne lata, to było i tak bardzo dużo. DBGT zapowiadał się obiecująco, ale zawiodłem się właśnie na tym, że tak dobre środki zostały zmarnowane na GT. Ataki energetyczne, zmiany pogody, szczegóły w budowie miast, przyrody, etc. etc. To było wszystko było śliczne!

3. Złoczyńcy. Babe był całkiem ciekawym wątkiem. Zwłaszcza przez wzgląd na nawiązanie do historii Saiyan (analogicznie pierwsza saga w Zetce nawiązuje do ich historii). Rasa Tsufuli, którzy zostali wytępieni, wraca, żeby się zemścić, a jak to z zemstą bywa ich zamiary (a może takie były od początku vide: Kompleks wyższości) wplątały zupełnie obcą rasę, Ziemian, w ich plan. Ich cały potencjał skupiony w jednym bycie, Babe. Babe, który nie powstał by bez udziału kosmicznego odpowiednika dra Gero, potrafi wnikać do istot żywych przejmując ich ciała i moc (w przeciwieństwie do Buu, który wchłaniał innych). I to, że odwrócił on role, postawił przyjaciół i rodzinę,i całą ludzkość przeciwko Goku. To wszystko, co zawsze bronił główny bohater zostało mu przeciwstawione (przewartościowanie wszystkich wartości); epickość prawie podpadająca pod walkę ostatniego Saiyana z Freezerem na eksplodującej planecie.. Wielkie szanse zniszczone. Super

Super 17-stka. Dziwny koncept, zapewne mający nawiązywać do sagi sztucznych ludzi, ale wykonanie niespójne, pełnie sprzeczności (Na przykład skąd dr Myu i dr Gero zdobyli w Piekle materiały na zbudowanie drugiej 17-stki i wiele innych).

Smoki. W trakcie terroru Buu, najstarszy Kaioshin wspomniał o wielkim niebezpieczeństwie związanym z używaniem smoczych kul poza ich rodzimą planetą. Myślę, że można to traktować jako zapowiedź kryzysu związanego z ostatnią sagą w GT. Bunt smoka, jego podział na siedem części.. Sam fakt, że z użytkowaniem kul wiązało się drugie dno był wielce intrygujący i odpowiadał mojej przyczynowo-skutkowej psychice. Tak musiało być. Było za pięknie, żeby nie było żadnych skutków ubocznych, żadnego kaca. Ale oczywiście w ogólności znowu to schrzanili.
2.