Rozdział III
O względności poznania wiedziano już dawno. Nie bez przyczyny subiektywizm, czyli indywidualne spojrzenie na świat, stał się niemal synonimem wiedzy niepewnej. Subiektywizm nieźle się sprawdza przede wszystkim w twórczości artystycznej, choć i tam nie można nadmiernie oddalać się od społecznie akceptowanych konwencji gwarantujących możliwość porozumienia z odbiorcą dzieła. Jednak w nauce ujęcia indywidualne, czyli subiektywne, są traktowane jako niewiarygodne i obarczone relatywizmem, którego naukowcy nie lubią i starają się unikać.
W tych okolicznościach wydaje się, że odpowiedzi na pytanie o najlepszą drogę poznania należałoby szukać w obiektywizmie, rozumianym jako opis rzeczywistości w całkowitym oderwaniu od uwarunkowań zarówno społecznych, jak i osobowościowych. Wielu uczonych tak właśnie rozumie „prawdziwą”, żeby nie powiedzieć wyidealizowaną, naukę. Zakładają oni, że obserwacja, eksperyment i logiczna analiza powinny być wolne od subiektywizmu i jakichkolwiek konwencji. Jednak Ludwik Fleck wielokrotnie podkreślał, że nie wierzy w możliwość oderwania nauki od uwarunkowań społeczno-kulturowych i psychologicznych. Zdawał sobie sprawę, jak wielki wpływ na proces poznania i naukę mają czynniki pozalogiczne. To oznacza, że należałoby odrzucić, lub przynajmniej zminimalizować znaczenie tych czynników, aby naukę uczynić obiektywną. Pozostaje jednak pytanie, jak to zrobić?
Ludwik Fleck szukał odpowiedzi w swoistym „demokratyzmie” nauki. Demokratyzm myślenia naukowego ma oznaczać uwolnienie od tradycji, obowiązującej konwencji i autorytetów1. Inaczej mówiąc, kryterium prawdziwości danej koncepcji naukowej nie może być opinia grupy lub wspólnoty, ani wiara w czyjąkolwiek nieomylność, w tym także elit złożonych z tak zwanych „wtajemniczonych”, czyli specjalistów i fachowców. W istocie bowiem opinia grupy zawsze jest wypadkową opinii wielu pojedynczych osób. Przypomina mozaikę, w której żaden z kamyczków nie jest najważniejszy i nie jest samoistny, bo ma znaczenie jedynie w zestawieniu z innymi. Można zatem dowolnie wybierać określone elementy mozaiki, lecz nigdy nie będzie pewności, że wybrano te właściwe, a wśród pominiętych nie znalazły się elementy bardzo ważne. Dlatego trzeba z równą powagą traktować opinie wszystkich zajmujących się nauką, poddając je takiej samej weryfikacji bez szacunku dla tradycji i autorytetów i bez lekceważenia tych, którzy w danym momencie nie cieszą się autorytetem. Weryfikacja musi być niezależna i bezstronna.
Takie teoretyczne zalecenie wydaje się z pozoru dość oczywiste, chociaż nie jest łatwe do zrealizowania, ponieważ brakuje jednoznacznych kryteriów. Jak wykazał Ludwik Fleck, dana obserwacja lub teoria może być analizowana i interpretowana wyłącznie w ramach określonych przez konwencję obowiązującą w danej kulturze i w danym momencie historii. To zaś oznacza, że nie istnieją obiektywne kryteria prawdziwości niezależne od uwarunkowań kulturowych. Każda próba weryfikacji twierdzeń nauki jest ograniczona, ponieważ musi być związana z miejscem, czasem i konkretną osobą badacza jako wychowanka i członka określonej społeczności. Praktycznie nie ma więc możliwości sformułowania uniwersalnych kryteriów prawdy w nauce. Prawda naukowa ze swej natury okazuje się względna i uwikłana w społeczne konwencje, co oczywiście wyklucza obiektywizm, nawet przy założeniu „demokratycznego”, czyli wolnego od autorytetów, sposobu myślenia i prowadzenia badań, który postulował Ludwik Fleck.
Właśnie myślenie lub czysty racjonalizm niektórzy chcieliby ewentualnie wskazać jako antidotum na społeczne i psychologiczne ograniczenia nauki. Takie założenie przyświeca na ogół tym, którzy wierzą, że królową nauk jest matematyka, uznawana za uniwersalny język wszechświata. Nie jest to nowa idea, bo na przykład w średniowieczu przedstawiano Boga jako inżyniera z cyrklem w ręku, który zaprojektował i zbudował świat zgodnie z regułami matematyki. Podobne tezy głoszą masoni, dla których Bóg jest najwyższym budowniczym, inżynierem i projektantem wyrażającym się w doskonałych formułach matematycznych. Natomiast na przełomie XX i XXI w. niektórzy kreacjoniści uważają matematykę za język Boga jako stwórcy świata2. Z drugiej strony matematyka, czy raczej logika matematyczna, bywa uznawana za fundament rzeczywistości również przez myślicieli niekoniecznie inspirowanych religią. Na przykład w 1960 r. Holender Hans Freudenthal opracował lincos, czyli „język kosmiczny” oparty na elementarnej łacinie i matematyce, który z założenia miał być środkiem porozumiewania się z hipotetycznymi obcymi cywilizacjami. Pomijając fantastyczny, a może nawet nieco zabawny, aspekt idei Freudenthala związany z kosmitami, warto odnotować jego przekonanie o uniwersalizmie matematyki. Freudenthal najwyraźniej założył, że myślenie wszystkich istot rozumnych we wszechświecie w sposób naturalny jest matematyczne, a ogromne sukcesy matematyki w naukach przyrodniczych i technicznych zdają się potwierdzać to przekonanie. Niestety, mimo niezaprzeczalnej skuteczności, nie ma gwarancji, że myślenie w kategoriach matematyki jest rzeczywiście uniwersalne. Ścisły racjonalizm bowiem to wewnętrzna spójność twierdzeń składających się na logikę i matematykę, ale to nie oznacza, że tak samo spójne muszą być twierdzenia odnoszące się do rzeczywistości pozaludzkiej. Wyniki badań świata zjawisk, mimo najdokładniejszych metod pomiarowych, niemal nigdy nie są dokładnie zgodne z matematycznymi modelami. Zwykle układają się w krzywą Gaussa, pokazującą tylko prawdopodobieństwo wystąpienia danego rezultatu. Oczywiście, niektórzy mogliby twierdzić, że modele są zgodne z rzeczywistością, a zawodzą niedoskonałe metody pomiarowe. Jednak fizyka kwantowa, a zwłaszcza zasada nieoznaczoności, potwierdzają zarówno niemożność wykonania dokładnych pomiarów, jak i niejednoznaczność mierzonych procesów. Co więcej, przybliżony charakter modeli matematycznych ujawnia się też w skali makroskopowej, czego przykładem jest wzmiankowany już gaz doskonały, prawa Mendla czy wzory Newtona. Można stąd wnioskować, że wyidealizowana rzeczywistość precyzyjnie opisywana przez człowieka w języku matematyki nie ma bezpośredniego przełożenia na rzeczywistość pozaludzką. Nic zatem dziwnego, że dyskusja nad naturą matematyki oraz zakresem jej stosowania trwa od dawna i nic nie wskazuje, by miała się rychło zakończyć. W każdym razie badacz poszukujący wiarygodnej metody weryfikacji hipotez prawdopodobnie nie powinien opierać się wyłącznie na matematyce.
Może za to odwołać się do empiryzmu jako łącznika między poznającym umysłem, który posługuje się modelami logicznymi i matematycznymi, oraz rzeczywistością ukrytą za zjawiskami. Nieprzypadkowo Ludwik Fleck jako praktykujący lekarz wskazywał, że potwierdzenia danego odkrycia należy szukać za pomocą różnych procedur nie tylko racjonalnych, lecz także, a może nawet przede wszystkim, empirycznych3. Czy jednak rzeczywiście można zaufać empiryzmowi, a jeśli tak, to w jakim stopniu?
W czasach Flecka już nie wierzono bez zastrzeżeń w rezultaty osiągnięte na drodze doświadczalnej. Paradoksalnie, ostateczny cios przekonaniu, że obserwacja i eksperyment stanowią klucz do poznania zadali fizycy, czyli akurat ci, którzy z założenia powinni być zdeklarowanymi empirystami. Niels Bohr w 1928 r. sformułował zasadę komplementarności, według której proces badania rzeczywistości zmienia tę rzeczywistość. Rok później Ludwik Fleck pisał o wpływie badacza na to, co jest badane, kiedy wskazywał, że wynik eksperymentu zależy od nastawienia badacza na określony wynik lub cel4. Rezultaty badań pokazują więc świat nie takim, jakim on jest, lecz świat przekształcony przez badanie, lub nawet z góry ukierunkowany na określone stany docelowe. Badacz zaś jawi się nie jako obserwator, lecz raczej współtwórca badanego świata, ponieważ w praktyce nie jest możliwa czysta, niezakłócona obserwacja rzeczywistości niezależnej od obserwatora.
Z tego punktu widzenia obiektywizm okazuje się tylko kolejną metodą interpretowania świata opartą o racjonalizm i empiryzm, a obraz rzeczywistości, jaki w ten sposób budują naukowcy jest tylko prawdopodobny i zawsze jest zdeformowany przez obecność tychże naukowców. Uczeni nie potrafią więc w sposób pewny odtworzyć obrazu rzeczywistości niezakłóconej przez badania. Muszą uznać zasadniczą niepoznawalność świata ukrytego za zjawiskami, jedynie domyślając się jego właściwości. Alternatywą może być hipoteza, że istnieją tylko zjawiska, co oznaczałoby, że badana rzeczywistość ma charakter wyłącznie zjawiskowy, ale dla praktyki poznawczej nie ma to wielkiego znaczenia.
A jednak, mimo wszystkich tych zastrzeżeń, nie ulega wątpliwości, że nauka dążąca do obiektywizmu ma ogromny potencjał opisywania i objaśniania świata, co oznacza, że przynajmniej w pewnych granicach, jest skuteczna. Ludwik Fleck doskonale to rozumiał i podjął próbę analizy nauki i kryteriów naukowości. Znajomość historii nauki, a zwłaszcza medycyny, doprowadziła go do sformułowania dość prostej i pozornie oczywistej zasady, w myśl której prawdziwą wartość naukową mają tylko takie teorie, które otwierają nowe perspektywy badawcze5. Rzecz w tym, że jest to kryterium a posteriori, czyli formułowane niejako „wstecz” i samosprawdzające się niczym rzekome proroctwa zapisane w centuriach Nostradamusa. Dopiero po fakcie można bowiem stwierdzić, że dana teoria otworzyła przed nauką nowe perspektywy, a zatem była wartościowa. Natomiast w chwili formułowania nowej idei zazwyczaj spotyka się ona z krytyką wynikającą nie tylko z tradycjonalizmu uczonych, lecz również z braku materiałów dowodowych. Historia nauki dostarcza aż nazbyt wielu przykładów ilustrujących to zjawisko.
W X w. indyjscy i chińscy lekarze wiedzieli, że zakażenie proszkiem ze strupów ludzi chorych na ospę może uodpornić na tę chorobę, ale nie wiedzieli, dlaczego. Kiedy brytyjski farmer Benjamin Jesty w 1774 r. celowo zakaził swoją rodzinę ospą krowią, żeby zabezpieczyć się przed epidemią ospy prawdziwej, żaden poważny uczony nie akceptował tej metody, widząc w niej tylko niebezpieczny ludowy zabobon. 22 lata później Edward Jenner powtórzył ryzykowny zabieg, zakażając Jamesa Phippsa, który dzięki temu zyskał odporność na prawdziwą ospę. Nikt jednak nie potrafił wyjaśnić mechanizmu uodpornienia, więc ówcześni uczeni nie szczędzili krytyki Jennerowi. Z ich punktu widzenia szczepienie nie miało sensu, było zabiegiem o charakterze magicznym i nie prowadziło do rozwiązania problemu epidemii. Tymczasem dziwaczna metoda Jennera otworzyła nową epokę w medycynie, czyli spełniła postulat Ludwika Flecka. Tyle, że w czasach Jennera nikt nie potrafił tego przewidzieć, bo następna szczepionka, tym razem na cholerę, pojawiła się dopiero w 1879 r.
Podobne koleje przeszła teoria płyt w geologii. Na podobieństwo linii brzegowych po przeciwnych stronach Atlantyku kartografowie zwracali uwagę już w XVI w., lecz musieli poprzestać jedynie na stwierdzeniu faktu. Dopiero w 1915 r. niemiecki meteorolog Alfred Wegener (1880-1930) ogłosił dziwaczną hipotezę, według której wszystkie kontynenty miały niegdyś tworzyć jedną masę lądów nazwaną Pangeą, co oznaczałoby, że kontynenty są w ruchu. Wegener przypuszczał, że siłą poruszającą kontynentami może być ruch obrotowy planety, ale nie potrafił tego dowieść. Pomysł nie spotkał się z większym zainteresowaniem wśród geologów, bo był zbyt ekstrawagancki i słabo udokumentowany. To była koncepcja, której nie mógłby zaakceptować żaden poważny uniwersytet. Inna, równie dziwna hipoteza sformułowana przez Brytyjczyka A. Holmesa w 1929 r., zakładała, że kontynenty są poruszane przez strumienie magmy cyrkulujące w płaszczu Ziemi. Znów jednak zabrakło dowodów na poparcie tego przypuszczenia, więc niewielu potraktowało je poważnie. Wreszcie w 1960 r. Amerykanin Harry H. Hess opisał spreading dna oceanów, czyli ruch oceanicznej skorupy ziemskiej, potwierdzony empirycznie w 1962 r.
Tak oto nieco szalona hipoteza Wegenera po niemal pół wieku niezrozumienia i lekceważenia stała się początkiem fundamentalnej dla geologii, a zwłaszcza tektoniki, teorii płyt. Wymóg Ludwika Flecka, by wartościowa teoria otwierała nowe horyzonty okazał się więc słuszny, ale oceny teorii można było dokonać dopiero wiele lat po jej ogłoszeniu i długo po śmierci autora.
To pokazuje, że w danym momencie historycznym nie można właściwie ocenić danej hipotezy, czyli nie można stwierdzić, która hipoteza okaże się kiedyś wartościowa, a którą trzeba odrzucić. Mogą upłynąć dekady, a czasem nawet wieki, zanim uczeni zweryfikują konkretny pogląd. Przykładem jest wielkie twierdzenie Pierre’a de Fermata (xn + yn ≠ zn gdzie z, y, z są liczbami naturalnymi a n > 2) zapisane bez dowodu w pierwszej połowie XVII w., a potwierdzone przez Brytyjczyka A. Willesa dopiero w latach 1993-1995.
Stąd płynie bardzo konkretny wniosek dla wszystkich zajmujących się nauką i skłonnych do wydawania jednoznacznych ocen popartych głęboką, specjalistyczną wiedzą ugruntowaną na uczelniach. Otóż trzeba pamiętać, że nauka nie ma stanu końcowego, ponieważ jest nieustającym procesem poznawania i nikt, nawet najwybitniejszy specjalista z najlepszego uniwersytetu, nie ma monopolu na prawdę.
Wiedział o tym Karl R. Popper (1902-1994), kiedy formułował swoją koncepcję rozwoju nauki nazwaną fallibilizmem, według której poznanie jest niepewne i chwiejne, jego istotę stanowi falsyfikacja dawnych teorii, żeby je zastąpić nowymi, a te później także obalić6. W pewnym sensie jest to pogląd bliski koncepcji Flecka, który również akcentował niepewność i ograniczenie poznania, a szczególnie poznania naukowego. O ile jednak Popper wskazywał raczej na aktywność poznawczą uczonych i dane empiryczne, o tyle Fleck podkreślał przede wszystkim społeczną konwencję nazwaną przez niego stylem myślenia. Co ciekawe, obaj myśliciele, zarówno Fleck, jak i Popper, reprezentowali relatywistyczną wizję nauki, w której pojęcie prawdy jest względne. Według nich nie można mówić o prawdzie obiektywnej w sensie absolutnym. Obiektywizm należy ograniczyć do konkretnej dziedziny wiedzy i konkretnego wycinka rzeczywistości w konkretnym czasie. Popper stawia nawet tezę, że za naukowe należy uznawać tylko te teorie, które można sfalsyfikować, lub choćby teoretycznie wskazać metodę ich obalenia. Co ciekawe, taki wymóg zdaje się być bliski poglądom Ludwika Flecka, ponieważ jego style myślenia są jak najściślej związane z określoną epoką i społeczeństwem. To zaś oznacza, że style myślenia zmieniają się wraz ze zmianą realiów kulturowo-historycznych, więc nie są obiektywne, niezmienne, ponadczasowe ani ponadkulturowe. Natomiast popperowskie obalenie starej koncepcji i wprowadzenie nowej odpowiada zmianie stylu myślenia u Flecka.
Jak widać, ani racjonalizm i empiryzm, ani konwencjonalizm nie gwarantują dotarcia do prawdy obiektywnej. Z drugiej zaś strony Ludwik Fleck uparcie dążył do prawdy, pokazując wartość samego wysiłku poznawczego i prawd cząstkowych zdobywanych w trakcie badań. Jego droga życiowa to praktyczna weryfikacja teorii, którą realizował jako lekarz stosujący sprawdzone środki i metody leczenia. Fleck wykazał w ten sposób, że praktyka jest najważniejsza, co nie dziwi w odniesieniu do człowieka, który otrzymał wykształcenie przyrodnicze. Przecież w codziennej pracy musiał posługiwać się empirycznymi danymi z dziedziny biologii, chemii i fizyki, chociaż doskonale rozumiał, jak bardzo są one dyskusyjne i nie zawsze potrafił wskazać stojące za nimi mechanizmy.
Bardzo podobnie myślał znany austriacki biolog Konrad Lorenz (1903-1989), który od lat 30tych XX w. rozwijał etologię. Lorenz uznał, że podstawowym, jeśli nie jedynym wiarygodnym, kryterium prawdziwości twierdzeń naukowych jest ich praktyczne zastosowanie, co odpowiada wartości przystosowawczej cech i zachowań organizmów żywych. Zatem prawda w ujęciu Lorenza to wiedza zapewniająca przede wszystkim zdolność do przetrwania i pozostawienia potomstwa. Poznanie ma pierwotnie wymiar adaptacyjny, a dopiero wtórnie może służyć zaspokajaniu czystej ciekawości7. Niestety, taka prawda z natury jest ograniczona tylko do konkretnych sytuacji. Innymi słowy nawet prawda weryfikowana praktycznie okazuje się względna, bo zależy od okoliczności, chwilowego stanu i lokalnych warunków, które prędzej czy później ulegną zmianie, a wraz z nią pojawi się nowa prawda cząstkowa.
To oznacza, że Ludwik Fleck miał rację, kiedy zrezygnował z osiągnięcia prawdy obiektywnej, a naukę traktował jako część kultury podlegającą podobnym prawom rozwoju historycznego jak na przykład sztuka. Obiektywizm nauki jest tylko idealizacją metod badawczych stosowanych w procesie rozwiązywania zagadnień szczegółowych i ich ekstrapolacją na poznanie całościowe.
L. Fleck, Zur Krise der „Wirklichkeit”, s. 425-430.
M. Heller, Filozofia i wszechświat. Wybór pism, Kraków, 2006.
L. Fleck, Nauka a środowisko, s. 149-156.
Idem, Zur Krise der Wirklichkeit, s. 425-430.
L. Fleck, O obserwacji naukowej i postrzeganiu w ogóle, s. 58-76.
K. R. Popper, Logika odkrycia naukowego, Warszawa 2002, tłum. U. Niklas.
K. Lorenz, Odwrotna strona zwierciadła. Próba historii naturalnej ludzkiego poznania, Warszawa 1977, tłum. K. Wolicki, s. 63-66.