Racjonalistyczny optymizm poznawczy Motto Wir müssen wissen, wir werden wissen. – David Hilbert Gödel's rationalistic optimism is an optimism about the power of human reason. – Hao Wang §1. Optymizm poznawczy a dynamika wiedzy §1.1. Optymizm poznawczy vs. pesymizm w kwestii stosunku filozofii do matematyki. — Kto jest optymistą w sprawie poznawalności świata, w szczególności świata matematyki, ten nie znajdzie lepszego dla swej postawy wyrazu, niż wzięta tu za motto maksyma Hilberta. Jej pierwsza część wyraża determinację w poszukiwaniu matematycznej prawdy, druga zaś pewność, że do prawdy dojdziemy.[1]Taka sama pewność cechuje Gödla, stąd połączenie ich poglądów w jedno motto. O zbieżności zaświadczył sam Gödel (1996: 186) w słowach: „[...] my result is [to be] taken together with the rationalistic attitude which Hilbert had and which was not refuted by my results.” Akcentuję ten fakt przez motto, bo dość często można się spotkać w literaturze z takim udramatyzowaniem wyników Gödla, że „zadały one cios” (itp.) postawie filozoficznej Hilberta. Gdy idzie o wyważoną w szczegółach analizę relacji Hilbert-Gödel, można polecić studium Anny Brożek (2004). Przeciwstawny do takiego optymizmu jest pesymizm poznawczy. To znaczy, sceptycyzm w różnych odmianach: relatywizm, irracjonalizm, multikulturalizm instrumentalizm itp. Pojawia się tu pewien kłopot pojęciowy, bo gdy „sceptycyzm” oznacza jeden z krańców w spektrum poglądów epistemologicznych, ten pesymistyczny, brak jest nazwy dla przeciwległego („dogmatyzm” np. to nie jest dobra kandydatura). Mamy natomiast opozycję optymizm-pesymizm, która po uzupełnieniu przydawką „poznawczy” lub „epistemologiczny” dobrze oddaje wchodzące w grę gamę. Nie jest to, trzeba przyznać, terminologia z podręcznikowego kanonu. Nie trudno jednak podać rozsądne dla niej racje. Jest taką racją, w szczególności, częste występowanie zwrotu „cognitive optimism”, niekiedy z przydawką „rationalistic”, u Kurta Gödla (1996) – klasyka współczesnej epistemologii. Obserwujemy też (co można sprawdzić np. przez Google) zadomowienie się zwrotu „optymizm poznawczy” we współczesnej polszczyźnie. Tematem tego eseju są związki między optymizmem poznawczym i dynamiką wiedzy, w szczególności wiedzy matematycznej, ale z perspektywą na inne dziedziny. Zwrot dynamika wiedzy raczej nie występuje w codziennym obiegu. Ale skoro ze zjawiskiem, którego zwrot ten dotyczy mamy wciąż do czynienia, pora go uczynić terminem technicznym metanauki; co też niniejszym proponuję. Współczesny optymizm poznawczy narodził się w XX wieku, a wziął się z dostrzeżenia kolosalnej dynamiki postępu naukowego – postępu, dla którego nie widać granic. Tym różni się on kontrastowo od optymizmu naszych filozoficznych przodków, reprezentowanych w obecnym eseju przez Kartezjusza i Leibniza (zob. §3). Byli oni przekonani, że w przewidywalnej przyszłości powstanie ostateczna i ścisła „teoria wszystkiego”, którą ochrzcili mianem „Mathesis Universalis”. Oznaczałoby to osiągnięcie granicy, na której się dynamika wiedzy zatrzyma, osiągnąwszy stan pełni, a więc statyczny. Pojęcie dynamiki wiedzy jest wysoce złożone, toteż poświęcam mu osobny podrozdział (§1.2). Tymczasem, intuicyjne jego rozumienie powinno wystarczyć do rozpatrzenia pewnego przypadku szczególnie pouczającego, który znajdziemy w cytowanym niżej artykule Mariana Przełęckiego. Jest ten przypadek lekcją optymizmu na dwa sposoby: (1) zaprzecza przygnębiającej konstatacji, że teorie naukowe w matematyce, fizyce etc. są pozbawione wartości poznawczej; (2) zaprzecza też smętnemu poglądowi, iżby nie istniał postęp poznawczy w filozofii, a nie istniał min. dlatego, że nie jest ona zdolna korzystać z osiągnięć innych działów wiedzy. W tym przypadku zysk filozoficzny polega na skutecznej obronie realizmu teoriopoznawczego, przyznającego nauce zdolność poznania prawdy o realnym świecie. Nauką zaś matematyczną, której filozofia ten sukces zawdzięcza jest semantyka logiczna; przysługuje jej miano dyscypliny matematycznej, gdyż jest częścią metamatematyki (obok teorii dowodu), a ta jest częścią logiki matematycznej (obok rachunków logicznych), stanowiącej dział matematyki. W semantyce logicznej kluczowe jest pojęcie prawdy. Jest mu poświęcony wspomniany artykuł Mariana Przełęckiego (1993). Dotyczy on pojęcia prawdy, a więc należy do semantyki logicznej. Czytamy w nim, co następuje (odcinek 8). „Wywodząca się od Tarskiego [1933] semantyczna definicja prawdy nie jest – wbrew temu, co się niekiedy twierdzi – filozoficznie neutralna. Stosowana do ogółu teorii naukowych zakłada określone stanowisko filozoficzne w sprawie poznawczej wartości nauki. Stwierdzenie, że danemu zdaniu przysługuje pojmowana zgodnie z tą definicją prawdziwość, oznacza, że zdanie to odnosi się do pewnej dziedziny rzeczywistości i że w tej dziedzinie jest tak, jak to zdanie głosi. Zakładając, że pojęcie prawdziwości tak rozumianej stosuje się do każdego twierdzenia naukowego i że każde takie twierdzenie jest bądź prawdziwe [...], bądź fałszywe, opowiadamy się w sporze o wartość poznawczą teorii naukowych za stanowiskiem realizmu, który teoriom naukowym taką wartość przyznaje, a przeciwko formalizmowi i instrumentalizmowi, które traktują teorie naukowe (pierwszy – matematyczne, drugi empiryczne) jako swoiste narzędzia pozbawione wartości poznawczej.” (Odcinek 8) Niejednoznaczny termin „formalizm” można tu zastąpić przez „nominalizm” dla odróżnienia od formalizmu Hilberta, który w intencji twórcy nie miał zastąpić prawdziwości przez dowodliwość; zakładał natomiast (z czego trzeba było zrezygnować po wynikach Gödla), że dowodliwość jest dla prawdziwości warunkiem koniecznym). O tym zaś, że Hilbert nie był instrumentalistą świadczy jego życiowa maksyma dotycząca wiedzy matematycznej: „musimy wiedzieć, będziemy wiedzieć”; przez wiedzę matematyczną rozumiał on coś, co dotyczy rzeczywistości, a nie coś, co jest jedynie narzędziem operowania na znakach. Skrajnym instrumentalistą był sztandarowy nominalista XX wieku Nelson Goodman (1967: 214).[2]Oto jego instrumentalistyczne credo w odniesieniu do matematyki. „[I] do not presume to restrict the scientist. The scientist may use platonic class constructions, complex numbers, divination by inspection of entrails, or any claptrappery that he thinks may help him get the results he wants. But what he produces then becomes raw material for the philosopher whose task is to make sense of all this: to clarify, simplify, explain, interpret in understandable terms.” Wyjaśniając dokładniej semantyczne pojęcie prawdy, Przełęcki przypomina (w odcinku 5) posługujący się tym pojęciem Gödlowski (1931) dowód niezupełności arytmetyki. Prowadzi on do wniosku, że formalna, czyli osiągalna algorytmicznie, dowodliwość formuły arytmetycznej, choć jest warunkiem wystarczającym prawdziwości, nie jest jej warunkiem koniecznym. Jest to decydujący argument przeciw pomysłowi, iż myślenie można zastąpić procedurą czysto algorytmiczną, który to pomysł, jak przypomina Andrzej Mostowski (1948: 373), pierwszy wysunął Leibniz; podjęli ją w wieku XX niektórzy filozofowie informatyki, zwłaszcza radykalni entuzjaści tzw. silnej sztucznej inteligencji. Skoro mamy dzięki Gödlowi argument, że dla wykazania pewnych prawd nie istnieje procedura dowodowa algorytmiczna, a jednak są one dla umysłu poznawalne, to trzeba się pogodzić z faktem, że istnieje coś takiego, jak intuicja intelektualna; to ona naprowadza nas na prawdy, do których nie prowadzi algorytm czyli rachunek. Nie musimy się trzymać tej akurat nazwy, bywały też w dziejach filozofii inne (np. u scholastyków „simplex apprehensio”), ale jakoś tę rzecz trzeba nazwać. Idąc za Hilbertem i Gödlem (zob. Wang 1996), a także Turingiem (zob. §1.3) i innymi, warto się trzymać terminu intuicja, czasem uszczegółowionego przydawką, jak w zwrocie „intuicja matematyczna”. Pojęcie intuicji jest niezbędne do tego, by ująć i opisać fakt dla dynamiki wiedzy kluczowy. Jest nim dodatnie sprzężenie zwrotne między intuicją i rachunkiem. Algorytm powstaje za sprawą intuicji matematycznej, a gdy go już mamy, umożliwia on rozwiązania, także te najwyższej wagi, które bezeń byłyby dla intuicji nieosiągalne. Daje to kolosalne przyspieszenie ewolucji wiedzy. Zajmiemy się tym zjawiskiem w kontekście stosunku między statyczną i dynamiczną koncepcją wiedzy (§1.2). §1.2. Dynamiczna vs. statyczna idea wiedzy w naukach empirycznych i w matematyce. — Termin „dynamika”, prócz tego, że jest nazwą dyscypliny fizycznej (sens naukoznawczy), oznacza też zespół zjawisk fizycznych będących przedmiotem tej dyscypliny (sens przedmiotowy). Oznacza także, w szerszym znaczeniu, zjawiska spoza fizyki, lecz względem nich analogiczne, zachodzące w umysłach i w społeczeństwach. W tym szerokim znaczeniu przedmiotowym używam słowa „dynamika” w obecnych rozważaniach, korzystając zarazem z owych płodnych analogii, których dostarcza dynamika ruchów ciał w przestrzeni fizycznej. Zasady dynamiki Newtona są postulatami, które definiują ruch jednostajny i ruch przyspieszony, a w konsekwencji takie rodzaje ruchu, jak opóźniony, jednostajnie przyspieszony, jednostajnie zmienny etc. Rozszerzywszy te określenia na wszelkie rodzaje procesów, także tych, które zachodzą nie w przestrzeni fizycznej, lecz w umyśle czy w społeczeństwie, otrzymujemy dogodny sposób opisu różnego rodzaju zjawisk dynamicznych. I tak, mówimy np. o przyspieszonym dojrzewaniu intelektualnym, spowolnieniu wzrostu gospodarczego, zmienności przyspieszeń postępu kulturowego w różnych fazach historii (gdy porównać np. fazy wojny i pokoju) itd. Dynamika może być dodatnia (jak przyspieszanie) lub ujemna (spowalnianie); gdy nie stosujemy takich przydawek, mamy zwykle na uwadze większą lub mniejszą dynamikę dodatnią. Gdy dynamika jakiegoś zjawiska jest ani dodatnia ani ujemna lecz zerowa, mówimy, że jest ono statyczne. Względnie statyczne było np. społeczeństwo rolniczo feudalne, a dynamiczne na sposób ruchu przyspieszającego – społeczeństwo komercyjne, powstałe w wyniku rozwoju miast, handlu, żeglugi etc. Statyczność absolutną znajdujemy w antycznej astronomii z jej wiarą w istnienie sfery gwiazd stałych, które w odróżnieniu od ciał z naszego układu, trwają w niezmiennej doskonałości. Tego typu ideał doskonałości przyświecał przez wieki nauce, aż po wiek XX. Nikt wprawdzie nie uważał, że nauka jest odwiecznie taka sama, dostrzegano pewną ewolucję, ale nieprzeparte było przekonanie, że każdy proces w ramach tej ewolucji zmierza do jakiegoś kresu, będącego stanem doskonałym, który już nastąpił lub nastąpi w przewidywalnej przyszłości. Za taki osiągnięty już ideał uchodziła aż po początki wieku XX fizyka Newtona; z okazji rocznic ku jego czci celebrowano ów niezwykły fakt, że oto jednemu umysłowi udało się stworzyć teorię wszechobejmującą i ostateczną. Bywało też, że profesor fizyki odradzał swemu uczniowi karierę fizyka, tłumacząc, że już niczego istotnie nowego, czym można by się wsławić, nie ma w niej do odkrycia. Świadectwem ówczesnego stanu świadomości fizyków jest wypowiedź Hermanna von Helmholtza (1821-1894), że „zadanie fizyki będzie spełnione, gdy zjawiska fizyczne zostaną całkowicie sprowadzone do prostych sił i gdy się poda dowód, że sprowadzenie to jest dla tych zjawisk jedynym możliwym.” Einstein i Infeld (1962: 59) komentują ten pogląd jako niemądry i naiwny z punktu widzenia fizyka XX wieku, a przy tym pesymistyczny, jako że zamyka perspektywę nie kończącej się przygody poznawczej. Tak oto statyczną koncepcję fizyki zastąpiła po przeszło dwóch tysiącleciach, licząc od Arystotelesa, wizja dynamiczna. Za sprawą względności i kwantów ukazał się oszałamiająco nowy, niewyobrażalny dla naszych przodków, obraz wszechświata, i nikt w tej chwili się nie waży uznać go za ostateczny. §1.3. Intuicja vs. algorytm. — Porównywalny do tamtego przewrót w epistemologii matematyki jest dla szerszego ogółu o wiele mniej zauważalny, ale nie mniej realny. Polega on na tym, że zbiór prawd matematycznych będących do odkrycia okazał się nieskończenie liczny, a więc dla umysłu ludzkiego niewyczerpalny. Ta wiadomość, którą niektórzy może by uznali za złą, jest w pełni rekompensowana przez dobrą, że intuicja matematyczna ma moc przezwyciężać aktualne ograniczenia i odkrywać prawdy nie dające się wcześniej dowieść formalnie (tj. algorytmicznie), ale stające się dowodliwymi algorytmicznie po dołączeniu nowych, uchwyconych przez intuicję zasad. Takie sprzężenie zwrotne intuicji z algorytmem wielce przyspiesza („speeds up”) postęp matematyki, i to jest ta dynamika, o której o której mówi tytuł obecnego eseju. Żeby rzecz ukonkretnić jakimś obrazem, posłużymy się metaforą romantycznego poety adresowaną do młodości „ty nad poziomy wylatuj”, adresując ją jednak inaczej – do brawurowego rozumu matematycznego. Do lotu konieczne są dwa skrzydła. Dla matematycznego rozumu jednym jest algorytmizacja czyli mechanizacja procedur poznawczych, a drugim twórcza intuicja. Z niej się rodzą aksjomaty matematyki i reguły logiki, a z aksjomatów i reguł – znowu algorytmy. Rozważmy jako ilustrację przypadek, z którym się spotykamy już u progu naszej edukacji – algorytmy czterech działań arytmetycznych. Umożliwia je zapis pozycyjny: dziesiętny, dwójkowy czy jeszcze inny. Bez takich algorytmów nie mogłoby dojść do powstania tak potężnej jaką dziś mamy matematyki, ani jej zastosowań w inżynierii, finansach etc. Nie byłoby też komputerów, jako że pracują w kodzie binarnym, a więc w zapisie pozycyjnym. Żeby mógł powstać ten gmach algorytmów, ktoś musiał stworzyć dlań fundament, doznając „objawienia”, że liczbę jeden poprzedza liczba zero. Tej intuicji zabrakło twórcom i użytkownikom notacji rzymskiej w świecie antycznym. Wpadli na to dopiero Hindusi, a od ósmego wieku, gdy trasą kupiecką wieść o zerze dotarła z Indii do akademii nauk w Bagdadzie, wzięli ją na warsztat Arabowie, w tym przesławny Al-Chwarizmi. Od jego imienia średniowieczni scholastycy ukuli nazwę „algorytm” i nią ochrzcili procedury określane dziś przez dzieci jako liczenie „w słupkach”. Autora notacji pozycyjnej musiał nawiedzić błysk intuicji, dzięki któremu w plejadzie liczb dostrzegł obiekt dotąd nie zauważony – zero. Następnie, trzeba było niemałej inwencji, żeby wykorzystać to odkrycie jako podstawę kodu cyfrowego do zapisu algorytmów. Oto jak widział intuicję i pomysłowość w pracy matematyka Alan Turing (1939/1997: 34). „Rozumowanie matematyczne można uznać w uproszczeniu za połączenie dwóch zdolności, które możemy nazwać intuicją i pomysłowością. Działanie intuicji polega na wydawaniu spontanicznych sądów, które nie są rezultatem świadomych toków rozumowania. Sądy te są często, ale bynajmniej nie zawsze, słuszne. [...] Wskutek niemożności znalezienia logiki formalnej [a więc dostarczającej algorytmów wnioskowania – WM], która eliminowałaby całkowicie konieczność używania intuicji, w sposób naturalny zwracamy się ku systemom logiki, w wypadku których nie wszystkie kroki w dowodzeniu są mechaniczne [tj. algorytmiczne - WM], niektóre bowiem są intuicyjne.” Wprowadziwszy do akcji parę algorytm-intuicja, wpisujemy ją jako kolejną na listę służących do dalszego namysłu pojęć kluczowych. Mamy już na niej, rozważane wcześniej, dwie kontrastowe pary: optymizm i pesymizm poznawczy oraz dynamiczna i statyczna koncepcja wiedzy. W tych sześciu kategoriach prowadzić się tu będzie dociekania, rozważając stosunki między członami jednych par do członów innych par. Jak ma się do dynamiki wiedzy intuicja, a jak algorytm? I jaki rodzaj dynamiki bardziej upoważnia do optymizmu? Tok tych rozważań można przedstawić w analogii do tak oto zbudowanej noweli. Obecny odcinek opisuje scenę akcji. Następny mógłby opowiadać o jej historycznym początku, który sięga racjonalistycznego projektu reformy wiedzy z XVII wieku. Nie zawsze jednak jest konieczne, żeby początek ciągu zdarzeń umieszczać na początku opowiadania. W odcinku, który następuje po tym wstępnym przechodzimy od razu do momentu napięcia czyli suspensu.[3]Ten termin ze słownictwa teorio-literackiego jest adaptacją angielskiego „suspense”, definiowanego następująco. „excitement and anticipation regarding an outcome, such as the ending of a mystery novel.” Pojawia się ten suspens w zagadce rozstrzygalności logiki, którą sformułował Hilbert (1928). Żeby docenić przełomowość odpowiedzi, którą dał Gödel, trzeba dostrzec, że kończy ona spór, którego protagonistami byli Kartezjusz i Leibniz. Z tego względu Gödlowskie rozwiązanie zagadki dobrze jest poprzedzić opowieścią o sporze między Kartezjusza intuicjonistycznym projektem reformy wiedzy i Leibniza projektem algorytmicznym. Niepokonalna, jak się wydawało, między nimi przeciwstawność została przezwyciężona w zaskakującej syntezie Gödla. Przejdźmy zatem do Hilbertowskiego suspensu (§2), potem do jego historycznego tła (§3), żeby idąc tym tropem dotrzeć do myśli Gödla (§4). §2. Optymizm poznawczy Programu Hilberta §2.1. Program Hilberta. W ewolucji myślowej Davida Hilberta, gdy idzie o jego optymizm poznawczy, trzeba wyróżnić trzy daty. W roku 1900 pojawił się pierwszy zalążek tego, co nazwano Programem Hilberta; otrzymał on pełniejsze ujęcie około roku 1920. Hilbert i Ackermann (1928) postulują skonstruowanie algorytmu, który rozstrzygałby o dowodliwości formuł logiki predykatów. Jest to okoliczność, która nadała Programowi znamię statyczności, miała to być bowiem procedura ustalona raz na zawsze, służąca do zapewnienia matematyce niesprzeczności i zupełności. Rok 1931 to znacząca dla losów Programu data wyniku Gödla stwierdzającego nierozstrzygalność arytmetyki liczb naturalnych w języku logiki pierwszego rzędu. Nie zmuszało to Hilberta do całkowitego rozstania się z jego Programem (jak dramatyzują niektórzy autorzy), czyli z wiarą w poznawczą osiągalność każdej prawdy matematycznej. Wymuszało to jednak poważne przeformułowania, wiąże się więc z tą datą kolejna faza ewolucji Hilberta. Początek Programu Hilberta łączy się z Międzynarodowym Kongresem Matematyków w Paryżu w sierpniu 1900 roku. Hilbert nakreślił wtedy przed światową społecznością matematyków najważniejsze cele na wiek XX, a wśród nich zadanie wykazania niesprzeczności arytmetyki; byłoby to definitywnym ugruntowaniem pewności oczekiwanej od nauk matematycznych. Stąd, w jego odczycie znalazły się te słynne słowa. „Przekonanie o rozwiązywalności każdego matematycznego problemu jest potężną zachętą dla wszystkich badaczy. Słyszymy wewnętrzny głos, który powtarza: Oto problem. Znajdź rozwiązanie. Można je znaleźć na drodze czysto rozumowej, gdyż w matematyce nie ma żadnego ignorabimus”. – Cyt. za Coveney i Highfield (1997: 49). Widać z tego manifestu, jak zasadne jest nazwanie jego postawy optymizmem („żadnego ignorabimus”) o charakterze racjonalistycznym; to drugie zawiera się w słowach „rozwiązanie na drodze na drodze czysto rozumowej”. Jak ten zwrot rozumieć? Odpowiedź zawiera się głównych postulatach Programu Hilberta z lat dwudziestych XX wieku. Oto ich streszczenie. 1. Należy sformalizować wszystkie teorie matematyki, czyli zapisać ich formuły w precyzyjnym języku formalnym. To znaczy takim, że logiczne reguły wnioskowania (z logiki predykatów) dotyczą manipulowania symbolami w sposob czysto mechaniczny, tj. z uwzględnieniem jedynie ich formy fizycznej i położenia, bez odwoływania się do treści. 2. Teoria ma być zupełna w tym sensie, że jej formalizm umożliwia udowodnienie każdego prawdziwego w niej zdania przez wyprowadzenie go z aksjomatów drogą owej machanicznej manipulacji. 3. Teoria ma być niesprzeczna, co znaczy, że wyżej opisany formalizm nie prowadzi do udowodnienia w niej zdań między sobą sprzecznych. Dowód niesprzeczności powinien być finitystyczny; to znaczy, że obiekty, których on dotyczy mają być konstruowane jedynie z liczb naturalnych w skończonej ilości kroków. Takie obiekty zostały nazwane w Programie realnymi. 4. Każdy dowód dotyczący przedmiotów, które nie są w w/w sensie realne lecz (w terminologii Programu) są idealne, jak np. zbiory nieskończone nieprzeliczalne, powinien dać się zastąpić dowodem dotyczącym wyłącznie obiektów realnych. 5. Teoria powinna być algorytmicznie rozstrzygalna, to znaczy, powinien istnieć algorytm zdolny rozstrzygać o każdym zdaniu matematycznym, czy jest ono prawdą czy fałszem. Nazwijmy taką procedurę algorytmem decyzyjnym. Każdy z tych postulatów zawiera jakąś myśl optymistyczną. Pierwszy wyraża wiarę w możliwość powszechnej formalizacji jako warunku algorytmicznej rozstrzygalności. Formalizacja zaś, gdy zostanie dopełniona algorytmem, nadaje twierdzeniom wielce pożądaną cechę intersubiektywności czyli uniezależnienia od indywidualnych subiektywnych intuicji. Ponieważ reguły dowodzenia odwołują się jedynie do fizycznych własności symboli, percepcja tych symboli jest tak samo intersubiektywna i niezawodna, jak percepcja kształtów, barw, dźwięków etc. Postulat drugi i trzeci są niezwykle optymistyczne: drugi przypisuje matematyce wszechwiedzę (we właściwej jej dziedzinie), a trzeci nieomylność, windują więc one matematykę na poziom jakby umysłu absolutnego. Postulat czwarty ma zagwarantować pewność przez odwołanie się do najbardziej niezawodnych oraz intersubiektywnych intuicji, a takimi są te, które dotyczą konstrukcji na liczbach naturalnych, jak dodawanie czy mnożenie. Dzięki jego spełnieniu ta bezpieczna pewność jest dziedziczona przez argumentacje dotyczące przedmiotów idealnych; choć one same nie są intuicyjne, dotyczące ich twierdzenia nabierają pewności dzięki pomostowi, który wiedzie do nich z poziomu intuicyjnego. Postulat piąty zasługuje na osobny odcinek. §2.2. Postawienie problemu rozstrzygalności logiki. Oczekiwanie, że dzięki postępom badań zostanie spełniony postulat piąty jest szczególnie optymistyczne. Nadzieja na rozstrzygalność całej logiki została rozbudzona przez fakt, że u progu lat 20-tych powstały algorytmy zapewniające rozstrzygalność logice zdań. Gdyby wszystkie formuły arytmetyki były wyrażalne w rachunku zdań, problem jej rozstrzygalności byłby rozwiązany. Ale tak nie jest. Twierdzenia o liczbach z reguły wymagają zapisu w języku rachunku predykatów. Zarazem, jest on do tego celu wystarczający, toteż jeśli udałoby się dla logiki predykatów znaleźć algorytm decyzyjny, to projekt Hilberta postulujący rozstrzygalność problemu prawdziwości, a zarazem dowodliwości, w odniesieniu do całej matematyki odniósłby pełny sukces. Ze względu na wagę tego problemu podaję jego sformułowanie w brzmieniu oryginalnym, a następnie mój przekład (ad hoc, tj. na potrzeby obecnych rozważań; podkreślenie kursywą naśladuje tekst oryginału). Die Entscheidungsproblem ist gelöst, wenn man ein Verfahren kennt das bei einen vorgelegten logischen Ausdruck durch endlich viele Operationen die Entscheidung über die Allgemeinheit bzw. Erfüllbarkeit erlaubt. Die Lösung des Entscheidungsproblems ist für die Theorie aller Gebiete, deren Sätze überhaupt einer logischen Entwickelbarkeit aus endlich viele Axiomen fähig sind, von grundsätzlicher Wichtigkeit. [...] [...] Mit der Lösung der Entscheidungsproblems ein Verfahren gegeben wäre, durch das jene Unbeweisbarkeit sich wenigstens grundsätzlich feststellen lassen müßte, wenn auch vielleicht die Umständlichkeit des Verfahrens die praktische Durchführung illusorisch machen könnte. (rozdz.3, §11, s.73n) Autorzy „Grundzüge” dodają, że taki algorytm decyzyjny dotąd nie został znaleziony, wyrażają jednak nadzieję, że to nastąpi, podobnie jak to się stało z algorytmem dla logiki zdań. Termin „Verfahren” (dosłownie: postępowanie, procedura) oddaję przez „algorytm”. Upoważnia do tego identyczność definicji terminów „algorytm” oraz takich, jak „procedura czysto formalna”, „postępowanie mechaniczne” itp. Stosujący tego rodzaju procedury system formalny jest to taki, w którym reguły wnioskowania odnoszą się nie do treści wyrażeń lecz ich fizycznej postaci; dokładnie tak, jak instrukcje składające się na algorytm. W poniższym przekładzie dodaję numerację z prefiksem HA (Hilbert i Ackermann) dla ułatwienia odwołań. HA-1: Problem rozstrzygalności wtedy jest rozwiązany, gdy ma się do dyspozycji algorytm, który pozwala w skończenie wielu krokach o dowolnej formule logicznej rozstrzygnąć o jej tautologiczności lub jej spełnialności. HA-2: Rozwiązanie problemu rozstrzygalności ma zasadniczą doniosłość dla wszelkich teorii, których twierdzenia są wyprowadzalne logicznie ze skończenie wielu aksjomatów. [...] HA-3: [...] Wraz z rozwiązaniem problemu rozstrzygalności, dostalibyśmy procedurę algorytmiczną, dzięki której można by stwierdzać dowodliwość lub niedowodliwość formuł – przynajmniej w zasadzie, tj. abstrahując od tego, że z racji trudności procedury jej wykonanie mogłoby być w jakichś przypadkach nieosiągalne praktycznie. Algorytm decyzyjny rozstrzygający o formule logicznej, że jest prawdziwa lub nie (w myśl HA-1), służyłby zarazem do stwierdzania, czy w danym systemie aksjomatycznym (por. HA-2) dana formuła jest czy nie jest dowodliwa (HA-3). Niech D oznacza nasz algorytm decyzyjny, A – zbiór akjomatów arytmetyki, zaś F – jakąś formułę arytmetyczną. A i S są zapisane w języku logiki pierwszego rzędu. Zastosujmy D do rozstrzygnięcia, czy F jest prawdą arytmetyczną. Algorytm decyzyjny dla logiki powie nam, czy implikacja A=>F jest tautologią. Jeśli stwierdzi tautologiczność, to przy założeniu prawdziwości A, formuła F okaże się być prawdą, bo prawdziwa implikacja z prawdziwym poprzednikiem nie może mieć fałszywego następnika. §2.3. Czego oczekiwano po rozstrzygalności logiki. — Algorytm decyzyjny jest min. narzędziem w badaniu niesprzeczności układu aksjomatów. Zbiór formuł jest niesprzeczny wtedy i tylko wtedy, gdy jest spełnialny, zaś algorytm decyzyjny rozpoznaje prócz tautologiczności także spełnialność (por. HA-1). Jeśli stwierdza on o jakiejś teorii, że przy pewnej interpretacji wszystkie formuły tej teorii są prawdziwe, to wykazuje tym samym jej niesprzeczność. A zatem, jeśliby istniał algorytm decyzyjny dla logiki predykatów pierwszego rzędu, to informowałby on o dowolnym zbiorze formuł zapisanych w języku tej logiki, czy jest spełnialny; będąc spełnialnym byłby tym samym niesprzeczny. Wielki cel nakreślony przez Hilberta w roku 1900, udowodnić niesprzeczność arytmetyki, urzeczywistniłby się wtedy, gdyby logika predykatów okazała się rozstrzygalna dzięki posiadaniu algorytmu decyzyjnego. Test na niesprzeczność arytmetyki można by wykonać w ten sposób, że algorytmem decyzyjnym badamy formułę A=>S, gdzie A jest koniunkcją aksjomatów w sformalizowanym systemie arytmetyki, zaś S jest zdaniem arytmetyki, które jest z całą pewnością fałszywe, np. 1=0. Jeśliby ta implikacja okazała się tautologiczna, byłoby to świadectwem sprzeczności w obrębie aksjomatów składających się na A. Tautologiczność bowiem naszej implikacji świadczyłaby o dowodliwości S na podstawie A, zaś zdanie fałszywe jest dowodliwe tylko przy takim układzie przesłanek, który jest wewnętrznie sprzeczny czyli niespełnialny. Jeśli zaś nie ma dowodliwości S z A, to A jest układem zdań przy jakiejś interpretacji spełnialnym, a więc niesprzecznym. Optymizm poznawczy Hilberta polegał na oczekiwaniu, któremu dał wyraz w książce z roku 1928, że zostanie znaleziony uniwersalny algorytm decyzyjny dla logiki predykatów. Okazało się ono daremne w świetle wyników, które w roku 1936 uzyskali, niezależnie i w tym samym roku, Turing (1936), Church i Post. Czy wobec tego Hilbert powinien był wyrzec się swej optymistycznej maksymy „musimy wiedzieć, będziemy wiedzieć”? W toku kształtowania się Programu Hilberta „wiedzieć” oznaczało poznanie, którego pewność gwarantują procedury algorytmiczne. Natomiast po wynikach uzyskanych w latach 1931 (brak algorytmicznej rozstrzygalności arytmetyki) oraz 1936 (brak algorytmicznej rozstrzygalności logiki) stało się wiadome, że nie ma takich algorytmicznych gwarancji wiedzy. Jak mogły wpłynąć te fakty na interpretację owej optymistycznej wiary w potencjał umysłu żywionej przez Hilberta do końca życia (a nawet zapisanej na jego kamieniu nagrobnym)? W poszukiwaniu odpowiedzi, spróbujmy dookreślić pojęcie optymizmu poznawczego, sięgnąwszy do tak typowej jego reprezentacji, jakim był racjonalizm XVII wieku. §3. Optymizm poznawczy klasyków racjonalizmu §3.1. Dwie idee dedukcji i trzy skale optymizmu. Klasyczny racjonalizm XVII wieku w apekcie metodologicznym wyraża się w haśle more geometrico. Oznacza ono projekt budowania wiedzy metodą („more”) dedukcyjną wedle jedynego znanego wówczas jej wzorca – Elementów geometrii Euklidesa; stąd „geometrico”. Obiecywano sobie po tej metodzie, że zapewni nauce taką bezpieczną pewność, jaką cieszą się Elementy. Stąd min. próba Spinozy ujęta w tytule „Ethica more geometrico demonstrata”. Mamy więc jednomyślny aplauz obozu racjonalistów dla metody dedukcyjnej jako uniwersalnego gwaranta pewności wiedzy, ale co do sposobu uprawiania dedukcji obserwujemy w tym obozie dwa bardzo różniące się wzajem nurty. Jeden, intuicjonistyczny, ma za twórcę Rene Descartesa (Kartezjusza); drugi, algorytmiczny – Gottrieda Wilhelma Leibniza. Dotyczą one reguł argumentacji o charakterze dedukcyjnym. Różnice między tymi nurtami przebiegają w trzech wymiarach czyli aspektach; oznaczmy je kolejnymi literami. A. Wymiar merytoryczny: zasięg tematyczny argumentacji. B. Wymiar metodologiczny: bezpieczeństwa argumentacji czyli pewność rozwiązań. C. Wymiar prakseologiczny: ekonomia argumentacji, np. ilość czasu niezbędnego dla rozwiązywania problemów. Każdy badacz zajmuje pewien punkt w trójwymiarowym jakby układzie współrzędnych, zależnie od tego: — A) jak wiele rodzajów problemów uważa za rozwiązywalne drogą argumentacji. — B) jak wysoko ceni wiarogodność i niezawodność, a więc bezpieczeństwo stosowanych w niej metod; — C) jak ocenia łatwość osiągnięcia konkluzji; chodzi tu o nakłady czasu, energii i innych zasobów. Jeśli jest maksymalistą w punktach A, B i C, to jest maksymalnym optymistą epistemologicznym. Mamy tu zarazem możliwość stopniowania. Wymienione aspekty są stosunkowo niezależne, można więc być większym optymistą pod jednym względem, a mniejszym pod jakimś innym. Ktoś np. uważa, iż potencjalne granice wiedzy sięgają po najdalszy horyzont poznawczy pod każdym względem. Liczy np. na unifikację fizyki, sukcesy kosmologii, genetyki, sztucznej inteligencji, a także na rozwiązania odwiecznych problemów metafizycznych, na znaczące postępy nauk społecznych itd. Nie musi jednak ów maksymalizm merytoryczny iść w parze z metodologicznym. Może ten ktoś uważać, że choć wiedza ogarnia swymi rozwiązaniami obszar bardzo rozległy, metody w niej stosowane nie dają gwarancji niezawodności i pewności. Co się jednak tyczy dwóch koryfeuszy klasycznego racjonalizmu, ich optymizm poznawczy rozciąga się w stopniu maksymalnym na wszystkie wymiary. W pierwszej kolejności zajmiemy się Kartezjuszem. §3.2. Intuicja i dedukcja w metodologii Kartezjańskiej. Kartezjusz był przekonany, że jego metoda dochodzenia do prawdy i jej wyjściowy pewnik, jakim jest „Cogito”, pozwolą rozwiązać każdy problem filozoficzny, nawet gdy należy do tak odwiecznie kontrowersyjnych, jak istnienie Boga. W „Regulae ad directionem ingenii”, merytoryczny optymizm poznawczy głosi Prawidło pierwsze w powiedzeniu, że intuicja i dedukcja pozwalają umysłowi, żeby wydawał o tym wszystkim, z czym mamy do czynienia, sądy niezachwiane i prawdziwe.[4]Polski przekład L.Chmaja, 1937, pt. „Prawidła do kierowania umysłem”. Na każdym kroku mamy do czynienia ze zjawiskami przyrody, toteż zwrot Kartezjusza „wszystko, z czym mamy do czynienia” skłaniałby do przypisania mu poglądu, że także teorie przyrodnicze, gdy je uprawiać za pomocą intuicji i dedukcji, będą zawierać jedynie sądy prawdziwe i niezachwiane. Nie należy jednak ograniczać myśli kartezjańskiej do tego, co znajdujemy w „Prawidłach” i podobnej treści wywodach; nie była to bowiem myśl monolityczna. Kartezjusz jako autor rozpraw przyrodniczych, a także traktatu „Zasady Filozofii” ma na uwadze inny program uprawiania wiedzy niż w „Prawidłach”, „Medytacjach” czy „Rozprawie o Metodzie”. Nie próbuje uzasadniać np. praw mechaniki wychodząc od Cogito. Godzi się z tym, że teorie przyrodnicze opierają się na eksperymentach i mają charakter jedynie hipotetyczny. W gruncie więc rzeczy, nie trzymał się Kartezjusz uparcie jakiegoś metodologicznego monizmu; miał pewne wychylenie w stronę pluralizmu, inne metody w swej teorii zalecając matematyce i na jej wzór filozofii, a inne praktykując de facto w dociekaniach przyrodniczych. O ile te drugie trzeba dyspensować od wymogu definitywnej pewności, o tyle mamy tu do czynienia z pewnym ograniczeniem kartezjańskiego optymizmu w epistemologii. Jest to okoliczność, którą należy odnotować, chroniąc się w ten sposób przed uproszczeniami. Tym jednak, co nas w obecnych rozważaniach interesuje przede wszystkim, to ów wątek bez ograniczeń optymistyczny. Stanowi on jak gdyby typ idealny dobrze się nadający na porównawczy punkt odniesienia. Żeby uchwycić należycie treść kluczowych w nim pojęć, intuicji i dedukcji, trzeba przywołać ówczesny wzorzec uprawiania matematyki, tak admirowany, że zalecano go wszelkim naukom pod hasłem „more geometrico”, mianowicie wzorzec Euklidesa (por. §3.1). Na tym wzorcu się uczono, że intuicja daje przekonanie o prawdziwości aksjomatów, a dedukcja prowadzi do przekonania o prawdziwości twierdzeń pochodnych. Jeśli jednak wniknąć głębiej w myśl Kartezjusza, ta równowaga się przełamuje na korzyść intuicji. Dedukcja bowiem w jego ujęciu nie polega na stosowaniu ujętych w słowa reguł logiki, jak to się przyjęło w tradycji scholastycznej (atakowanej przez Kartezjusza za jałowy formalizm); jest ona intuicyjnym dostrzeganiem oczywistości związku między przesłankami i wnioskiem, a więc to do niej, ostatecznie, sprowadza się dedukcja. Jeśli się sądzi, jak Kartezjusz, że intuicja jest sposobem poznania niezawodnym i że jest dostępna w zasadzie wszystkim ludziom, to jest się, rzecz jasna, zdeklarowanym optymistą epistemologicznym. Nie mniejszy niż w kwestii metodologii jest u Kartezjusza optymizm poznawczy w wymiarze prakseologicznym. Gdy idzie o typ poznania opisywany w „Rozprawie” i „Prawidłach”, to jest, intuicyjno-dedukcyjny, dojście do ważnych filozoficznie prawd nie wymaga więcej czasu czy innych zasobów aniżeli ich trzeba na przeczytanie „Prawideł”; lub też wysłuchanie dialogu o podobnej treści, jakim jest utwór „Poszukiwanie prawdy przez światło naturalne”. Wystarczy do tego dzień czy parę, o ile tylko nie ma się umysłu zdeformowanego przez wadliwą edukację. ====§3.3. Leibnizjański projekt algorytmizacji wiedzy. — W tejże epoce narodził się projekt Leibniza, nie mniej optymistyczny co do meritum, ale bardzo odmienny metodologicznie. Leibniz żywił respekt dla geometrii Euklidesa z powodu jej zwartej struktury logicznej i siły argumentacji, ale nie uważał jej za dzieło całkowicie wykończone pod względem metody dowodu. Miał na uwadze jeszcze inne środki dowodowe: rachunek arytmetyczny, początkującą wtedy algebrę, oraz sylogistykę pojmowaną przezeń formalistycznie, w duchu późnośredniowiecznego nominalizmu. Powziął więc myśl o ujęciu sylogistyki w postaci rachunku algebraicznego, a więc algorytmicznie; w innych szkicach projektował arytmetyzację logiki.. Nie wyszedł poza wstępne próby, ale trafnie przeczuwał kierunki rozwoju, skoro w półtora wieku później doszło do algebraizacji logiki (Boole i inni), a po upływie jeszcze wieku do jej arytmetyzacji (Gödel). Wizję algorytmizacji wiedzy kreślił Leibniz w sugestywnych metaforach. Są to jakby krótkie scenariusze kończące się happy end'em – rozwiązaniem problemu dzięki zastosowaniu algorytmu, określanego też słowami: rachunek, automat, maszyna. Jest takich obrazków co najmmiej trzy. Scenariusz labiryntu. Na jego tytuł nadaje się każda z dwu metafor Leibniza mających obrazować istotę algorytmu: filum cogitationis (nić myślenia) i caeca cogitatio (myślenie na ślepo). Tezeusz po likwidacji potwora zamieszkującego głębiny labiryntu, zginąłby z wycieńczenia nie mogąc się zeń wyplątać, gdyby nie zbawcza nić Ariadny. Jej koniec uwiązany u wylotu labiryntu prowadził go pewnie przez zdradliwe zakamarki budowli. Tak jak prowadziła go zbawcza nić, tak algorytm prowadzi myśl poszukującą rozwiązania problemu. Wtedy nie przeszkadza nawet ignorancja, symbolizowana przez ciemność; można niezawodnie posuwać się za nicią na ślepo. Toteż w pochwale algorytmu Leibiz posunął się szczególnie daleko gdy mówił, że zrównuje on możliwości mądrych i najgłupszych (stultissimi); ci drudzy z równą łatwością mogą mechanicznie wykonywać te same rachunki. Scenariusz robota. Słowo „robot” nie było jeszcze wynalezione, Leibniz używał terminu „machina”, obejmując nim maszyny do myślenia, czyli do rozwiązywania problemów. Kreślił obraz maszyny, która na wejściu dostaje problem sformułowany w tak precyzyjnym języku, jakiego wymaga zapis algorytmu, a na wyjściu pojawia się wydruk prawdy (veritas machinae ope impressa) stanowiącej oczekiwaną odpowiedź, Scenariusz rachmistrzów. Mając algorytmy rozumowań prowadzące do rozwiązywania problemów, uczeni będą w sytuacji nie trudniejszej niż księgowi będący specjalistami od rachowania. Gdy powstanie spór między uczonymi, miast słownie się spierać, wezmą do ręki pióra jak rachmistrze i zawołają Calculemus!. Nawet spory teologiczne spodziewał się Leibniz uczynić rozstrzygalnymi algorytmicznie, co jest już miarą największego poznawczego optymizmu. Widoczna jest z tych scenariuszy potrzeba języka tak uniwersalnego, żeby dała się w nim się w nim wyrazić całość wiedzy, i tak precyzyjnego, żeby mógł na nim operować rachunek logiczny – Calculus Ratiocinator – nadający się do interpretowania przez maszynę. Leibniz nazwał taki język Characteristica Universalis („characteres” oznacza tu symbole) i wierzył, że jest to projekt wykonalny w realnie osiągalnym czasie. Musiałby wyrzec się tej niezwykle optymistycznej wiary, gdyby wehikuł czasu przeniósł go w przyszłość po roku 1931, w którym Gödel wykazał niemożność stworzenia takiego algorytmu w skończonym czasie. Wynik Gödla dotyczył tylko ograniczeń matematyki. Ani Gödel ani Hilbert nie mieli na uwadze jakiegoś uniwersalnego języka wszech nauk, a co się okazuje niewykonalne w matematyce, tym bardziej musi być niewykonalne dla nauk mniej ścisłych. W świetle dzisiejszej wiedzy tak wielki optymizm poznawczy, tak co do uniwersalności, jak i w sprawie algorytmizacji jawi się jako postawa wręcz irracjonalna, ale ocenę racjonalności trzeba relatywizować do stanu wiedzy osiągalnego w danej epoce. Optymizm wieku XVII był wpisany w konstrukcję historiozoficzną, która w dzisiejszym odczuciu graniczy z mitologią, ale była traktowana na serio przez elity intelektualne średniowiecza i Renesansu, aż po wiek Oświecenia, kiedy tamta konstrukcja poczęła się chwiać pod naporem rosnącej wiedzy historycznej. Skąd się brała owa konstrukcja historiozoficzna? Upadek w V wieku zachodniego imperium rzymskiego w wyniku naporu barbarzyńców był katastrofą nie tylko polityczną, ale i kulturową. W zawierusze wojen, pożarów i rabunków zatraciła się ogromna część dorobku uczoności antycznej. Gdy go stopniowo rekonstruowano z odzyskiwanych odłamków, wyłonił się obraz tak imponujący, że wydał się on niemal ostatecznym osiągnięciem myśli. Zadanie uczonych widziano przede wszystkim w odtwarzaniu wiedzy starożytnej, jej dopełnianiu w szczegółach oraz systematyzowaniu i udostępnianiu. Rewolucyjna nowość myśli Newtona, przecząca poglądowi, że ostateczny obraz świata stworzyli starożytni, była asymilowana powoli i dotarła do świadomości szerszego ogółu dopiero wiek później. I wtedy uznano mechanikę Newtona za ostatnie słowo nauki, pozostając nadal w statycznej koncepcji wiedzy, tyle że skorygowanej przez inne proporcje względem antyku. Co się tyczy projektu idealnie precyzyjnego i zarazem uniwersalnego języka nauki, tradycja grecka i hellenistyczna nie miała wiele do przekazania, ale i tu – żeby pozostać w powszechnym paradygmacie – doszukiwano się starożytnych wzorców, tym razem sięgając do Biblii. Motywowano ten projekt przekonaniem, że owe jasne pojęcia podstawowe istniały u samych początków ludzkości (stąd nazwa „Lingua Adamica”), ale się z czasem zatraciły. Wymagają więc odtworzenia, a przy tym dopracowania na potrzeby nowych czasów. Gdy to się dokona, ludzkość już na zawsze mieć będzie do dyspozycji język doskonały i uniwersalny. Przywołuję tę garść historycznych szczegółów, by dać dokładniejsze pojęcie o naturze ówczesnego optymizmu poznawczego. Pozwoli to oszacować dystans, jaki od tamtego czasu przebyliśmy w stronę optymizmu naszej epoki, który dostrzega wartość w dynamice poznania, a w nie w jego dotarciu do jakiegoś punktu ostatecznego. §4. Nieograniczony w swej dynamice, ale
krytyczny, §4.1. Dynamika przybliżania stanu wiedzy do matematyki obiektywnej. — Pytając o poglądy filozoficzne Gödla, sięgamy przede wszystkim do tej części spuścizny, która nie była publikowana za jego życia. Składają się na nią teksty wygłoszone ustnie lecz nie ogłoszone drukiem, także teksty przygotowywane do druku, lecz po namyśle wstrzymane, wreszcie luźne zapiski, bądź do szuflady, bądź jako notatki z dyskusji z Gödlem czynione przez jego rozmówców. Ten fakt biograficzny ma też wymowę filozoficzną. Brał się on z przekonania Gödla, że epistemologia i metafizyka mogą i powinny osiągnąć poziom ścisłości równy matematyce. Wymaga to jednak wiele wiele jeszcze pracy. Publikacja zaś w formie nie dość precyzyjnej – tak sądził – rodziłaby mylne wrażenie, że filozofii w sposób ścisły uprawiać się nie da, narażając ją w ten sposób na na niezasłużoną dezaprobatę. Przejawiał się w tym, podobnie jak u Leibniza, niebywały optymizm poznawczy w wymiarze zarówno merytorycznym jaki metodologicznym. Z tą jednak różnicą, że wizja Leibniza była statyczna, Gödla natomiast dynamiczna, wynikająca z przekonania o niewyczerpalności świata matematyki. To znaczy, niewyczerpalności matematyki obiektywnej, zawierającej cały nieskończony zbiór prawd matematycznych. Nie dorównuje jej żaden aktualny stan wiedzy matematycznej czyli matematyki subiektywnej, ale w miarę postępu badań umysł zagarnia coraz to nowe obszary obiektywnego świata matematyki. Skoro według Gödla postęp filozofii miałby się wzorować na ewolucji matematyki, musiałaby go cechować podobna dynamika zmierzania ku nieskończoności poprzez kolejne maksymalnie precyzyjne i coraz bogatsze stany wiedzy. Gödel był świadom tak optymistycznego wydźwięku swych poglądów. W zapiskach jego rozmów z Hao Wangiem pojawia się około trzydziestu razy zwrot „rationalistic optimism”, czasem uzupełniony przydawką „cognitive” lub „epistemic”. Oto przykładowo jedna z wypowiedzi Gödla (1996) w tej materii. (Dla ułatwienia odniesień, cytaty w §4 odróżniam kolejnymi kapitalikami). [A] „Rationalistic optimism includes the expectation that we can solve interesting problems in all areas of mathematics.” (s.207) Systematyczny wykład racji na rzecz takiego optymizmu znajdujemy w wykładzie wygłoszonym w roku 1951 w cyklu organizowanym przez Brown University pod nazwą „Gibbs Lectures”. Jest to jeden z najbardziej filozoficznych utworów Gödla, a wart szczególnej uwagi z tego względu, że roztrząsa podstawowe dla metamatematyki i dla filozofii matematyki pojęcie niewyczerpalności matematyki obiektywnej. Jego doniosłość wyraża następujący passus w „Gibbs Lecture”. [B] „The metamathematical results ... are all centered around, or, one may even say, are only different aspects of one basic fact which might be called the incompletability or inexhaustibility of [objective] mathematics.” [Nie podaję strony, gdyż korzystam tu z oryginału w formacie Kindle'a, w ktorym brakuje takiej lokalizacji.] Pojęcie matematyki obiektywnej pojawiło się wyżej we wzmiance o dynamice wiedzy; jego wyjaśnienie w „Gibbs Lecture” jest następujące. Matematykę w sensie obiektywnym stanowi system wszystkich twierdzeń matematycznych prawdziwych, zaś matematykę w sensie subiektywnym system tych wszystkich twierdzeń, które są dowodliwe w danym stanie wiedzy matematycznej. Ten stan posiadania matematyki subiektywnej wciąż się poszerza, wchodząc na coraz nowe, dotąd nie opanowane, tereny matematyki obiektywnej, w miarę dołączania nowych aksjomatów będących owocem matematycznej intuicji. Oto sedno owego poglądu: [C] There have never be an end to this procedure of forming the axioms, because the very formulation of the axioms up to a certain stage gives rise to next axioms. §4.2. Zainicjowanie przez Gödla twierdzeń o dynamice obliczeniowej. — Ten obraz postępującej eksploracji matematyki obiektywnej przez subiektywną ma ugruntowanie w twierdzeniach, na które przyjęło się określenie speedup theorems. Ich pojawienie się w metamatematyce sięga publikacji Gödla z roku 1936, a z biegiem czasu okazały się one doniosłe także dla informatyki. Nie znam propozycji tłumaczenia tego zwrotu na polski, oddam go więc ad hoc przekładem twierdzenia o dynamice obliczeniowej (z ewentualnym opuszczeniem przydawki). Brak jest w tym przekładzie idiomatycznej zwięzłości oryginału, mamy natomiast wskazanie na szybkie tempo wzrostu liczby zdań dowodliwych, a w konsekwencji na dynamikę uzyskiwania coraz bardziej efektywnych algorytmów – w miarę wzmacniania czy to aksjomatów czy reguł. Prototypem twierdzeń o dynamice jest zawarte w komunikacie „Über die Länge von Beweisen” (1936) twierdzenie o (1) zwiększaniu zbioru formuł dowodliwych i (2) skracaniu dowodów, jedno i drugie dzięki logikom wyższych rzędów. [D] „Przejście do logiki następnego wyższego rzędu skutkuje nie tylko tym, że (1) formuły dotąd niedowodliwe stają się dowodliwe, lecz także tym, że (2) nieskończenie wiele już istniejących dowodów daje się w ogromnym stopniu skrócić.” [Przekład od hoc i uzupełnienie numeracją – WM.] Punkt 2 ma niezwykłą doniosłość dla informatycznej teorii obliczalności, gdy idzie o tzw. obliczalność praktyczną (ang. tractability). Jest to wątek bardzo zasługujący na rozwinięcie, ale żeby nie wydłużać obecnych rozważań nadmiernie, odsyłam do artykułu podejmującego obszerniej tę tematykę: „The Gödelian Speed-up and Other Strategies to Address Decidability and Tractability” (Marciszewski 2006). W obecnym kontekście zwrócę tylko uwagę na ważny aspekt epistemologiczny twierdzeń o dynamice, związany z poglądem Gödla o zmniejszaniu się stopnia pewności twierdzeń w miarę dołączania coraz to bardziej abstrakcyjnych pojęć w aksjomatach lub w regułach wnioskowania; np. coraz bardziej abstrakcyjne są logiki coraz wyższych rzędów. Intuicje prowadzące ku wyższym piętrom abstrakcji są coraz bardziej ryzykowne czyli coraz mniej bezpieczne (gdy rozumieć bezpieczeństwo jako pewność, że nie pojawią się antynomie). Z drugiej jednak strony, intuicje takie zyskują na pewności, gdy algorytmy oparte na teorii wysoce abstrakcyjnej okazują się wysoce użyteczne praktycznie np. dla fizyki czy informatyki; ten pragmatyczny wątek jest kontynuowany w §4.5, a w §1.3 ilustruje go zastosowanie idei zera, która zaowocowała kolosalnym postępem obliczeń arytmetycznych. §4.3. Problem przydatności logik wysokich rzędów; sceptycyzm Fefermana. — Gödlowskie twierdzenie o dynamice przytoczone wyżej w §4.2 udowodnił Buss (1994) oraz (w innym wariancie) paru autorów, których cytuje Murawski (2006: 51). George Boolos (1987) dał efektowny przykład na to, jak wielki wzrost mocy inferencyjnej można uzyskać przechodząc do logiki drugiego rzędu. Przypadek jest tak zaskakujący, że autor dał wyraz swemu zdziwieniu, tytułując artykuł „A curious inference”. To osobliwe wnioskowanie stanowi dowód pewnego twierdzenia arytmetycznego, który w logice pierwszego rzędu zawierałby tyle symboli, że byłaby to liczba większa niż jakakolwiek inna występująca w nauce (np. liczba atomów we wszechświecie), podczas gdy w logice drugiego rzędu zajmuje około strony druku. Tak więc wspięcie się na drugi poziom abstrakcji okazuje się niesamowicie wręcz przyspieszać przeprowadzenie dowodu. Gödlowskie twierdzenie o dynamice dotyczy nie tylko jednego czy dwóch poziomów powyżej logiki pierwszego rzędu, ale nieskończenie wielu rzędów, a to brzmi niezwykle obiecująco. Jeśli już przejście z rzędu pierwszego do drugiego daje tak rewelacyjne wyniki, to jakże kolosalnych mocy inferencyjnych i obliczeniowych dostarczyłby nam rząd, powiedzmy setny. Ale czy nie jest tak, że poza kilkoma pierwszymi rzędami to twierdzenie o dynamice nie ma praktycznie zastosowań? Kwestię tę podjął Gödel (1951), formułując ją, jak następuje. [E] „It is true that in the mathematics of today the higher levels of this hierachy are practically never used. It is safe to say that 99.9% of present day mathematics are contained in the first two levels of the hierarchy. So for all practical purposes all of mathematics can be reduced to a finite number of axioms. Tę obserwację przytacza, pod nią się podpisuje i wzmacnia własnymi argumentami Salomon Feferman w artykule „The impact of the incompleteness theorems on mathematics” [s.12, brak daty publikacji]. Feferman pomniejsza też znaczenie faktu niewyczerpalności matematyki, twierdząc, że dla praktycznego uprawiania aktualnie istniejącej matematyki wystarczą systemy słabsze niż logika drugiego rzędu, a nawet takie, które pod względem mocy inferencyjnej nie przewyższają arytmetyki Peano. Tej ocenie bieżących potrzeb wiedzy matematycznej towarzyszy u Fefermana brak przypuszczeń, że mogłoby się to zmienić w przyszłości, w miarę ewolucji matematyki czy ewolucji nauk, które czerpią z niej zastosowania. W tym punkcie stanowisko Fefermana, w pełni zgodne z wypowiedzią [E] Gödla (1951) okazuje się rozbieżne z tym zdaniem Gödla, które jest bezpośrednią kontynuacją wypowiedzi [E], brzmi zaś, jak następuje. [F] „However this is a mere historical accident, which is of no importance for questions of principle.” Tego rodzaju pogląd trudno uzasadnić danymi empirycznymi, jest on raczej wynikiem pewnej wizji metafizycznej apoteozującej bogactwo rzeczywistości – tak bezgraniczne, że w miarę, jak się w nią zagłębiamy, trzeba nam coraz potężniejszych narzędzi poznania. Przyjdzie więc pora – myśli się w nurcie gödlowskim – kiedy niezmiernie abstrakcyjne pojęcia z górnych pięter teorii mnogości okażą się potrzebne nauce w rozwiązywaniu jej coraz bardziej złożonych problemów. Stąd ów optymizm zawarty w zdaniu [A] (zob. §4.1), że nawet dla najtrudniejszych problemów matematycznych znajdą się w swoim czasie środki do ich rozwiązania. W tym duchu wypowiada Gödel przypuszczenie, że Hipoteza Riemana, wymieniona w roku 1900 przez Hilberta jako jedno z najtrudniejszych zadań matematyki na wiek XX, może doczekać się rozwiązania, gdy wyjdzie się poza aktualnie stosowane środki badawcze i sięgnie do owej „stratosfery” (jak się wyraża Feferman) teoriomnogościowej. §4.4. Przypuszczenie Dysona w sprawie niewyczerpalności fizyki. — Optymizm Gödla zyskuje na sugestywności, gdy się go rozpatrzy w postaci sparafrazowanej i uzupełnionej przez Freemana Dysona (2006: 125), wybitnego i wszechstronnego badacza, wielce zasłużonego dla fizyki, astronomii biologii, informatyki. Akcentuje on swe głębokie przekonanie o niewyczerpalności wszelkiej wiedzy, nie tylko matematyki. Motywuje to twierdzeniem Gödla o nierozstrzygalności arytmetyki, które jego zdaniem uświadamia nam również niewyczerpalność fizyki. [G] „The laws of physics are a finite set of rules, and include rules for doing mathematics, so that Gödel's theorem applies to them. The theorem implies that even within the domain of the basic equations of physics, our knowledge will always be incomplete. I rejoiced in the fact that science is inexhaustible, and hoped that non-scientists would rejoice.” Słowo „rejoice” emocjonalnie zabarwia i podkreśla rozmiar optymizmu Dysona. Jego zasięg przekracza to, co miał na uwadze Gödel. Dyson widzi trzy fronty (frontiers) nauki otwarte na niekończący się postęp. Jeden to front matematyczny, który jak wiemy od Gödla zawsze będzie miał przed sobą nowe terytoria do opanowania. Drugi to front złożoności, także dynamiczny, otwarty na eksplorację coraz to wyższych szczebli złożoności: atomów, molekuł, komórek, organizmów, umysłów, cywilizacji. Wreszcie, jest przed nami do badania nieogarniona przestrzeń kosmiczna, która się coraz bardziej rozprzestrzenia. Bezkresność takiego procesu zmartwiłby klasyków racjonalizmu, w tym doborową ich reprezentację, jaką stanowią Kartezjusz i Leibniz. Marzył im się stan intelektualnej doskonałości, gdy wszystko będzie wiadome i życie będzie się toczyć w dobrze znanych i raz na zawsze określonym obrazie świata. Dyson zaś odwrotnie, powód do satysfakcji widzi w nieskończonych perspektywach poznawczych. Czy cieszyć się z osiągniętej ustabilizowanej pełni, czy z dynamiki pędu ku nieskończoności, to bardziej kwestia temperamentu niż dylemat filozoficzny. Poważnym natomiast dylematem jest to, jak dalece się da i jak dalece trzeba wychodzić dalej poza wypróbowane granice logiki drugiego rzędu. Nie ma w tej wspólnego stanowiska w środowisku uczonych. Wymownym świadectwem trwających rozbieżności jest list Fefermana do „The New York Times”, w którym się on dystansuje od relacjonowanych wyżej poglądów Dysona, powiadając, że owszem jest w matematyce niewyczerpalność, którą należy się cieszyć, ale nie polega ona, jak sądzą Gödel i Dyson, na odkrywaniu coraz mocniejszych inferencyjnie nowych aksjomatów, lecz na pomysłowym wysnuwaniu nowych konsekwencji z zasad już funkcjonujących, których zbiór jest również niewyczerpalny.[5]Wypowiedź Fefermana pod adresem: www.neighborhoodlink.com/Louisville_Process_Theology_Network/pages/38710. [H] „Experience shows that significant progress depends to an enormous extent on creative ingenuity in the exploitation of accepted principles rather than essentially new principles. One can join Freeman Dyson in rejoicing in that kind of inexhaustibility as well.” Taka rozbieżność wśród wybitnych uczonych, będących zarazem wytrawnymi filozofami nauki świadczy, jak wiele jest do zrobienia, żeby w tej materii dojść do konkluzji. Trzeba by, w szczególności, prześledzić milowe kroki w zastosowaniach matematyki do przyrodoznawstwa, jak stworzenie przez Newtona analizy, wykorzystanie przez Einsteina czterowymiarowej geometrii Minkowskiego, stworzenie nowych rachunków na potrzeby teorii kwantów przez Heisenberga i przez Schrödingera itd. Stajemy przez pytaniem, czy fizycy korzystali w tych przypadkach z niewyczerpalnego zbioru konsekwencji istniejących już zasad (punkt widzenia Fefermana), czy odkrywali nowe nowe aksjomaty wśród prawd wcześniej nie dostrzeganych, których mnogość jest niewyczerpalna w każdym punkcie ewolucji matematyki (punkt widzenia Dysona). §4.5. Krytycym i śmiałość współczesnego optymizmu w epistemologii matematyki. – Niewyczerpalność matematyki obiektywnej (por. §4.1), czy to w podejściu Dysona czy ostrożniejszym Fefermana, stwarza perspektywę nieograniczonego postępu matematyki subiektywnej czyli poznania matematycznego. Należy jednak zastrzec: „nieograniczonego w zasadzie”. Istnieją bowiem bariery, z których trzeba zdawać sobie krytycznie sprawę i myśleć o sposobach ich pokonania. Jednym z takich sposobów jest podejście pragmatyczne, a drugim technika obliczeniowa. To, co nazywam podejściem pragmatycznym, może nie zapuściło jeszcze korzeni wśród szerszych kręgów badaczy, ale istnieje wyraźna prowadząca doń ścieżka: zapoczątkowana przez Fregego, brana pod uwagę przez Quine'a, znacznie poszerzona przez Gödla i Wanga (1996), a dziś dalej poszerzana przez Gregory Chaitina (2002). To nowe ujęcie łączy się z odchodzeniem od poglądu, że między matematyką i naukami empirycznymi biegnie ostro je oddzielająca granica metodologiczna. Różnice są niezaprzeczalne, ale jawią się też podobieństwa, zwłaszcza gdy idzie o relacje między matematyką i fizyką teoretyczną (na co zwrócił uwagę Quine). W fizyce ostateczny sprawdzian akceptowalności teorii ma charakter pragmatyczny; stąd, zaczyna się dostrzegać analogiczny rys w matematyce. Pragmatyczny przecież charakter ma powszechna wiara w niesprzeczność arytmetyki: skoro przez dziesiątki wieków nie zawodzi nas ona w nieprzeliczonych zastosowaniach, byłoby nierozumne odmawiać jej zaufania. Porównywalną owocność wykazuje analiza matematyczna, więc jej wierzymy, choć nie brak głosów, że kontinuum punktów to twór myślowy mocno podejrzany filozoficznie; niepokoi on np. reistów, co zauważa Grzegorczyk (1963), broniąc analizy racjami pragmatycznymi. Zasadnicze znaczenie dla optymizmu poznawczego ma fakt, że ów poziom zaufania do teorii matematycznej jest stopniowalny. Zależy on z jednej strony od pewnej masy krytycznej przebytych sprawdzianów, co systemom o długim stażu stosowalności daje przewagę nad nowicjuszami, z drugiej zaś strony – od stopnia abstrakcyjności. Im bardziej abstrakcyjne są pojęcia, to znaczy, im bardziej się one oddalają od prostych intersubiektywnych danych doświadczenia, tym mniej jest podstaw do przekonania, że nie zaprowadzą one do sprzeczności. Gödel (1996) uważał, że najwyższą wiarogodność ma arytmetyka liczb naturalnych, a im bardziej się od niej oddalamy ku konstrukcjom coraz bardziej abstrakcyjnym, tym większe jest ryzyko zabrnięcia w antynomie. Postulat sprawdzalności pojmowanej pragmatycznie ma pewien aspekt obliczeniowy, wspomniany w §4.2 w kontekście "speedup theorems". Mianowicie, praktyczne zastosowanie wysoce abstrakcyjnych pojęć, nadające się na wskaźnik ich niepustości, może na tym polegać, że zawdzięczamy im algorytmy, bez których pewne problemy byłyby bądź nierozstrzygalne obliczeniowo, bądź wymagałyby dramatycznie długich obliczeń. Dla pragmatysty będzie to argument na rzecz akceptowalności owych pojęć abstrakcyjnych, a posiadanie tego rodzaju argumentów wzmacnia postawę krytycznego optymizmu. Krytycznego, to znaczy nie zawsze się spodziewającego najwyższej pewności (jak się spodziewali klasycy racjonalizmu czy wczesny Hilbert), lecz kontentującego się rozsądnym do niej przybliżeniem. Podejście obliczeniowe dobrze służy optymizmowi z jeszcze jednego względu. Niech go uprzytomni zestawienie dwóch epizodów z najnowszej historii matematyki – rewelacyjnego dowodu twierdzenia Fermata w wykonaniu Andrew Wilesa oraz wspomnianego wyżej (§4.3) dowodu Boolosa. Pierwszy przypadek obrazuje, jak niepewność co do poprawności dowodu wzrasta w miarę jego długości. Im więcej jest wierszy dowodu, tym większe ryzyko, że jego wykonawca nie wszystko ogarnie pamięcią, a wtedy może umknąć jego uwadze jakaś sprzeczność lub błąd typu „non sequitur". Tak też było z pierwszą wersją dowodu Wilesa i dopiero uwagi recenzentów oraz ponad roczna praca nad poprawkami doprowadziły argumentację do stanu, który był dojrzały do publikacji. Gdybyśmy mieli do dyspozycji algorytm komputerowy do sprawdzania poprawności dowodów tak mocny, żeby podołać złożoności problemu Fermata, i tak szybki, że pracowałby w skali minut czy godzin, a nie np. dziesiątków lat, to w połączeniu z „ręcznym” sprawdzeniem przez matematyków, wzmocniłoby to wydatnie wiarogodność wyniku Wilesa. W obecnym stanie techniki komputerowej kolosalna złożoność tego dowodu wyklucza szanse sporządzenia przez człowieka jego zapisu podatnego na automatyczne sprawdzenie, a tym bardziej szanse samodzielnego wykonania dowodu przez maszynę. Dlaczego tak się rzeczy mają, gdy idzie o złożoność dowodów, można się zorientować z eksperymentu informatycznego dotyczącego twierdzenia Boolosa; jest on opisany w literaturze na temat automatycznego dowodzenia twierdzeń[6]Zob. Benzmüller i Kerber 2001, Benzmüller i Brown 2007, Marciszewski 2006:odc.1.4-1.5). Tak więc, gdy idzie o wiarogodność nowych wyników matematycznych w przypadku teorii wysoce abstrakcyjnych oraz niepomiernie złożonych dowodów, powody do optymizmu nie są maksymalne; powiedzmy, umiarkowane. To odróżnia krytyczny optymizm naszych czasów od wiary autorów projektu „Mathesis Universalis”. Nie wolno jednak tracić z pola widzenia, że to właśnie w naszych czasach odkrywamy zawrotną dynamikę postępu. Moc obliczeniowa komputerów podwaja się co niecałe dwa lata, a za tym tempem podąża sztuka tworzenia coraz efektywniejszych algorytmów. Zaś w perspektywie jest rewolucja obliczeń kwantowych; zredukuje ona do minut czas wykonywania programów, które dziś wymagałoby lat. Tak niewyobrażane zmiany przyniosło stulecie, które upłynęło od roku 1900, gdy Hilbert kreślił wyzwania stojące przed matematyką XX wieku. Choć stawia się im czoła inaczej niż on sobie wyobrażał, jego maksyma wir werden wissen pozostaje w mocy. Z tą tylko zmianą znaczeniową, że „MY” w połączeniu z czasem przyszłym nie oznacza pokolenia Hilberta, ani też naszego obecnego, lecz sumę niezliczonych przyszłych pokoleń, które śmiało będą się wspinać na coraz wyższe poziomy wiedzy – po drabinie mającej nieskończenie wiele szczebli. Literatura cytowana Benzmüller, Christoph and Manfred Kerber. A Challenge for Mechanized Deduction. 2001. www.cs.bham.ac.uk/ mmk/papers/01-IJCAR.html. Benzmüller Christoph E. and Brown Chad E. Brown. The Curious Inference of Boolos in Mizar and OMEGA. [w:] Matuszewski, Roman and Anna Zalewska (2007). Boolos, George. A curious inference. Journal of Philosophical Logic vol. 16, 1-12, 1987. Brożek, Anna. Hilbert a Gödel: prawda a dowód w matematyce. Semina Scientiarum nr 3, s. 38-70, 2004. Buss, S.R. On Gödel's theorems on lengths of proofs I. Number of lines and speedup for arithmetics. Journal of Symbolic Logic vol. 59 pp. 737-756, 1994. Chaitin, Gregory J. The Limits of Mathematics, The Unknowable, Exploring Randomness, Conversations with a Mathematician, Springer-Verlag, Berlin etc. 2002. Couturat, Louis. La logique de Leibniz: d'aprés des documents inédits. F. Alcan, Paris 1901. Coveney, Peter i Roger Highfield. Granice złożoności. Poszukiwanie porządku w chaotycznym świecie. Przełożył Piotr Amsterdamski. Prószyński i Ska, Warszawa 1997. Descartes, René. Przedstawienie poglądów Kartezjusza w artykule jest zaczerpnięte z jego różnych tekstów. Zamiast ich drobiagowego cytowania wystarczy wymienić tytuły najważniejszych wchodzących tu w grę dzieł: Discours de la méthode (1637), Meditationes de prima philosophia (1641), Principia philosophiae (1644), Regulae ad directionem ingenii (1701), Inquisitio veritatis per lumen naturale (1701). Einstein, Albert i Leopold Infeld. Ewolucja fizyki. Rozwój poglądów od najdawniejszych pojęć do teorii względności i kwantów. Przełożył Ryszard Gajewski. PWN, Warszawa 1962. Dyson, Freeman. The Scientist As Rebel. New York Review Books, New York 2006. Feferman, Salomon. The impact of the incompleteness theorems on mathematics. math.stanford.edu/ feferman/impact.pdf Gödel, Kurt. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik 38 (ss. 173-198). 1931. Przedruk z przekładem angielskim w: Gödel 1986, ss.144-195. Gödel, Kurt. Über die Länge von Beweisen. Ergebnisse eines Mathematischen Kolloquiums, SS. 23-24, 1936. Gödel, Kurt. Collected Works, Vol. III. Unpublished Essays and Lectures (S.Feferman, et al., eds.), Oxford University Press, New York. Vol. I – 1986, vol. II – 1990, vol. III – 1995. Gödel, Kurt. Some basic theorems on the foundations of mathematics and their philosophical implications. Josiah Willard Gibbs Lecture [w:] Kurt Gödel: Unpublished Philosophical Essays. Redaktor: F.A. Rodriguez-Consuegra. Basel 1995. Gödel (1996) - tym skrótem oznaczam zbiór wypowiedzi Kurta Gödla odnotowanych przez Wanga (1996). Goodman, Nelson. The world of individuals [w:] Irving M. Copi and James A. Gould (eds.) Contemporary Readings in Logical Theory. Macmillan Co., New York etc. 1967. Grzegorczyk, Andrzej. Zastosowania logicznej metody wyodrębniania formalnej dziedziny rozważań w naukach, technice i gospodarce. Studia Filozoficzne 3-4, 1963. Hilbert, David. Mathematische Probleme – Vortrag gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900. [w:] Nachrichten von der Königl. Gesellschaft der Wissenschaften zu Göttingen. Mathematisch-Physikalische Klasse. ss.253-297, 1900. Hilbert, David. Über das Unendliche. Mathematische Annalen nr 95, 1926. Hilbert, David i Wilhelm Ackermann. Grundzüge der theoretischen Logik. Springer, Berlin 1928. Kartezjusz - zob Descartes, René. Leibniz, Gottfried Wilhelm. Wykorzystane w tekście cytaty są zaczerpnięte z książki: Couturat 1901. Marciszewski, Witold (ed.). Issues of Decidability and Tractability [w serii] „Studies in Logic, Grammar and Rhetoric” vol. 22, University of Białystok, Białystok 2006-ed. Marciszewski, Witold. The Gödelian Speed-up and Other Strategies to Address Decidability and Tractability, 2006 [w:] Marciszewski (2006-ed). Matuszewski, Roman and Anna Zalewska (eds.) From Insight to Proof [w serii] „Studies in Logic, Grammar and Rhetoric” vol. 23, University of Białystok, Białystok 2007. Mostowski, Andrzej. Logika matematyczna. Monografie Matematyczne. Warszawa – Wrocław 1948. Murawski, Roman. The Present State of Mechanical Deduction, and the Present State of its Limitations [w:] Marciszewski 2006-ed. Przełęcki, Marian. Prawda. Filozofia Nauki Rok I, nr 2-3, 1993. Tarski, Alfred. Pojęcie prawdy w językach nauk dedukcyjnych. Towarzystwo Naukowe Warszawskie, Warszawa 1933. Turing, Alan. On computable numbers, with an application to the Entscheidungsproblem. Proc. of London Math. Society, Series 2, 230-265, 1936. Turing, Alan. Systems of Logic Based on Ordinals 1939. Proc. of London Math. Society Series 2, 45. Cytowane za polskim przekładem (Justyny Nowotniak) w książce pt. Turing (1997: 34n) Andrew Hodgesa: Turing. A Natural Philosopher. Wang, Hao. A Logical Journey. From Gödel to Philosophy. MIT Press, Cambridge (Mass.) and London 1996. |