DOMENA CALCULEMUS



Witold Marciszewski

Niewymierność i Nieobliczalność
a Sztuczna Inteligencja


Przyczynek do problemu jedności świata i jedności nauki


Motto Analogowe sieci rekurencyjne są zdolne do wykonywania obliczeń  
przekraczających możliwości uniwersalnej, skończonej maszyny Turinga.

P.Coveney, R.Highfield

Książka, z której wzięte jest to motto nosi tytuł Frontiers of Complexity, co z grubsza oddałby zwrot ,,postępy złożoności''. Polski przekład ma tytuł Granice złożoności, co jest poniekąd odwrotnością intencji autorów (trochę tak, jakby ktoś powiedział ,,defensywa'' zamiast ,,ofensywa''). Bo granice, ang. limits, to raczej ograniczenia kładące kres dalszemu posuwaniu się. Natomiast frontiers, to linia, od której posuwamy się dalej, odróżniająca teren zdobyty od tego, co jeszcze do zdobycia.

Postępy w opanowywaniu złożoności znaczą marsz nauki i stanowią o jej jedności. Pojęcia zaś różnych rodzajów liczb są środkami do radzenia sobie ze złożonością, której mózg i umysł jest szczególnym oraz wielce, jak dotąd, tajemniczym przypadkiem. Te powiązania (uwidocznione w tytule obecnych rozważań) sięgają początków myśli europejskiej, jej korzeni pitagorejskich i platońskich. Daje temu świadectwo kardynał Mikołaj z Kuzy (1401-1464), wybitny przedstawiciel chrześcijańskiego platonizmu.

,,Czyż to nie Pitagoras, pierwszy filozof z nazwy i z rzeczy samej, wszelkie dociekanie prawdy widział w liczbach? Za nim do tego stopnia szli Platonicy, a także nasi [chrześcijańscy autorzy], jak Augustyn, a po nim Boecjusz, iż uważali, że liczba rzeczy mających być stworzonymi musiała być naczelnym wzorcem [świata] w umyśle stworzyciela. [...] Ów sposób myślenia, jak widać, do tego stopnia pociągał Boecjusza, że stanowczo twierdził, iż wszelka prowadząca do prawdy nauka zawiera się [w teorii dotyczącej] wielości i wielkości.''

Nonne Pythagoras, primus et nomine et re philosophus, omnem veritatis inquisitionem in numeris posuit? Quem Platonici et nostri etiam primi in tantum secuti sunt. ut Augustinus noster, et post ipsum Boethius affirmarent indubie numerum creandarum rerum in animo conditoris principale exemplar fuissse. [...] Ista via Boethio nostro placere visa est, ut constanter assereret omnem veritatis doctrinam in multitudine et magnitudine comprehendi.
Nicolaus von Kues. Philosophisch-Theologische Schriften. herausgegeben von Leo Gabriel, Band 1, Herder, Wien 1964. Zob. s.230.

Jeśli możliwe są jakieś awanse w niebiańskiej hierarchii, to Pitagoras, Platon, Augustyn, Boecjusz i Kuzańczyk, jako obywatele dantejskiego nieba, powinni obecnie awansować do jeszcze wyższej elity. Albowiem ich wiara w poznawczą i w sprawczą moc liczby, oraz w jej zdolność unifikacji poznania, doznaje w naszych czasach niebywałego potwierdzenia. O jej mocy poznawczej świadczą postępy matematycznego przyrodoznawstwa. O mocy sprawczej przekonują sukcesy techniki. Kulisy tej drugiej odsłaniają się dzięki tworzeniu przez nas samych rzeczywistości wirtualnej drogą programowania, a więc operacji liczbowych.

Choć laik zaglądający przez ramię programiście zobaczy raczej rządki liter niż cyfr, to w rzeczy samej program składa się z samych wyrażeń liczbowych, w postaci ciągów zer i jedynek; tylko na takie reaguje procesor komputera. Operowanie słowami zamiast cyframi wprowadzono w językach programowania dla ułatwienia życia programistom, co jest możliwe dzięki temu, że o przekład programów na język maszyny troszczy się odpowiedni software.

Toteż - jak powiada Andrew Hodges, autor dwu biografii Turinga - to, że komputer może wykonywać dowolny program ,,wywodzi się z głębokiej idei, że programy i liczby nie różnią się od siebie.''   -- Wypowiedź w wywiadzie dla autorów książki: Peter Coveney, Roger Highfield, Frontiers of Complexity. The Search for Order in the Chaotic World, 1995; polski przekład Piotra Amsterdamskiego, 1997; zob. s.55.

Szczytem rzeczywistości wirtualnej będzie sztuczna inteligencja (w skrócie, SI), jeśli uda się ją zrealizować ją w skali dorównującej inteligencji świadomego siebie umysłu. Czy może się to udać? Żeby móc podjąc nad tym debatę, trzeba się odwołać do pojęcia złożoności w jej dwóch wymienionych w tytule odmianach.


1. Czy można pominąć ciągłość w modelowaniu umysłu?

=== 1.1. Pytanie to zostało postawione przed pół wiekiem, zaś jego autor z naciskiem odpowiedział twierdząco, że można. Tym autorem był Alan M. Turing, najpierw w raporcie "Intelligent Machinery" (1948; od tej daty należy liczyć projekt SI), a potem w słynnym artykule "Computing Machinery and Intelligence" (Mind 59, Oct. 1950, 433-460).

Turing, określiwszy swe urządzenie jako maszynę stanów nieciągłych (discrete-state machine), a więc nie przyjmujące stanów charakteryzowanych liczbami niewymiernymi, był świadom możliwej obiekcji, że nie nadaje się ono na model systemu nerwowego, nacechowanego ciąglością. Toteż w refutacji oczekiwanych zarzutów co do możliwości SI, uwzględnił i tę obiekcję. Oto jego kontrargumenty opatrzone tytułem "Argument from Continuity in the Nervous System".

Turing przyznawał, że system nerwowy nie jest zdefiniowaną przez niego maszyną stanów nieciągłych (dyskretnych). Był też świadom, że jest to układ cechujący się znaczną wrażliwością na warunki początkowe. Pisał w tej sprawie, co następuje.

System nerwowy na pewno nie jest maszyną o stanach nieciągłych. Mały błąd w informacji o wielkości impulsu nerwowego wchodzącego do neuronu może spowodować dużą różnicę wielkości impulsu wyjściowego. Można argumentować, że ponieważ tak jest, nie należy oczekiwać, żeby dało się naśladować zachowanie systemu nerwowego za pomocą układu o stanach nieciągłych.

Kontrargument Turinga sprowadza się do podania przykładu, w formie eksperymentu myślowego, w którym - jego zdaniem - różnica między wynikami obliczania przez maszynę stanów dyskretnych i maszynę stanów ciągłych byłaby na tyle nieznacząca, że wolno ją zbagatelizować; tym przykładem jest maszyna analityczna Babbage'a, działająca na zasadzie analogowej, a więc będąca maszyną stanów nieciągłych. Tego twierdzenia nie da się jednak zweryfikować w realnym ekperymencie, ponieważ maszyna Babbage'a nie zaczęła pracować za życia jej twórcy (zrekonstruowano ją i uruchomiono w Muzeum Nauki w Londynie w 1991, z czego Turing, zmarły w 1954, nie mógł skorzystać). Ekstrapolacja zaś maszyny Babbage'a na system nerwowy jest próbą riposty dość beztroską, ignorującą bezmiar różnic między tym urządzeniem, które miała napędzać maszyna parowa, a tym, czym stał się po milionach lat ewolucji układ nerwowy. Toteż trudno ów wywód uznać za argument.

Tak więc, problem ciągłości pozostaje otwarty.

O tym, jak jest on głęboki - w sensie wielości pytań, na które trzeba by wcześniej odpowiedzieć - zaświadcza, w szczególności, słynny artykuł Davida Hilberta "Über das Unendliche" (Mathematische Annalen 95, 1926,161-190). Hilbert uważa, że pogląd o ciągłości materii i energii, w sensie jej podzielności w nieskończoność, został definitywnie obalony przez współczesną fizykę. W odniesieniu do materii zaprzecza mu dojście do ostatnich, niepodzielnych już dalej cząstek elementarnych, jak np. elektrony; a co się tyczy energii, to też nie jest ona ciągła, lecz skwantowana (tu powołuje się Hilbert na teorię kwantów).

Są zwolennicy Turinga, którzy sądzą, że zbyt pochopnie przystał on na nieciągłość w systemie nerwowym. Jest ona (mówią w duchu Hilberta) złudzeniem, gdyż rzeczywistość jest cała skwantowana (nie znam prac pisanych wyrażających takie stanowisko, ale spotkałem się z nim w dyskusji po odczycie będącym pierwszą wersją obecnego tekstu).

Miła pewność, dostępna jeszcze Hilbertowi, jest dziś coraz trudniejsza do osiągnięcia. Konkurujących ze sobą interpretacji teorii kwantów jest obecnie conajmniej cztery. Jedna z nich, zwana teorią potencjału kwantowego, wywodząca się jeszcze od Louisa de Broglie'a, rozwijana przez Davida Bohma, a przybierająca na znaczeniu w ostatnich latach, zawiera pogląd, który w następujący sposób streścił de Broglie w przedmowie do książki Davida Bohma Causality and Chance in Modern Physics.

,,Fizyka teoretyczna zawsze prowadziła i będzie prowadzić do odkrywania coraz głębszych poziomów świata fizycznego i proces ten nie będzie miał kresu. Fizyka kwantowa nie ma prawa uwazać swych obecnych poglądów za ostateczne i że nie może ona powstrzymać uczonych przed wyobrażeniami o istnieniu jakichś obszarów rzeczywistości głębszych od tych, które dotychczas zostały już zbadane.''
Z przekładu pt. Przyczynowość i przypadek w fizyce współczesnej, Warszawa 1961, s.15 (w oryginale, London 1958, Routledge and Kegan Paul - s.xi). Popularny wykład tej teorii znajduje się też w wywiadach radiowych D. Bohma i B. Hileya w opracowaniu P.C.W. Daviesa i J.R. Browna, zawartych w książce The Ghost in the Atom [...], Cambridge University Press 1986, polski przekład Duch w Atomie [...], 1996.

Sam Bohm powiada w swej książce (rozdz.3, par.3): zjawiska atomowe mogą być rozpatrywane jako efektywnie nieciągłe. Mimo wszystko, są one ciągłe na głębszym poziomie. W innym miejscu (rozdz. 2, par.8) czytamy: pola są ciągłe i wymagają nieprzeliczalnej mnogości zmiennych dla ich matematycznego wyrażenia. Ten fakt wymagałby od demona Laplace'a - kontynuuje autor - operowania zbiorem nieprzeliczalnym (ten znany dobrze demon symbolizuje ideę determinizmu w fizyce).

=== 1.2. Jeśli fizyczne uwarunkowania inteligencji rozgrywają się na poziomie, którego opis wymaga nieprzeliczalnego (a więc ciągłego) zbioru czynników, to maszyna stanów nieciągłych, jaką jest maszyna Turinga, nie nadaje się na model inteligencji, gdyż operuje tylko na poziomie przeliczalnym. Ale gdyby nawet udowodniono kiedyś, że procesy umysłowe składają się ze skończonej liczby stanów nieciągłych, to jeszcze pozostaje otwarte pytanie, z jaką dokładnością trzeba by je opisywać, żeby móc je naśladować przez sztuczną inteligencję.

Można wskazać na zjawiska lepiej zbadane niż procesy neuronowe, w których dokładność niezbędna do przewidywania okazuje się przekraczać aktualne możliwości obliczeń cyfrowych, a więc pozostawia problem otwartym. Analogicznie, pozostanie on otwarty, gdy idzie o system nerwowy, jeśli uznamy (przynajmniej ,,na oko''), że jego złożoność jest conajmniej taka jak owych zjawisk o nie dającej się komputerowo opanować złożoności.

Mowa tu o zjawiskach określanych jako chaos deterministyczny. Cechuje on stany pogody, wiry wodne, zachowania graczy na giełdzie itp. Te ostatnie należą do sfery zjawisk umysłowych, a nie ma powodu sądzić, że są one jedynymi reprezentantami owej nieprzewidywalnej i niesterowalnej złożoności w sferze umysłowej. Nasuwa się w sposób naturalny wyobrażenie procesów twórczych jako czegoś z kategorii turbulencji, procesu nieprzewidywalnie wrażliwego na warunki początkowe (,,efekt motyla'').

Pytaniem godnym filozoficznej refleksji jest, jak ma się skala złożoności zjawisk umysłowych do skali złożoności takich zjawisk fizycznych jak przepływ turbulentny.

,,Realistyczna symulacja przepływu turbulentnego wciąż przekracza możliwości współczesnych maszyn. Podstawowa trudność, jaką musimy pokonać, to niezmierna złożoność turbulencji. Struktura przepływu w najmniejszej skali wywiera ogromny wpływ na zachowanie się płynu w dużych odległościach. Rozwiązanie [odpowiednich równań] wymaga przybliżenia [kursywa - WM]: zastępujemy ciągłą przestrzeń i czas siecią punktów i rozpatrujemy zachowanie płynu tylko w tych punktach. Rozwiązując równania hydromechaniki, stoimy wobec fundamentalnego dylematu: jeśli zastosujemy zbyt drobną sieć, komputer będzie liczył bardzo długo, ponieważ musi uwzględnić ogromną liczbę punktów; jeśli jednak skorzystamy z sieci o zbyt dużych oczkach, pominiemy ważne struktury [kursywa - WM].''
Peter Conevey, Roger Highfield: Frontiers of Complexity. The Search for Order in a Chaotic World, 1995. Polski przekład Granice złożoności[...] P.Amsterdamskiego, Prószyński i S-ka, Warszawa 1997. Cytat pochodzi z rozdziału 3, w polskim wyd. s.97.

Miejsca wyróżnione wyżej kursywą sygnalizują problem filozoficznie kluczowy, nad którym jednak filozofowie nie zwykli sobie dotąd łamać głów. Jest to pytanie, jak ma się skala złożoności procesów mózgowych związanych z inteligentnym myśleniem do skali takich procesów fizycznych jak wyżej opisany.

Przypuśćmy, że przyszłe komputery, np. kwantowe, poradzą sobie z przybliżeniem dyskretnym opisanego procesu ciągłego tak daleko idącym, że nie zostanie pominięta żadna struktura, która jest ważna teoretycznie lub praktycznie. Pozwoli to na takie oto warunkowe stwierdzenie w sprawie inteligencji. Jeśli (1) złożoność wszystkich procesów umysłowych jest nie większej (niż hydromechaniczna) skali oraz (2) spełnione będą wszystkie kryteria ważności struktur, to uzyskamy przybliżenie, które pozwoli w sposób zadawalający zarówno symulować jak i wytwarzać zachowania inteligentne.

To jednak nie koniec pytań związanych z przejściem od ciągłości do nieciągłości. Mówiąc o zjawiskach hydromechanicznych, cytowani autorzy posłużyli się pojęciem ciągłości w sensie czegoś, co nasze zmysły odbierają jako proces ciągły. Podobnie może się mieć rzecz z procesami psychicznymi. Odbieramy je w doświadczeniu wewnętrznym jako ciągłe, podczas gdy ich podłoże fizyczne miewa charakter nieciągły, na tyle jednak złożony, że praktycznie nasuwa to trudności tej miary, co autentyczna ciągłość.

Chodzi tu o podłoże stanowiące fizyczną bazę kodowania (potraktujmy ten zwrot jako termin techniczny o kluczowej dla dalszych rozważań doniosłości). W zakodowanym tekście napisanym na jakiejś kartce taką fizyczną bazą są odpowiednie ciągi symboli, w maszynie cyfrowej są to wyłącznie konfiguracje impulsów elektrycznych, a w systemie nerwowym także dyskretne konfiguracje impulsów elektrycznych. Także, ale czy - jak w komputerze - wyłącznie?

=== 1.3. Kolejne pytanie, tyleż biologiczne co filozoficzne, dotyczy tego, czy zachodzi również kodowanie w strukturach polowych, a jeśli tak, to jak ma się ono do funkcjonowania inteligencji. Jest to przypuszczenie, które pojawiło się w biologii w związku z kodem genetycznym. Funkcjonowanie tego kodu nasuwa zagadki skłaniające pewnych autorów do przypuszczenia o istnieniu pola, którego kod współdziałałby z kodem zapisanym molekularnie.

,,Oddziaływania pól mogłyby mieć wpływ na morfogenezę, to jest powstawanie form biologicznych, ponieważ pola posiadają, inaczej niż cząstki, pewien zasięg. Lepiej więc nadają się do tego, żeby wyjaśniać zjawiska zachodzące na odległość.'' [Po przedstawieniu trudności, jakie nasuwa ta koncepcja, ich ewentualne rozwiązanie jest nakreślone, jak następuje.] ,,Dające się pomyśleć wyjście polega na założeniu, że cały plan rozwoju organizmu jest zakodowany w samych polach, zaś DNA funkcjonuje raczej nie jako żródło informacji genetycznej lecz jako coś, co ją w siebie przyjmuje. Tę radykalną możliwość wyjaśnienia badał bliżej biolog Ruper Sheldrake (A New Science of Life, London 1981).'' Sheldrake nazwał ten hipotetyczny czynnik polem morfogenetycznym
Paul Davies: Cosmic Blueprint. Cytowane za przekładem niemieckim (Friedricha Griese, przekład na polski - WM) pt. Prinzip Chaos. Die Neue Ordnung des Kosmos (Goldman Verlag, 1993), rozdz.11, pod koniec, s. 232. Wprowadzony wyżej termin ,,fizyczna baza kodowania'' wzorowany jest na tytule pracy cytowanej przez Daviesa w tym rozdziale: H.H. Pattee, ,,The Physical Basis of Coding'' w: C.H. Waddington (red.), Towards a Theoretical Biology, Edinburgh 1968, cztery tomy, tom 1, s.67.

Dla naszych rozważań filozoficznych nie ma większego znaczenia, czy ta hipoteza się potwierdzi w genetyce; nie jest też dla ich podjęcia konieczne, żeby już istniały poszlaki empiryczne dla wysunięcia analogicznej hipotezy odnośnie do procesów neuronowych, a więc hipotezy, że informacja może być kodowana w jakichs polach istniejących w organizmie. Do zadań filozofii bowiem należy formułowanie apriorycznych możliwości, dokonywane w języku aktualnej wiedzy, co jest równoważne pytaniu, czy dana możliwość zachodzi. Aktualna wiedza dysponuje pojęciami cząstki, pola i kodu, jest więc na jej gruncie sensowne pytanie, czy jakaś informacja ma cząstki czy pola za swą fizyczną bazę kodowania.

Dopóki nie ma odpowiedzi wykluczającej pola (a więc traktującej sferę neuronową jako coś w świecie materii raczej wyjątkowego), trzeba je mieć na uwadze jako możliwe teoretycznie źródło ciągłości, mianowicie ciągłości już nie w procesach umysłu (którą Turing uznał za dającą się praktycznie zbagatelizować) lecz w fizycznej bazie kodowania tych procesów.


2. Czy można pominąć nieobliczalność w badaniu umysłu?

=== 2.1. Wchodząc w ten nowy temat, będziemy się nadal obracać w kręgu myśli Turinga. Od niego pochodzi definicja liczby nieobliczalnej, jak też filozoficzny pogląd, że odpowiedź na sformułowane wyżej pytanie jest twierdząca. Pociąga to utożsamienie umysłu z uniwersalną maszyną Turinga, a więc z tym, czego aktualną realizacją techniczną jest komputer cyfrowy (mówiąc dokładniej, dowolny system operacyjny z "interfejsem" do danego języka maszynowego i z dostatecznie dużym zapasem pamięci).

Pojęcie liczby nieobliczalnej i inne z nim powiązane (obliczalnej funkcji, obliczalnego predykatu) nie jest dziełem wyłącznie Turinga (niezależnie uzyskali podobne wyniki Church, Gödel, Post i in.). Ale ujęcie Turinga, z jego ,,maszynową'' terminologią i z jego intencją dostarczenia analizy działań umysłu, jest najlepiej dostosowane do mówienia o komputerach, umysłach i SI.

Turing, szukając odpowiedzi na postawiony przez Hilberta problem rozwiązywalności zagadnień matematycznych, odniósł sukces dzięki połączeniu owej definicji maszyny z wynalezioną przez się metodą kodowania maszyn (pewien odpowiednik arytmetyzacji Gödla) oraz z metodą dowodu diagonalnego Cantora.

Konstrukcja ta została podana w artykule "On Computable Numbers with an Application to the Entscheidungsproblem", nadesłanym w maju 1936 do Proceedings of the London Mathematical Society, t.XLII, 1937, 230-265. Artykuł zaczyna się od zdania: ,,The "computable" numbers may be described briefly as the real numbers whose expressions as a decimal are calculable by finite means.'' Tak zaczęty akapit kończy się zdaniem: ,,A number is computable if its decimal can be written down by a machine.'' Jak z tego widać, konstrukcja pojęcia maszyny przydaje się do wyjaśnienia, co to są ,,finite means'' (termin przejęty od Hilberta, który sam jednak nie dał dokładnego wyjaśnienia, co pod nim rozumie).

Konkluzję pierwszej części rozumowania Turinga, przy całej jego złożoności technicznej, można wyrazić w jednym zdaniu: Zbiór liczb rzeczywistych, które dadzą się obliczać za pomocą procedury mechanicznej (tj. maszyny (Turinga) jest przeliczalny, a więc nie dorównuje mocy zbioru wszystkich liczb rzeczywistych, równej continuum.

Nasuwa się tu uwaga, wprawdzie dygresyjna, ale usprawiedliwiona podtytułem tego odczytu oraz tematem obecnej konferencji. Mało który z użytkowników komputera zdaje sobie sprawę, że to praktyczne narzędzie ma u podstaw tak bardzo abstrakcyjną teorię, jak Cantora teoria zbiorów nieskończonych. Rozumowanie bowiem prowadzące u Turinga do konstrukcji maszyny uniwersalnej, a więc - praktycznie - do projektu współczesnego komputera, w sposób istotny opiera się na fakcie wykazanym przez Cantora, że zbiór liczb rzeczywistych ma większą moc niż zbiór liczb naturalnych. Tak więc, unifikacyjna moc Cantorowskiej teorii mnogości rozciąga się nie tylko na matematykę, ale i na rozległy obszar nauk o informacji, maszynach informacyjnych oraz umyśle. Tak oto teoria mnogości wraz z nieodłączną od niej logiką matematyczną przybliża nas do jedności nauki (czy ten sposób zmierzania do jedności mieści się w schemacie redukcjonistycznym, czy też zbogaca repertuar środków unifikacji o coś nowego, to ważne pytanie, wychodzące jednak poza ramy obecnych rozważań).

=== 2.2. Nie mniej doniosły jest wynik odpowiadający drugiej części tytułu studium Turinga, dotyczącej postawionego przez Hilberta zagadnienia rozwiązywalności problemów matematycznych za pomocą procedur mechanicznych.

Ten drugi wynik osiąga się dzięki temu, że dochodzenie do pierwszego daje uporządkowanie wszystkich możliwych procedur mechanicznych (czyli maszyn Turinga) w jeden ciąg przeliczalny. To z kolei pozwala skonstruować tabelę - na wzór tabeli w dowodzie przekątniowym Cantora - gdzie na przekątnej znajdują się wyniki obliczeń, w których procedura obliczająca i liczba obliczana zakodowane są za pomocą tego samego numeru. Powoduje to samoodniesienie podobne temu, które występuje w dowodzie Gödla -- z tą samą konkluzją co do problemu rozstrzygalności, ale (jak podkreślał sam Gödel) mającą walor większej ogólności, bo niezależną od tego, w jakim systemie sformalizowanym są opisane wchodzące w grę procedury.

Konkluzja ta da się wyrazić, jak następuje. Pewne zadania, które można dać maszynie będą dla niej niewykonalne, z czym łączy się to, że nie da ona sygnału o wykonaniu zadania (zwykło się to nazywać stanem zatrzymania czyli stopem). W pewnych przypadkach niewykonalność bierze się z obiektywnego faktu; tak np. maszyna nigdy nie obliczy liczby nieparzystej, która byłaby sumą dwóch parzystych (z tego prostego powodu, że liczby takiej nie ma).

W innych przypadkach (nie tak trywialnych), gdy proces zadanego obliczania trwa długo, a wyniku nie widać, chcielibyśmy wiedzieć, czy mamy do czynienia z procedurą, który doprowadzi kiedyś do wyniku, czy też będzie się ciągnąć bez końca. Żeby się tego dowiedzieć, trzeba do danej procedury mechanicznej (nazwijmy) P, co do której chcemy mieć taką odpowiedż, zastosować inną procedurę mechaniczną (nazwijmy) MP (metaprocedurę). MP ma dać odpowiedź, czy P wykona zadanie. Otóż - to jest ów sławny wynik Turinga - dla procedur, które nie mają szans na wykonanie danego obliczenia, nie ma metaprocedury, która by wykazywała tę niemożność.

Dowód tego pozostaje rzeczą trudną, nawet jeśli zostanie on tak uproszczony, jak to potrafił uczynić Roger Penrose. Występują w nim bowiem tak nowe (dla codziennego myślenia) chwyty i konstrukcje, że trzeba zabiegów oswajających laika z tą niezwykłością (a specjalistom nie trzeba tego dowodu relacjonować). Nie jest to też zadaniem obecnych rozważań. Tym bowiem, co mają one pokazać jest odmienność procedur mechanicznych od tego sposobu rozwiązywania problemów, jakiego doświadczamy na każdym kroku w naszych ludzkich procesach poznawczych.

Turing opisał procedury operujące wyłącznie symbolami i wykonywane przez układ zdolny jedynie do stanów nieciągłych. Dzięki temu zyskaliśmy aparat pojęciowy wielce przydatny do tego, żeby postawić pytanie, jakim układem jest umysł ludzki. Pytamy przeto: czy jest on jedynie maszyną stanów nieciągłych? Czy w rozwiązywaniu problemów operuje on wyłącznie symbolami?

Dyskusja, jaka od pół wieku się toczy nad tymi pytaniami, ma z reguły następujący schemat. Istnieją zwolennicy jak i przeciwnicy tezy, że umysł jest maszyną Turinga. Niech pogląd jej zwolenników nazywa się Hipotezą Identyfikacji (umysłu z maszyną), w skrócie HI (odpowiada to z grubsza temu, co się nazywa mocną AI).

Przeciwnicy HI ustawiają się zwykle sami w sytuacji niekorzystnej, ponieważ powołując się na wynik Turinga zwykli głosić, co następuje: skoro maszyna nie potrafi wykonać pewnych zadań, a człowiek to potrafi, to inteligencja ludzka przewyższa maszynową. Tak silne twierdzenie warto skądinąd głosić, bo jest ono cennym zaczynem dyskusji (najlepiej, gdy robią to tak silni ,,gracze'', jak sam Gödel, Post, czy dziś Penrose). Ale jest to szkodliwe gdy prowadzi do zupełnego poniechania innej strategii, trafnej i bezpiecznej, a przy tym zniekształca rozkład racji po obu stronach dyskusji.

=== 2.3.Strategia bezpieczna i zarazem przywracająca rzeczom właściwe proporcje polega na tym, żeby nie dać się zmusić do obrony oczywistości. Oczywiste jest dla mnie, że moje doświadczenie strumienia świadomości ma charakter ciągły. Na to powiada mi zwolennik HI: ,,masz takie przeżycie, i ja też mam, ale obaj ulegamy złudzeniu, bo w rzeczywistości istnieją tylko stany nieciągłe''. Gdy zapytam, dlaczego mam to uznać za złudzenie, usłyszę zapewne, że z powodu konsekwencji, jaką byłoby istnienie nieskończenie wielu stanów umysłu. Gdy zapytam. dlaczego nie ma ich być nieskończenie wiele, rozmówca pewnie ucieknie się do osądu, że wiara w aktualną nieskończoność jest nienaukowa (bardziej krewki może doda, że zaprowadziła ona takich jak Leibniz, Cantor, Gödel czy Post do poglądów ,,mistycznych'', co jest dostateczną kompromitacją).

Takie postawy rzeczników HI biorą się ze swoistej prostoduszności. Nie wdaje się ona w takie na przykład dystynkcje jak ta między udatną idealizacją a sądem o rzeczywistości. Biorą się też może z nastawienia, że gdy jakiś termin jest w nauce modny, to dobrze się wypadnie szafując nim na prawo i na lewo.

I tak, założenie Turinga, że wyimaginowany rachmistrz przeżywa proces obliczania jako sekwencję stanów nieciągłych doskonale się nadaje do wiązania stanów z obserwowaniem i przetwarzaniem nieciągłych symboli. Ale wnosić z tej supozycji, że mózg jakiegoś fenomenalnego żywego rachmistrza, mnożąc pamięciowo w sekundę wielocyfrowe liczby działa tak samo jak maszyna Turinga - to znaczy nie odróżniać rzeczywistości od stworzonego do określonych celów modelu. Może mózg rachmistrza istotnie pracuje tak samo jak maszyna Turinga, czego może nie dostrzega zewnętrzna obserwacja, ale tego trzeba by dopiero dowieść.

Inny przypadek osobliwego ignorowania oczywistości przez rzeczników HI to pomijanie problemu, jak umysł dochodzi do aksjomatów, np. arytmetyki, oraz do reguł logicznych. Analogiczne będzie pytanie, jak dochodzi do posiadania tego zbioru dyrektyw, który kieruje procesem obliczania analizowanym przez Turinga. Wiemy, że komputer (tj. uniwersalna maszyna Turinga) ma te aksjomaty i dyrektywy od człowieka. A skąd bierze je człowiek?

Można, oczywiście, rozważać hipotezę, że proces dochodzenia do aksjomatów i reguł dokonuje się w ludzkim mózgu dokładnie tak, jak proces obliczania zanalizowany przez Turinga. Tyle, że nie zaistniał jeszcze drugi Turing, który by pokazał aż do najdrobniejszego szczegółu, jak ów proces przebiega. Można też rozważać, jako hipotezę przeciwną, myśl Pascala, że stopień złożoności tego procesu dopracowywania się aksjomatów i reguł jest tak wielki, że przekraca możliwości maszyny stanów nieciągłych operującej symbolami; musi się więc dokonywać za sprawą jakiejś zdolności radzącej sobie z zawrotną złożonością bez pomocy symboli i nawet bez pełnej świadomości (Pacal nazywał tę zdolność esprit de finesse lub, po prostu, sercem).

Za hipotezą Pascala przemawia nasze prywatne doświadczenie wewnętrzne, jak też neurofizjologiczne obserwacje procesów poznawczych nie posługujących się symbolami. Ale i doświadczenie wewnętrzne i owe obserwacje mogą być złudne. Może np. proces awerbalnego rozumowania da się w całości sprowadzić do manipulacji na ukrytych przed naszą świadomością symbolach zakodowanych gdzieś w tkance nerwowej i podlegających dokładnie tym samym operacjom, co symbole na taśmie maszyny Turinga. Ale żeby to udowodnić, trzeba owe domniemane symbole wyliczyć i zlokalizować. Nie ma innego sposobu demaskowania złudzeń!

Kto nie dysponuje tego rodzaju argumentami pro lub contra, może posuwać badania w inny sposób: przez traktowanie swej hipotezy, czy to będzie HI czy jej negacja, jako hipotezy właśnie, a więc supozycji, dla której szuka się przesłanek lub konsekwencji (lub jednego z drugim). To będą konkluzje warunkowe, też niosące cenny ładunek poznawczy.

Ciąg dalszy tego eseju będzie rozważaniem właśnie warunkowym, korzystającym z pojęcia obliczalności dostarczonego przez Turinga.


3. Supozycja o Przetwarzaniu Informacji Nieobliczalnej

=== 3.1. Przez informację nieobliczalną rozumiem tu wiadomość dotyczącą jakiejś cechy określonej liczbą, która nie jest obliczalna. Czy takie cechy występują w przyrodzie, w szczególności, w przyrodzie ożywionej?

To, co ostrożnie zaliczam tu do supozycji jest przez niektórych autorów przyjmowane z większą pewnością. I tak, na przykład, w bardziej kategorycznym tonie jest zdanie przytoczone na samym początku jako motto tych rozważań: Analogowe sieci rekurencyjne są zdolne do wykonywania obliczeń przekraczających możliwości uniwersalnej, skończonej maszyny Turinga. Być może, pozwalają na twierdzenie kategoryczne jakieś doświadczenia znane autorom tego zdania (a nie znane piszącemu te słowa). Nie ma jednak konieczności zamykania tej sprawy. I bez tego pouczające będą hipotetyczne jedynie próby odpowiedzi na postawione wyżej zagadnienie.

Niech odpowiedź przeczącą na powyższe pytanie reprezentuje rozmówca R, zaś postawę wstrzymania się od odpowiedzi - rozmówca A. Litery wzięte są od słów ,,radykalny rzecznik AI'' oraz ,,agnostyk''. Ten drugi wstrzymuje się od sądu i poprzestaje na pytaniach, pierwszy zaś żywi przekonanie, bez którego nie dałoby się utrzymać HI czyli radykalnego podejścia do sztucznej inteligencji (,,hard AI''), mianowicie, że nieobliczalne przetwarzanie informacji nie występuje w przyrodzie organicznej (co z tezy Churcha-Turinga czyniłoby jakieś prawo biologii lub nawet - jak pod koniec dialogu - prawo fizyki). Oto jak mógłby przebiegać dialog.

A - Spójrz na termometr: jaką dziś mamy temperaturę?
R - Zero. Nie, około pół stopnia plus.
A - A jeszcze dokładniej: ile wynosi ten ułamek?
R - Tego moje oko już nie rozezna, ale na co ci taka dokładność?
A - Praktycznie na nic, ale jest tu ciekawy problem teoretyczny: czy wysokość słupka rtęci może być określona liczbą niewymierną?
R - Nie widać powodu, dlaczego by nie...
A - A liczbą nieobliczalną?
R - Też nie widzę powodu, żeby zaprzeczyć.
A - Załóżmy, że ten słupek rtęci reaguje na temperaturę z idealną dokładnością. Co by wtedy znaczyło jego wskazanie wyrażone liczbą nieobliczalną?
R - Że aktualna temperatura też się wyraża liczbą nieobliczalną.
A - Zgódźmy się bodaj na chwilę, dla celów dyskusji, że reakcja rtęci na temperaturę podpada pod pojęcie analogowego przetwarzania informacji, a program, który steruje tym przetwarzaniem to odpowiednie prawo przyrody.
R - Na chwilę... mogę.
A - A teraz wyobraź sobie, że wyszedłeś już na dwór i na tę samą temperaturę reaguje twoje ciało. Jest to reakcja w zasadzie mierzalna (choć realna technika nie dysponuje idealnie dokładnym przyrządem). Tym razem jest to na pewno proces przetwarzania informacji. Czy ten pomiar też by się wyraził liczbą nieobliczalną?
R - Poczekaj, nie... Stanowczo nie!
A - Czemu?
R - Bo zaraz zapytasz mnie, czy impuls odebrany przez receptor temperatury, który to impuls trzeba już bez wahań zaliczyć do informacji, po dojściu do odpowiedniego ośrodka mózgowego nadal może mieć wartość nieobliczalną. A temu trzeba zdecydowanie zaprzeczyć.
A - Ale dlaczego?
R - Dlatego, że mózg jest maszyną Turinga, zaś ex definitione maszyna Turinga nie może przetwarzać informacji określonej przez liczbę nieobliczalną.
A - Dlaczego system nerwowy mialby być w przyrodzie takim wyjątkiem?
R - Istotnie trudno podać powód. Ale błąd kryje się gdzie indziej - w tym założeniu, które zgodziłem się przyjąć tylko na chwilę, że pewne procesy fizyczne w przyrodzie nieorganicznej podpadają pod kategorię przetwarzania informacji. Chwila minęła, tego założenia już nie przyjmuję. Dzięki temu mogę twierdzić, że nie w naturze systemu nerwowego jest jakaś odmienność od reszty przyrody (co brzmiałoby podejrzanie dla materialisty), ale że do istoty przetwarzania informacji należy operowanie wyłącznie liczbami obliczalnymi.
A - A zatem, jeśli wirus jest istotą żywą, to jego replikacja, czyli wytwarzanie potomka przez kopiowanie, jest przetwarzaniem informacji (stanowiącym, jak powiadasz, cechę organizmów), a zatem jest to proces dyskretny i obliczalny (bo, jak powiadasz, tylko takie są procesy przetwarzania informacji). Te ograniczenia nie dotyczą jednak np. replikacji kryształów, o ile je zaliczamy do przyrody nieorganicznej.
R - Nie, nie ma powodu do takiego traktowania kryształów, żeby ich replikacja należała do wyższego poziomu złożoności niż replikacja wirusów. Pozostaje mi więc zająć stanowisko bardziej radykalne: wszystkie układy w przyrodzie, jeśli przetwarzają informacje, to czynią to na sposób maszyny Turinga.

Ta dyskusja ujawniła pewne konsekwencje stanowiska R, zajętego na gruncie HI. Jest to pewna teza o jedności świata - głosząca, iż wspólne wszystkim układom przetwarzającym informację jest należenie do kategorii maszyn Turinga.

=== 3.2. Żeby docenić doniosłość tego rodzaju tez, trzeba je zobaczyć na szerszym historycznym tle dążeń unifikacyjnych w tworzeniu naukowego obrazu świata. Szczególnie pouczający - dzięki jaskrawości kontrastu - jest historyczny eksperyment kartezjański. Dualizm bowiem Kartezjusza, jego radykalne rozdzielenie sfery umysłu od sfery materii stanowi zaprzeczenie tezy o jedności świata, prowadząc także do rozdwojenia nauk na mówiące o duchu - Geisteswissenschaften - i te mówiące o materialnej przyrodzie (dalsze konsekwencje tego dualizmu widać u Kanta, ale dla naszych celów wystarczy odwołanie do Kartezjusza).

Naturalnym kierunkiem w przezwyciężaniu tego dualizmu jest uznanie jednego z członów za pozbawiony samoistnej realności, będący tylko wytworem drugiego. I tak materializm widzi czynnik unifikujący w materii; w dialekcie materialistów dialektycznych zwykło się było mówić o ,,materialnej jedności świata'', co dobrze oddaje ów projekt unifikacyjny. Miało to oczywiste konsekwencje, gdy idzie o jedność nauki: nie ma nauk o duchu, a to, co tak nazywano (w czasach przed dialektycznym oświeceniem) to nauki mające za przedmiot ludzkie społeczeństwo jako wytwór warunków materialnych.

W podobnym kierunku szedł neopozywizm, ale zaczynając od drugiego końca. Pierwotna w nim była unifikacja nauk, a ponieważ miała się ona dokonać na gruncie fizykalizmu (redukcja wszystkich nauk do fizyki), miało to dać w wyniku jednolicie materialistyczny obraz świata.

Odwrotny projekt unifikacji, który by postulował redukcję zjawisk fizycznych do umysłowych, np. psychologizm w fizyce, nie zaistniał, jak sie wydaje, w dziejach myśli europejskiej (a jeśli, to tylko w prehistorii, na etapie mentalności animistycznej).

=== 3.3. Coraz wyraźniej jednak rysuje się alternatywa do materialistycznego i pozytywistycznego projektu unifikacji. Jest to alternatywa informatyczna, ta sama, która się ujawnia przy okazji sporów o SI, tak więc ten finał obecnego eseju dotyczy zarówno SI jak i kwestii jedności świata i jedności nauki.

Samo pojęcie sztucznej inteligencji nie da się zdefiniować inaczej, jak tylko na gruncie opozycji hardware - software (sprzęt - program). Stanowisko HI (identyfikacja umysłu z maszyną Turinga) modelowo reprezentowane przez samego Turinga (z okresu powojennego) polega, w pewnym sensie, na unieważnieniu roli hardware'u. W tym sensie, że choć jakiś sprzęt jest konieczny, jego fizyczna natura nie gra roli; mogą to byc lampy próżniowe, a może być coś tak odmiennego, jak umieszczona w czaszce substancja o konsystencji gęstej owsianki (jak wyraził się Turing w pewnej pogadance radiowej).

Unifikacja w stylu Turinga jest tylko częściowa, bo obejmuje umysły, mózgi i maszyny Turinga, pozostawiając poza granicami tej sfery resztę przyrody (początkowe stanowisko R w nakreślonym wyżej dialogu). Spróbujmy jednak iść w tym kierunku, do którego zdaje się mieć skłonność dyskutant A (choć przez ostrożność poprzestaje na zadawaniu kłopotliwych pytań swemu rozmówcy). Niechaj pojęcie informacji stanie się uniwersalną kategorią ontologiczną.

Nie jest to myśl oryginalna. Już od momentu powstania termodynamiki, w szczególności sformułowania jej tzw. drugiej zasady, pojęcie informacji weszło do fizyki i kosmologii. W tym duchu napisana jest np. książka Toma Stoniera Information and the Internal Structure of Universe. An Exploration into Information Physics (Springer-Verlag, 1990). Jeszcze śmielej sobie poczyna Frank J. Tipler w Physics of Immortality (Doubleday, 1995), wkraczając w sferę niemal fantastyki (co pewien recenzent wyraził komplementem, że jest to połączenie ,,Odysei Kosmicznej'' z ,,Boską Komedią'').

Nie jest to też myśl pozbawiona precedensów w filozofii. Precedens jest właściwie jeden, ale znakomity, bo na imię ma Leibniz (niezależnie od Leibniza szedł w tym kierunku Pascal, ale nie zdążył wyrazić swej wizji bardziej systematycznie niż w postaci aforyzmów w ,,Myślach''). Monadologia Leibniza jest gigantycznym projektem unifikacji obrazu świata za pomocą pojęcia automatu, nazywanego też maszyną. Kosmos jest nieskończonym hierarchicznym układem maszyn, w którym znajdują się automaty nieskończone, utożsamione z organizmami i zarazem z umysłami.

Leibnizjańskie pojęcie nieskończoności świata najlepiej jest przybliżyć przez pewną analogię z koncepcją przyrody Davida Bohma wspomnianą już wcześniej (odcinek 1.1). Wspólna jest im wizja nieskończonej złożoności jako idącej bez końca ,,w głąb'', to jest ku strukturom coraz bardziej ,,mikro'', warunkującym zachowanie struktur wcześniej poznanych (jako będących bliżej naszego makroświata). Spójrzmy na te struktury jak na układy będące połączeniami sprzętu z programem, gdzie zachowania układów są sterowane przez programy (software), a będziemy mieli współcześnie ujętą Monadologię Leibniza (w tym aspekcie, jakaś analogia może by się znalazła u Feynmana, wyobrażającego sobie punkty w przestrzeni jako komputery).

W tej wizji jedności świata zagadnienie stworzenia sztucznej inteligencji dorównującej ludzkiej nie jest problemem, który byłby nie do pokonania. Natomiast wedle Kartezjusza, domena umysłu, zawierająca inteligencję i świadomość, byłaby niedostępna dla inżynierii informatycznej, uwzględniającej także hardware jako czynnik istotny w konstrukcji.

Jeśli jednak stanowisko Leibniza w swych konsekwencjach mija się ostatecznie ze stanowiskiem Turinga, to właśnie z racji owego infinityzmu. Wprawdzie świat jest jednolity, to znaczy wszędzie jest, by tak rzec, hardwarowo-softwarowy, a więc nie jest niedostępny dla ludzkiej inżynierii, także informatycznej, w sposób zasadniczy. Może jednak okazać się niedostępny jeśli czynniki warunkujące inteligencję i świadomość znajdują się w tak głębokiej warstwie rzeczywistości przyrodniczej, tak odległej od naszych możliwości poznawczych i technicznych (np. jakiejś sub...subkwantowej), że nie osiągnie się jej w będącym do dyspozycji czasie i przy posiadanych środkach.

Ponadto - dodajmy tu coś, o czym Leibniz nie mógł wiedzieć - zabraknie takich środków także wtedy, gdyby pewne procesy przetwarzania informacji wymagały do poznania ich i wpływania na nie znajomości liczb nieobliczalnych. Ten rodzaj softare'u Leibniz nazwałby zapewne boskim, jak mówił o mechanica divina jako tej, która radzi sobie z nieskończonością na modłę przekraczającą możność człowieka.

Tak więc, dochodzimy w konkluzji do pewnej oryginalnej odmiany agnostycyzmu w kwestii SI. Stosowne jest dla niej określenie cytowanego na wstępie Mikołaja z Kuzy, który swe rozważania o świecie i umyśle snuł pod tytułem docta ignorantia - uczona niewiedza. Jest to niewiedza, bo wciąż nie wiemy, czy sztuczną inteligencję w całej okazałości, to jest równą ludzkiej i wyposażoną w pełną świadomość, uda się kiedykolwiek wytworzyć. Jest to niewiedza uczona, bo bierze się z wiedzy o tym, co by trzeba wiedzieć, żeby zmierzyć się z pytaniem o realność tego projektu.*)


*) Dwie pozycje w niniejszym tomie mogą być wykorzystane w roli aneksów do tych rozważań. Bliższa charakterystyka przywoływanych tutaj poglądów Leibniza znajduje się w tekście dr Haliny Święczkowskiej "Algorytmiczność poznania według Leibniza". Przyczynkiem zaś do metod konstruowania SI, pokazującym pewien fragment warsztatu (logicznego i programistycznego) jest tekst dr Anny Zalewskiej "Logiczne podstawy automatycznego dowodzenia twierdzeń". Niniejsza praca (jak i obie tu wspomniane) należą do projektu badawczego wspieranego grantem KBN (Zespół Automatyki etc) nr 8T11C01812 pt. Badania nad naturalną i sztuczną inteligencją za pomocą automatyzacji rozumowań.


Do początku tekstu