STRONA GłÓWNA "FORUM" DOMENA "CALCULEMUS"
Strona główna Warsztatów Turing 1998



Witold Marciszewski

Czy przyroda musi się zachowywać
jak maszyna Turinga?


Platon miał się wyrazić, że kto nie wie o istnieniu liczb niewymiernych, ten nie jest godzien zwać się Grekiem; a nawet człowiekiem. Inaczej mówiąc, jest barbarzyńcą.

Przechowała się też z czasów starożytnych inna anegdota o liczbach niewymiernych. Otóż łagodni skądinąd Pitagorejczycy utopili w morzu jednego ze swych współbraci. Za co? Za to, że zdradził profanom sekret o istnieniu liczb niewymiernych. Uczynili to z troski o prostych ludzi, żeby nie pomieszało się im w głowach od tak szokującej wiadomości. Ale, jak widać, za Platona wiedza ta przestała być aż tak ezoteryczna.

Obie anegdoty dobrze przylegają do naszych czasów. Trzeba tylko zamiast o Grekach mówić o filozofach, a zamiast o niewymiernych - o liczbach nieobliczalnych. Gdy Alan Turing badał je w latach 30tych, nie był jeszcze konieczny pośpiech w upowszechnianiu owej wiedzy. Napór jednak cywilizacji komputerowej to sprawił, że trzeba ją dziś zaliczyć do elementarza ludzi wykształconych, a tym bardziej filozofów.

Jak potrzebna jest ona dzisiaj, może nas przekonać analiza stanu świadomości ni mniej ni więcej jak Stanisława Lema. To w sam raz, by dokonać pomiaru świadomości oświeconego ogółu (tj. zdolnego, by Lema rozumieć).


1. Problem ,,mocy obliczeniowej'' przyrody

Przyjęło się mówić w pewnym kręgu autorów, że żywe komórki wykonują obliczenia. Pisze o tym Stanisław Lem w eseju Moc obliczeniowa życia (ze zbioru Chiński Pokój, wyd. Universitas, Kraków 1996). Cytuje tam dwa artykuły z Science (tom 266 z 11 listopada 1994), których tytuły dobrze reprezentują ów sposób mówienia, mianowicie:

  • ,,Molecular Computation of Solutions to Combinatorial Problem'' (Leonard M. Adelman)
  • ,,On the Path to Computation with DNA'' (David K. Gifford).

Oba artykuły dotyczą znanego problemu komiwojażera oraz tego, jak sobie z nim radzą sekwencje oligonukleotydowe. Im więcej ,,miejscowości'' (wierzchołków grafu) trzeba odwiedzić możliwie najkrótszą drogą, tym bardziej wzrasta złożoność zagadnienia. Dla obecnych koputerów rozwiązanie problemu przy dziesięciu wierzchołkach wymaga około mikrosekundy. Ale już przy STU zabrałoby to komputerowi (obliczenia cytuje Lem na odpowiedzialność Gifforda):

3,9 . 1011 wieków!

Blisko czterysta miliardów wieków to czas kilkadziesiąt razy większy od trwania wszechświata. Jeśli więc ewolucja życia na ziemi, mierzona zaledwie setkami milionów lat, radzi sobie doskonale z problemami o tej skali złożoności, to musi dysponować - powiadają autorzy takich obliczeń - niewyobrażalnie większą mocą obliczeniową niż najpotężniejsze obecne komputery.

Nie wchodząc w problemy biologiczne, wykorzystam powyższy kontekst, żeby postawić pytanie:

  • Czy terminy ,,obliczanie'' i ,,obliczalność'' powinny być rozumiane w takich kontekstach tak jak zostały one zdefiniowane w logice w związku ze słynnym zagadnieniem Entscheidungsproblem? Jest ono podejmowane, w różnych postaciach, przez teorie: algorytmów, funkcji rekurencyjnych, maszyn Turinga etc.
Lem nie ma wątpliwości, że chodzi o jedno i to samo pojęcie, gdyż określa molekuły biologiczne jako ,,naturalnie powstałe mikromaszyny Turinga''. Jego zdaniem, moc obliczeniowa przyrody powstaje ze współdziałania miliardów czy bilionów, powiedzmy, bakterii, z których każda wykonuje swoją cząstkę obliczeń, ostateczny zaś wynik powstaje dzięki metodzie przetwarzania równoległego (parallel processing). Nasuwa się jednak nieodparcie pytanie: gdzie jest program integrujący w całość wyniki cząstkowe?

Nie atakując hipotezy, że moc obliczeniowa przyrody polega na przetwarzaniu danych wykonywanym paralelnie przez zawrotnie wiele maszyn Turinga, rozważę - dla przyjrzenia się różnym ewentualnościom - przypuszczenie konkurencyjne tej oto treści. W przyrodzie owa gigantyczna moc przetwarzania informacji stąd pochodzi, że jej poszczególne urządzenia przetwarzające (komórki, organy itd) działają na innej zasadzie niż maszyna Turinga, mogącej dawać większą efektywność przetwarzania informacji. Przyjrzymy się tej ewentualności nieco dokładniej w następnym odcinku. [Przypis 1]


2. Odwzorowanie analogowe, przyczynowość, symulacja cyfrowa

Dla ułatwienia pracy wyobraźni w obecnym wywodzie, przypomnijmy ideę mało już dziś praktyczną, nadal jednak mającą walor teoretyczny - maszyn analogowych. O komputerach analogowych właściwie już się nie mówi, bo słowo ,,komputer'' nawet bez przymiotnika, oznacza urządzenie cyfrowe. Ale maszyny analogowe są nadal przecież obecne w przyrodzie.

Ponieważ procesy przetwarzania informacji przez system nerwowy należą, przynajmniej w części, do analogowej domeny przyrody, a zarazem wchodzą w interakcje z systemami symboli (należącymi do kultury i pochodnymi względem świadomości), pojawia się następujące pytanie. Czy system złożony ze współdziałających podsystemów, analogowego i cyfrowego, a więc symbolicznego, miałby dzięki takiemu złożeniu większą moc przetwarzania informacji aniżeli system czysto symboliczny?

Warunkiem koniecznym odpowiedzi twierdzącej jest wykazanie, że pod pewnym względem system analogowy ma przewagę nad cyfrowym. A skoro bezsporne jest to, że w innym aspekcie góruje cyfrowy, mający sam z siebie znakomite rezultaty, to sprzężenie obu systemów powinno dać wynik rewelacyjny (conajmniej coś takiego, jak homo sapiens).

Pojęcie systemu analogowego jest tu jedynie hipotetyczną egzemplifikacją, którą się posługujemy w braku lepszej. Podpada ona pod pojęcie ogólniejsze wyrażane zwrotem oddziaływanie przyczynowe, który przyjmuję jako skrót terminu; proces przebiegający według jakiegoś prawa przyrody.

Żeby było konkretniej, można sobie przedstawić proces odwzorowania fali akustycznej przez falę elektromagnetyczną dokonujący się w mikrofonie, będący oddziaływaniem przyczynowym z gatunku analogowych. Jest to przykład reprezentujący ten rodzaj odziaływań, w których zjawiska przyrodnicze są zarazem sygnałami.

Sygnałami czego? Jakichś liczb. Te same liczby mogą zostać zapisane cyfrowo (z przybliżeniem limitowanym warunkami pomiaru). Ten rodzaj zapisu umożliwia procedurę symulacji cyfrowej. Proces symulujący podlega ograniczeniom określonym w Tezie Churcha-Turinga, to znaczy, ograniczeniom właściwym maszynie Turinga. To zaś znaczy, że proces przetwarzania symboli zostanie zakończony określonym wynikiem tylko wtedy, gdy ten wynik będzie liczbą obliczalną.

I tak powstaje fundamentalne pytanie: czy symulowany proces przyrodniczy podlega tym samym ograniczeniom, co symulujący go proces cyfrowy? Oto, na przykład, oko rejestruje obraz, co stanowi pewien proces przyrodniczy, powiedzmy, elektro-chemiczny. Można go symulować cyfrowo (np. gdy konstruuje się ,,oko'' robota). Ten proces cyfrowy podlega Tezie Churcha-Turinga. Czy podlega jej także symulowany proces przyrodniczy?

Innymi słowy, czy nie bywa może tak, że w procesach przyrodniczych dokonuje się ,,obliczanie'' operujące na liczbach nieobliczalnych? Z tym pytaniem przejdźmy do punktu wyjścia, zaczerpniętego od Lema i autorów badających procesy obliczeniowe w przyrodzie. Wtedy pojawia się alternatywa do poglądu Lema, że żywa przyroda stanowi gigantyczny zbiór maszyn Turinga, który swą moc obliczeniową, niepomiernie górującą nad komputerem elektronicznym, zawdzięcza metodzie przetwarzania równoległego. Alternatywą byłoby przypuszczenie, że organizmy nie podlegają ograniczeniom właściwym maszynie Turinga, a więc są w stanie przetwarzać informacje wyrażane liczbami nieobliczalnymi.


3. Implikacje informatycznego fizykalizmu

Nie jest zadaniem tego eseju podawać argumenty na rzecz takiego stanowiska, które można by określić terminem ,,superkomputabilizm'' - mało wygodnym fonetycznie, sugerującym jednak myśl, o którą chodzi. Jest to myśl - powtórzmy - że istnieją w przyrodzie urządzenia, które swymi możliwościami przetwarzania informacji przekraczają (są ,,super'' - nad) jakąkolwiek maszynę Turinga, czyli urządzenie operujące na liczbach obliczalnych (computable).

Ponieważ pilna jest potrzeba posiadania terminu dla nazwania tego stanowiska, warto rozważyć jeszcze inne propozycje terminologiczne, żeby w końcu przyjęła się ta, która lepiej zda egzamin. Innym terminem do rozważenia jest ,,fizykalizm''. [Przypis 2]

Ma on tę wadę, że nabrał już określonego znaczenia w filozofii nauki (od czasów Koła Wiedeńskiego), ale wieloznaczność i tak osacza nasz język zewsząd, jesteśmy więc na nią zahartowani. Ma zaś ów termin tę zaletę, że wskazuje na rolę czynnika fizycznego, mianowicie sprzętu (w sensie obejmującym także organizmy, czyli w sensie hardware'u). Rozważana tu hipotetycznie przewaga ,,obliczeniowa'' organizmów nad komputerami (jako realizacjami maszyny Turinga) brałaby się z przewag sprzętu organicznego, który działając wedle praw przyrody byłby w stanie przetwarzać sygnały fizyczne wyrażające się w liczbach nieobliczalnych; a tym samym, przetwarzać zakodowane w tych sygnałach informacje.

Argumentacja na rzecz stanowiska ujmowanego (w różnych aspektach) przez wymienione terminy byłaby osobnym i trudnym zadaniem. Bardziej wykonalne jest rozpatrzenie pewnych konsekwencji fizykalizmu. Są one zarówno natury technicznej jak i filozoficznej. A dotyczą zarówno zrozumienia, jak funkcjonuje inteligencja naturalna, jak i projektowania inteligencji sztucznej. Dotychczasowe osiagnięcia SI biorą się z realizowania idei Turinga, to jest tworzenia coraz doskonalszych programów (czyli maszyn Turinga). Postępy w konstrukcji sprzętu (hardware) są też kolosalne, gdy idzie o wzrost mocy obliczeniowych. Nie są one jednak zasadnicze, ponieważ jest to wzrost czysto ilościowy związany z wielkościami pamięci i szybkością procesów przetwarzania.

Jeśli ma rację fizykalizm, to zasadniczo nowy krok w kierunku konstruowania inteligencji będzie polegał na zastosowaniu jakościowo innego rodzaju sprzętu. Narzucającym się tu kandydatem są oczywiście organizmy lub jakieś ich części. Nie jest tu ważne, czy ,,wypożyczymy'' je od przyrody, czy wykonamy syntetycznie. Tak czy inaczej, będzie to zasadniczo inna technologia.

Gdy ten krok zostanie zrobiony, trzeba będzie zapewne dostosować doń metody tworzenia programów. Powinny by one, w szczególności, uwzględniać interakcję dwóch rodzajów procesów: obliczeniowych i ,,superobliczeniowych'', cyfrowych i analogowych. To znowu powinno kolosalnie zwiększyć moce przetwarzania informacji (czyli obliczania w tym ,,ogólniejszym'' sensie, obejmującym także liczby nieobliczalne).

Na sam koniec, jeszcze bardziej puśćmy wodze spekulacji filozoficznej. A gdyby jednak miał swoistą rację Turing, gdy sądził, że cała zdolność do wytwarzania inteligencji sprowadza się do zdolności programowania...? Ten pogląd antyfizykalistyczny może być paradoksalnie pogodzony z zarysowanym tu fizykalizmem. Zauważmy, że hardware powstaje za sprawą innego hardware'u oraz odpowiedniego software'u (jak to widzimy w zautomatyzowanej, czyli sterowanej programami, produkcji procesorów). A więc hardware biologiczny - tu się zaczyna spekulacja - też powstawałby za sprawą jakiegoś software'u, przy odpowiednim udziale wcześniejszego hardware'u. Ten wcześniejszy hardware znowu potrzebowałby jakiegoś software'u z hardware'm, i tak dalej. Może tak dalej i dalej w nieskończoność, jak to snuł w swoich wizjach Leibniz?

Poprzedniego akapitu nie powinni czytać trzeźwi naukowcy, którzy by go odebrali jako sen nawiedzonego filozofa. Ale plemię filozofów rządzi się swoimi prawami, pozwalającymi śnić o rzeczach, które nie śnią się innym. A jeśli się przyjrzeć splecionym, mimo wszystko, losom nauki i filozofii, to się okaże, że precyzyjna w swym ostatecznym kształcie myśl naukowa wynurzała się u swych początków z mgieł filozoficznej spekulacji.


P r z y p i s 1

Do osobnych rozważań pozostaje problem: jakimi wielkościami operuje ludzka świadomość? Oto pewien przykład. W matematycznej teorii decyzji powiada się, że tzw. oczekiwana użyteczność (expected utility), która w ekonomii występuje w definicji popytu, jest określona liczbą rzeczywistą (zob. np. Leonard J. Savage, The Foundations of Statistics, John Wiley & Sons, 1954, odc. 5.3). Gdy rachuje się na takich wielkościach w sposób symboliczny, to wchodzą w grę tylko liczby obliczalne; tak się dzieje wtedy, gdy np. eksperci opracowują jakiś plan czy raport na piśmie. W codziennym jednak życiu preferencje kierujące ludzkim postępowaniem nie są zapisywane symbolicznie, lecz jakoś odczuwane. Czy takie preferencje muszą się wyrażać tylko liczbami obliczalnymi? Jeśli nie tylko, to intuicyjny ,,rachunek'' decyzyjny nie podlegałby ograniczeniu właściwemu maszynie Turinga. Nie wiadomo w obecnym stanie wiedzy, jak można by potwierdzić lub obalić tego rodzaju przypuszczenie, tym nie mniej jest to zagadka filozoficzna warta odnotowania.

P r z y p i s 2

Propozycję, by stanowisko tu rozważane nazwać fizykalizmem miałem możność dyskutować na posiedzeniu Leibniz Gesellschaft (Hanower, w czerwcu 1995), charakteryzując tym terminem idee Leibniza i porównując je z pewnym poglądem von Neumanna. Inspiracją był artykuł Helmuta Schnelle "Turing Naturalized: Von Neumann's Unfinished Project", w wydanym przez R.Herkena zbiorze The Universal Turing Machine. A Half-Century Survey (Oxford Univ.Press, 1988), gdzie Schnelle przytacza zdania von Neumanna w rodzaju: "there is an equivalence between logical principles and their embodiment in a neural network"; gdybyśmy mieli przeto inny system nerwowy (hardware), inna byłaby z tego powodu nasza logika (software).

Zaproszenia do opublikowania tej propozycji świadczą o jej akceptowaniu w pewnych kręgach. Odnośne publikacje to "Hätte Leibniz von Neumanns logischen Physikalismus geteilt?" (był to też tytuł w/w odczytu), Beiträge zur Geschichte der Wissenschaft 6.2 (1996), oraz "Leibniz's Two Legacies. Their Implications for Knowledge Engineering", Knowledge Organization, 23 (1996) No.2. W języku polskim ,,lansowałem'' ten termin w artykule "Fizykalizm jako program badawczy w wersji von Neumanna" w zbiorze pod red. M.Czarnockiej Dziedzictwo logicznego empiryzmu, IFiS PAN, 1995, oraz na konferencji poprzedzającej tę książkę.


Do początku tekstu