WITOLD MARCISZEWSKI
Czy można i czy trzeba
pokonać Barierę Turinga?
Nazwijmy Barierą Turinga górną granicę możliwości obliczeniowych, podaną w definicji maszyny Turinga. Istnieje pogląd, że w rozwiązywaniu problemów, matematycznych i wszelkich innych, nie ma szans na pokonanie owej bariery. Wedle tego poglądu, rozwiązania nie-algorytmiczne, zwane zwykle intuicyjnymi, a więc takie, które by przekraczały moc obliczeniową maszyny Turinga, albo nie są wiarogodne, albo są, w gruncie rzeczy, procesami algorytmicznymi. Te domniemane procesy zachodziłyby w mózgu, mając w istocie charakter algorytmiczny, który nie jest jeszcze poznany. Przesłanką tego poglądu jest domniemanie, że każdy prawidłowy proces poznawczy musi się dokonywać wedle jakiegoś algorytmu, czyli na zasadzie funkcjonowania maszyny Turinga.
Istnieje też pogląd, że pytanie o możliwość przekroczenia Bariery Turinga nie wymaga odpowiedzi, ponieważ nigdy nie zajdzie potrzeba takiego przekroczenia. Opiera się on na mniemaniu, że wszystkie zależności zachodzące czy to w świecie fizycznym czy w redukowalnym doń (jak się sądzi) świecie umysłowym dadzą się wyrazić funkcjami obliczalnymi, które wystarczy obliczyć z pewnym, dostosowanym do danego zagadnienia, stopniem dokładności.
Każdy z tych poglądów wystarcza do uzasadnienia stanowiska zwanego "strong AI". Żeby uniknąć nonszalancji językowej, nie dbającej o odróżnienie mocy poglądu od mocy tego, czego ów pogląd dotyczy, poniechajmy dosłownego przekładu na polski. Szukając nazwy dla tego stanowiska, zauważmy, co następuje. Jego istotą jest przypisanie maszynie Turinga, a więc i komputerom cyfrowym, maksymalnych zdolności rozwiązywania problemów. Maksymalnych czy to w tym sensie, że żadne inne urządzenie nie potrafi więcej (czego dotyczy pierwszy człon w tytule tego tekstu), czy też w tym sensie, że jest to maksimum tego, czego nam trzeba (drugi człon tytułu). Stosowna więc będzie nazwa ,,maksymalizm komputerowy'' (czy ,,komputacyjny'' lub ,,cyfrowy''); zwolenników tego stanowiska będę nazywał maksymalistami (opuszczając przydawkę, jako że w obecnym tekście brzmiałaby zawsze tak samo).
Kieruję do kolegów maksymalistów trzy kwestie, czyniąc to raczej w trybie pytajnym -- dopytywania się ekspertów o pewne rzeczy, których znajomość ma leżeć w ich gestii -- aniżeli w trybie polemicznym, spotykanym w obozie "weak AI" (np. u licznych autorów szermujących za Johnem Searle argumentem ,,chińskiego pokoju'').
Pytanie pierwsze -- o mózgowe algorytmy prowadzące do uznania prawdziwości aksjomatów logiki oraz do uznania skuteczności reguł dowodzenia (w prowadzeniu od prawdy do prawdy): czy takowe istnieją, a jeśli tak, to w jakiej perspektywie czasowej spodziewać się ich odczytania?
Pytanie to rzadko bywa stawiane (sam spotkałem się tylko raz z pewną doń aluzją - w Nowym Umyśle Penrose'a, s.132). A wydaje się ono dla SI podstawowe. Jego sens jawi się przez porównanie teorii kwantyfikatorów z rachunkiem zdań. Ten drugi nie wymaga aksjomatów ani reguł dowodzenia, ponieważ istnieje algorytm rozstrzygający o tym, które z jego formuł mają wartość wyróżnioną (w szczególności, prawdziwość logiczną).
Tu pytanie do ekspertów: czy wolno sądzić, że ten algorytm ,,zerojedynkowy" został już rozpoznany w mózgu w postaci, może, bramek logicznych? Jeśli tak, pomoże to nadać sens pytaniu o jeszcze nie rozpoznane algorytmy mózgowe sterujace mózgiem w toku stosowania logiki kwantyfikatorów; określiłoby to bowiem standard dokładności odpowiedzi.
Rozważmy jako przykład system logiki kwantyfikatorów wytworzony przez mózg Davida Hilberta. W pewnym momencie jego proces mózgowy zakończył się postanowieniem, by przyjąć aksjomaty: (x)Fx->Fy oraz Fy->(Ex)Fx. Oczywiście, wedle maksymalistów, do tego samego będzie zdolny odpowiednio zaprogramowany, czyli dysponujący odpowiednim algorytmem, robot; powiedzmy -- żeby dać mu imię -- Hilbertoid.
Hilbertoid przyjmuje te aksjomaty, i jeszcze dwie reguły, żeby tymi skromnymi środkami osiągnąć wielki cel -- wykazać rozstrzygalność całej matematyki, osiągalną za pomocą procedur dowodzenia. Każdy bowiem dowód jest reprezentowany przez pewną formułę (w postaci implikacji) rachunku kwantyfikatorów, która to formuła ma za następnik dowodzoną tezę, a za poprzednik aksjomaty danej teorii; dowód jest poprawny, gdy ta formuła jest prawem logiki. Tak więc procedura, która by o każdej formule potrafiła rozstrzygnąć, czy jest prawem logiki, rozstrzygałaby zarazem o poprawności każdego dowodu czyli o dowodliwości jego konkluzji.
Ów cel okazuje się jednak nieosiągalny (co udowodnił m.in. Alan Turing), a więc z dwóch procesów w obwodach Hilbertoida, tego (A) prowadzącego do powyższych aksjomatów i tego (B) prowadzącego do przekonania, że dzięki nim wykaże się rozwiązywalność wszelkich problemów matematycznych, conajmniej proces B musiał przebiegać w sposób nie-algorytmiczny, bo algorytm nigdy się nie myli; chyba, że był to algorytm umyślnie tak zrobiony, by doprowadzić Hilbertoida do pomyłki, w słusznym przewidywaniu programisty, że będzie ona niezwykle płodna dla rozwoju nauki. Wtedy powstaje pytanie: skąd o tym wiedział programista?
Maksymalista zapewne odpowie, że w ewolucji nauki, podobnie jak w ewolucji organizmów znacząca jest rola przypadku. Pomyłka Hilbertoida jest przypadkiem nie wymagającym do swego zaistnienia żadnego programu, ale gdy zaistnieje, to odpowiedni program może z tego zrobić użytek ewolucyjny. To jest pomysłowa opowieść (pochodząca, w swej osnowie, od Darwina); ci zaś, co w nią wierzą stają przed kolejnym wyzwaniem, żeby takie algorytmy proewolucyjne konstruować na potrzeby sztucznego środowiska uczonych.
To są jednak wyzwania na dalszą przyszłość, a w pierwszej kolejności trzeba by podać algorytm dochodzenia do prawdziwych aksjomatów. Kiedy to może nastąpić? Nie wymagajmy dokładnej daty, ale należy oczekiwać jakiegoś harmonogramu badań. Co w pierwszej kolejności, a co potem, konstruktor SI powinien wiedzieć i zrobić, żeby się do tego celu przybliżać?
Pytanie drugie ma do czynienia z nieskończonością. Niech będzie to skromna nieskończoność zbioru przeliczalnego. Niech jej percepcję w umyśle czy mózgu człowieka reprezentuje ZASADA INDUKCJI. Jak zaprogramować sztucznego matematyka, by samodzielnie doszedł do tej zasady?
Dla ustalenia uwagi, wydobądźmy z zasady indukcji jedną tylko myśl: że każda liczba naturalna ma następnik. Stan mózgowy odpowiadający tej myśli nie sprowadza się do posiadania w pamięci samej formuły:
dla każdego x istnieje takie y, że y=x+1, którą można też wpisać w pamięć komputera, by jej użył w rozumowaniach. Powstanie tej formuły jest skutkiem pewnego procesu obywającego się bez słów. Jeśli ma to być wynikiem działania jakiegoś algorytmu, powinien on operować symbolami innymi niż słowa, zapewne z kategorii jakichś sygnałów neuronowych. Sygnałów takich może być tylko skończenie wiele, nie można więc reprezentacji symbolicznej zbioru liczb naturalnych zrealizować w postaci listy symboli. Musi to być jakiś stan lub skończony zbiór stanów fizycznych odpowiadający temu, co w naszej świadomości jawi się jako wizja możliwości nie kończącego się posuwania się naprzód w łańcuchu liczb.
Znowu pytanie do ekspertów AI ze szkoły maksymalistów: czy widać już jakiś sposób dojścia do recepty na wytworzenie takiej wizji?
Zasada indukcji była dwa razy w tym stuleciu przedmiotem żywej debaty wśród matematyków. Za każdym razem kwestionowano możność sprowadzenia jej do operacji czysto syntaktycznych (co należy do istoty komputeryzacji). Na początku wieku czynił to Henri Poincare, zwalczając program formalizacji matematyki środkami logicznymi (logicyzm), a w latach trzydziestych -- Alfred Tarski, dyskutując z formalizmem Hilberta i Koła Wiedeńskiego (obszernie przedstawiam te spory w artykule "Z dziejów pojęcia dedukcji: Poincare, Tarski, Sztuczna Inteligencja" w zbiorze pod red. Ewy Żarneckiej-Biały Między prawdą i normą a błędem, Wyd. UJ, 1997).
Hilbert chciał oprzeć tezę o rozstrzygalności matematyki na sprowadzeniu wszelkich dowodów do praw logiki kwantyfikatorów. Ale debata nad zasadą indukcji prowadzi do wniosku, że wykracza ona poza środki tej logiki. Nie wystarczy przeto wyposażyć sztucznego matematyka w kwantyfikatory, żeby go uzdolnić do dowodzenia twierdzeń. Gdy więc konstruktorzy SI uporają się już z algorytmami dochodzenia do aksjomatów logiki, staną przed kolejnym i jeszcze wyższym progiem: symulować algorytm kierujący procesem, który prowadziłby do odkrycia zasady indukcji przez sztucznego matematyka.
Jako podsumowanie debaty o tej zasadzie niech posłuży zdanie z tak autorytatywnej summy dziejów logiki, jak W. i M. Kneale'ów The Development of Logic (Clarendon Press, 1962, s.701): "The principle of mathematical induction transcends not only the resources of propositional logic but also those of quantification theory."
Pytanie trzecie wkracza w sferę, którą można określić jako logikę działania, mianowicie matematyczną teorię decyzji (MTD). Jak można oczekiwać, będzie to logika bardziej skomplikowana, nawet przy wszystkich uproszczeniach idealizacyjnych, niż teoria kwantyfikatorów czy nawet arytmetyka liczb naturalnych. Wkracza ona w domenę liczb rzeczywistych, a więc wyższy niejako poziom nieskończoności. Czy i to będą potrafili symulować maksymaliści SI?
MTD dokonuje arytmetyzacji porównań między decyzjami. Arytmetyzacja dotyczy dwóch aktów. Jednym jest oszacowanie prawdopodobieństwa stanów oczekiwanych w wyniku takiego czy innego wyboru. Drugim jest oszacowanie korzyści niesionych przez taki lub inny wybór. Jeden i drugi ustala pewną funkcję przybierającą wartości ze zbioru liczb rzeczywistych (por. np. L.J.Savage'a The Foundations of Statistics (John Wiley, 1954, s.69).
Czy jakimkolwiek algorytmem można symulować tak określone postępowanie decyzyjne? Sprawa jest otwarta. Teoretycy decyzji, proponując model taki jak wyżej, raczej otwierają niż zamykają problem. Może teoretycy SI z gatunku maksymalistów będą twierdzić, że ów model jest idealizacją, przydatną teoretycznie, ale nie oddającą nieciągłego charakteru procesów mózgowych. Powinni wtedy zaproponować jakiś alternatywny model podejmowania decyzji -- bliższy, ich zdaniem, rzeczywistości neuronowej.
* Kolejny próg do pokonania przez SI, próg jeszcze wyższy, pojawiłby się wtedy, gdyby w rzeczywistości przyrodniczej lub umysłowej istniały zależności nie dające się ująć funkcjami obliczalnymi. O tej ewentualności też trzeba pamiętać, czemu poświęca się w Forum osobny tekst -- www.calculemus.org/forum/2/grzeg01.html -- zbudowany z wypowiedzi Andrzeja Grzegorczyka w jego książce Zagadnienia rozstrzygalności (PWN 1957, s.16 i 46).
Jest rzeczą filozofa rejestrować wszystkie alternatywne ścieżki, nawet jeśli w danym czasie nauka empiryczna nie wykazuje dla nich zainteresowania. Toteż -- na gościnnych łamach Computerworld -- próbowałem ukazywać i tę ewentualność, że świat może się okazać miejscami nie-obliczalny; w tych miejscach nie miałaby nic do roboty maszyna Turinga.
Trzeba jednak usytuować tę ewentualność na odpowiednim planie. Służy temu w obecnym szkicu gradacja trzech progów do pokonania, odpowiadających trzem postawionym pytaniom. Możliwy próg czwarty -- nieobliczalności -- widnieje w tej perspektywie gdzieś na dalekim, zamglonym, horyzoncie. Nie należy go jednak tracić z pola widzenia, gdy bieżące dyskusje i badania będą się koncentrować na sprawach bardziej uchwytnych.
Zarysował się jeszcze jeden ważny kierunek dyskusji. Zastosowana tu strategia trójstopniowej eskalacji, ukazywanie coraz to większych wyzwań wobec maksymalizmu, jest testowaniem tego nurtu SI, który stawia na pełną symbolizację w modelowaniu procesów umysłowych. Podejście alternatywne, które polega na konstruowaniu i trenowaniu sieci neuropodobnych, bez dostarczania im programów zapisanych symbolicznie, nie musi stawiać czoła tego rodzaju problemom. Może ono bowiem liczyć na zdolność uczenia się sieci, możliwość ich spontanicznego rozwoju, czy nawet swoistą twórczość.
Czy podejście konekcjonistyczne (sieciowe) pozwoli też pokonać Barierę Turinga? To znaczy stworzyć systemy o większej niż maszyna Turinga mocy obliczeniowej? Jeśli takiej większej mocy trzeba w procesach odkrywania aksjomatów czy podejmowania decyzji, to czy jest szansa by ją uzyskać dzięki sieciom neuronowym?
Czy też jest raczej tak, że sieci neuronowe nie są w stanie pokonać bariery Turinga, a sens ich budowania polega tylko na ekonomizacji wysiłku konstrukcyjnego? To by znaczyło, że gdy coś jest za trudne dla nas do zrobienia, próbujemy stworzyć warunki po temu, żeby zrobiło się samo. Czy zrobi się istotnie i czy właśnie tak, jak chcemy? Oto jest pytanie.
Andrzej Buller (w polemice ze mną w Computerworld z 4 maja i w książce Sztuczny mózg) aplikuje w tym miejscu opowieść o Kolumbie. Opowieść, istotnie, na tę okoliczność wyborna. Morał z niej bowiem taki, że gdy się śmiało płynie przed siebie, to zawsze gdzieś się dopłynie. Jeśli nie do Indii, to do Ameryki. W tym jednak miejscu urwałaby się dyskusja, i zostałoby tylko życzyć szczęśliwych wiatrów. Jeśli więc mamy dyskutować, to trzeba też podjąć tę kwestię fundamentalną: czy sieci neuronowe pozwolą pokonać barierę Turinga?