WITOLD MARCISZEWSKI
Ojcowie Informatyki
wobec dylematów mechanizacji myślenia
Czym się różni wirtuoz od pozytywki? Czym się różni żywy rozumujący matematyk od rozumującego komputera? Te pytania obrazują sedno sporu między dwiema wizjami informatycznymi. Obie uznają fakt, że analogowy zapis utworu w pozytywce jak i formalny dowód matematyczny da się zapisać cyfrowo. Czy dotyczy to również muzyka improwizującego utwór według partytury rozwijającej się w jego mózgu? Czy proces mózgowy matematyka różni się w swej istocie od przetwarzania danych w maszynie cyfrowej? Ogólnie: czy każdy proces przetwarzania informacji można oddać w zapisie cyfrowym? ============================================================================= Odpowiedż "tak" pochodzi od Alana Turinga. Różnica między wirtuozem i pozytywką jest tylko w długości i złożoności zapisu cyfrowego, niepomiernie większej w przypadku mózgu wirtuoza. Podobnie, nie ma jakościowej różnicy między rozumowaniem komputera elektronicznego i komputera w obudowie ludzkiej czaszki. Rodzą się jednak wątpliwości pod adresem owego "tak", gdy zaczynamy badać konsekwencje identyfikacji komputera z myślącym organizmem. Najwięcej wnikliwej uwagi poświęcił tej sprawie John von Neumann, drugi z bohaterów obecnej opowieści. Turing i von Neumann mają pionierski wkład w konstrukcję maszyny cyfrowej. Byli też inni wielcy konstruktorzy (mówi o nich "Mini-kronika informatyki" -- tekst obok). Ci dwaj jednak mieli wizje daleko wybiegające poza horyzont pierwszych konstrukcji. W tym sensie są oni protagonistami informatyki czyli czołowymi w niej postaciami. Tę rolę oddaje miano ojców informatyki. Ma też informatyka praojca, który antycypował obie przeciwstawne wizje, na "tak" i "nie", dla każdej znajdując swoiste racje. Dołał się z tym dylematem G.W.Leibniz (1646-1716), prekursor algebry Boole'a, pierwszy konstruktor kalkulatora na cztery działania, pierwszy twórca binarnej notacji arytmetycznej i pierwszy pomysłodawca rozumującej maszyny. Protoplastą w bocznej jakby linii jest Ren'e Descartes (1596-1650) jako ten, który arytmetyzując geometrię zrobił pierwszy krok w kierunku arymetyzacji matematyki. Dzięki temu każdy proces przetwarzania informacji można dziś zapisać cyfrowo. Sylwetki protagonistów Zacznijmy od proweniencji obu bohaterów, Turinga i von Neumanna, z jej kolorytem historycznym. A że zasługują oni na miano ojców, widać będzie z tego, ile kluczowych pojęć informatyki zostało urobione od ich nazwisk; to kryterium rangi naukowej spełniają obaj w sposób bezkonkurencyjny. John von Neumann (1903-1957) stał się Johnem w swym wcieleniu amerykańskim, w fazie emigracji. Wcześniej był Johannem, co chętnie przypominają opracowania niemieckie. Pamiętajmy o tym nad Wisłą, bo jest w naszym interesie, żeby w informatycznym pejzażu była widzialna także Mitteleuropa. John-Johannes von Neumann świetnie się do jej reprezentacji nadaje jako urodzony w monarchii habsburskiej węgierski żyd o typowo niemieckim nazwisku, który formację naukową zdobył u Hilberta a Getyndze, a bliski był przez współpracę i przyjaźń szkole matematycznej lwowskiej. Jego zaangażowanie w konstrukcję maszyn cyfrowych i płynące zeń refleksje nad mózgiem zaczęły się w Los Alamos, gdy prace nad energią jądrową okazały się tak złożone obliczeniowo, że wymagały zaprzęgnięcia techniki elektronicznej. Najwybitniejszy z wybitnych uczeń Hilberta wniósł do tych prac kolosalną intuicję i wiedzę logiczną na temat struktury systemów formalnych. W ostatniej fazie twórczości zagłębił się w neurobiologię, kreśląc płodne hipotezy na temat wyrażony w tytule powstałej wtedy książki "The Computer and the Brain". Co do Alana Matisona Turinga (1912-1954), ten absolwent matematyki w Cambridge był stuprocentowym Anglikiem, przez co chcę też powiedzieć rzecz dla obecnej historii ważną, że nawiązywał do żywej w Anglii tradycji projektów maszyn liczących Charlesa Babbage'a i jego wybitnej współpracowniczki, która była lady Ada Lovelace (postać malownicza nie tylko przez uprawianie matematyki, co u damy było wtedy ekstrawagancją, ale także jako córka romantycznego lorda Byrona). Turing połączył inżynierskie podejście Babbage'a (termin "maszyna") z problemem, którym wówczas za sprawą Hilberta pasjonował się świat matematyczny. W dzisiejszym języku wyraża się on pytaniem, czy komputer, posługując się logiką matematyczną, jest w stanie dowieść w matematyce każdej prawdy, co się przekłada na możność obliczenia z dowolną zadaną dokładnością każdej liczby rzeczywistej. Zajmując się tym zagadnieniem (1936), Turing rozwinął do perfekcji technikę cyfrowego kodowania programów, stąd jego wybitna rola w pracy nad deszyfrowaniem depesz niemieckiej Enigmy. W 1950 sformułował program stworzenia mechanicznej inteligencji, który jest do dziś manifestem komputacjonizmu czyli tzw. silnej SI. * Turing, choć później urodzony, wcześniej niż von Neumann pojawił się na naszej scenie. Informatyka jeszcze nie istniała, a jemu przypadło stworzyć w roku 1936 pojęcie, które niebawem się stanie jej fundamentem. Przyjęło się ono, za sugestią Alonzo Churcha, pod mianem MASZYNY TURINGA. Church w 1936 doszedł na innej drodze do podobnego wyniku, ale jego związki z informatyką zostały dostrzeżone później, podczas gdy aparatura pojęciowa Turinga bezpośrednio weszła do informatyki. Ponieważ wyniki Churcha i Turinga oraz uzyskane niezależnie Emila Posta i inych są równoważne, można jako ich reprezentacji użyć pojęcia maszyny Turinga. W tej roli występuje ono w słynnej TEZIE CHURCHA-TURINGA, która wyraża przekonanie ogółu matematyków, że każde dające się wykonać środkami matematyki obliczenie może być wykonane przez odpowiednio zaprogramowaną maszynę Turinga. Turing chcąc położyć kres spekulacjom, czy maszyna może myśleć, zaproponował w 1950 podejście czysto operacyjne, które nazwano TESTEM TURINGA. Polega ono na tym, żeby porównywać człowieka i komputer nie wnikając w ich życia wewnętrzne, a tylko obserwując reakcje na pytania. Jeśli kompetentne jury nie będzie umiało odróżnić, które odpowiedzi pochodzą od człowieka a które od maszyny, będzie to świadczyć, że inteligencja maszyny jest nieodróżnialna praktycznie od inteligencji człowieka. Pomysł ten inspiruje organizowane od pół wieku zawody między ludźmi i komputerami w konkurencji "rozwiązywanie problemów", w których dystans między tymi kategoriami zawodników sukcesywnie się zmniejsza. Przedcześnie byłoby jednak ogłaszać zaistnienie komputerowej inteligencji, choćby dlatego, że inteligencja bardziej jeszcze niż w rozwiązywaniu problemów przejawia się w ich stawianiu, a tego test Turinga nie dotyczy. Mamy więc trzy kluczowe idee informatyczne noszące imię Turinga. Nie gorzej wygląda punktacja w przypadku von Neumanna. ARCHITEKTURA VON NEUAMANNA wyznacza do dziś sposób działania komputera cyfrowego polegający na wykonywaniu operacji sekwencyjnie nie zaś równolegle; ten drugi typ architektury był praktykowany wcześniej, a przez von Neumanna został poniechany po negatywnych doświadczeniach, które zgromadził w 1944. Istotne jest też dla rozwiązań von Neumanna, że ta sama pamięć przechowuje zarówno programy jak i dane. Było to podejście rewolucyjne, bo naturalne zdawało się odróżniać, przez inną lokalizację w pamięci, jak to jest w przypadku człowieka, stabilny zestaw programów (np. znajomość tabliczki mnożenia) od wciąż zmieniających się danych. AUTOMAT VON NEUMANNA to pomysł poczęty i rozwijany wspólnie ze Stanisławem Ulamem, wybitnym matematykiem polskim (też na emigracji w USA). Na początku lat 50tych, nie wiedząc nic o wirusach, von Neumann zaprojektował automat zdolny tak jak wirus do tworzenia kopii samego siebie dzięki wbudowanemu programowi samoreprodukcji. Program jest tak pomyślany, żeby materiał do reprodukcji (dla wirusa jest to komórka bakterii lub innego organizmu) mógł być dowolny, co czyniłoby automat zdolnym, w szczególności, do eksploracji kosmosu; stąd automaty von Neumanna, zwane komórkowymi z racji analogii do żywych komórek, są bohaterami śmiałych wizji inżynierii kosmicznej. Von Neumann zapisał się jako pionier w wielu działach matematyki, fizyki, a nawet ekonomii i wszędzie tam jego nazwisko symbolizuje ważne idee. Z tych najbliższe są informatyce pojęcia teorii pomyślanej jako fundament całej matematyki, do której to teorii należą terminy "teoria mnogości von Neumanna" i "liczby porządkowe von Neumanna". Czego właściwie ojcami są ojcowie informatyki? Można od pewnego czasu zauważyć, że termin "informatyka" przestaje się nadawać na polski przekład "computer science", a w samym angielskim "computer science" przestaje się nadawać na synonim "informatics". Powstaje zapotrzebowanie na dwa różne pojęcia, z których jedno oznaczałoby teorię budowy i użytkowania maszyn cyfrowych. Drugie jest potrzebne dla nazwania teorii ogólniejszej, która obejmując dawną computer science będzie się zarazem rozciągać na wszelkie systemy przetwarzania informacji, łącznie z biologicznymi i mieszanymi (np. biologiczno-elektronicznymi), a także na ich interakcje, w szczególności sieciowe. Wybornym kandydatem do tej drugiej roli jest słowo "informatyka" (i jego warianty w innych językach, wszystkie zalecające się pochodzeniem od łacińskiego "informatio"). Wakujące miejsce do nazwania węższej dziedziny, computer science, można by w polszczyźnie zapełnić terminem nieco dłuższym ale znośnym, jak "teoria komputerów". Nowe, rozszerzone, pojęcie informatyki pozwoli się rozstać z niefortunnymi pojęciami, jak te wyrażane przez terminy "sztuczna inteligencja" (Artificial Intelligence) i "kognitywistyka" (cognitive science). Co jest niedobrego z jednym i z drugim? Nie ujmując zasług pomysłowi Johna McCarthy'ego, żyjącego klasyka SI, słynnego autora języka programowania LISP, który w 1956 zaproponował nazwę "Artificial Intelligence" (wcześniej, Turing mówił o inteligencji mechanicznej), pora pomyśleć o rewizji. Termin był w swoim czasie do przyjęcia; prowizorycznie, ale skutecznie, wypełniał lukę pojęciową. Na komputer patrzono wówczas jak na liczydło, żeby więc zwrócić uwagę na jego inne kolosalne możliwości, trzeba było jakiegoś chwytliwego hasła (w szczególności dla pozyskiwania grantów na badania). Dziś on się przeżywa, bo to, że komputer, powiedzmy, dowodzi twierdzeń czy tłumaczy z języka na język, to rzecz nie bardziej osobliwa, niż to, że dodaje, mnoży etc. Ponadto, zaczynają zacierać się granice między tym, co naturalne i tym co sztuczne, tym co biologiczne i co elektroniczne. Zaprogramowany komputer biologiczny jest naturalny z racji biologiczności, sztuczny z racji zaprogramowania go przez człowieka. A nanotechnologia, która pozwoli na programowane mikroimplanty elektroniczne w mózgu, podnoszące wydatnie inteligencję ich posiadacza -- będzie sukcesem z zakresu sztucznej czy naturalnej inteligencji? Trudno powiedzieć. Nie ma natomiast wątpliwości, że byłby to sukces informatyki. Co do "cognitive science", to jest to niewypał pojęciowy, bardziej jeszcze niefortunny w polskiej wersji ,,kognitywistyka". Gdy przydawkę "cognitive" tak skleić z "science", że przypisuje się nauce funkcję poznawczą, to będzie to banał nad banały; nie o to więc chodzi. A jeśli "cognitive science" ma oznaczać naukę o poznaniu, to ta mająca być supernowoczesną nauka pokryje się definicyjnie z wiekową epistemologią. A naprawdę chodzi w tej nauce o to (o czym jej nazwa nie wspomina nawet aluzyjnie), żeby zjawiska umysłowe traktować jako procesy przetwarzania informacji obejmujące to wszystko, co czyni maszyna Turinga (i ewentualnie więcej). W USA uznano tę doktrynę za rewelację, bo sprzeciwiła się jakże modnemu wcześniej behawioryzmowi, który głosił, że pojęcie informacji należy do niegodnej uczonych metafizyki. Kto jednak miał do behawioryzmu stosunek należycie pobłażliwy, ten nie zawdzięcza nowej doktrynie szczególnego oświecenia. Ogólna teoria przetwarzania informacji pod kątem rozwiązywania problemów, obejmująca układy biologiczne, czym jest w zamierzeniu cognitive science, doskonale się zmieści w pojęciu informatyki -- na tyle szerokim, że się go nie ogranicza do urządzeń elektronicznych. Dorobek Turinga i von Neumanna należy do informatyki tak szeroko pojętej, a więc obejmującej teorię komputerów i jeszcze więcej. Informatyk jako demiurg cyfrowej kreacji Wiara Turinga w moc programowania maszyn cyfrowych przywodzi na myśl grecką postać demiurga. Jest to ktoś wykonujący dzieło (ergon) dla dobra ludu (demos); ktoś o mocy niższej niż boska, lecz dalece górującej nad ludzką. Taki demiurg występuje jako kosmiczny producent świata w dialogu Platona "Timaios". Szansa na to, by ludzka cywilizacja pełniła rolę demiurga w platońskim sensie okazuje się dziś wcale realna. Byłby to udział w stwarzaniu kosmosu i w stwarzaniu umysłu. To pierwsze nie jest naszym tematem, ale dla rozpędzenia wyobraźni warto rzec o tym słowo. Choć do inżynierii kosmicznej staniemy się zdolni dopiero za setki czy tysiące lat, już dziś możemy nie bez podstaw przypuszczać, jakie są konieczne do tego wyniki teoretyczne, jakie moce obliczeniowe i jak wysokie energie. Fizyk Paul Davies w książce pod znamiennym tytułem "Superforce" powiada, że gdy rozwiążemy zagadkę unifikacji wszystkich sił (grawitacji, elektromagnetycznej i oddziaływań jądrowych) w jedną supersiłę, będziemy mogli "zmieniać strukturę przestrzeni i czasu, wiązać węzły w nicości i na życzenie tworzyć materię." Może się jednak okazać, że obecny potencjał intelektualny, nawet supergeniuszy, nie starczy do badań niezbędnych w inżynierii kosmicznej. Musiałaby ją wyprzedzić inżynieria mentalna, podnosząc do niewyobrażalnej dziś mocy intelekt przyszłych konstruktorów kosmicznych. W czasach Turinga jeszcze nie marzono o kształtowaniu inteligencji czy to przez inżynierię genetyczną czy przez nanotechnologię. Ale w wyobraźni Turinga świtała możliwość konstruowania systemów, które zdolnością rozwiązywania problemów przewyższyłyby inteligencję człowieka. Jak to osiągnąć? Wedle Turinga, całość zadania sprowadza się do napisania odpowiednich programów dla maszyny cyfrowej. Wszak zgodnie z (cytowaną wyżej) Tezą Churcha-Turinga wszystko, co daje się rozwiązać środkami matematyki jest też rozwiązywalne dla maszyny Turinga. Trzeba jeszcze przyjąć, że każdy problem nie-matematyczny da się przetłumaczyć na problem matematyczny, jak to się dzieje w fizyce, a nie jest też obce humanistyce (o czym świadczą np. automatyczne przekłady). To ośmiela do ekstrapolacji na całość wiedzy w formie poglądu, że JEŚLI ZAGADNIENIE NAUKOWE DAJE SIĘ ROZSTRZYGNĄĆ, POTRAFI TO MASZYNA TURINGA. A że pracuje ona w kodzie cyfrowym, kod ten okazuje swą uniwersalność i jako język całej nauki i jako język wspólny ludziom i maszynom. Wnikliwy czytelnik może zacznie się w tym miejscu zastanawiać, co znaczy ta zagadkowa klauzula "jeśli zagadnienie naukowe daje rozstrzygnąć". Wszak od zarania nauki uważano, że jeśli pytanie jest naukowe, to tym samym musi być rozstrzygalne; jeśli nie zaraz, to po odpowiednim nakładzie czasu i środków. To odwiecznie przekonanie okazało się błędne dzięki odkryciom logicznym z lat 30tych, wśród których centralne miejsce zajmuje wynik samego Turinga. Jest to wielce pomysłowy dowód twierdzenia, że istnieją w matematyce problemy nierozstrzygalne dla zdefiniowanej przez niego maszyny. Do tego wyniku mogło dojść dzięki temu, że z maksymalną precyzją został sformułowany problem rozstrzygalności w matematyce. Było to zasługą Davida Hilberta (1900, 1928) i paru innych autorów. Problem rozstrzygalności można ograniczyć do arytmetyki liczb naturalnych, inne bowiem działy matematyki dadzą się do niej sprowadzić. Roztrzygnąć (w tym precyzyjnym sensie) problem arytmetyczny, to znaczy wyprowadzić odpowiedź z aksjomatów arytmetyki poprzez przekształcenia aksjomatów wedle reguł logiki symbolicznej. Reguły te odwołują się wyłącznie do kształtu składających się na formuły symboli (abstrahując od ich znaczenia). Dzięki temu można je stosować w sposób mechaniczny. Każdy bowiem dowód twierdzenia (będącego zawsze odpowiedzią na jakieś pytanie) jest skończonym ciągiem formuł. Kombinując więc losowo różne zestawienia, po jakimś czasie skończonym (choć może dłuższym niż wiek wszechświata) maszyna znajdzie takie, że ostatni element ciągu okaże się wyprowadzalny z aksjomatów wedle reguł logiki. To znaczy, dostarczy mechanicznego dowodu danego twierdzenia. Rewelacja, a nawet wstrząs intelektualny, biorące się z wyników G"odla, Churcha, Posta, Tarskiego oraz Turinga polegały na odkryciu, że istnieją w matematyce problemy nierozstrzygalne w wyżej opisany mechaniczny sposób. Jest to odkrycie naukowe udokumentowane w stu procentach, nie budzące cienia wątpliwości. Ale mimo pełnej zgodności w tym punkcie, gdy przychodzi do pytania, czy to ograniczenie dotyczy ludzkiego umysłu, uczestnicy debaty dzielą się na dwa radykalnie różniące się obozy. Po jednej stronie stołu zajmują miejsce Kurt G"odel, Emil Post, Alfred Tarski (z G"odlem w miejscu szczególnie poczesnym), a po drugiej ustawia się Turing, do którego wnet dołącza liczna i dynamiczna grupa zwolenników. Co ich tak dramatycznie podzieliło? G"odlowcy (tak tu nazwani od postaci najbardziej eksponowanej) uważają, że wśród prawd, które nie są dowodliwe w sposób mechaniczny, czyli wykonalny dla maszyny Turinga, są takie, których prawdziwość umysł może rozpoznać bez użycia procedur mechanicznych. Niech za przykład posłużą aksjomaty arytmetyki, choćby ten, że dla każdej liczby istnieje liczba o jeden większa. Aksjomaty z samej swej istoty nie podlegają dowodzeniu; maszyna nie dochodzi do nich w wyniku jakichś przekształceń, musi je mieć wpisane jako dane wyjściowe. Ale człowiek wie, że są one prawdziwe; istnieją więc prawdy osiągalne dla człowieka, a nieosiągalne dla maszyny. Tyle g"odlowcy. Na to pytają turingowcy: jakim prawem uznajecie aksjomaty arytmetyki za prawdziwe? Nie macie do tego żadnej podstawy, bo jedyną dopuszczalną naukowo podstawą byłoby ich udowodnienie przez maszynę. Powstaje sytuacja dziwaczna, bo jeśli przyjąć stanowisko turingowców, to chcąc pozostać wierni wymogom naukowości nie powinniśmy się łudzić, że dojdziemy do jakiejkolwiek prawdy w matematyce; każde przecież takie dochodzenie musi się zaczynać od aksjomatów. Z drugiej jednak strony, poszukiwanie prawdy jest największą siłą napędową nauki. Jak wyjść z tego impasu? Nim zajmiemy się sposobem wyjścia, popatrzmy na jeszcze jeden wniosek ze stanowiska turingowców. Skoro umysł ludzki nigdy nie ma gwarancji, że rozwiązał problem, o ile nie zachowuje się on jak maszyna Turinga, wzrasta kolosalnie rola informatyków jako znawców i konstruktorów takich maszyn. Zaufanie do jakiegokolwiek procesu umysłowego u człowieka będzie pozostawać w zawieszeniu, o ile nie otrzyma się certyfikatu, że ów proces jest akceptowany przez Turingowy automat. Jednocześnie, konstruowanie coraz doskonalszych maszyn zwiększałoby kolosalnie moce obliczeniowe będące do dyspozycji człowieka. Istotnie więc zbiorowość informatyków byłaby czymś w rodzaju demiurga kierującego losem cywilizacji. Powróćmy do dylematu: czy zaufać naszym ludzkim intuicjom prowadzącym do uznawania aksjomatów, czy zwątpić w nie dlatego, że nie wykazują się one certyfikatem, którym się szczycą maszyny Turinga? A może uda się zdobyć ów certyfikat na innej drodze? Choć aksjomat, inaczej niż twierdzenie dowodzone, nie jest wynikiem mechanicznego przetwarzania danych na papierze czy na dysku komputera, to może jest wynikiem przetwarzania danych w mózgu i może to przetwarzanie także podlega prawom maszyny Turinga? Wtedy w odkrywaniu aksjomatów nie byłoby nic twórczego (stąd, nie zasługującego na zaufanie); byłby to proces mózgowy wiarogodny ponieważ mechaniczny (choć z mechaniczności nie zdajemy sobie sprawy, łudząc się, że mamy jakieś moce twórcze). Jeśli to by się okazało być prawdą, to demiurgowie informatyki zyskaliby domenę wpływów na miarę najśmielszych marzeń: mogliby ustawiać ludzkie mózgi tak, jak się ustawia do pracy maszyny. Czy się tak okaże? Z tym pytaniem wchodzimy na teren, który był wnikliwie penetrowany przez von Neumanna. Informatyk bierze korepetycje u Przyrody Von Neumann i Turing różnili się wyraziście poglądem na stosunek hardware'u do software'u. Bagatelizowanie pierwszego z tych czynników przez Turinga, przy podkreślaniu decydującej roli drugiego, czyniło go niewrażliwym na różnice między, powiedzmy, układem lamp elektronowych i mózgiem. Dla von Neumanna natomiast, jak zobaczymy, była to różnica fundamentalna; wyrażało się to w jego koncentracji na zagadnieniach struktury mózgu zdolnej, jak sądził, realizować logikę potężniejszą niż ta uprawiana za pomocą symboli. Wtedy informatyk, choć obdarzony demiurgiczną mocą, musiałby wiele uczyć od superdemiurga, którego dziełem jest mózg, czyli od Przyrody. Nim przejdziemy do sedna sprawy, trzeba wprowadzić polskie odpowiedniki dla terminów "hardware" i "software", tak nieznośnych w deklinacji (spróbujmy np. wołacza: "O hardware'rze!"?). W obecnym kontekście, nie zamierzając agitować innych, będę oddawał rzecz terminami STRONA FIZYCZNA i STRONA LOGICZNA. Jeśli Czytelnik zdoła bez trudu ustalić przyporządkowania do terminów angielskich, będzie to znak, że wybór nie jest najgorszy. Zastąpienie "software" przez "strona logiczna" ma dobre uzasadnienie teoretyczne, gdyż program komputerowy wykazuje ścisłą analogię z dowodem sformalizowanym, to jest, wykonanym wiernie według reguł logiki symbolicznej. Widać to przejrzyście w programach na wykonywanie działań arytmetycznych. Obliczyć, że dwa i dwa równa się cztery, to w gruncie rzeczy przeprowadzić dowód tego twierdzenia na podstawie aksjomatów arytmetyki. Program zaś jest instrukcją dla takiego dowodu. W opisie maszyny Turinga strona fizyczna jest zredukowana do skrajnie schematycznego wyliczenia: pamięci, urządzenia czytającego i urządzenia piszącego, jednakowych w każdej maszynie. Tym, co maszyny różnicuje jest strona logiczna. Jest nią, w najprostszym przypadku, pojedyncza formuła będąca przepisem na obliczanie jak "n+1" (dodawać 1 do kolejnych liczb naturalnych); jest nią twierdzenie Pitagorasa, czy wielkie twierdzenie Fermata; itd. Oprócz takich wyspecjalizowanych zdefiniował Turing maszynę uniwersalną, zdolną do zastąpienia wszystkich pozostałych. Turing argumentował, że maszyna Babbage'a, od strony fizycznej będąca dziełem ślusarzy (a napędzana maszyną parową) ma dokładnie te same potencje obliczeniowe, co maszyna zbudowana na elektromagnesach, na lampach elektronowych itd., a różnice są tylko w szybkości wykonywania obliczeń, co z teoretycznego punktu widzenia nie jest istotne. Ekstrapolując te obserwacje, dochodził do konkluzji, że strona fizyczna właściwa organizmom, w szczególności systemowi nerwowemu, nie wpływa na moc obliczeniową. Innego zdania był von Neumann. Uważał on, że strona fizyczna mózgu decyduje o zasadniczej odmienności jego strony logicznej. Podczas gdy strona logiczna maszyny cyfrowej odpowiada językowi logiki i matematyki uformowanemu przez historyczny rozwój tych nauk, strona logiczna systemu nerwowego rządzi się innymi prawami. Ujął to następująco. "Istnieją w systemie nerwowym struktury logiczne różne od tych, którymi się zazwyczaj posługujemy w logice i matematyce. [...] Tak więc logika i matematyka centralnego systemu nerwowego -- jeśli rozpatrujemy je jako języki -- muszą strukturalnie różnić się w istotny sposób od tych języków, które są nam dane w codziennym doświadczeniu. [...] Kiedy mówimy o matematyce, omawiamy, być może, język wtórny, zbudowany na języku pierwotnym, którym centralny system nerwowy posługuje się naprawdę." (Zob. "The Computer and the Brain", 1958). Co więcej, strona logiczna systemu nerwowego nie tylko jest inna, ale góruje nad tą, którą czerpiemy z logiki symbolicznej. Von Neumann doceniał wkład tej ostatniej w zrozumienie, jak działa system nerwowy; był pilnym czytelnikiem przełomowej w tym względzie pracy McCullocha i Pittsa "A logical calculus of the ideas immanent in nervous activity" (1943). Sądził jednak, że powyżej pewnego stopnia złożoności to nie neurobiolog będzie korzystał z dorobku logiki, ale logik z osiągnięć neurobiologii. Słowem, logika z informatyką będzie się wzorować na żywej przyrodzie. Pisał na ten temat, co następuje. "Zachodzi pewna równoważność między zasadami logicznymi i ich fizycznym funkcjonowaniem w sieci nerwowej. Ale, podczas gdy w prostszych przypadkach zasady te mogą dostarczyć pewnego uproszczonego opisu sieci, jest zupełnie możliwe, że w przypadku skrajnie wielkiej złożoności prawdą jest zależność odwrotna. Potrzebujemy wprawdzie jakiejś nowej teorii, logicznej co do swej istoty, żeby zrozumieć automaty o bardzo wysokiej złożoności, a w szczególności centralny system nerwowy. Może być jednak tak, że w toku tego procesu logika przekształci się jakby w neurobiologię w znacznie większym stopniu niż ta druga w logikę." (Zob. "The general and logical theory of automata", 1951). Przy takich oświadczeniach ciśnie się pytanie, czy ten doskonalszy od elektronicznego system biologiczny pozostaje w gruncie rzeczy maszyną Turinga, tyle, że sprawniejszą technicznie niż inne jej realizacje, czy też posiada większe od niej moce obliczeniowe. Trudno na to znaleźć odpowiedź u von Neumanna. Szkicuje on na gorąco hipotezy poruszając się po gruncie absolutnie nowym; książka "The Computer and the Brain" pozostała jako niedokończony rękopis, nad którym pracował do ostatnich dni życia, wydany pośmiertnie przez żonę. W tej sytuacji, w imię pouczającego eksperymentu myślowego załóżmy, że system nerwowy jest maszyną Turinga, zaś symbole zapisywane na jej taśmie są elementami jakiegoś kodu neuronowego. Przy tym założeniu, wróćmy do pytania, czy przyjęcie aksjomatów arytmetyki może być wynikiem procesu realizowanego przez maszynę Turinga; krócej -- procesu Turinga. Chodzi o proces dokonujący się w czyimś indywidualnym mózgu. Oto przykład. Niech stan, w którym maszyna zakończy pracę, będzie taki jak stan mózgu włoskiego matematyka Giuseppe Peano pewnego dnia roku 1889, kiedy to sformułował on po dziś dzień stosowaną aksjomatykę arytmetyki liczb naturalnych; od jego imienia teoria ta nazywa się arytmetyką Peano. Nie musimy rozważać wszystkich jej aksjomatów; dla ustalenia uwagi weźmy pod uwagę jeden, mianowicie aksjomat indukcji matematycznej (dokładniej, schemat aksjomatu, ale nie musimy wchodzić w takie szczegóły). Powiada on, co następuje: jeśli jakąś własność ma zero oraz prawdą jest, że gdy ma ją jakakolwiek liczba, to ma ją też następnik tej liczby, wtedy własność ta przysługuje wszystkim liczbom. Aksjomat ten zakłada pojęcie nieskończonego zbioru liczb naturalnych. Stan, w którym maszyna zakończy pracę będzie taki, że w tkance nerwowej zostaną zapisane aksjomaty Peano nie mniej precyzyjnie niż my je zapisujemy w języku logiki symbolicznej. A jak sobie wyobrazić punkt wyjścia? Skorzystajmy z obserwacji etnologów (L'evy-Bruhl), że istnieją ludy pierwotne, które mają nazwy tylko dla liczb 1 i 2, a wszystko to, co powyżej określają słowami w rodzaju "mnóstwo". Potrzebne nam będzie imię typowego reprezentanta takiej umysłowości; niech nazywa się on Kali. Dzięki Sienkiewiczowi ("W pustyni i puszczy") mamy termin "etyka Kalego" dla nazwania etyki skrajnie prymitywnej. Analogicznie, niech arytmetyką Kalego nazywa się skrajnie prymitywny system liczenia ograniczony do dwóch. Załóżmy wreszcie dla dobra eksperymentu tę fikcję, że cała ewolucja od arytmetyki Kalego do arytmetyki Peano dokonuje się nie w wymiarze wielu pokoleń, ale dzieje się jako proces Turinga w jednym mózgu. Ma więc Kali zapisane w jakichś komórkach swego mózgu ciągi symboli kodu neuronowego wyrażające to, co byśmy oddali zdaniami "istnieje jeden", "istnieje dwa". To są dane wyjściowe. Mają być one poddane serii przekształceń, które doprowadzą do tego, że w tymże kodzie neuronowym zostaną zapisane aksjomaty Peano. Te przekształcenia będą dokonywane wyłącznie pod dyktando zapisanego w tymże mózgu programu. Oznaczmy go symbolem EKP (Ewolucja od Kalego do Peano). Tu powstaje pytanie, jak EKP będzie uwzględniał przypadkowe bodźce zewnętrzne zależne od procesów dziejących się poza Kalim. Może np. zdarzy mu się w życiu spotykać bardzo często struktury trójelementowe, co mu nasunie pomysł liczby trzy, a potem jeszcze myśl uogólniającą, że trzy tak się ma do dwóch, jak dwa do jednego (stosunek następstwa)? Ale może sie to nie zdarzyć, a zdarzyć co innego. Czy EKP będzie wobec tego programem uwzględniającym wszystkie możliwe rozgałęzienia procesów we wszechświecie, tak żeby mózg Kalego (stopniowo się przekształcający w mózg Peano) był uzdolniony do odpowiednich przekształceń w każdym z takich możliwych światów? Problem zniknie, jeśli przyjąć, że przechodzenie do arytmetyki Peano dzieje się bez żadnych bodźców zewnętrznych; ale pod tak skrajnym aprioryzmem nie podpisałby się nawet Platon. Czy możliwe jest odkrycie w czyimś mózgu procesu Turinga sterowanego przez EKP? Celem naszych rozważań było dojście do tego pytania. Odpowiedź w obecnym stanie wiedzy nie jest możliwa. Tym, co mozliwe to projektowanie badań, które by doprowadziły do wykrycia w mózgu czegoś takiego, jak program EKP. Trzeba w tych badaniach zidentyfikować symbole kodu neuronowego, to jest, podać ich alfabet, oraz wykryć reguły transformacji prowadzące od stanu wyjściowego (np. arytmetyki Kalego) do zakończenia procesu (np. wypisania w kodzie neuronowym aksjomatów Peano). Rozpoznanie takiego procesu byłoby milowym krokiem w nową epokę informatyki. Równie historycznym osiągnięciem byłoby odkrycie przeciwne: że dochodzenie przez umysł/mózg do aksjomatów nie redukuje się do procesu Turinga. Pozostaje zakończyć aktem wiary, którą osobiście żywi niżej podpisany, że przyjdzie czas, w którym będziemy mieli dowód na jedno lub na drugie.