Witold Marciszewski
i sprawy ostateczne |
Istnieje droga ku sztucznej inteligencji tak osobliwa, że mało kto o niej słyszał. Krąg wtajemniczonych stanowi wąskie grono fizyków i kosmologów. Można by się spodziewać na tej drodze natłoku adeptów filozofii i teologii, ale nie widać, żeby się tam cisnęli.
Jest to wizja inteligencji, kosmosu, a nawet rzeczywistości kosmos przekraczającej, wypływająca z dwóch źródeł. Jednym jest pojęcie, które oddajemy terminami: modelowanie komputerowe, symulacja, emulacja, rzeczywistość wirtualna. W owej wizji wyprowadza się z tego pojęcia najdalej idące, wręcz ekstremalne konsekwencje.
Drugim żródłem są matematyczne modele kosmosu. O tym statystyczny konsument nauki wie tyle, że istnieje model standardowy, który wywodzi kosmos od big-bangu. Wśród odmian modelu standardowego, dodajmy, jest taka, która doprowadza ewolucję kosmosu do punktu zwanego Omega i rozważa warunki, przy których drugie prawo termodynamiki nie prowadziłoby do śmierci cieplnej wszechświata. Punkt Omega jest samoprogramującym się procesem obliczeniowym z aktualnie nieskończoną pamięcią.
Pionierzy eschatologii naukowej
Eschatologia to próba odpowiedzi na pytania dotyczące spraw ostatecznych -- końca jednostek i końca całego świata. Pomysł, żeby szukać odpowiedzi metodami naukowymi wydaje się, mówiąc oględnie, ekscentryczny. Są jednak poważni uczeni nie cofający się przed tą próbą. Mają oni godny uwagi argument przeciw obiekcji, że jest to przedsięwzięcie dla uczonych niestosowne. Oto, do niedawna zagadnienie początku świata było domemą mitów, wierzeń religijnych i spekulacji teologicznych. Pogląd, że dobrze prowadzący się uczony nie tyka problemu powstania świata, wywarł wpływ nawet na niezależny umysł Einsteina, czego uczony do końca życia żałował. Było to tak, że twierdzenie o ewolucji kosmosu (a ta musi mieć punkt startowy) wynikało z równań ogólnej teorii względności, ale zdało się Einsteinowi tak niewiarogodne, że ,,poprawił'' równania i pozbawił się tytułu odkrywcy tej ewolucji; przypadł on Hubble'owi, który dziesięć lat póżniej zaobserwował ucieczkę galaktyk. Wychodzi więc na to, że ryzykowne może być raczej unikanie tematyki ,,teologicznej'' niż jej podejmowanie.
Pora wprowadzić na scenę pionierów eschatologii, której naukowy charakter brałby się z odniesienia do fizyki z kosmologią oraz do informatyki.
John D. Barrow (profesor astronomii uniwersytetu w Sussex w Anglii) i Frank J. Tipler (profesor fizyki matematycznej uniwersytetu w Nowym Orleanie, USA) napisali głośną książkę The Anthropic Cosmological Principle, Oxford University Press, 1986, 1996. Najlepiej ją czytać razem z drugą, napisaną przez Tiplera, pod osobliwym tytułem The Physics of Immortality: Modern Cosmology, God and the Resurrection of the Dead (Czytelnik może nie wierzyć oczom, podam więc ten tytuł i po polsku: Fizyka nieśmiertelności: współczesna kosmologia, Bóg i zmartwychwstanie zmarłych), New York, 1994. Napisano w Science, że to majstersztyk (masterpiece) łączący naukową wiarogodność z poglądem, w który zawsze chcieliśmy wierzyć. Dramatyzmu dodaje książce dedykowanie jej trojgu Polaków poległych w wojnie 1939, będących pradziadkami jego dzieci (stąd temat eschatologiczny zdaje się być dla autora sprawą także osobistą). Tipler znalazł się w bestsellerze Johna Horgana Koniec nauki czyli o granicach wiedzy u schyłku ery naukowej (przekład 1999) w towarzystwie Stephena Hawkinga, Karla Poppera, Francisa Cricka, Rogera Penrose'a, Noama Chomsky'ego i innych liderów dzisiejszej nauki.
Autorzy biorą za punkt wyjścia szeroko dyskutowaną w kosmologii zasadę antropiczną, w następującej wersji (s.16).
Zaobserwowane wielkości fizyczne i kosmologiczne przybierają swe aktualne wartości przy założeniu, że wszechświat ma odpowiedni wiek i że gdzieś zaistniały w nim warunki do powstania życia opartego na związkach węgla. |
W tej wersji, sprawdzalnej empirycznie, zasada antropiczna nie wystarczy dla uzyskania wniosków eschatologicznych. Autorzy robią jednak od tego punktu jeszcze jeden krok, bardziej spekulatywny, domniemywując, że za tym dopasowaniem wielkości fizycznych (prędkość światła, grawitacja etc.) do faktu zaistnienia inteligentnego życia musi się kryć jakiś kosmologiczny proces obliczeń czyli przetwarzania informacji. Jego nieunikniona kontynuacja doprowadzi w pewnym punkcie do opanowania całego kosmosu przez inteligentne życie. Mówi o tym konkluzja książki.
,,Jeśli życie ewoluuje we wszystkich spośród wielu wszechświatów kosmologii kwantowej i nadal będzie się w nich rozwijać, to wszystkie z tych wszechświatów, zawierające swe wszystkie możliwe historie, będą się przybliżać do punktu Omega. W momencie, gdy punkt Omega zostanie osiągnięty, życie przejmie władzę nad wszystką materią i jej siłami nie tylko w pojedynczym wszechświecie, lecz we wszystkich wszechświatach, których istnienie jest logicznie możliwe; życie się rozprzestrzeni na wszystkie obszary przestrzeni we wszystkich możliwych logicznie wszechświatach i zgromadzi nieskończony zasób informacji, obejmujący wszystkie bity wiedzy, których znajomość jest logicznie możliwa. I to będzie finał.''
Mimo podanego wyżej wprowadzenia, może to zabrzmieć tak ciemno jak cytat z Apokalipsy. Trudno jednak objaśnić ten passus w paru zdaniach, skoro prowadzi doń 700 stron druku bitym maczkiem. Będę więc próbował go przybliżyć w kontekście krytycznej dyskusji.
Co pan na to, Herr Leibniz?
Z głębi wieku 17-go chcę przywołać i zaprosić do dyskusji niemieckiego filozofa i matematyka (twórcę analizy) -- jedynego przed naszym wiekiem, który nie tylko był prekursorem informatyki (wynalazł system binarny, zbudował maszynę arytmetyczną i projektował logiczną), lecz także łączył idee informatyczne z kosmologicznymi. Pod pewnym względem wizja Leibniza jest podobna do proponowanej przez Barrowa i Tiplera, pod innym bardzo odmienna. Dobrze się więc nadaje do wyjaśniającej konfrontacji.
Leibniz widział cały wszechświat jako utworzony z software'u, materię zaś jako coś w rodzaju materiału do zapisu programu. Organizmy i umysły postrzegał jako automaty sterowane programem, programy zaś utożsamiał z liczbami. Musiał stać za tym, oczywiście, kosmiczny programista (a nie, jak u Newtona, kosmiczny zegarmistrz).
Niepowtarzalna indywidualność każdego z nas jest zdefiniowana przez liczbę mającą nieskończone rozwinięcie, które w całości znane jest tylko Stwórcy, podczas gdy ludzie znają najwyżej jakiś skończony jego segment (,,sąd nasz prócz Boga nie dany nikomu''). Ponieważ programy czy liczby nie podlegają fizycznemu zniszczeniu, to indywidua są w tym sensie niezniszczalne. Tak od metafizyki informatycznej, podobnie jak Barrow i Tipler, Leibniz przechodzi do eschatologii.
Inne zestawienie rzuca nieco światła na tajemniczy punkt Omega. Niektórzy fizycy, np. Penrose, posługują się tym pojęciem jako konstrukcją matematyczną w odtwarzaniu scenariuszy ewolucji kosmosu. W treść matematyczną nie sposób tu wchodzić, a nałożony na nią przez naszych autorów wystrój metafizyczny da się nieco przybliżyć przez porównanie z Leibnizem. U Barrowa i Tiplera punkt Omega jest autorem kosmicznych procesów obliczeniowych, czyli procedur przetwarzania informacji, będąc rachmistrzem którego możliwości obliczeniowe są nieskończone. U Leibniza zaś mamy sentencję: cum Deus calculat, fit mundus -- gdy Bóg rachuje, staje się świat.
Co się tyczy kwestii, jak od niezniszczalności programu przejść do zmartwychwstania ciał, Leibniz zachowuje dyskrecję (choć wypytywano go o to w listach), co było rozsądne w ówczesnym stanie wiedzy. Nasi autorzy, chcąc wbudować eschatologię w ramy fizyki, biorą pod uwagę, że w bardzo odległej przyszłości kosmosu na istnienie żywych ciał nie pozwolą choćby temperatury.
Rozwiązanie Barrowa i Tiplera jest może szokujące dla potocznego myślenia. Bliskie jest jednak ,,chodom myślowym'' tych matematyków i fizyków, dla których świat liczb jest realnością pierwotną, do której redukuje się w pewien sposób świat materialny; ten rodzaj realności dzielą z liczbami wszelkie procedury obliczeniowe, a więc i programy maszyn cyfrowych oraz generowane przez nie dane wyjściowe. Procedurą o konsekwencjach eschatologicznych realizowaną przez punkt Omega jest doskonałe symulowanie ludzkich ciał, tak doskonałe że nieodróżnialne od stanów fizycznych. Aby się z tym pomysłem oswoić, pomyślmy o własnych doświadczeniach, jak zastąpienie faksu czy modemu przez programy emulujące; po takim zabiegu hardware'u jest mniej, software'u za to więcej. Idąc tym tropem, trzeba śmiało pokonać punkt graniczny, gdy ilość hardware'u redukuje się do zera. Nie mamy obowiązku wierzyć, że to faktycznie zachodzi, ale próbujmy rozumieć tych, co tak myślą. Zwłaszcza, że bywają to umysły tak znakomite jak Leibniz z jego ideą, że świat fizyczny jest pochodny względem nieskończonego procesu obliczeniowego.
Po sporządzeniu takiego protokołu zbieżności między Leibnizem i naszymi autorami, pora na protokoł rozbieżności, które są pomocne jak tło kontrastowe.
Gdy pojawia się termin ,,proces obliczeniowy'' u Barrowa i Tiplera, zwrot ten można zastąpić terminem ,,maszyna Turinga'' (co też autorzy często czynią). Gdy natomiast mówi o liczeniu Leibniz, taka zamienność nie wchodzi w grę. Gdyby słyszał on o maszynie Turinga, nie zgodziłby się z charakterystyką organizmów jako tego rodzaju maszyn. Owszem, nazywał je maszynami lub automatami (,,boskimi'', by je odróżnić od techniki ludzkiej); umieszczał je jednak w innej kategorii automatów. Mianowicie, maszyna Turinga jest maszyną stanów skończonych, co znaczy że w każdym poszczególnym momencie jej działania można zakodować w jej pamięci tylko skończoną liczbę danych. Wedle zaś Leibniza organizmy są maszynami stanów nieskończonych. Ma to podstawę w jego koncepcji materii jako podzielnej na coraz subtelniejsze struktury, kryjące w sobie jeszcze głębsze struktury, i tak bez końca. Ta idea Leibniza współbrzmi z interpretacją teorii kwantów pochodzącą od Louisa de Broglie i Davida Bohma, podczas gdy Barrow i Tipler opowiadają się za konkurencyjną względem tamtej teorią wielu światów (pojęcie to pojawia się w ich opisie stanu finalnego).
Jeśli umysł nie jest maszyną Turinga, nie musi to znaczyć, że wymyka się on prawom matematyki, ale musiałaby to być matematyka nieosiągalna dla ludzkiego umysłu, sięgająca w sferę liczb nieobliczalnych. To by wymagało odpowiedniego wzmocnienia także definicji punktu Omega.
Jakie są konsekwencje tych poszukiwań, gdy idzie o drogi ku sztucznej inteligencji? Barrow i Tipler nie podzielają infinityzmu Leibniza, traktują umysły jako automaty skończone. Jeśli trzymać się tego konsekwentnie, to inteligencja komputera nie jest ani trochę bardziej sztuczna niż inteligencja człowieka. Jest to ten sam gatunek w różnych stadiach ewolucji. Bez sensu jest więc nazywanie sztuczną inteligencji maszynowej, skoro stanowi ona w dziejach ewolucji jej ogniwo NATURALNE.
Jeśli ten pogląd Barrowa i Tiplera stanie się dominujący, zmieni to dalece pejzaż badań nad SI. A jeśli się nie przebije? To pozostanie brawurową szarżą intelektu, w której nawet przegrana jest wkładem we wspólny sukces.