Witold Marciszewski
|
Weźmy za punkt wyjścia wróżbę cytowaną (jako
kuriozum) przez Leszka Kołakowskiego, wybitnego polskiego filozofa z
Uniwersytetu w Oksfordzie.
,,Czytałem przypadkiem artykuł pewnego fizyka w popularnym piśmie rosyjskim. Ów fizyk całkiem serio twierdzi, że tylko dwa pokolenia ludzi będą jeszcze żyły na ziemi. Komputery się doskonalą i jest to proces nieuchronny, nikt go powstrzymać nie zdoła; osiągną w niedalekiej przyszłości poziom inteligencji ludzi, a rychło potem przewyższą go niezmiernie, wtedy zaś ludzie nie będą im potrzebni, więc ich wytrzebią, a same zostaną po prostu jako nowa faza ewolucji. Wspominam o tych banialukach, ponieważ można z ich okazji postawić pytanie.'' Leszek Kołakowski: ,,Moje wróżby w sprawie przyszłości religii i filozofii'', Gazeta Wyborcza, 2-3 stycznia 1999, s.10.
Pytanie będzie inne niż to, które postawił prof. Kołakowski, jako że banialuki nie jedną mogą mieć ripostę. Nie każde na nią zasługują. Ale gdy w skrajnej postaci głosi ktoś pogląd, który wyznają też często inni (choć go wyrażają nie tak groteskowo), to nie można skwitować sprawy jednym epitetem.
A pytanie jest następujące. Na jakiej podstawie możemy rozsądnie przewidywać rozwój komputerowej inteligencji, a więc jego zasięg jak i jego bariery?
Jeśli nie prognozować przez ekstrapolację, to jak?
Załóżmy, że autor cytowany przez Kołakowskiego nie jest idiotą ani maniakiem. Jeśli tak, to zapytajmy, co się działo w jego głowie, kiedy z niej przelewał na papier czy dysk te swoje rojenia. Co to był za proces? Spróbujmy domyśleć się go, a potem rzeczowo skrytykować.
Regułę wnioskowania przez ekstrapolację, użytą przez owego fizyka, często się spotyka, nie tylko u prostaczków lecz również u futurologicznych autorytetów. Jest to reguła przedłużania linii na wykresie jakiegoś procesu. Ma ona pozory racjonalności, gdyż zdarza się tak, że kto tą metodą rozumował wczoraj, ma dzisiaj rację; a więc, wydaje się, kto rozumuje na jej podstawie dzisiaj, będzie miał rację jutro i zawsze potem. Ponadto, stosowanie tej metody idzie czasem w parze z wykorzystaniem pojęć matematycznych, jak ,,wzrost w postępie geometrycznym'' czy ,,wzrost wykładniczy'', co budzi zaufanie do naukowości.
Nie warto się wiele wysilać na krytykę tej reguły, bo została już dość ośmieszona. Choćby przez anegdotę, jak to w połowie 19go wieku, prognozując rozwój komunikacji miejskiej w Paryżu, straszono wyczerpaniem się zapasów owsa oraz zatopieniem miasta w odchodach końskich. A słynne prognozy Malthusa o wyczerpywaniu się zapasów żywności na świecie skompromitowały się do szczętu wobec dzisiejszej konkurencji na rynku żywności: ludzie biją się nie o jej zdobycie, lecz o sprzedanie (a gdzie jej brak, przyczyny nie są ekonomiczne lecz kulturowe).
Wedle tejże reguły różni ,,eksperci'' prognozują rozwój inteligencji komputerowej, nie bacząc na jawne defekty rozumowania, wśród których jest ignorowanie barier wzrostu. W przypadku komputerów jest to m.in. bariera wzrostu miniaturyzacji (stąd upatrywanie nowej szansy w komputerze kwantowym). Inną słabą stronę rozumowań ekstrapolacyjnych stanowi fakt ujemnych sprzężeń zwrotnych (homeostatoza), które przywracają stan wcześniejszy.
Te argumenty nie do końca jednak przekreślają metodę ekstrapolacji. Zobowiązują one, żeby rozpoznać warunki i związane z nimi przedziały czasowe, w których metoda ta może dać pewne wyniki; trzeba trzymać się tych granic, nie przesuwając ich za daleko. Co to jednak znaczy ,,za daleko''? Jak określić właściwy przedział czasowy? Są to dylematy, na które trudno znaleźć ogólną odpowiedź.
Ale co się tyczy pytania, czy owe prognozy rosyjskiego fizyka są banialukami, czy też traktować je serio, to jesteśmy w dobrej sytuacji. Możemy bowiem dać sobie spokój z próbami empirycznej ekstrapolacji i udać się po odpowiedź do czystej logiki.
Algebra zdań, kwantyfikatory, efektywna obliczalność
Wymienione tu jednym tchem tematy, ujawniające zawartość logiki matematycznej, nie należą do tych, które by się chętnie czytało do poduszki, chyba, że ma się studium logiki za najmilsze hobby. Nie da się ich jednak ominąć, bo ostatni z nich (ukoronowanie logiki i zarazem podstawa informatyki) pozwala odgadywać możliwości komputerów.
Żeby te trudne sprawy przybliżyć, w szkicu ,,Kolęda o maszynie cyfrowej'' umieściłem rymowane strofki, odpowiadające trzem działom logiki, Skomentowałem tam szerzej pierwszą, powtórzę więc tylko jej główną myśl. Oto, gdy monarchowie niosą złoto, logikowie oferują coś cenniejszego.
Mędrcy świata, logikowie |
Chodzi o algebrę Boole'a, wedle której praw okazały się funkcjonować obwody elektryczne jak i pewne układy w mózgu. W tej abstrakcyjnej algebrze rozważa się pewien skończony zbiór prostych elementów, na których są wykonywane określone operacje. Gdy elementami są prawda i fałsz jako własności zdań, mamy do czynienia z algebrą logiczną zwaną rachunkiem zdań. Jest ów rachunek przewodnikiem w rozumowaniach tak niezawodnym, że wychodząc z prawdziwych przesłanek, nie pobłądzi się nigdy we wnioskach. Zadziwiająca jest ekonomia jego systemu pojęciowego; wystarczy wziąć słówko przeczące ,,nie'' i spójnik ,,jeśli, to'' (mające odpowiedniki w algebrze Boole'a), a da się na tym zbudować cały rachunek logiczny dotyczący związków między zdaniami.
Niestety, inaczej niż betleemska, gwiazda algebry zdań kieruje naszymi krokami tylko do pewnego miejsca (w którym kończyły się też możliwości logiki Arystotelesa). Logika powstająca z algebry Boole'a nie radzi sobie tam, gdzie ma się do czynienia z obiektami wchodzącymi między sobą w relacje. Rozważmy taki prosty przykład relacji zachodzącej w zbiorze wszystkich liczb całkowitych:
Zdanie to mówi zarazem, że liczb jest nieskończenie wiele, choć nie występuje w nim przymiotnik ,,nieskończony''. Zwroty wskazane kursywą są tak ważne, że zalicza się je do podstawowych pojęć logicznych i wyróżnia specjalnym terminem: kwantyfikatory. Pierwszy nazywa się ogólnym, drugi egzystencjalnym.
Gdy do operacji agebraicznych rachunku zdań dołączyć kwantyfikatory, tak powstały system, zwany logiką kwantyfikatorów, jest nadal imponująco prosty, zamyka się w kilku pojęciach, nabiera jednak niezwykłej mocy jako narzędzie rozumowania. Można w nim, gdy doda się pojęcie zbioru, wyrazić wszystkie prawdy matematyczne i zapisać każde rozumowanie w symbolice tak precyzyjnej, że po zakodowaniu cyfrowym staje się językiem komputera. Toteż logika kwantyfikatorów jest niezastąpionym narzędziem strzegącym poprawności rozumowań, a więc porządku myślowego.
Mędrcy świata, logikowie |
Jest jednak cena, którą trzeba płacić za wejście w rewiry nieskończoności. Nie da się już (jak się daje w algebrze zdań) budować skończonej liczby kombinacji elementów, żeby po ich przejrzeniu znaleźć tę właściwą, która gwarantuje niezawodność rozumowania. Wprawdzie wymyślono bardzo dowcipną metodę, która pozwala pozbyć się kwantyfikatorów i tym sposobem niemal odzyskać pierwotną prostotę algebraiczną, ale taki cud redukcji do skończoności też ma swoje koszty. Mianowicie, w pewnych przypadkach procedura rozumowania jakby się zapętla. Robimy wciąż nowe kroki, a końca nie widać, i tak stajemy przed dylematem, czy przerwać pracę, czy też kontynuować, w nadziei, że procedura wreszcie ,,zaskoczy''.
Takie rozumowanie przestaje być efektywne. A że rozumowanie jest rodzajem obliczania, co widać ,,gołym okiem'', gdy je zakodować cyfrowo w komputerze, mamy tu do czynienia z problemem z teorii efektywnej obliczalności (najwyższe piętro logiki matematycznej, a zarazem fundament informatyki).
Czy wystarczy być komputerem, żeby wymyślić komputer?
Opisałem wyżej poszukiwanie konkluzji, które długo nie daje wyniku. Jawi się wtedy potrzeba procedury, która by rozstrzygnęła niezawodnie, a więc w sposób mechaniczny, czy rozwiązanie w ogóle istnieje. Nie wymagamy, żeby powiedziała, czy jest ono negatywne, czy pozytywne, a tylko, czy warto dalej łożyć na jego szukanie.
Po pół wieku intensywnych badań udowodniono (1936), że NIE istnieje procedura mechaniczna, która pozwalałaby w każdym przypadku rozstrzygnąć, czy rozumowanie prowadzone środkami logiki kwantyfikatorów będzie mieć rozstrzygające zakończenie. Jedno z ujęć tego dowodu, pochodzące of Alana Turinga, posługuje się systemem pojęć, który wszedł do informatyki i SI. Opiera się bowiem na pojęciu abstrakcyjnej maszyny, która jest realizowalna w sposób fizyczny jako komputer cyfrowy. Nazwano tę konstrukcję uniwersalną maszyną Turinga.
Sednem wyniku Turinga jest to, że są problemy, nawet w matematyce, którym komputer nie podoła. Narzuca się pytanie: czy są wśród nich kwestie, matematyczne i inne, którym podołałby umysł ludzki? Istotnie. sformułowano problemy arytmetyczne nierozwiązywalne dla maszyny, na które potrafi jednak odpowiedzieć żywy matematyk (wynik Kurta Gödla). Czy jest wśród nich problem, który umieściłem w tytule obecnego odcinka - wymyślenie komputera?
Nie mamy nań odpowiedzi udowodnionej matematycznie. To jednak, że maszyna Turinga operuje tylko na symbolach oddzielonych spacjami (tzw. dyskretnych), podczas gdy umysł ludzki takim ograniczeniom nie podlega, pozwala sądzić, że ma on sposoby rozwiązywania problemów niedostępne dla maszyny cyfrowej. Znamiennym przykładem jest zdolność dostarczania komputerom tego, bez czego nie mogłyby one rozwiązać żadnego problemu, mianowicie reguł wnioskowania i aksjomatów. Zanim te aksjomaty i reguły zapisze człowiek w symbolach, musi wpierw wiedzieć, co chce zapisać, a na tym etapie nie ma jeszcze symboli; nie może natomiast obejść się bez symboli komputer czyli maszyna Turinga (więcej o tym - w szkicu ,,Zmagania ze złożonością'').
Są więc podstawy sądzić, że komputer nie wymyśli komputera. Nie jest przeto w jego interesie, by się człowieka pozbywać. Albowiem, żeby wymyślić maszynę, nie wystarczy mieć w głowie wyłącznie maszynę.
Mędrcy świata, logikowie, |