Anna Sarosiek (UPJPII)
Autonomia maszyn z punktu widzenia klasycznego i biosemiotycznego podejścia do sztucznej inteligencji

Celem referatu jest przedstawienie różnic i problemów, z którymi mamy do czynienia, gdy rozważamy możliwości autonomii maszyn, w zależności od przyjętej perspektywy i metody badań.

Klasyczne ujęcie sztucznej inteligencji przedstawia autonomię jako wciąż uzależnioną od programisty i/lub architekta systemu. Maszyna autonomiczna opiera swoje funkcjonowanie na procedurach odgórnie ustalonych przez człowieka. Nawet, jeśli u podstaw jej działań leżą obliczenia losowe, pozostaje nadrzędnie uwarunkowana przez programy, które pozostają zdeterminowane przez antropocentryczne postrzeganie świata przez ludzi.

Biosemiotyczna perspektywa przedstawia zupełnie odmienne podejście do autonomii sztucznych systemów. Przede wszystkim, w centrum teorii znajduje się paradygmat ucieleśnionego umysłu. Z jego ustaleń już na samym początku wynika twierdzenie, że działanie jakiegokolwiek systemu (niezależnie od jego fizycznej czy biologicznej budowy) zależne jest od sposobu jego cielesnego osadzenia w świecie. Oznacza to, że na funkcjonowanie mają nieprzeceniony wpływ otrzymywane przez sensory systemu zmysłowe dane. Podstawą działania są natomiast tworzone w wyniku doświadczeń i interakcji ze środowiskiem systemy wiedzy. Drugą, równie istotną rzeczą jest, by inspirowane biologicznie maszyny, tworzone w zgodzie z biologiczną teorią znaczenia, odczytywały znaki i przetwarzały je w zgodzie z ich systemem percepcyjnym.

W konstrukcji maszyn biosemiotycznych posłużyć może teoria kręgów funkcjonalnych Jakoba von Uexkülla. Modelowanie funkcjonowania takich kręgów mogłoby pozwolić zbudować maszyny, których działanie spełniałoby wymogi pełnej autonomii.

To podejście jednak ukazuje również nowe trudności, które nie pojawiają się w tradycyjnym podejściu: możliwość zrozumienia informacji przekazywanych przez sztuczne systemy lub wyodrębnienie istotnych danych.

Prezentacja (przedstawiona na Konferencji)

Materiały do dyskusji

1)  C. Emmeche: Does a robot have an Umwelt?
[najważniejszy dla dyskusji fragment w/w tekstu to s. 20-23]

2)  P. Stacewicz: Czy powstaną maszyny autonomiczne?
[jest to 6-ty rozdział książki „Umysł-Komputer-Świat”,napisanej wspólnie z W. Marciszewskim]

13 odpowiedzi na „Anna Sarosiek (UPJPII)
Autonomia maszyn z punktu widzenia klasycznego i biosemiotycznego podejścia do sztucznej inteligencji

  1. Na życzenie Autorki otwieram pod powyższym abstraktem dyskusję nt. autonomii maszyn.
    Bardzo dziękuję za wskazanie mojego tekstu jako cennego materiału pomocniczego.

    Serdecznie ZAPRASZAM do dyskusji, którą prawdopodobnie zagai pierwszym wpisem Pani Anna Sarosiek.

  2. Anna Sarosiek pisze:

    W podejściu klasycznym i w biosemiotycznym pojawia się idea sztucznych systemów niezależnych od człowieka, wchodzących w interakcje ze środowiskiem i użytkownikiem. Obydwa spojrzenia mocno podkreślają pogląd, według którego maszyny autonomiczne miałyby myśleć i działać inaczej niż ludzie. Należy jednak zwrócić uwagę na różnice, które pojawiają się w najbardziej fundamentalnych założeniach tych stanowisk.

    Paweł Stacewicz w swoim eseju dotyczącym możliwości powstania systemów autonomicznych, jasno przedstawia zarówno filozoficzne przesłanki leżące u podstaw konstruowania takich maszyn, jak i realne możliwości ich budowy. W powyższej publikacji autor wskazuje warunki autonomii, które zostały już spełnione. Jednak szczególnie ważną kwestią jest założenie indeterminizmu, który wskazuje działanie przypadku jako wpływającego na funkcjonowanie sztucznego systemu. Należy podkreślić, że ta przypadkowość zostać może osiągnięta w wyniku implementacji obliczeń losowych.

    W podejściu biosemiotycznym natykamy się na koncept istnienia Umweltu – fenomenalnego świata organizmu, konstruowanego w oparciu o dane zmysłowe, niemożliwego do poznania przez przedstawiciela innego gatunku. W takim ujęciu, autonomiczny agent, który pozostaje ucieleśniony i osadzony w środowisku, kieruje się w działaniach wiedzą zdobytą w trakcie swojego bycia w świecie (trudno tu uciec od języka fenomenologii). Dlatego takie systemy mają szansę na samoistne funkcjonowanie i autonomię, niezależnie od celów zaprojektowanych przez programistów. Jak zauważa Claus Emmeche niezbędne jest tu stworzenie własnych reprezentacji ugruntowanych w fizycznym świecie. Musiałyby się również pojawić emergentne cechy systemu. Zachowanie maszyny miałoby być odpowiedzią na otrzymywane bodźce i zmiany środowiska, zarówno wewnętrznego jak i zewnętrznego.

    Jak zatem przejawiać się może autonomia maszyn?
    Czy możliwe jest istnienie Umweltu sztucznego systemu?
    Na ile możliwy byłby dostęp do świata semiotycznej maszyny autonomicznej, będącej mimo wszystko wytworem i narzędziem człowieka?

  3. Czy znane są jakieś propozycje testu na autonomiczność systemu, podobne w koncepcji do testu Turinga na ‚myślenie’ ? Co mogło by stanowić test na ‚autonomiczność’ ?

  4. Anna Sarosiek pisze:

    Nie spotkałam się z opisem takiego testu. Sądzę, że trudno by go było zaprojektować.
    Trudność w biosemiotycznym podejściu w dużej mierze polega na tym, że autonomiczność zakłada niezależne działanie we własnym świecie, w zgodzie z własnymi przyjętymi celami. Jedyne, co nam pozostaje to badanie wzorów zachowań, sposobu przekazywania danych w sztucznym systemie i analiza wyników końcowych. Podobnie, gdy badamy działanie organizmów innych niż ludzkie w dziedzinach biologii.
    Dużo łatwiej jest badać maszyny autonomiczne, jeśli przyjmiemy klasyczną perspektywę. Proszę zwrócić uwagę na tekst Pawła Stacewicza. Tutaj możemy po pierwsze określić, czy warunki autonomii zostały spełnione i czy system zmierza ku wykonaniu ustalonego działania, w sposób uprzednio niezaprogramowany przez jego budowniczego.

  5. Na początek chciałbym zrozumieć lepiej, na czym polega kluczowe dla referatu rozróżnienie klasycznego i biosemiotycznego podejścia do sztucznej inteligencji.

    Wyjaśnienie podane w abstrakcie – z konieczności skrótowe – nasunęło mi co najmniej 3 powiązane ze sobą pytania:

    1) Na czym polega podejście klasyczne?
    Czy jest to podejście tego typu, w którym wyklucza się interakcję systemu z otoczeniem i uczenie się, w którym poszukuje się odgórnych procedur (programów) określających w sposób precyzyjny wszelkie możliwe reakcje systemu na wszelkie możliwe bodźce (dane wejściowe)?
    Jako przykłady tego rodzaju podejścia mógłbym wskazać: a) niektóre, zwłaszcza wczesne, systemy eksperckie, b) programy do automatycznego dowodzenia twierdzeń matematycznych, czy też c) oparte o stałe reguły i stałe heurystyki programy szachowe (ogólniej: programy do gier).
    Wymienione wyrywkowo rozwiązania dominowały na wczesnym etapie rozwoju informatyki, powiedzmy: do lat 80-tych XX wieku (stąd można je faktycznie określić mianem klasycznych). Trzeba mieć jednak na uwadze, że już wtedy prowadzono badania nad systemami interaktywnymi (np. w cybernetyce czy dziedzinie sztucznych sieci neuronowych).
    Przy tego rodzaju podejściu autonomia systemu (ze względu na wspomnianą wyżej „odgórność’ i „totalność” sterujących nim procedur) jest wykluczona.

    2) Czy sztuczne sieci neuronowe (SSN) należałoby zaliczyć do klasycznego czy nieklasycznego podejścia do sztucznej inteligencji? W ich przypadku zachodzi interakcja i uczenie się; zaś ze względu na złożoność całego układu (ogromna liczba połączeń międzyneuronalnych), jak również nieprzewidywalność kształtujących sieć bodźców zewnętrznych (danych treningowych), wyniki wspomnianej interakcji nie są przewidywalne. Opisany efekt potęguje się jeszcze bardziej, gdy w jakiś sposób technikę sieciową połączyć z ewolucyjną.
    Wspominam o tym w zalecanym do lektury tekście, a temat rozwijam w eseju 8 książki „Umysł-Komputer-Świat”, z której ten tekst pochodzi.
    Jeśli SSN zaliczymy do nieklasycznego nurtu badań nad sztuczną inteligencją, to pojawia się z kolei pytanie, jaki związek mają SSN z biosemiotyką. Wydaje mi się, że właściwy im sposób przetwarzania danych nie był inspirowany badaniami czy też dociekaniami biosemiotycznymi.

    3) Czy uznanie nurtu biosemiotycznego za alternatywę dla nurtu klasycznego nie jest troszkę na wyrost?
    To znaczy: nie mam pewności, czy biosemiotyka miała i ma aż tak wielki wpływ na badania nad SI, by podejściu biosemiotycznemu nadawać status alternatywy dla nurtu klasycznego?

    Podzielę się jeszcze jednym wstępnym spostrzeżeniem odnośnie pytania zadanego w zagajeniu dyskusji: „Jak zatem przejawiać się może autonomia maszyn?”

    Wydaje mi się, że może ona przejawiać się na co najmniej 3 poziomach:
    1) poziom metod realizacji określonego z góry celu (maszyna generuje oryginalną , częściowo niezależną od zamysłu konstruktora, metodę rozwiązania pewnego problemu),
    2) poziom celów (maszyna sama stawia nowy problem, a następnie zmierza do jego realizacji),
    3) poziom kryteriów akceptacji celów (maszyna sama generuje kryteria akceptacji różnych możliwych celów , np. „wartościowe jest to, co służy mojemu przetrwaniu”, a następnie określa cele i metody ich realizacji).

    W związku z powyższym spostrzeżeniem chciałbym poddać pod rozwagę uczestników naszej rozmowy dyskusję inną, która toczyła się w blogu Cafe Aleph w ubiegłym roku.
    Podaję adres: http://marciszewski.eu/?p=7542.
    Poczyniono tam bardzo wiele ciekawych uwag, które możemy tutaj wykorzystać.

    • Anna Sarosiek pisze:

      Najłatwiej będzie mi zacząć od końca, ponieważ posumowanie Pana wypowiedzi wydaje mi się trafiać w sedno problemu.

      Nie mam wątpliwości, ze systemy tworzone przez człowieka muszą realizować cele, które przez tego człowieka są określone.
      Wydaje mi się, że w podejściu klasycznym, autonomia przejawiana przez maszyny stara się mimo wszystko symulować metody działania człowieka. Dlatego też takie działania przedstawiają, jak Pan zaznaczył „częściowo niezależną od zamysłu konstruktora, metodę rozwiązania pewnego problemu”. Jeżeli nawet odrzucimy podejście zakładające brak interakcji systemu ze środowiskiem oraz pozostawimy systemowi pewną „wolność” wyboru procedur i tak przyjmujemy stanowisko, które zakłada narzucenie maszynie subiektywizmu programisty. System będzie wybierał wśród reguł i metod działań uprzednio zaprogramowanych i/lub wyuczonych w trakcie zaprogramowanego lub nadzorowanego treningu.

      Sieci neuronowe są niewątpliwie przykładem inspirowanych biologicznie układów. Lecz tak, jak powyżej, nieprzewidywalność ich działań zostaje na samym początku określona i zmierza ku ustalonym z góry celom. SNN ma zrealizować zadanie postawione jej przez człowieka, wybierając spośród możliwości znanych uprzednio konstruktorowi. Sam trening takiej sieci jest ukierunkowany w zgodzie z perspektywą ludzką.

      Biosemiotyczne podejście nie odegrało raczej większej roli w konstruowaniu tych układów. Niezwykle trudno jest mówić o działaniu Umweltu innego organizmu. Potencjalna możliwość istnienia świata fenomenalnego maszyny, zakłada jeszcze większą trudność, ponieważ łączy w sobie (prawdopodobnie) komputacyjne możliwości systemu oraz system znaczeń przynależny istocie ludzkiej. Jednym z niewielu projektantów, którzy starali się uwzględnić perspektywę biosemiotyczną był Rodney Brooks. Jak wiemy, jego badania nie osiągnęły przewidywanego celu. Obecnie inspirowane biologicznie i semiotycznie badania nie stawiają sobie tak całościowych celów. Raczej starają się zrealizować częściowe możliwości tej perspektywy.

      Zatem nie, podejście biosemiotyczne nigdy nie było rzeczywistą alternatywą dla stanowisk klasycznych. Jednak nieustający rozwój nauk poznawczych i zwiększająca się wiedza na temat systemów kognitywnych żywych organizmów, otwierają znacznie szerzej tą furtkę. Mając nowe sposoby badań, oraz zwiększające się możliwości sztucznych systemów, należałoby zwrócić uwagę na filozoficzne założenia, kryjące się pod stanowiskiem biosemiotycznym. Takie sztuczne systemy mogłyby posiąść pewne właściwości żywych organizmów.

      Procesy znaczenia i zwrotne oddziaływanie ze środowiskiem mogą przyczynić się bardziej do adaptacji maszyny niż wykonywania programu. Takie systemy przyjęłyby własną semiotyczną interpretację (ugruntowaną we własnym środowisku), która nie może być wyjaśniona w odniesieniu do ludzkiej konstrukcji. Semiotyka takiej maszyny, oraz jej epistemiczne interesy byłyby zależne od jej własnej interpretacji, powstałej w wyniku samoorganizacji.

      Biosemiotyczna maszyna sama generowałaby własne cele i zmierzała do ich osiągnięcia własnymi metodami. Jakie byłyby to cele, to już chyba temat na inną dyskusję, na pewno byłyby odmienne niż ludzkie.

      • W odpowiedzi poczynię (na gorąco) kilka uwag o SSN, które może do czegoś się przydadzą:

        1)
        Jeśli chodzi o metody uczenia się SSN, to trzeba odróżnić:
        a) sieci uczące się w sposób nadzorowany (ang. supervised learning), to znaczy na podstawie dobranych przez „trenera” przykładów, a także formułowanych przez niego ocen, oraz
        b) sieci uczące się w sposób nienadzorowany (ang. unsupervised learning), to znaczy bez udziału nauczyciela, w bezpośredniej interakcji ze środowiskiem.

        W przypadku b) są realizowane wprawdzie pewne algorytmy reorganizacji struktury sieci, ale: po pierwsze, są one dość ogólne i nieukierunkowane na jakiś konkretny cel (mogą nie być wcale skażone „ludzką perspektywą”, lecz inspirowane jakimiś ogólnymi prawidłowościami adaptacji organizmów żywych), a po drugie, wskutek braku kontroli człowieka (hipotetycznego nauczyciela) nad docierającymi do sieci bodźcami, wyniki tychże algorytmów, czyli zmiany w strukturze sieci, są nieprzewidywalne (a dla człowieka mogą być zaskakujące).

        Można chyba zaryzykować stwierdzenie, że wewnątrz sieci uczącej się w sposób nienadzorowany powstaje jakiś zaczątek umweltu (chociażby na poziomie innej niż u człowieka kategoryzacji doświadczanych bodźców).

        2)
        To prawda, że większość aktualnie projektowanych SSN realizuje konkretne i stosunkowo proste cele narzucone przez człowieka (np. rozpoznawanie różnego rodzaju obiektów, czy sterowanie pewnymi procesami), ale można sobie wyobrazić sieci realizujące cele bardzo ogólne (np. „walcz o przetrwanie z innymi sieciami”, „zmieniaj środowisko, tak by uzyskiwać jak najwięcej różnorodnych bodźców”), dla których realizacji sieć będzie w sposób nienadzorowany generowała pewne zaskakujące dla obserwatora cele podrzędne.

        3)
        Ogólne zasady działania i uczenia się SSN są wzorowane na zasadach właściwych przetwarzaniu sygnałów przez układy nerwowe istot żywych (przetwarzanie równoległe i rozproszone, potencjalnie zaś: analogowe). Nie ma tu mowy o „ludzkiej perspektywie”, również z tego względu, że dokładne reguły przetwarzania impulsów nerwowych przez ludzki mózg nie są jeszcze dobrze poznane (nie wiemy zatem, co dokładnie mielibyśmy odwzorować w SSN). Chodzi zatem o bardziej ogólną „perspektywę istot żywych”, w czym można upatrywać szansy na „wyhodowanie” układów innych niż ludzkie (choć równie skutecznych). Możliwości takiej sprzyja rozmaitość typów sieci i schematów ich uczenia się.

        Podsumowując zatem:
        Wydaje mi się – jako laikowi w dziedzinie biosemiotyki – że przynajmniej niektóre SSN wpisują się doskonale w program (czy też: założenia) biosemiotyki (a także: jej technicznych zastosowań).
        Charakterystyczne dla SSN reguły przetwarzania danych są bowiem inspirowane biologicznie (mamy tu więc zgodność z członem „bio” w nazwie „biosemiotyka”), a samoorganizacja sieci zmierza do wytworzenia pewnych schematów reakcji na określone kategorie bodźców (można to interpretować jako nadawanie specyficznego znaczenia bodźcom, co kieruje nas chyba ku pojęciu semiozy).

  6. km pisze:

    Chciałbym zabrać głos w kwestii testu na autonomiczność – i („ucieleśnionego”) wzorca określającego rozumienie słowa ‘autonomiczny’.

    Wydaje mi się, że widzę nie tyle „trudność”, ale sprzeczność założeń w tym, że
    „ autonomiczność zakłada niezależne działanie we własnym świecie, w zgodzie z własnymi przyjętymi celami.”
    i założeniem
    „indeterminizmu, który wskazuje działanie przypadku jako wpływającego na funkcjonowanie sztucznego systemu. Należy podkreślić, że ta przypadkowość zostać może osiągnięta w wyniku implementacji obliczeń losowych.”

    Co bowiem miałoby być testem na obecność wewnętrznej perspektywy biosemiotycznej – Umweltu – w maszynie?

    Jednym z warunków powinno być, aby działania autonomicznej maszyny charakteryzowały się
    „pewnym porządkiem, strukturą i formą, czymś co przeciwstawia się bezładowi i chaosowi”
    (zgodnie ze światopoglądem informatycznym Fizyka wykreowanego przez Pawła Stacewicza)
    – jeśli „rozumowanie” maszyny ma być (sensowym) przetwarzaniem informacji.

    Spełnienie tego niewystarczającego warunku jest ze wszech miar,
    1. z punktu widzenia mierzącego swą miarą wzoru twórczej autonomii – człowieka
    2. wobec trybunału doświadczenia – praw (regularnie przejawiającej się zjawisk) – rzeczywistości
    – konieczne. *

    Dlatego zdaje mi się, że ‘mechanizmy losowości’ to ślepy zaułek rozwoju
    (autonomicznie – nieprzewidywalnych) maszyn,
    nie prowadzący do rozwoju
    maszyn (autonomicznie – twórczych),
    z którymi można by odnaleźć porozumienie.

    Upór by brnąć w ślepy traf umacniać może to, że nie wszystkie rozumowania ludzkie poddają się łatwo formalizacji (abstrakt referatu Prof. Marciszewskiego – i lata zmagań filozofii języka z rozdźwiękiem znaczeniowym możliwości systemów sformalizowanych i potocznymi rozumowaniami)
    Tak jak w rozumowaniach odczuwamy pewność, choć nie możemy naszych wnioskowań sformalizować, tak dokonujemy wyborów zgodnie z odczuwaną wolą z koniecznością (Schopenhauer) nawet jeśli świadomie przedstawiane przesłanki wybranego (działania) zdają się nie być wynikiem jednoznacznie zdeterminowanych obliczeń.
    Wiara w do-wolność woli wynika z zamknięcia się w wewnętrznej perspektywie świadomości (Searle) z jakiej dane są nam jej fenomeny (formę prezentacji informacji określona przez perspektywę) bez wglądu w istotę fizykochemicznych reprezentacji w ucieleśnionym ustroju – stojących za przedstawieniami świadomości.

    Nawet jeśli rozumowania oglądowe nie poddają się „standardowej” formalizacji (w strumieniu świadomości ogarnianym) z wewnętrznej perspektywy,
    to fizykochemiczne struktury w swym działaniu stanowią formę przetwarzania (prezentację) informacji dostępną dla zmatematyzowanego opisu – z zewnętrznej perspektywy.
    M. in. to stanowi o (postulowanej ?) konstruktywnej sile światopoglądu informatycznego.

    Odrzuciwszy wiarę w paranormalny charakter oddziaływania ‘świadomość – mózg’ pozostaje nam przyjąć, że wzór autonomii twórczej (człowiek) jest złożeniem funkcjonalnym (emergentnym ale jednak) elementów poddających się konieczności (regularności w manifestowaniu się zjawisk w rzeczywistości).

    Zgodnie z (paradygmatem ?) informatycznego światopoglądu (opierając się na sukcesie zmatematyzowanych nauk przyrodniczych) możemy założyć, że i rozumowania wolnego umysłu są obliczalne.
    Skrótowo może (ze względu na okoliczności komentarza) rzecz ujmując: ze względu na „okoliczności” naszego przypadku jedyną drogą do obliczenia zachowania człowieka byłoby stworzenie idealnej kopii.
    „Symulacja” każdej struktury (fizykochemicznej mózgu) w pamięci komputera, może być jedyną droga „niestandardowej” formalizacji rozumowań twórczych (o wymiarze myśli / pomysłowości / intuicyjności ludzkiej)

    To, że „kopia” nie mogłaby byłaby wystawiana na takie same okoliczności jak „oryginał” sprawia, że nie byłaby doskonałym narzędziem „przewidywania zachowania”.
    „Programiści” uzyskali by to czego chcieli tworząc autonomiczne maszyny – „oryginał” nie byłby w stanie przewidzieć zachowania „kopii”.
    Losowość jest zapewniona w nadmiarze przez złożoność rzeczywistości – i ograniczoność mocy maszyny (nawet najbardziej złożonej) oraz incydentalność okoliczności jej „programowania” / „uczenia się” działania (przetrwania) w świecie.
    Losowość rozbija ciągłość strumienia świadomości („wewnętrznych przedstawień biosemioteycznego systemu reprezentacji) tak jak decyzja o rzucie kostką zasadność pomiędzy przesłankami a wynikiem rozumowania.

    Mam więc – w teście dla istnienia w maszynie ducha „biosemiotycznego „ducha świadomości”
    – banalny warunek minimum: możliwość dostrzeżenia sensowności działań maszyny (niepodawania się chaosowi)
    – i oczywisty warunek maksimum: stwórzmy idealne (w końcu matematyczno – informatyczne) symulakrum, a (jak w maksymalnej ekstrapolacji testu Turinga) nie będziemy mieli szansy na wątpliwości o istnieniu wewnętrznego świta w maszynie.

    Warto – jeśli rozmawiamy o autonomii maszyn i wewnętrznym świecie przedstawień – skupić się bowiem na tym co jest wzorcem autonomii (wolności) i świadomości.
    (Kolejna oczywistość – używamy tych słów w określonych okolicznościach wobec konkretnych działań (Wittgenstein)… A ucieczka do hazardu traktowana jest raczej jako więzienie duszy niż tryumf wolności i niezależności)

    Organizmy raczej starają się zachować porządek – regularnego przetrwania (ewolucja wymaga zmienności ale choć zależy od „pierwiastku chaosu” w procesie dziedziczenia, to jest radiacją adaptacyjną form przetrwania. Form – które w jednostkowym / ustrojowym /osobniczym starają się zachować porządek wobec okoliczności zewnętrznych.
    (Czyż nie jest w zgodzie z informatycznym światopoglądem, ujęcie, że organizmy pobierają z zewnątrz energii by uchronić się przed wzrostem entropii zgodnym z zasadami termodynamiki?)

    Dlatego tak ważne jest wzorowanie się na sposobie realizacji wzorca autonomii – i tak owocne zdaje mi się podejście wzorowania się na jedynym skutecznym sposobie realizacji autonomii (twórczej wolności) jaki znamy.

    I te uwarunkowania mogą sprawić, że właśnie podejście zgodne z rozumieniem wagi ucieleśnienia umysłu (paradygmatem EEM) może być jedynym skutecznym sposobem pozwalającym na zdanie maszyny testów (nie tylko z rozumienia – ‘działania zgodnie z jakimiś regułami’ wymykającymi się chaosowi ale) zgodnych z kryteriami, które określone są regularnym sposobem ‘rozumienia rozumienia’, ‘rozumienia autonomii’, ‘rozumienia wewnętrznego świata przedstawień’ itd.

    U szczytu (obecnego) mamy struktury przetwarzają wielowątkowo – mając pośród swych przedstawień mapowanie stanów ciała, które uświadamiają się siłą emocjonalnych decyzji i odczuwalnych racji intuicji– je także można rozumieć (z zewnątrz) jako mechanizmy regulacji ku homeostazie/ „homeodynamice” (Damasio).

    Przetwarzanie, które odbywa się w tle (odpowiedzialne za odzwierciedlanie stanów ciała i/wobec/ zewnętrznych okoliczności) wpływa na równolegle przetwarzane w umyśle rozumowania / procesy decyzyjne. Na pewno, wpływ ten może wydawać się być oderwanym „od meritum” – więc jego rezultat zdawać się może przypadkowym.
    Ale (nomen omen) przypadki, w których ludzie podejmują czasem trafniejsze decyzje zdając się na intuicję niż jasno kalkulując (samo to, że, w miarę praktyki, może wytworzyć się coś takie jak „intuicja matematyczna”) świadczy
    – nie tylko o „mocy obliczeniowej” równoległego przetwarzania (przewadze nad jedno-wątkową świadomością), ale
    – o tym, że w strukturach neuronalnych ludzkiego mózgu „wszystko łączy się ze wszystkim” w celu odnalezienia porządków pozwalających na trafne predykcje służące (celnej regulacji zachowania ku) przetrwaniu, a nie o zdawaniu się na ślepy traf.

    km

    *Ad.1. W wymianie informacji (Wittgenstein) pomiędzy maszyną i ludźmi (innymi maszynami) maszyna winna prezentować ją regularnie – manifestując jej (swoje) znaczenie. Prezentację informacji (działanie) przez maszynę musi zakotwiczać się regularnie w – nie przypadkowych – zewnętrznych łańcuchach znaczeń (Quinn i Putnam) jeśli ma dać możliwość odnalezienia w nim trwałego zrozumienia.
    Ad.2. Wobec świata zewnętrznego, w którym to maszyna musi również regularnie uzgadniać sensy swych biosemiotycznych reprezentacji- jeśli mają one służyć trafnej predykcji przyszłych ziszczeń odzwierciedlanych w tych reprezentacjach zewnętrznych fenomenów, a przez to umożliwić przetrwanie maszynie.

    • Anna Sarosiek pisze:

      Bardzo dziękuję za ten głos. Przedstawia on perspektywę, która swietnie uzupełnia zarówno biologiczne jak i semiotyczne dywagacje na temat autonomii systemów.

  7. Po wysłuchaniu referatu i przejrzeniu slajdów nadal mam wątpliwości co do rozróżnienia „klasyczne vs biosemiotyczne podejście do autonomii maszyn (węziej: sztucznej inteligencji)”.

    Chodzi mi wciąż o sformułowanie „podejście klasyczne”.
    Co jest klasyczne:
    a) systemy działające na podstawie stałych odgórnych reguł (a jeśli uczące się, to tylko w sposób nadzorowany),
    czy może
    b) wszelkie systemy informatyczne, w tym uczące się w sposób nienadzorowany i po części losowy (np. na podstawie algorytmów ewolucyjnych)?

    Dla mnie klasyczne jest podejście a).
    Nazwanie „klasycznym” podejścia b) zaciemnia sprawę. Proponowałbym nazwać je po prostu „informatycznym”.
    Mielibyśmy wówczas następujące rozróżnienie: informatyczne vs biosemiotyczne podejście do zagadnienia autonomii maszyn. (Tytuł referatu można by wówczas sformułować tak: autonomia maszyn z informatycznego i biosemiotycznego punktu widzenia).

    Rozróżnienie powyższe nie zaciemnia sprawy, bo stawiamy naprzeciw siebie dwie odmienne dyscypliny: informatykę (z całym jej bogactwem technik przetwarzania danych) i biosemiotykę (która bada, o ile dobrze rozumiem, biologiczne mechanizmy powstawania i przetwarzania znaczeń).

    Przy takim rozróżnieniu możemy wyróżniać w ramach podejścia informatycznego różne warianty: np. a) klasyczny (brak interakcji, brak uczenia się, ściśle określony zbiór reguł przetwarzania danych) versus b) nieklasyczny (interakcja, uczenie się, samoorganizacja, niekiedy: ukierunkowana ewolucyjnie losowość, etc).
    Nawiasem mówiąc, wyłania się tu ciekawe zagadnienie związku opozycji a/b (tj. klasyczne/nieklasyczne) z opozycją, którą nazwałem kiedyś „naturalizm vs logicyzm” (w razie czego temat rozwinę).

    Mając powyższe rozróżnienie główne, tj. [podejście informatyczne vs biosemiotyczne], można efektywnie pytać o ich wzajemne związki.
    Na przykład:
    Jak mają się teorie biosemiotyków (kręgi funkcjonalne, umwelty, interpretacja znaków) do teorii sztucznych sieci neuronowych (teorii niewątpliwie informatycznych)?
    Lub ogólniej:
    Czy i jak ustalenia biosemiotyków mogą inspirować badania informatyczne, albo odwrotnie, jakie narzędzia informatyczne pozwolą sprostać postulatom biosemiotyków co do możności zaistnienia umweltów?

    • km pisze:

      Na pewno (autonomiczne) „istoty biologiczne” (by nie użyć słowa ‘żywe’ rozpoczynając spory o wspomniane na konferencji wirusy) mogą być inspiracją dla informatyków dumających o samodzielnych automatach – także niejako z „dwóch stron” określając warunki brzegowe dla projektu sztucznej autonomii.
      Nawet jeśli wątpimy w Umwelt bakteriofaga (nici nukleotydu otoczonej kapsy dem białkowo-lipidowym) to trudniej nam odmówić posiadania wewnętrznej perspektywy (z której spoglądają na świat) zwierzętom (np. mniej lub bardziej „zmyślnym kotom”). One to (np. zdobywając pożywienie, czy szukając schronienia przed zagrożeniami ) kierują SIĘ mechanizmami:
      -opierającymi się na odzwierciedleniu, w wewnętrznych strukturach ich ustrojów, reprezentacji zjawisk świata zewnętrznego,
      -i wobec nich generującymi regularnie działania skutkujące przetrwaniem.
      Powiedzmy, że przez to zdają zgrubny test na wewnętrzne (w ich Umweltach) „rozumienie znaczeń” – jakie działania prowadzić będą do „ich” celu (ich przetrwania).
      I oto pierwsze ograniczenie – zamiast faga za obraz „minimum hardware” zdolnego pomieścić Umwelt posiadający w/w „jakości” weźmy sobie organizm MEGAPHRAGMA . „Muszkę”, która zdolna jest do tego, co każda „przyzwoita mucha”, a jest tak malutka (200 μm – wielkość porównywalna z AMEBĄ), że w jej mózgu zmieściło się zaledwie 7400 „neuronów” (w zasadzie to tylko 179-253 z nich ma jądra – reszta jest zredukowana by oszczędzić na zajętości miejsca) Warto zauważyć, że ta „sieć neuronowa” – w miarę „uczenia się” przetrwania przez zwierzę – redukuje swą wielkość (z 93,600 μm3 „po wykluciu” do 52,200 μm3 u dorosłego osobnika) a mimo to dalej z powodzeniem „nawiguje” w świecie tym organizmem.
      Piszę, że możemy przyznać nawet takim zwierzętom „prawa” (że posłużę się tutaj „narracją” Pani Sarosiek) do posiadania „Umweltu”, z tego powodu (i jest to zasadniczy powód, dla którego pozwoliłem sobie na niniejszy komentarz), że także z obecnością Umweltu u Innego człowieka godzimy się na podstawie jego zachowania (deklaracji o istnieniu takiegoż / zaprzeczeniu, że jest symulakrum)
      – Oto i ograniczenie projektu sztucznej autonomii z drugiej strony (od strony rozumienia autonomii i tego co chcemy/możemy osiągnąć).
      „Logika” testu Turinga na inteligencję wraz z przemyśleniami filozofów na temat ‘rozumienia’ i ‘znaczenia’ wskazują, że właśnie postępowania maszyny zgodne z regułami (powtarzam – przeciwdziałające się destrukcyjnej dla sensu przetrwania losowości) działań istot żywych (przepraszam – biologicznych) jest jedynym testem na obecność Umweltu.
      Jeśli Twórcy uda się zbudować maszynę, której całość działań regularnie nie będzie odróżniać się od działania zwierzęcia powinniśmy uwierzyć w obecność Umweltu w automacie (Zatem toster jeszcze nie zda takiego testu – choć są tacy myśliciele, którzy i w sprzętach AGD domyślają się obecności umysłu. Są i tacy, którzy w kotach nie dostrzegają więcej rozumu niż w tosterach – ale oni nie określają takim sądem powszechnej reguły.)
      Sstworzywszy trafnie naśladującą zwierzęta maszynę – winniśmy dać wiarę w obecność „wewnętrznej perspektywy”, z jakiej zachodzący w niej proces przetwarzania informacji o świecie („umysł” automatu) obserwuje fenomeny swego własnego funkcjonowania i świata zewnętrznego. Ale (oczywiście) możemy nadal domyślać się różnic „jakości” i „skali” w stosunku do tego jak my doświadczamy fenomenów świadomości z naszej (ludzkiej) perspektywy.
      Jakie to jednak różnice ( i co mogła była odpowiedzieć Pani Sarosiek spytana o Umwelt Bakteriofaga) – nie dojdziemy . Nie dowiemy się „jak to jest” być bakteriofagiem – co już dawno sugerował w swym eksperymencie myślowym (filozof z New York University) Thomas Nagel (załóżmy, że świadomość to tylko procesy mózgowe i wiemy wszystko o procesach fizycznych w mózgu nietoperza – nadal nie wiemy jak to jest być nietoperzem).

      • Anna Sarosiek pisze:

        Użyłam rozróżnienia klasyczne i biosemiotyczne z jednego oczywistego powodu. W podejściu, które reprezentuje większość badaczy sztucznej inteligencji, mało jest miejsca na biologię, a jeszcze mniej na fenomenologię. Skłonna jestem się zgodzić, że rozróżnienie informatyczne vs semiotyczne może okazać się bardziej funkcjonalne. Niestety, pozbawiamy wtedy biosemiotyczną perspektywę badań praw do określania siebie mianem informatycznych. A przecież takie eksperymenty były przeprowadzane i w jakimś stopniu działały.

        podejście biosemiotyczne stawia w centrum problemu percypowany świat podmiotu. Nie ma w nim miejsca na jakiekolwiek wytyczne stawiane z zewnątrz. Oczywiście, to człowiek tworzy sztuczny system, jednak dla zapewnienia mu pełnej autonomii nie wystarczy użyć metod, które określa Pan Stacewicz mianem informatycznych.

        Nienadzorowana sieć ucząca się i tak będzie dążyć do wytworzenia sygnału odpowiadającemu operatorowi, ponieważ jej zadaniem jest działanie w zgodzie z percepcją konstruktora. Nawet jeśli wynik początkowo jest nieprzewidziany, zadanie i tak jest określone.
        Z kolei obliczenia losowe lub ewolucyjne są już na samym początku naznaczone wizją człowieka. Mimo możliwości wybrania sobie możliwego celu, maszyna jest z góry ograniczona przez pewną pulę możliwych celi. Nawet jeżeli tych możliwości jest ogromna ilość, cały czas pozostają możliwościami, które jest w stanie pojąć człowiek.

        Użycie teorii biosemiotycznych w informatyce ma na celu zbadanie znaczenia, które powstaje w systemie. Należy pamiętać o tym, że żadna własność podmiotu (nawet robota) nie może być traktowana jako a priori. Zwrócenie uwagi na umwelt i sygnały, które go łączą z systemem (poprzez kręgi funkcjonalne – znaki świata i odpowiedzi na nie) może doprowadzić do zupełnie nowych wniosków. Stąd też wziął się postulat, by badacz sztucznych systemów przyjął raczej perspektywę biologa niż programisty. Znacznie łatwiej będzie mu wtedy porzucić perspektywę antropocentryczną.

        Załóżmy, na potrzeby pewnego eksperymentu, że świat jest matematyzowalny. Maszyna szybciej odkryje pewne prawidłowości, które nim rządzą. Należy jednak lepiej przyjrzeć się danym, które człowiek odrzuca. Mam tu na myśli problem szumu. Może to właśnie tam kryją się istotne dane, które z racji subiektywnego ustosunkowania się do informacji człowiek odrzuca. To właśnie w tym szumie znajdujemy umwelt maszyny.
        Swoją drogą to wysoce prawdopodobne, że umwelt szumi 🙂

        • km pisze:

          1.
          „Nienadzorowana sieć ucząca się i tak będzie dążyć do wytworzenia sygnału odpowiadającemu operatorowi, ponieważ jej zadaniem jest działanie w zgodzie z percepcją konstruktora.”
          – Jakie dla badaczy znaczenie mogłyby mieć działania maszyn autonomicznych niezgodne z percepcją owych badaczy (niemożliwe do ogarnięcia- takie, z których nie wyłaniałaby się żadna reguła, bez możliwości nie tylko porozumienia ale i zrozumienia)?
          2.
          Niechże i zdarzy się tak, że w pewnym środowisku biosemiotycznie badana maszyna
          „odkryje pewne prawidłowości, które nim rządzą”
          jaki z tego mielibyśmy pożytek – gdybyśmy nawet nie potrafili percepcją swą objąć jakichkolwiek regularności, które moglibyśmy naśladować?
          Niechby (jak to przedstawiono na konferencji) odróżnić informacje „deskryptywne” i „preskryptywne”.
          Informatyk miałby tworzyć systemy w celu uzyskania określonego rezultatu (preskrypcja).
          – Ale przedstawiona w powyższym komentarzu biosemiotyka nie miałaby nawet możliwości deskrypcji .

          2.a.
          Czyż w biologii nie jest tak, że:
          „Nawet jeśli wynik początkowo jest nieprzewidziany, zadanie i tak jest określone.”?
          Wydaje się bowiem ze wszech miar niemożliwe by
          „porzucić perspektywę antropocentryczną”
          nawet gdyby
          „badacz sztucznych systemów przyjął raczej perspektywę biologa niż programisty”.
          Doszukiwanie się
          „znaczenia, które powstaje w systemie”
          także naznaczone jest antropocentryzmem – jak inaczej rozumieć prawo do obierania przez maszyny własnych celów?
          Czy Biolog ma jakieś magiczne środki by pozbyć się człowieczej perspektywy w formułowaniu swej nauki?
          Czy wyzbywa się jej rozpoznając w zachowaniu zwierząt domniemanych celów?
          A może wtedy gdy interpretuje (ze zmienności form przetrwania biologicznego) „prawa przyrody” lub wręcz cele i zasady jakimi rządzi się „naturalna Ewolucja”?
          3.
          Jakże bowiem mielibyśmy odkryć, że biosemiotyczna maszyna istotnie odkryła w środowisku prawidłowości, które nim rządzą?
          – Może dlatego, że potrafiłaby w nim przetrwać?
          – Ale czy wtedy (zniewolona w tej antropocentrycznej narracji) nie zostałaby maszyna pozbawiona „prawa” do owej biosemiotycznej (dla mnie spotworniałej – niezgodnej z sensownym znaczeniem) autonomii? (Biosemiotycznej-autonomii, w której nie ma miejsca „na jakiekolwiek wytyczne stawiane z zewnątrz” – dla mnie zupełnie nie-biologiczej.)
          Przecież zdanie testu na przetrwanie także jest spełnieniem z zewnątrz narzuconych kryteriów.
          Czyż my – doszukując się w maszyny (lub istoty biologicznej) działaniach celów i zasad – czy nie narzucamy narracji celów i dążeń wprost z naszej „antropocentrycznej perspektywy” – odmawiając prawa do nieskrępowanej ekspresji niezrozumiałego dla nas znaczenia?…
          – Znaczenia zamkniętego w szumie jej Umweltu.
          3.a.
          „Z kolei obliczenia losowe lub ewolucyjne są już na samym początku naznaczone wizją człowieka.”
          – a może wizja człowieka naznaczona jest od początku zewnętrznym dyktatem przetrwania w świecie?
          Zdaje mi się, że żadna maszyna (wytwór człowieka czy biologiczna- z człowiekiem na czele) nie jest w stanie nieść w sobie, żadnego wewnętrznego znaczenia, jeśli nie gra według reguł zewnętrznych:
          – komunikacyjnych (które poddawałby by się percepcji Innego)
          lub
          – „gry w przetrwanie” według zewnętrznym kryterium narzuconych, w ramach której „trybunał doświadczenia” testuje „rozumienie znaczenia” w wewnętrznych Umweltach (czy jest zgodne z rzeczywistymi prawidłowościami rzeczywistości w której istoty obdarzone Umweltem są zanurzone).
          W obu rodzajach gier zewnętrzne kryteria są nieodzowne (także określając jakości autonomii w jej wzorcu – człowieku obdarzonym „wolną wolą” )
          3.b.
          Czy biosemiotyczne maszyny miałyby przezwyciężyć niemożliwość „języka prywatnego” i stać się metafizycznie niezawisłe względem świata (fizycznego) wykraczając poza wirtualne środowisko komputerów wprost do świata Idei?
          Niechże i tak będzie – tylko co nam po takich maszynach?

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *