Granica między sztuczną inteligencją a człowiekiem jest nieprzekraczalna. Nigdy nie uzyska ona podmiotowości. Pozostanie wyłącznie narzędziem, martwym mechanizmem cyfrowym.
W mediach raz po raz pojawiają się teksty poświęcone sztucznej inteligencji. Ich ilość znacząco wzrosła w roku 2023, od momentu pojawienia się ChatGPT. Jednym z głównych tematów tych materiałów, a zwłaszcza wywiadów, jest pytanie: kiedy AI doścignie i prześcignie ludzką inteligencję? Tak postawione pytanie już zakłada pewne rozstrzygnięcie, gdyż w słowie „inteligencja” zawiera się pojmowanie inteligencji jako cechy współtworzącej nasze człowieczeństwo.
Chciałbym w tym artykule zająć się wcześniejszym logicznie dylematem: czy rozwój AI prowadzi w kierunku osiągnięcia przez nią podmiotowości? Według mnie ten dylemat jest równoznaczny z pytaniem: czy ludzka świadomość jest epifenomenem, zjawiskiem wtórnym wobec procesów mózgowych mierzalnych metodami naukowymi? Albo inaczej: czy to, co subiektywne, podmiotowość, okazuje się tylko pochodną tego, co obiektywne, przedmiotowe?
Strony sporu
W publicznych wypowiedziach dominuje pozytywna odpowiedź na tak postawione pytania. W tym duchu wypowiadają się m.in. Geoffrey Hinton, Andrzej Dragan, ale też ks. Grzegorz Strzelczyk.
Mniej widoczna, choć także obecna w mediach, jest odpowiedź przeciwna, czyli twierdzenie, że natura działania AI jest fundamentalnie odmienna od ludzkiego myślenia i wobec tego żadne udoskonalanie algorytmów, zwiększenie prędkości obliczeń ani ilości danych, jakie wprowadzamy do algorytmów, zasadniczo nic nie zmienia. AI jest i zawsze pozostanie jedynie narzędziem.
W powyżej przedstawionej krótkiej liście zwolenników pierwszej odpowiedzi jest również teolog. Dlatego prezentując swoje stanowisko, nie jestem wyrazicielem zgodnej teologicznej opinii, zabieram raczej głos w dyskusji, która staje się także, choć nie tylko, dyskusją teologiczną. Teologia jest refleksją wewnątrz wiary, a więc przedstawiany tutaj dylemat nie musi być sporem wierzących z niewierzącymi. Sądzę, że jego rozważanie może być ważne i dla jednych, i dla drugich.
Przekroczyć paradygmat
Moja odpowiedź na postawione wyżej pytania brzmi jednoznacznie: sztuczna inteligencja jest i zawsze pozostanie tylko narzędziem. Granica między AI i człowiekiem jest nieprzekraczalna i rozwój tej drugiej nie idzie w kierunku uczłowieczenia. Sztuczna inteligencja nigdy nie uzyska podmiotowości. Pozostanie wyłącznie martwym mechanizmem cyfrowym.
Jestem także przekonany, że nie da się rozstrzygnąć przedstawionego tu dylematu, czyli ustalić, która odpowiedź jest prawdziwa, pozostając wewnątrz paradygmatu nauki nowożytnej. To stwierdzenie jest podstawą teoretyczną, na której opieram sposób prowadzenia argumentacji w dalszej części tekstu.
Przeczytane wywiady z badaczami zaangażowanymi problematykę AI pozwalają mi na sformułowanie tezy, że naukowcy pracujący nad nią intelektualnie poruszają się wewnątrz paradygmatu nauki nowożytnej. Samo w sobie to spostrzeżenie wydaje się banalne, ale ma poważne konsekwencje.
Otóż nawet jeżeli naukowcy stawiają pytania dotyczące kwestii nienaukowych, odpowiedzi szukają naukowo. Bowiem pytania – czym jest świadomość i samoświadomość, rozumienie, podejmowanie decyzji? – same w sobie nie należą do obszaru nauk empirycznych. Natomiast bez trudu zgodzimy się, że dotyczą ważnych – nawet jeżeli nie wszystkich, to na pewno niezbywalnych – wyznaczników naszego człowieczeństwa, naszej ludzkiej podmiotowości.
Tylko człowiek pozostaje podmiotem etycznym, tylko on podejmuje decyzje i ponosi za nie odpowiedzialność. Tylko ludzkie działania podlegają ocenie etycznej. Do człowieka należy programowanie AI
A więc gdy pytamy o podmiotowość sztucznej inteligencji, pytamy o to, czy AI ma samoświadomość, czy rozumie, czy podejmuje decyzje. Albo czy kiedykolwiek posiądzie te cechy. Powtórzę: moja odpowiedź na wszystkie te pytania brzmi – nie, nigdy. Odpowiedzi przeciwne mają różne odcienie: „to kwestia czasu”, „nie można tego wykluczyć”, itp.
A zatem, aby podjąć pytanie, czy AI może osiągnąć podmiotowość, konieczne jest znalezienie odpowiedzi na przedstawione powyżej pytania szczegółowe, czyli ustalenie, co oznacza dla nas rozumienie, samoświadomość, podejmowanie decyzji. Naukowcy zajmujący się AI szukają tych odpowiedzi, ale – jeszcze raz zaznaczę – ich drogi pozostają drogami myślenia naukowego, opartego na empirii i matematyce.
Dlatego proponowane przez badaczy odpowiedzi są tylko kolejnymi próbami zredukowania wymienionych sposobów przeżywania człowieczeństwa do opisu naukowego. Jestem przekonany, że taka redukcja odrzuca to, co stanowi o istocie rozumienia, samoświadomości, decydowania. Inaczej mówiąc: taka redukcja polega na pominięciu tego, co subiektywne, aby dojść do prawdy obiektywnej. Czyli okazuje się procedurą prowadzoną według założenia, że podmiotowość jako subiektywność jest epifenomenem obiektywności.
Rzeczywistość zero-jedynkowa?
W praktyce tworzenie AI i „obiektywne” o niej mówienie jest równoznaczne z cyfrą. Sztuczna inteligencja na podstawowym poziomie operuje cyframi zero i jeden. Zbiera z internetu dane, które w swej podstawowej strukturze są ciągami cyfr zero i jeden.
Jeżeli więc uznajemy możliwość upodmiotowienia się AI, zakładamy, że cała rzeczywistość, łącznie z naszą podmiotowością, jest redukowalna do binarnej struktury 0-1. Według mnie takie założenie, że rzeczywistość da się w całości ująć jako opis cyfrowy, zero-jedynkowy, okazuje się zupełnie arbitralne, sprzeczne z codziennym ludzkim doświadczeniem. Ale ta subiektywnie przeżywana sprzeczność nie może być naukowym argumentem.
Jako przykład weźmy poruszenie przeżywane podczas słuchania muzyki, czyli zachwyt, wzruszenie, albo wewnętrzny wstrząs, dyskomfort. Czy to tylko epifenomeny przetwarzania sygnałów w mózgu, czy też coś więcej, coś fundamentalnie nieredukowalnego do cyfry? Jeżeli przyjmujemy, że nasza świadomość to jedynie produkt obiegu sygnałów w mózgu – odpowiedź jest jasna. Również przeżycia przy słuchaniu muzyki nie są niczym innym.
Przykład ten pokazuje również niemożność bezpośredniej dyskusji przedstawicieli dwóch prezentowanych w tym tekście stanowisk. Nawet jeśli wysłuchany utwór muzyczny wszystkich poruszył podobnie głęboko, to niczego nie zmienia. Dla przeświadczonych o nieredukowalności tego, co podmiotowe do tego, co obiektywne – jest to bezpośrednie przeżycie, a więc niezbite świadectwo takiego prymatu. Z kolei dla zwolenników prymatu obiektywności ta głębia poruszenia, jakie przeżyli, i tak, gdy zaczynają nad nią myśleć, pozostaje tylko efektem obiegu elektrycznych sygnałów w mózgu.
Rozważanie o słuchaniu muzyki możemy uogólnić na wszystkie zmysły. Otóż uznanie, że rzeczywistość ma naturę cyfrową nieuchronnie prowadzi do traktowania zmysłów jako czujników odbierających sygnały, które bezstratnie mogą zostać ujęte w formie cyfrowej. Takie rozumienie natury zmysłów jest dość powszechne i z reguły przyjmowane bezrefleksyjnie, jako oczywistość.
Dlatego trzeba wyartykułować zdanie przeciwne: nasza zmysłowość, a więc nasza cielesność, ma zupełnie inną naturę, nie cyfrową. Współtworzy ludzką podmiotowość. Doświadczenia zmysłowe – to, że patrzę i widzę, słucham i słyszę, wącham i czuję zapach, smakuję i czuję smak, dotykam i jestem dotykany, a także wszystkie rodzaje bólu – to wszystko jest moje, ludzkie. Traktowanie i opisywanie tych doznań jako gromadzenie i przetwarzanie przez mózg danych pomija samą istotę moich zmysłowych przeżyć, mojego ludzkiego przeżywania siebie.
Kto jest odpowiedzialny?
Jak na razie prawodawcy i ubezpieczyciele działają według paradygmatu: AI to narzędzie, odpowiedzialny jest człowiek. Ten paradygmat powinien pozostać nienaruszony.
Nie ma też sensu mówić o etyce sztucznej inteligencji. Tylko człowiek pozostaje podmiotem etycznym, tylko on podejmuje decyzje i ponosi za nie odpowiedzialność. Tylko ludzkie działania podlegają ocenie etycznej. Do człowieka należy programowanie AI. Do prawodawców zaś należy konstruowanie prawa w ten sposób, aby zawsze było wiadomo, kto, czyli który człowiek, odpowiada za konkretne działania AI.
To, co niesłusznie nazywamy samodzielnymi decyzjami sztucznej inteligencji, okazuje się jedynie efektem programowania przez człowieka. Pojawienie się deep learning, samouczących się algorytmów, nic tu nie zmienia. Nadal trzeba jednoznacznie ustalić, kto, czyli który człowiek, odpowiada za skutki działań AI.
Z perspektywy prawodawczej i ustalania odpowiedzialności fakt, że działanie sztucznej inteligencji opiera się na deep learning i samouczących się algorytmach okazuje się zupełnie nieistotny. To, że nie rozumiemy, jak AI doszła do tego, a nie innego wyniku, powoduje jedynie większy kłopot ze sprawdzeniem tego wyniku. Im bardziej nie rozumiemy, dlaczego otrzymaliśmy taki, a nie inny wynik pracy sztucznej inteligencji, tym dokładniej musimy go po ludzku zweryfikować. Wynik działania AI nie zasługuje na najmniejszy nawet kredyt zaufania.
Słuchaj też na Soundcloud, Youtube i w popularnych aplikacjach podcastowych
Naukowcy, inżynierowie, korporacje finansujące badania nad AI działają według logiki nauki, efektywności i zysku. Te trzy logiki doskonale współgrają. A manifesty, wezwania do samoograniczenia pozostają bezzębne. Oczywiście są konieczne, ale mają tylko znaczenie pomocnicze. Główny ciężar odpowiedzialności spoczywa na prawodawcach. Państwa i instytucie międzynarodowe powinny stanowić prawa i normy ściśle według zasady, że AI jest narzędziem, które ma służyć człowiekowi. Odpowiedzialność – raz jeszcze powtórzę – ponosi człowiek.
Warto wspomnieć tu również kwestię praktyki językowej. AI nie rozumie, nie podejmuje decyzji, nie ponosi odpowiedzialności, nie ma woli, nie czuje, nie pragnie. Oczywiście język jest plastyczny, nie poddaje się sztywnym regułom i zakazom. Ale dobrze jest nie nadużywać tych słów, gdy mówimy czy piszemy o sztucznej inteligencji.
Scholastyka i Al
Było dla mnie niemałym zaskoczeniem i ciągle nie przestaję się dziwić, że głosy teologów w dyskutowanej tutaj kwestii są tak podzielone. Wydawało mi się, że chrześcijańska nauka o stworzeniu człowieka na obraz Boga jest solidną podstawą do potraktowania AI wyłącznie jako narzędzia. Byłem w błędzie. Wielu teologów chętnie rozważa AI jako istotę żywą lub zmierzającą ku jakiejś formie życia. Istotę, która ma lub będzie miała naturę zasadniczo podobną do natury ludzkiej, albo jako istotę duchową.
Wśród przyczyn, dla których takie myślenie teologiczne stało się możliwe, ważne miejsce zajmuje scholastyka. W swoich podstawowych, wziętych od Arystotelesa, strukturach myślenia używa ona do opisu człowieka pojęć wypracowanych dla opisu całej obiektywnej rzeczywistości. W efekcie teologia – na przykład teologia moralna – była i jest podejrzliwa wobec tego, co subiektywne, miała i ma głęboką potrzebę oparcia swojego myślenia na tym, co obiektywne, a zwłaszcza oparcia myślenia moralnego na obiektywnych normach moralnych.
Takie myślenie z łatwością przyjmuje prymat obiektywności, a więc w konsekwencji cyfry, nad subiektywnością i wobec tego nie ma dobrych narzędzi intelektualnych, aby in radice podważyć zasadność pierwszego z prezentowanych na początku tekstu stanowisk. Traktuje pytanie o podmiotowość AI jako problem godny poważnego rozważania w ramach teologii. Dopiero teologia ściśle personalistyczna, wychodząca w swoim myśleniu od człowieka w jego subiektywności i cielesności, już w punkcie wyjścia widzi bezzasadność hipotezy o możliwej podmiotowości AI.
Dyskusje wywołane przez gwałtowny rozwój sztucznej inteligencji są dla nas, teologów, znakomitą okazją do pogłębienia refleksji o naturze człowieka, o naszym człowieczeństwie, w tym do odświeżenia tradycyjnego pojęcia duszy ludzkiej. W przeciwieństwie do naukowców myślących w kategoriach nauki nowożytnej teologia ma – między innymi dzięki wielowiekowej współpracy z filozofią – intelektualne narzędzia do takiej dyskusji o podmiotowości, która nie redukuje tejże podmiotowości do pochodnej tego, co przedmiotowe.
Teolog, podobnie jak filozof, jest zdolny do rozważania racjonalności także poza nauką nowożytną i jej pojęciem racjonalności. Na przykład niezwykle racjonalny stoicyzm grecki istotę racjonalności, a więc człowieczeństwa, opisywał jako sprawiedliwość, męstwo, roztropność, umiarkowanie. Nietrudno przyznać, że nie ma to nic wspólnego z inteligencją AI i nie ma wiele wspólnego z racjonalnością nauki nowożytnej.
Przeczytaj też: Zapytaliśmy sztuczną inteligencję, którą religię wybrać oraz blok tekstów „Ludzie vs. sztuczna inteligencja”, który ukazał się w kwartalniku „Więź” lato 2023:
Po co nam AI? Bilans zysków i strat. Rozmowa z Joanną Mazur
Jan Andrzej Lipski, Czy sztuczną inteligencję można wyposażyć w cnoty?
Czy sztuczna inteligencja potrafi być twórcza? Dyskusja z udziałem Dariusza Jemielniaka i Jaremy Piekutowskiego