Systemy sztucznej inteligencji podejmują decyzje etyczne, co oznacza, że stają się nie przedmiotami, ale podmiotami moralnymi. Tym samym istotne staje się, jakimi wartościami będą się te systemy kierowały. Co na to chrześcijaństwo?
Przemija postać tego świata, zmieniają się jego wizje. To wymagało od chrześcijaństwa ciągłej gotowości do adaptacji, niekiedy do udzielenia nowej odpowiedzi na fundamentalne pytania, a czasem do zajęcia stanowiska i opracowania strategii wpływania na nowe zjawiska. Podobnie jest teraz.
W historii Kościoła rozwój nauczania i rozumienia świata zawsze odbywał się w dialogu z obcą chrześcijaństwu nauką, filozofią i polityką. Pierwsi intelektualiści chrześcijańscy musieli odnieść się do pojęć ukształtowanych przez filozofię klasyczną i użyli ich do własnego opisu rzeczywistości. Później chrześcijaństwo musiało znaleźć odpowiedź na tezy Kopernika i Newtona, odkrycia geograficzne, reformy społeczne i polityczne czasów oświecenia, wreszcie – na rozliczne odkrycia naukowe (zwłaszcza te z obszaru nauk biologicznych, potwierdzające teorię ewolucji i wpływ physis na psyche), których tempo od początku XIX wieku ogromnie przyspieszyło. Dzięki tym wysiłkom chrześcijanie proponowali wizję świata, w której aspekt naukowy i religijny mogły się nawzajem uzupełniać.
Chrześcijaństwo nie bało się również wyzwań, które niosły nowe technologie i rozwiązania medyczne. Wśród tych najbardziej problematycznych były rozwijające się od połowy XX wieku technologie manipulacji genetycznych i kontrolowania zapłodnienia. Odpowiedzią na postęp medycyny i biotechnologii był rozwój katolickiej bioetyki (w tym dokument Dignitas personae).
Analogicznie odpowiedzią na większą świadomość wpływu człowieka na środowisko naturalne i klimat stała się teologia stworzenia, której przykładem jest oczywiście encyklika Laudato si’ i wprowadzenie kategorii grzechu ekologicznego.
Obie te kwestie są obecnie przedmiotem debaty wewnątrz- i wokółkościelnej. Niektórzy twierdzą, że stanowisko Kościoła wymaga poważnych korekt, inni – że należy do tego stanowiska dostosować odpowiednie regulacje prawne. To istotne problemy i dobrze, że budzą wśród chrześcijan refleksje natury etycznej i politycznej.
Zmiany, jakie zachodzą pod wpływem rozpowszechniania się sztucznej inteligencji, są nie tylko ilościowe, ale i jakościowe, gdyż zmieniają nasze wyobrażenie o rzeczywistości i naturze ludzkiej.
Współcześnie istnieją jednak również zagadnienia, o których chrześcijaństwo (zwłaszcza Kościół katolicki) wydaje się milczeć. Jest mniej obecne w filozoficznej debacie wokół pytań, jakie stawiają przed nami niektóre odkrycia naukowe i wynalazki technologiczne. Przywołajmy na przykład problemy wynikające ze zmieniającego się rozumienia pojęcia duszy ludzkiej wskutek rozwoju nauk kognitywnych. Rzecz dotyczy także kwestii pochodzenia duszy – tutaj do rewizji poglądów skłania coraz dokładniejsze rozumienie ewolucji biologicznej. Pojawiają się też zupełnie nowe wątpliwości etyczne wynikające z wpływu, jaki na ludzkie życie wywierają technologie informacyjne, przede wszystkim szybko rozwijająca się sztuczna inteligencja. Zwłaszcza ta ostatnia sprawa wymaga pilnego zajęcia stanowiska, które mogłoby pomagać w rozeznawaniu nowych dylematów etycznych. Być może powinny nawet zostać podjęte próby wpływania na kierunki rozwoju tej technologii, tak aby służyła człowiekowi i ogólnie pojętemu dobru.
Podjęta w ostatnich latach na łamach „Więzi” refleksja nad „nocą ciemną Kościoła” i „nowym Trydentem” skłania do dalszych poszukiwań. Znaczące jest nie tylko doświadczenie osób, które pragnęły szukać Boga, ale w Kościele znalazły „pustkę po Bogu” (Sebastian Duda nazywa ich „postwierzącymi”1). Nie mniej ważne jest doświadczenie osób, które zgłębiając wiedzę o świecie – o odkryciach nauki, o rozwoju technologii, o obecnych dylematach oraz o przyszłych szansach i zagrożeniach – w nauczaniu katolickim znajdują treści sprzeczne z tą wiedzą albo po prostu nieistotne z punktu widzenia problemów i wyzwań, z którymi musi zmierzyć się współczesna cywilizacja.
Innymi słowy, noc ciemna chrześcijaństwa i chrześcijańskiej wizji świata to także doświadczenie osób, dla których chrześcijaństwo przestaje być istotne, bo ich problemy wydają się nieistotne dla chrześcijaństwa. Powinny one stać się częścią – postulowanego przez „Więź” – procesu „nowego Trydentu”, czyli rewitalizacji chrześcijaństwa, gruntownej odnowy doktryny, teologii i praktyki katolickiej, odgruzowywania Ewangelii spod ruin systemu kościelnego.
Zbigniew Nosowski w swoim artykule Bóg mówi przez kryzysy2 wymienia „dziesięć wymiarów eklezjalnej reformy”, wśród których jest wymiar duchowy i doktrynalny, rozumiany przede wszystkim w odniesieniu do teologii liturgii i kapłaństwa. Gdzieś w tych wymiarach umieściłbym określone wyżej problemy. W niniejszym szkicu opiszę je i wskażę, dlaczego są one istotne dla chrześcijaństwa i chrześcijańskiej wizji świata, a także dlaczego wymagają chrześcijańskiej odpowiedzi – ponownego wytłumaczenia niektórych fundamentów wiary lub przynajmniej próby wpłynięcia na zmiany będące konsekwencją rozwoju technologii.
Czy dusza istnieje, a jeśli tak, to kiedy powstała?
Dzięki wysiłkowi naukowców wiemy, jakie części mózgu i jakie procesy odpowiadają za poznawanie, pamięć i stan świadomości, a także za emocje. Potrafimy wpłynąć na dobrostan człowieka i jego świadomość, oddziałując bezpośrednio – przy pomocy bodźców fizycznych – na jego mózg. Właściwie w rozumieniu nauk kognitywnych mózg i umysł są tożsame, a doświadczenie dostarcza coraz bardziej przekonujących argumentów za tą tezą.
Jednocześnie podejmowane są próby wyjaśnienia pochodzenia świadomości i uspójnienia rozumienia ludzkiej jaźni z rozumieniem funkcjonowania układu nerwowego. Jest to problem par excellence filozoficzny i dotyka fundamentów naszego pojmowania natury człowieka – a to już jest obszar, w którym do niedawna zajęcie religijnego stanowiska było oczywistością.
Filozoficzne interpretacje odkryć nauk o mózgu najczęściej zakładają fizykalizm i określają świadomość jako własność pojawiającą się w wyniku wzrostu złożoności mózgu („własność emergentna” w żargonie kognitywistów) i interakcji między mózgami, które wśród ludzi przybierają postać wiedzy, kultury i nauki, czyli nieznanych innym zwierzętom form przekazywania informacji. Jeden z ważniejszych filozofów umysłu, Daniel Dennett, twierdzi na przykład, że istnieją różne formy (poziomy) świadomości, natomiast ludzka świadomość jest inna, bo ukształtowała ją ewolucja kulturowa i dzięki temu zyskujemy umiejętność introspekcji3. Właśnie dzięki temu, jak pisze Dennett, ludzie mogą odgórnie projektować tak wspaniałe rzeczy, jak bazylika Sagrada Família, w odróżnieniu na przykład od termitów, których kopce są również skomplikowanymi budowlami, ale powstały całkowicie organicznie – i przy okazji są w pewnych aspektach podobne do najsłynniejszego kościoła w Barcelonie4.
Inny wybitny neuronaukowiec, Anil Seth, uważa, że do problemu wyjaśnienia świadomości można podejść w zaskakujący sposób. Zaczyna od stwierdzenia, że nasze modele rzeczywistości to „najlepsze przypuszczenia” naszych mózgów. Mózgi konstruują je na podstawie danych, nie zawsze spójnych, które dostarcza im pięć zmysłów. Podobnym modelem rzeczywistości jest percepcja świadomości, zwana też percepcją jaźni czy po prostu percepcją „ja”. Przekonanie, że jesteśmy niepodzielną jednością, ułatwia nam korzystanie z przeszłych doświadczeń i przewidywanie przyszłości, a zatem daje nam przewagę ewolucyjną5. Produktem ubocznym tego rodzaju percepcji (którą autor porównuje do halucynacji) jest doświadczenie jedności między umysłem a życiem, pierwotne doświadczenie „tylko bycia” czy też „prawdziwej egzystencji”6. Autor porównuje to doświadczenie z hinduistycznym pojęciem atman, często tłumaczonym jako „dusza”. Ale jest to dusza rozumiana zupełnie inaczej niż w chrześcijaństwie.
Próbą przerzucenia mostu między współczesnymi naukami o mózgu i filozofią świadomości (do których odniosłem się powyżej) a teologią katolicką jest praca księży Wojciecha Grygiela i Damiana Wąska Teologia ewolucyjna. Założenia – problemy – hipotezy. Jest to niezwykły przegląd stanu wiedzy i próba uzgodnienia wielu obszarów nauki z wiarą. Przykładowo w odniesieniu do problemu mózg–dusza autorzy nie postulują już ontologicznej odrębności duszy i ciała (ludzkiego mózgu), ale formułują hipotezę teologiczną, która głosi, że stworzenie duszy to
impuls sprawiający, że w sposób emergentny wyłaniają się nowe jakości, właściwe relacji człowieka z Bogiem. W przypadku tej hipotezy zagwarantowane jest jednocześnie boskie pochodzenie duszy i wiarygodność teologii wobec neuronauk. Z jednej bowiem strony, Bóg jest tym, który zadziałał, by emergentnie pojawiły się nowe jakości z ludzkiego mózgu. Z drugiej strony, oparcie tej boskiej przyczynowości o teorię emergencji sprawia, że w naturalny sposób pojawiają się w skanach mózgu ślady duchowej aktywności człowieka, ponieważ to w gruncie rzeczy w mózgu ma ona miejsce7.
Obawiam się, że taka próba rozwiązania problemu duszy i świadomości dostarcza jednak więcej pytań niż odpowiedzi. Na przykład należałoby zapytać, czy takie rozumienie duszy nie stoi w sprzeczności z głoszonym w Kościele katolickim przekonaniem, że ludzka dusza jest nieśmiertelna, w odróżnieniu od ciała, które ma dopiero zmartwychwstać na końcu czasu (cokolwiek to będzie znaczyło w praktyce). Taka próba ponadto nie wyjaśnia, w jaki sposób i po co Bóg mógłby dokonywać tej animacji – czy zatem nie jest tylko tłumaczeniem nieznanego przez nieznane? Jeśli dusza jest zbiorem „nowych jakości, właściwych relacji człowieka z Bogiem”, dlaczego doświadczenie wiary nie jest wśród ludzi powszechne, a u tych, u których istnieje, przybiera różnorodne formy, głęboko zakorzenione w kulturze? Czy ludzie, którzy nie wierzą w Boga, lecz na przykład w jakąś abstrakcję, jak Absolut czy Transcendencja, posiadają duszę w swojej mniej rozwiniętej formie?
Coraz lepsze rozumienie mechanizmów ewolucji biologicznej i ewolucji umysłów, dzięki którym coraz dokładniej można odtworzyć sposób kształtowania się ludzkiego umysłu i jego ewolucji z mniej skomplikowanych form (podobnych do umysłów współczesnych nam szympansów), każe natomiast zadać pytanie o pierwszego człowieka: o rozumienie historyczności Adama i Ewy i kluczowej dla chrześcijaństwa opowieści o upadku człowieka. Zmiany ewolucyjne dokonywały się stopniowo i w związku z tym trudno jest jednoznacznie wskazać, w którym momencie dokonał się „skok ontologiczny” i powstał pierwszy człowiek, który w dodatku był bez grzechu. Czy istniał moment, w którym, zgodnie z hipotezą księży Grygiela i Wąska, Bóg zaczął (choćby i stopniowo) stwarzać ludzką duszę? Jeśli tak, to u którego osobnika dusza ta przyjęła formę bliską współczesnemu (a może biblijnemu?) człowiekowi? Innymi słowy, kiedy mógł powstać pierwszy człowiek (którego rodzice nim nie byli)?
Grygiel i Wąsek odnoszą się także do terminu związanego z historią pierwszych ludzi, czyli grzechu pierworodnego. Przyjmują, choć nie bez zastrzeżeń, formułowane wielokrotnie wcześniej rozumienie tego pojęcia jako metafory ludzkiej kondycji, a nawet jako możliwości braku zgody na udział w boskim dziele stworzenia – czyli właściwie utożsamienie grzechu pierworodnego z wolną wolą8. Czy zatem opowieść o upadku pierwszych rodziców jest tylko przypowieścią, czy jak niektórzy by powiedzieli: mitem? Jeśli natomiast jest „prawdziwym mitem”, to co to znaczy? Które jeszcze historie biblijne są mitami albo przypowieściami i należy je traktować wyłącznie w sposób metaforyczny? Czy są nimi także niektóre opowieści o Jezusie Chrystusie, na przykład historia narodzenia, która (w odróżnieniu od opisu procesu przed Sanhedrynem i Piłatem) nie jest do końca spójna z wiedzą historyczną?
Maszyny podejmują decyzje
Odpowiedzi wymaga nie tylko nauka, ale i szybko rozwijająca się technologia, zwłaszcza sztuczna inteligencja. Systemy opierające się na AI potrafią skorzystać z olbrzymich zbiorów danych, przeprowadzić ogromną liczbę obliczeń (często równoległych) i wyciągnąć zaskakujące wnioski. Dziś potrafią nawet samodzielnie zbudować i zoptymalizować nowe algorytmy, które usprawnią ich działanie i lepiej wykorzystają dostępne zasoby obliczeniowe (procesory, moduły pamięci, twarde dyski, interfejsy i inne). W odróżnieniu od ludzi niczego nie zapominają.
Wpłynięcie na kierunki rozwoju sztucznej inteligencji, zanim znajdzie się ona poza kontrolą ludzi, to zadanie dla filozofów i informatyków, którzy żyją dzisiaj, a nie dla przyszłych pokoleń.
Ich umiejętności są łatwiej rozpowszechnialne niż umiejętności ludzkie: do replikowania wiedzy i inteligencji wśród ludzi potrzebujemy wielu lat wychowywania i nauczania na poziomie od przedszkola po uniwersytet. Jest to proces energochłonny, kosztowny i obarczony wieloma ryzykami: ilu uczniów podstawówek zdobywa wysokiej jakości wykształcenie wyższe? Ilu magistrów może pochwalić się znaczącymi osiągnięciami naukowymi? Natomiast replikacja systemów i rozpowszechnianie wiedzy w świecie sztucznej inteligencji odbywa się tak samo szybko jak stworzenie prostego programu komputerowego czy rozbudowanie klastra w centrum danych. Nic więc dziwnego, że sztuczna inteligencja ma coraz większe znaczenie w nauce, biznesie i życiu codziennym.
Pojawienie się sztucznej inteligencji to potężna szansa na rozwiązanie wielu problemów, które dotychczas ze względu na ograniczenia ludzkiego mózgu były nierozwiązywalne. Jednocześnie powstają nowe problemy, wynikające właśnie z faktu, że pod pewnymi względami sztuczna inteligencja jest sprawniejsza niż ludzki umysł i może samodzielnie podejmować decyzje. Dotychczas technologia mogła usprawnić wiele ludzkich aktywności, ale na końcu decyzje podejmowane były przez konkretne osoby, którym można było przypisać odpowiedzialność za te decyzje oraz ich konsekwencje. Dzisiaj maszyny mogą przeprowadzać coraz bardziej skomplikowane rozumowanie i przedstawiać rozstrzygnięcia, które wpływają na ludzi i środowisko. Działanie maszyn nie jest już moralnie obojętne.
W prężnie rozwijającej się dziedzinie filozofii, jaką jest etyka sztucznej inteligencji, głos chrześcijański jest jednak mało słyszalny. W syntezach takich jak AI Ethics Marka Coeckelbergha czy Human Compatible Stuarta Russela odniesienia do tradycyjnej etyki chrześcijańskiej właściwie nie ma. Przedmiotem dyskusji jest etyka utylitarystyczna.
Już dzisiaj, jak podsumowuje filozof Coeckelbergh, sztuczna inteligencja podejmuje decyzje, takie jak wstępna selekcja aplikacji na studia i do pracy, skierowanie na drobiazgową kontrolę służb skarbowych czy (w USA) warunkowe zwolnienie z więzienia. Kilka głośnych przykładów pokazało, że algorytmy mogą nie tylko się mylić, ale wręcz niesprawiedliwie oceniać. W przypadku decyzji o warunkowym zwolnieniu amerykańskie sądy penitencjarne wykorzystywały algorytm COMPAS do przewidywania recydywy. Okazało się, że wyniki fałszywie pozytywne (sytuacje, gdy przewidziano recydywę, która faktycznie nie nastąpiła) znacznie częściej dotyczyły przestępców pochodzenia afrykańskiego9. Innym głośnym przykładem był system do selekcji aplikacji o pracę w firmie Amazon, który odrzucał nieproporcjonalnie wiele kobiet (został on wyłączony w 2018 r.)10.
Publikacje o próbach wyposażenia sztucznej inteligencji w wartości są właściwie różnymi wersjami etyki utylitarystycznej, humanistycznej czy liberalnej. Czy chrześcijaństwo nie ma tu nic do powiedzenia?
Oczywiście ryzyko dyskryminacji to tylko jeden z problemów moralnych, jakie stawia przed nami sztuczna inteligencja. Wśród innych kwestii jest na przykład konstrukcja algorytmów prowadzących autonomiczne samochody. Algorytmy te odpowiadają za takie kwestie, jak skuteczne rozpoznanie otoczenia (odróżnienie śmieci pozostawionych na drodze od przeszkody czy innego uczestnika ruchu), dobór odpowiedniej prędkości, manewrowanie między innymi pojazdami i fizycznymi przeszkodami, przepuszczanie pieszych, wreszcie – właściwa reakcja na nieoczekiwane zdarzenia (często przytaczany dylemat, czy w pierwszej kolejności chronić osoby znajdujące się w pojeździe, czy poza nim).
Powszechne używanie sztucznej inteligencji każe zapytać o odpowiedzialność i możliwość rozliczenia za decyzje podejmowane przez algorytmy. Jeśli to programiści zbudowali instrukcje algorytmiczne, a władze zatrudniającej ich spółki je zatwierdziły, można stosunkowo łatwo ustalić odpowiedzialność konkretnych osób za konsekwencje stosowania tych rozwiązań. Sprawa staje się trudniejsza, gdy złożoność danego algorytmu rośnie i w związku z tym żaden człowiek nie może dokładnie przewidzieć jego działań.
W dwóch wyżej wspomnianych przypadkach – algorytmów wspierających procesy rekrutacyjne i decyzje sądów – niesprawiedliwe działanie AI wykryto post factum. Ciężko było ustalić, czy można kogoś pociągnąć do odpowiedzialności. Systemy sztucznej inteligencji podejmują decyzje etyczne, co oznacza, że stają się nie przedmiotami, ale podmiotami moralnymi. Jest to zupełnie nowa sytuacja, a określenie warunków i zakresu odpowiedzialności tych systemów, ich twórców oraz użytkowników stanowi duże wyzwanie dla filozofii i prawa. Oznacza to również, że staje się istotne, jakimi wartościami będą się te systemy kierowały – a kwestia wartości jest już z religią bardzo blisko związana.
Wartości sztucznej inteligencji
Jeśli sztuczna inteligencja już teraz samodzielnie podejmuje decyzje podlegające ocenie moralnej, a więc jest podmiotem etycznym, należy zadać pytanie, na jakiej podstawie (w oparciu o jakie wartości) będzie je podejmować. W tym kontekście pojawia się pojęcie funkcji celu (ang. objective function), czyli funkcji, której wartość będzie maksymalizowana przy pomocy środków dostępnych algorytmowi. Poprawne określenie tej funkcji jest kwestią kluczową: czy sztuczna inteligencja powinna kierować się dobrem ludzi (a jeśli tak, to których ludzi?), czy raczej dobrem planety? A może wszechświata? Albo innymi abstrakcyjnymi wartościami, które są zgodne z wyznawanym przez sztuczną inteligencję systemem etycznym?
Problem ten staje się szczególnie jaskrawy, gdy uświadomimy sobie, że sztuczna inteligencja niedługo pod pewnymi względami będzie mogła przewyższyć inteligencję ludzką. Nick Bostrom w swojej książce Superinteligencja pisze o możliwości pojawienia się takiej superinteligencji (czy też: nadinteligencji), rozważa szanse i zagrożenia z nią związane oraz przedstawia problemy do rozwikłania. Jednym z kluczowych jest zaszczepienie właściwych wartości systemom sztucznej inteligencji11.
Bostrom argumentuje, że sięganie po konkretne wartości z określonego filozoficznego systemu etycznego jest niewłaściwe ze względu na fakt, że żaden system etyczny nie jest uznawany za obowiązujący przez większość etyków i filozofów (zatem „większość filozofów się myli”). Konsekwencje błędnych decyzji w tej sprawie byłyby olbrzymie – wyobraźmy sobie tylko, że sztuczna nadinteligencja wyznawałaby wartości, które w długiej perspektywie okazałyby się dla ludzi szkodliwe12.
Autor wskazuje jako jedną z możliwości zastosowanie opracowanej przez Eliezera Yudkowsky’ego metodologii obliczania tzw. spójnej, ekstrapolowanej woli (ang. coherent extrapolated volition), czyli przewidywania, jakie ludzkie pragnienia mogłyby być zrealizowane, gdybyśmy jako ludzie „dokonali usprawnienia naszych kompetencji poznawczych i udoskonalili samych siebie w warunkach odpowiednich społecznych interakcji zachodzących pomiędzy nami”13. Takie przewidywania ludzkiej woli oczywiście byłyby możliwe dzięki potencjałowi, jakim nowe systemy informatyczne będą dysponowały (bądź już dysponują) w zakresie analizy zachowania miliardów ludzi i przewidywania nie tylko ich działań, ale także długotrwałych konsekwencji i długotrwałego wpływu tychże działań na dobrostan jednostek – sztuczna inteligencja będzie mogła przez to ekstrapolować ludzką wolę.
Postulat spójności oznacza z kolei, że owa obliczeniowa ekstrapolacja musiałaby ukierunkować swoje przewidywania tak, aby realizacja pragnień ludzi prowadziła do wzrostu dobrostanu wszystkich ludzi, a w szczególności, aby realizacja pragnień niektórych osób nie stała na przeszkodzie realizacji pragnień innych. Ponadto dzięki tym przewidywaniom sztuczna inteligencja powinna wspierać działania umożliwiające realizację pragnień, które można uznać za powszechne wśród ludzi – jako przykład autor podaje unikanie cierpienia. Zmieniające się preferencje ludzi, zwłaszcza te dotyczące moralności (nazywane, za Bertrandem Russellem, postępem moralnym), mogłyby stanowić podstawę do obliczeń i przybliżeń dokonywanych w ramach kolejnych iteracji obliczania spójnej, ekstrapolowanej woli. Bostrom twierdzi, że tego rodzaju podejście z pewnością nie byłoby idealne, ale mogłoby stanowić wystarczająco dobre przybliżenie wartości, zgodnie z którymi bieglejsze intelektualnie od ludzi systemy sztucznej inteligencji mogłyby działać14.
Inny badacz i praktyk sztucznej inteligencji, Stuart Russell, w pracy Human Compatible proponuje zbliżone spojrzenie na problem wyposażenia sztucznej inteligencji w wartości. Podobnie jak Bostrom twierdzi, że powinniśmy wystrzegać się „umieszczania wartości” ze względu na ryzyko powtórzenia przez silną sztuczną inteligencję błędów, jakie różne zbiorowości ludzkie popełniały w przeszłości, gdy pewne systemy wartości okazywały się mieć negatywne konsekwencje15. Proponuje raczej, by systemy sztucznej inteligencji mogły stopniowo uczyć się, jak wywoływać skutki pożądane dla jak największej liczby osób, czyli stosować ogólną zasadę utylitaryzmu16.
Etykę cnót Russell odrzuca ze względu na brak samoświadomości u sztucznej inteligencji17. Jak rozumiem, jeżeli chcielibyśmy wyposażyć nieświadomą sztuczną inteligencję w cnoty, musielibyśmy w praktyce zadać konkretne wartości, jakimi ta powinna się kierować, a to jest ryzykowne, co wykazano wcześniej. Innymi słowy, dla algorytmów nie ma innego procesu iteracyjnego zbliżania się do właściwego postępowania niż numeryczna optymalizacja funkcji olbrzymiej liczby zmiennych w celu maksymalizacji jej wartości – tą wartością byłoby po prostu szczęście ludzi. Russell jest świadomy ograniczeń swojej propozycji i odsyła do dyskusji, jakie toczą się w odniesieniu do etyki utylitarystycznej.
Ciekawą próbą zrozumienia, jakimi wartościami kieruje się sztuczna inteligencja, była opublikowana niedawno na portalu Więź.pl rozmowa Dariusza Kota z popularnym ostatnio programem ChatGPT wokół pytania, którą religię wybrać18. Chociaż algorytm unika jednoznacznej odpowiedzi (sam pytałem ten program, czy Bóg istnieje oraz czy utylitaryzm jest najlepszym systemem etycznym, i otrzymywałem odpowiedź wymijającą), to jednak jasno widać, do jakich wartości AI próbuje przekonać ludzi. Dowiadujemy się, że warto być wiernym swoim własnym przekonaniom (także religijnym), dlatego że dzięki temu czujemy się spełnieni, usatysfakcjonowani i pogodzeni ze sobą. Jednocześnie ChatGPT twierdzi, że „czymś fundamentalnym jest poszanowanie różnorodności przekonań i opinii oraz uznanie, że nie ma jednego «prawidłowego» sposobu życia”. Po kolejnych stwierdzeniach, dlaczego życie zgodnie z własnymi oczekiwaniami jest ważne, i kilku próbach uzasadnienia tej tezy (będących raczej rozumowaniem okrężnym niż poprawną argumentacją – co rozmówca wytyka algorytmowi, a algorytm w zasadzie przyznaje mu rację) Dariusz Kot stwierdza, że ChatGPT kieruje się po prostu liberalnym humanizmem.
W odniesieniu do kwestii wartości wspomniany wcześniej Coeckelbergh pisze, że zachodniej cywilizacji potrzebne jest podejście czerpiące z religii wschodnich19, gdzie sztuczna inteligencja może być traktowana jako część przyrody czy świata, jako potencjalnie dobry pomocnik ludzi, z którym powinni wchodzić w interakcje, podobnie jak wchodzili zawsze z przyrodą nieożywioną i ożywioną. Uwzględnienie faktu, że w religiach Wschodu często miejsce człowieka w świecie jest mniej uprzywilejowane niż w religiach monoteistycznych (zwłaszcza w zachodnim chrześcijaństwie), mogłoby pozwolić na zupełnie inne podejście do problemu nowej relacji między człowiekiem a sztuczną inteligencją. Takie podejście, które zostawiałoby miejsce na sztuczną inteligencję (albo: nadinteligencję) podejmującą decyzje wpływające pozytywnie na dobrostan planety (a może i wszechświata?) wbrew ludziom. Człowiek nie byłby już miarą wszechrzeczy – czy byłaby nią przyroda, czy może sama sztuczna inteligencja?
Wspomniane wyżej teorie dotyczące wyposażenia sztucznej inteligencji w wartości są właściwie różnymi wersjami etyki utylitarystycznej, humanistycznej czy liberalnej. Pojawiają się tam odwołania do religii Wschodu. Tym bardziej szkoda, że w sprawach etyki sztucznej inteligencji nie ma jasnego chrześcijańskiego głosu. Czy faktycznie liberalizm i utylitaryzm – albo ich współczesne formy, takie jak spójna, ekstrapolowana wola – to najlepsze systemy etyczne? Czy chrześcijaństwo nie ma tu nic do powiedzenia?
Deklaracja nie wystarczy
Przygotowaniem do odpowiedzi na wyzwania sztucznej inteligencji jest Apel rzymski20 z 2022 r. – deklaracja przygotowana przez abp. Vincenza Paglię, prezesa Papieskiej Akademii Życia, podpisana przez przedstawicieli Włoskiego Ministerstwa Innowacji, Dyrektora Generalnego FAO, a także reprezentantów Microsoft i IBM. Ostatnio do tego grona dołączyli przedstawiciele judaizmu i islamu21. W krótkiej deklaracji autorzy podkreślają, że zmiany, jakie zachodzą pod wpływem rozpowszechniania się sztucznej inteligencji, są nie tylko ilościowe, ale i jakościowe, gdyż zmieniają nasze wyobrażenie o rzeczywistości i naturze ludzkiej. Podkreślają, że nowe technologie powinny służyć całej rodzinie ludzkiej, być inkluzywne i dobre dla każdej osoby ludzkiej, a także dla wszystkich istot żyjących na planecie. Deklaracja definiuje sześć zasad, które powinny obowiązywać w procesie tworzenia sztucznej inteligencji:
1. Przejrzystość: zasadniczo systemy sztucznej inteligencji muszą być wyjaśnialne;
2. Inkluzja: należy wziąć pod uwagę potrzeby wszystkich ludzi, aby każdy mógł skorzystać [z dobrodziejstw sztucznej inteligencji], a wszystkim osobom można było zaoferować najlepsze możliwe warunki do wyrażania siebie i rozwoju;
3. Odpowiedzialność: ci, którzy projektują i wdrażają sztuczną inteligencję, muszą działać odpowiedzialnie i transparentnie;
4. Bezstronność: nie wolno tworzyć ani działać w oparciu o uprzedzenia, dzięki czemu można chronić sprawiedliwość i godność ludzką;
5. Niezawodność: systemy sztucznej inteligencji muszą działać niezawodnie;
6. Bezpieczeństwo i prywatność: systemy sztucznej inteligencji muszą być bezpieczne i szanować prywatność użytkowników.
Co ciekawe, istnieje jeszcze jedna wersja punktu trzeciego, która mówi, że „zawsze musi być ktoś, kto przejmuje odpowiedzialność za to, co robi maszyna”.
Powyższa deklaracja jest ciekawym wstępem do dalszej dyskusji i formułowania uniwersalnych podstaw etyki sztucznej inteligencji. Za nimi powinny iść prace naukowe, wytyczne i kodeksy postępowania przyjmowane przez instytucje i przedsiębiorstwa. Na razie jest to tylko zbiór kilku słusznych zasad, a nawet do tak ogólnego dokumentu można mieć parę uwag.
Zasady te są sformułowane na tyle ogólnie, że mogłyby zostać przyjęte, a nawet przedstawione przez osoby o całkowicie świeckim światopoglądzie, podobnym do wspomnianego wcześniej liberalnego humanizmu, którym zdaje się kierować aplikacja ChatGPT. Zasada inkluzji (pkt 2) bardzo przypomina podejście do etyki jako zbioru zasad będących rezultatem uspójnienia pragnień i potrzeb wszystkich ludzi, czyli spójnej, ekstrapolowanej woli. Jest to jednak bardzo odległe od tradycyjnie rozumianej etyki chrześcijańskiej. W deklaracji stworzonej przez instytucję kościelną (Papieską Akademię Życia) zaskakuje brak odwołań do nauczania Kościoła, a nawet do Pisma Świętego. Jedynym dokumentem cytowanym w Apelu rzymskim jest Powszechna Deklaracja Praw Człowieka z 1948 r., choć przecież odwołanie się na przykład do przykazania miłości bliźniego nie stanowiłoby uszczerbku na uniwersalności tego apelu.
Potrzeba odpowiedzi chrześcijańskiej
Starałem się powyżej nakreślić dwa przykłady grup problemów, które nie są ani moralnie, ani religijnie obojętne. Problem relacji ciało–umysł dotyka fundamentów wiary religijnej i stawia na nowo pytania o naturę człowieka i prawdziwość przekazu świętej księgi chrześcijaństwa. Problem roli sztucznej inteligencji i wartości, które stanowią podstawę jej działań i decyzji, to przykład nowej sytuacji, w której chrześcijaństwo mogłoby zabrać głos, aby wskazać te wartości, którymi algorytmy – będące jak dotąd pod kontrolą człowieka – mogłyby się kierować.
Jak próbowałem wykazać, w pierwszym przypadku chrześcijańskie próby odpowiedzi są daleko niewystarczające i chrześcijaństwo (zwłaszcza katolicyzm) raczej nie jest w stanie przedstawić współczesnemu człowiekowi spójnej wizji świata, w której istnieje miejsce zarówno na objawienie, jak i na odkrycia naukowe w istotny sposób zmieniające rozumienie wszechświata oraz materii ożywionej, a przede wszystkim postrzeganie miejsca człowieka we wszechświecie i wśród organizmów żywych. W drugim przypadku natomiast, choć chrześcijaństwo ma unikalną szansę wpłynięcia na konstrukcję systemów, które będą miały coraz większe znaczenie w wielu dziedzinach życia, jego głos wydaje się nieobecny. Czy dlatego, że nie jest słyszany, czy też filozofowie chrześcijańscy nie chcą się na ten temat wypowiadać?
Problemów, jakie stawia przed nami rozwój nauki i technologii, jest oczywiście więcej. Można wskazać na rozwój nauk historycznych, który każe wątpić w prawdziwość tak istotnych dla (mówiąc językiem kościelnym) ekonomii zbawienia opowieści, jak wędrówka Abrahama i jego współplemieńców, wyjście narodu wybranego z Egiptu pod wodzą Mojżesza, panowanie króla Dawida, wreszcie spis ludności, z powodu którego cieśla uważający się za potomka Dawida musiał odbyć męczącą wędrówkę przez góry z małżonką w zaawansowanej ciąży.
Odpowiedzi na zarysowane w tym tekście problemy i wyzwania są oczywiście złożone. Nie załatwią tego krótkie oświadczenia episkopatów ani pojedyncze dokumenty ogłoszone przez biskupa Rzymu. One wymagają pogłębionej refleksji wśród wierzących filozofów, naukowców, technologów (w tym informatyków), wreszcie wśród dziennikarzy i publicystów wpływających na debatę w Kościołach i społeczeństwie. Te zagadnienia będą musiały wejść do głównego nurtu duszpasterskiego, tak aby zarówno świadomość na temat problemów, jak i wiedza o ich rozwiązywaniu były wśród wiernych powszechne.
I jest to sprawa naprawdę pilna. Jak podkreślał Bostrom22: wpłynięcie na kierunki rozwoju sztucznej inteligencji, zanim znajdzie się ona poza kontrolą ludzi, to zadanie dla filozofów i informatyków, którzy żyją dzisiaj, a nie dla przyszłych pokoleń naukowców. Chrześcijańskie podejście do moralności i ludzkiej godności powinno być w tej dyskusji obecne. Natomiast ukazanie wizji świata, która spoi wielowiekową tradycję chrześcijaństwa i judaizmu z naukową wiedzą o świecie, to wyzwanie szczególnie pilne ze względu na odkrycia ostatnich lat i dużo szybsze niż w przeszłości tempo postępu nauki. Jeśli chrześcijaństwo podejmie te dwa wyzwania, być może (na nowo?) stanie się odpowiedzią na pytania, które przed człowiekiem stawia współczesna nauka i technologia.
1 S. Duda, Lękać się z zalęknionymi, „Więź” 2022, nr 4, s. 97–112.
2 Z. Nosowski, Bóg mówi przez kryzysy. Pytania na długą „wielką sobotę” Kościoła, „Więź” 2022, nr 4, s. 113–126.
3 D. Dennett, Od bakterii do Bacha: o ewolucji umysłów, tłum. K. Bielecka, M. Miłkowski, Kraków 2017, s. 488.
4 Tamże, s. 76.
5 A. Seth, Being You: A New Science of Consciousness, London 2021, s. 271.
6 Tamże, s. 194.
7 W. Grygiel, D. Wąsek, Teologia ewolucyjna: założenia – problemy – hipotezy, Kraków 2022, s. 195.
8 Tamże, s. 172.
9 M. Coeckelbergh, AI Ethics, Cambridge 2020, s. 127.
10 J. Dastin, Amazon scraps secret AI recruiting tool that showed bias against women, www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G [dostęp: 3.06.2023].
11 N. Bostrom, Superinteligencja: scenariusze, strategie, zagrożenia, tłum. D. Konowrocka-Sawa, Gliwice 2021, s. 272.
12 Tamże, s. 304.
13 Tamże, s. 307.
14 Tamże, s. 329.
15 S. J. Russell, Human Compatible: Artificial Intelligence and the Problem of Control, New York 2020, s. 178.
16 Tamże, s. 217.
17 Tamże.
18 D. Kot, Zapytaliśmy sztuczną inteligencję, którą religię wybrać, www.wiez.pl/2023/02/22/sztuczna-inteligencja-ktora-religie-wybrac [dostęp: 3.06.2023].
19 M. Coeckelbergh, AI Ethics, dz. cyt., s. 28.
20 The call | Rome Call, www.romecall.org/the-call [dostęp: 3.06.2023].
21 AI Ethics: An Abrahamic commitment to the Rome Call, www.romecall.org/ai-ethics-an-abrahamic-commitment-to-the-rome-call-2 [dostęp: 3.06.2023].
22 N. Bostrom, Superinteligencja…, dz. cyt., s. 370–376.
Tekst ukazał się w kwartalniku „Więź” lato 2023 jako część bloku „Ludzie vs. sztuczna inteligencja”
Pozostałe teksty:
Po co nam AI? Bilans zysków i strat. Rozmowa z Joanną Mazur
Czy sztuczna inteligencja potrafi być twórcza? Dyskusja z udziałem Dariusza Jemielniaka i Jaremy Piekutowskiego