Jesień 2024, nr 3

Zamów

Błądzimy, jeśli zapominamy, że sztuczna inteligencja nie jest istotą ludzką

Papież Franciszek. Fot. Mazur / cbcew.org.uk

Namysł nad technologią oznacza również refleksję nad byciem człowiekiem – mówił papież Franciszek podczas szczytu G7.

Przemówienie wygłoszone 14 czerwca 2024 r. podczas szczytu G-7 w Borgo Egnazia

Szanowne Panie, Dostojni Panowie!

Zwracam się dziś do was, Przywódców Forum Międzyrządowego G7, z refleksją na temat wpływu sztucznej inteligencji na przyszłość ludzkości.

Pismo Święte zaświadcza, że Bóg dał ludziom swego Ducha, aby „posiadali «mądrość, rozum, wiedzę i znajomość wszelkiego rzemiosła»” (Wj 35, 31)[1]. Nauka i technologia są zatem niezwykłymi produktami twórczego potencjału nas, istot ludzkich[2].

Zatem właśnie z wykorzystania tego twórczego potencjału, który dał nam Bóg, rodzi się sztuczna inteligencja.

Narzędzie fascynujące i groźne

Jak wiadomo, jest ona narzędziem niezwykle potężnym, wykorzystywanym w bardzo wielu obszarach ludzkiego działania: od medycyny po świat pracy, od kultury po sferę komunikacji, od edukacji po politykę. I można teraz bezpiecznie założyć, że wykorzystanie sztucznej inteligencji będzie w coraz większym stopniu wpływać na nasz sposób życia, nasze relacje społeczne, a w przyszłości nawet na sposób, w jaki pojmujemy naszą tożsamość jako istoty ludzkiej[3].

Temat sztucznej inteligencji jest jednak często postrzegany jako ambiwalentny: z jednej strony fascynuje możliwościami, jakie oferuje, a z drugiej generuje lęk przed konsekwencjami, jakie zapowiada. W związku z tym można powiedzieć, że w nas wszystkich, choć w różnym wymiarze, przeplatają się dwa uczucia: jesteśmy nastawieni entuzjastycznie, gdy wyobrażamy sobie postęp, jaki można uzyskać dzięki sztucznej inteligencji, ale jednocześnie odczuwamy lęk, gdy widzimy zagrożenia związane z jej użyciem[4].

Zresztą nie możemy wątpić, że pojawienie się sztucznej inteligencji stanowi prawdziwą rewolucję poznawczo-przemysłową, która przyczyni się do stworzenia nowego systemu społecznego, charakteryzującego się złożonymi przemianami epokowymi. Na przykład: sztuczna inteligencja może pozwolić na demokratyzację dostępu do wiedzy, gwałtowny postęp badań naukowych, możliwość powierzenia uciążliwych prac maszynom; ale jednocześnie może przynieść ze sobą większą niesprawiedliwość między krajami rozwiniętymi a rozwijającymi się, między dominującymi a uciskanymi warstwami społecznymi, zagrażając w ten sposób możliwości „kultury spotkania”, a sprzyjając „kulturze odrzucenia”.

Zakres tych złożonych przemian jest oczywiście powiązany z szybkim rozwojem technologicznym samej sztucznej inteligencji. To właśnie ten dynamiczny postęp technologiczny sprawia, że sztuczna inteligencja jest narzędziem, które okazuje się jednocześnie fascynujące i groźne, wymaga refleksji na miarę sytuacji.

W obliczu cudów maszyn, które zdają się być zdolne do samodzielnego wyboru, musimy sobie wyraźnie uświadomić, że istocie ludzkiej zawsze należy pozostawić decyzję

papież Franciszek

Udostępnij tekst

Być może moglibyśmy zacząć od spostrzeżenia, że sztuczna inteligencja jest przede wszystkim narzędziem. I spontanicznie nasuwa się stwierdzenie, że korzyści lub szkody, jakie przyniesie, będą zależeć od jej zastosowania.

Jest to z pewnością prawda, ponieważ tak było w przypadku każdego narzędzia zbudowanego przez istoty ludzkie od zarania dziejów.

Kondycja techniczno-ludzka

Ta nasza zdolność do konstruowania narzędzi, w ilości i złożoności niespotykanej pośród istot żywych, sprawia, że można mówić o kondycji techniczno-ludzkiej: istota ludzka zawsze utrzymywała relację ze środowiskiem, zapośredniczoną przez narzędzia, jakie stopniowo tworzyła. Nie da się oddzielić historii człowieka i cywilizacji od historii tych narzędzi. Niektórzy chcieli odczytać w tym wszystkim rodzaj braku, niedoboru istoty ludzkiej, tak jakby z powodu tego niedoboru zmuszona była stworzyć technologię[5].

W rzeczywistości, uważne i obiektywne spojrzenie pokazuje nam coś wręcz przeciwnego. Żyjemy w stanie „przekraczania siebie” w odniesieniu do naszej biologicznej istoty; jesteśmy istotami pozbawionymi równowagi w stosunku do tego, co na zewnątrz nas; rzeczywiście, radykalnie otwartymi na to, co poza nami. To stąd bierze początek nasza otwartość na innych i na Boga; to stąd wyrasta twórczy potencjał naszej inteligencji w zakresie kultury i piękna; stąd, w końcu, pochodzi nasza zdolność techniczna. Technologia jest więc śladem tego naszego stanu przekraczania siebie.

Jednak korzystanie z naszych narzędzi nie zawsze jest jednoznacznie ukierunkowane na dobro. Nawet jeśli istota ludzka czuje w sobie powołanie do przekraczania siebie i do wiedzy przeżywanej jako narzędzie dobra w służbie braciom i siostrom oraz wspólnemu domowi (por. „Gaudium et spes”, 16), nie zawsze tak się dzieje. Wręcz przeciwnie, nierzadko, właśnie z powodu swojej radykalnej wolności, ludzkość wypaczała cel swojego istnienia, stając się wrogiem samej siebie i planety[6].

Ten sam los może spotkać narzędzia technologiczne. Tylko wtedy, gdy zagwarantuje się ich powołanie do służby człowiekowi, narzędzia technologiczne ukażą nie tylko wielkość i wyjątkową godność istoty ludzkiej, ale także zadanie, jakie ona otrzymała, aby pielęgnować i strzec (por. Rdz 2, 15) planety i wszystkich jej mieszkańców. Mówienie o technologii oznacza również refleksję nad tym, co oznacza bycie człowiekiem, a zatem dotyczy naszej wyjątkowej kondycji rozpiętej między wolnością a odpowiedzialnością, czyli oznacza również potrzebę mówienia o etyce.

Kiedy nasi przodkowie ostrzyli krzemienne kamienie, aby skonstruować noże, używali ich zarówno do cięcia skóry na ubrania, jak i do zabijania się nawzajem. To samo można by powiedzieć o innych, znacznie bardziej zaawansowanych technologiach, takich jak energia wytwarzana przez fuzję atomów, zachodząca na słońcu, która z pewnością mogłaby zostać wykorzystana do produkcji czystej, odnawialnej energii, ale także do sprowadzenia naszej planety do stosu popiołu.

Algorytmiczne czy ludzkie wybory

Sztuczna inteligencja jest jednak narzędziem jeszcze bardziej złożonym. Powiedziałbym wręcz, że to narzędzie sui generis. Tak więc, podczas gdy użycie prostego narzędzia (takiego jak nóż) jest pod kontrolą istoty ludzkiej, która go używa, i tylko od niej zależy jego dobre użycie, sztuczna inteligencja, przeciwnie, może autonomicznie dostosowywać się do przydzielonego jej zadania i, jeśli jest zaprojektowana w ten sposób, dokonywać wyborów niezależnych od istoty ludzkiej, aby osiągnąć wyznaczony cel[7].

Należy zawsze pamiętać, że maszyna może, w pewnych formach i za pomocą tych nowych środków, dokonywać wyborów algorytmicznych. To, co robi maszyna, jest jednym wyborem technicznym spośród wielu możliwości, i opiera się albo na dobrze zdefiniowanych kryteriach, albo na wnioskach statystycznych. Natomiast istota ludzka nie tylko wybiera, ale jest zdolna do podejmowania decyzji w sercu. Decyzja jest elementem, który moglibyśmy nazwać bardziej strategicznym niż jakiś wybór, i wymaga ona praktycznej oceny. Czasami, często w trudnym zadaniu rządzenia, jesteśmy wezwani do podjęcia decyzji, które będą miały konsekwencje także dla wielu osób. Ludzka refleksja od zawsze mówi w tym względzie o mądrości, o phronesis filozofii greckiej i przynajmniej częściowo o mądrości Pisma Świętego.

W obliczu cudów maszyn, które zdają się być zdolne do samodzielnego wyboru, musimy sobie wyraźnie uświadomić, że istocie ludzkiej zawsze należy pozostawić decyzję, nawet z odcieniem dramatycznym i naglącym, jakie czasami są obecne w naszym życiu. Skazalibyśmy ludzkość na przyszłość bez nadziei, gdybyśmy pozbawili ludzi zdolności do decydowania o sobie i swoim życiu, podporządkowując ich zależności od wyborów dokonywanych przez maszyny. Potrzebujemy gwarancji i ochrony pewnej przestrzeni znaczącej kontroli dokonywanej przez istoty ludzkie nad procesem wyboru programów sztucznej inteligencji: chodzi w tym o samą godność ludzką.

Właśnie w tej kwestii pozwólcie mi, że będę nalegał: w dramacie, jakim jest konflikt zbrojny, należy pilnie przemyśleć rozwój i wykorzystanie urządzeń takich jak tak zwana śmiercionośna broń autonomiczna, aby zakazać ich używania, począwszy już od faktycznego i konkretnego zobowiązania do wprowadzenia coraz bardziej znaczącej ludzkiej kontroli. Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej.

Co więcej, należy dodać, że właściwe wykorzystanie, przynajmniej zaawansowanych form sztucznej inteligencji, nie będzie w pełni kontrolowane ani przez użytkowników, ani przez programistów, którzy zdefiniowali pierwotny cel zaawansowanych form sztucznej inteligencji w chwili ich opracowania. Tym bardziej, że jest wysoce prawdopodobne, iż w niedalekiej przyszłości programy sztucznej inteligencji będą w stanie komunikować się bezpośrednio ze sobą w celu udoskonalenia swoich osiągnięć. I jeśli w przeszłości ludzie, którzy projektowali proste narzędzia, widzieli, jak kształtują one ich egzystencję – nóż pozwolił im przetrwać zimno, ale także rozwinąć sztukę wojenną – teraz, gdy ludzie zaprojektowali złożone narzędzie, zobaczą, jak to ostatnie jeszcze bardziej kształtuje ich egzystencję[8].

Mechanizm i antropologia

Chciałbym teraz zatrzymać się krótko nad złożonością sztucznej inteligencji. W swojej istocie jest ona narzędziem zaprojektowanym do rozwiązywania problemów i funkcjonuje za pomocą logicznego łańcucha operacji algebraicznych, przeprowadzanych na kategoriach danych, które są porównywane w celu odkrycia korelacji, poprawiając ich wartość statystyczną, dzięki procesowi samodzielnego uczenia się, opartemu na poszukiwaniu dalszych danych i samodzielnej modyfikacji jego procedur obliczeniowych.

Sztuczna inteligencja jest zatem zaprojektowana do rozwiązywania specyficznych problemów. Jednak u tych, którzy jej używają, pojawia się często nieodparta pokusa wyciągania ogólnych wniosków z konkretnych rozwiązań, jakie proponuje, nawet natury antropologicznej.

Wykorzystanie sztucznej inteligencji będzie w coraz większym stopniu wpływać na nasz sposób życia, nasze relacje społeczne, a w przyszłości nawet na sposób, w jaki pojmujemy naszą tożsamość jako istoty ludzkiej

papież Franciszek

Udostępnij tekst

Dobrym przykładem jest wykorzystanie programów zaprojektowanych, aby pomagać sędziom w podjęciu decyzji o przyznaniu aresztu domowego więźniom odbywającym karę w zakładzie karnym. W tym przypadku wymaga się od sztucznej inteligencji przewidywania prawdopodobieństwa ponownego popełnienia przestępstwa przez skazanego na podstawie wcześniej określonych kategorii (rodzaj przestępstwa, zachowanie w więzieniu, ocena psychologiczna i inne). Pozwala się tu sztucznej inteligencji na dostęp do kategorii danych związanych z życiem prywatnym skazanego (pochodzenie etniczne, poziom wykształcenia, linia kredytowa i inne). Korzystanie z takiej metodologii – która czasami grozi przekazaniem de facto maszynie ostatniego słowa w sprawie losu danej osoby – może domyślnie nieść ze sobą odniesienie do uprzedzeń, nieodłącznie związanych z kategoriami danych wykorzystywanych przez sztuczną inteligencję.

Bycie zaklasyfikowanym do określonej grupy etnicznej lub, bardziej prozaicznie, popełnienie drobnego przestępstwa wiele lat wcześniej (np. niezapłacenie mandatu za nieprawidłowe parkowanie) w rzeczywistości wpłynie na decyzję o przyznaniu aresztu domowego. A przecież istota ludzka cały czas ewoluuje i potrafi zaskakiwać swoimi działaniami, czego maszyna nie jest w stanie wziąć pod uwagę.

Należy również zauważyć, że zastosowania podobne do właśnie wspomnianego zostaną przyspieszone przez fakt, że programy sztucznej inteligencji będą w coraz większym stopniu wyposażone w zdolność do bezpośredniej interakcji z ludźmi (chatboty), prowadząc z nimi rozmowy i nawiązując z nimi relacje bliskości, często bardzo przyjemne i kojące. Programy sztucznej inteligencji zostaną bowiem zaprojektowane tak, aby nauczyć się odpowiadać w formie spersonalizowanej na fizyczne i psychologiczne potrzeby istot ludzkich.

Zapominanie, że sztuczna inteligencja nie jest inną istotą ludzką, i że ona nie może zaproponować ogólnych zasad, jest często poważnym błędem. Wynika on albo z głębokiej potrzeby istot ludzkich do znalezienia stabilnej formy towarzystwa, albo z podświadomego założenia człowieka, że obserwacje uzyskane za pomocą mechanizmu obliczeniowego są obdarzone cechami niekwestionowanej pewności i niewątpliwej uniwersalności.

Jak pokazuje analiza nieodłącznych ograniczeń samych obliczeń, to założenie jest jednak ryzykowne. Sztuczna inteligencja wykorzystuje operacje algebraiczne, które mają być wykonywane zgodnie z logiczną sekwencją (np. jeśli wartość X jest większa niż wartość Y, pomnóż X przez Y; w przeciwnym razie podziel X przez Y). Ta metoda obliczeń – tak zwany algorytm – nie jest ani obiektywna, ani neutralna[9]. Opierając się na algebrze, może jedynie badać rzeczywistość sformalizowaną w kategoriach liczbowych[10].

Co więcej, nie należy zapominać, że algorytmy zaprojektowane do rozwiązywania bardzo złożonych problemów są tak zaawansowane, że samym programistom sprawia trudność dokładne zrozumienie, w jaki sposób osiągają swoje wyniki. Ta tendencja do wyrafinowania grodzi znacznym przyspieszeniem wraz z wprowadzeniem komputerów kwantowych, których działanie nie będzie opierać się na obwodach binarnych (półprzewodniki lub mikroprocesory), ale na dość złożonych prawach fizyki kwantowej. Z drugiej strony, ciągłe wprowadzanie coraz bardziej wydajnych mikroprocesorów już stało się jedną z przyczyn dominacji wykorzystania sztucznej inteligencji przez kilka krajów, które są w nią wyposażone.

Niezależnie od tego, czy są one wyrafinowane, czy nie, jakość odpowiedzi udzielanych przez programy sztucznej inteligencji ostatecznie zależy od danych, z których one korzystają, i od tego, jak są ustrukturyzowane.

Edukacja podważona

Na koniec pozwolę sobie wskazać jeszcze jeden obszar, w którym wyraźnie ujawnia się złożoność mechanizmu tak zwanej generatywnej sztucznej inteligencji (Generative Artificial Intelligence). Nikt nie ma wątpliwości, że obecnie dostępne są wspaniałe narzędzia dostępu do wiedzy, które pozwalają nawet na samouczenie się i samokształcenie w niezliczonych dziedzinach. Wielu z nas było pod wrażeniem łatwo dostępnych aplikacji online do komponowania tekstu lub tworzenia obrazu na dowolny temat. Szczególnie przyciągają one uwagę uczniów, którzy, gdy muszą przygotować wypracowania, korzystają z nich zbyt często.

Ci uczniowie, którzy często są znacznie lepiej przygotowani i przyzwyczajeni do korzystania ze sztucznej inteligencji niż ich profesorowie, zapominają jednak, że tak zwana generatywna sztuczna inteligencja, ściśle mówiąc, nie jest tak naprawdę generatywna. W rzeczywistości, przeszukuje ona big data w poszukiwaniu informacji i przetwarza je w żądanym od niej stylu.

Nie opracowuje nowych koncepcji ani analiz. Powtarza te, które znajdzie, nadając im atrakcyjną formę. A im częściej znajduje powtarzające się pojęcie lub hipotezę, tym bardziej uważa je za uzasadnione i ważne. Jest ona zatem nie tyle generatywna ile utrwalająca, w tym sensie, że porządkuje istniejące treści, pomagając je skonsolidować, często nie sprawdzając, czy zawierają błędy lub z góry przyjęte koncepcje.

W ten sposób nie tylko pojawia się ryzyko legitymizacji fałszywych wiadomości (fake news) i wzmocnienia przewagi jakiejś dominującej kultury, ale także podważa to w istocie proces edukacyjny. Edukacja, która powinna zapewnić uczniom możliwość autentycznej refleksji, może zostać sprowadzona do powtarzania pojęć, które będą coraz częściej oceniane jako niebudzące zastrzeżeń jedynie z powodu ich ciągłego powtarzania[11].

Algoretyka koniecznie potrzebna

Do tego, co zostało już powiedziane, należy teraz dodać spostrzeżenie bardziej ogólne. Okres innowacji technologicznych, przez który obecnie przechodzimy, idzie w parze ze szczególną i bezprecedensową sytuacją społeczną: coraz trudniej znaleźć porozumienie w głównych kwestiach życia społecznego. Nawet w społecznościach charakteryzujących się pewną ciągłością kulturową często dochodzi do gorących debat i konfrontacji, co utrudnia tworzenie wspólnych refleksji i rozwiązań politycznych, mających na celu poszukiwanie tego, co dobre i sprawiedliwe.

Poza złożonością słusznych wizji, które charakteryzują rodzinę ludzką, pojawia się czynnik, który wydaje się łączyć te różne przypadki. Mamy do czynienia z utratą, lub przynajmniej przysłonięciem, poczucia człowieczeństwa i pozorną nieistotnością pojęcia godności ludzkiej[12]. Wydaje się, że zatraca się wartość i głębokie znaczenie jednej z podstawowych kategorii Zachodu: kategorii osoby ludzkiej.

Technologia zawsze reprezentuje pewną formę ładu w relacjach społecznych oraz układ władzy. Ten konstytutywny wymiar władzy technologii zawsze obejmuje światopogląd tych, którzy ją zrealizowali i wypracowali

papież Franciszek

Udostępnij tekst

I oto w tym okresie, w którym programy sztucznej inteligencji poddają w wątpliwość istotę ludzką oraz jej działanie, to właśnie słabość etosu związanego z postrzeganiem wartości i godności osoby ludzkiej może być największym vulnus (słabością) we wdrażaniu i rozwoju tych systemów.

Nie możemy zapominać, że żadna innowacja jest neutralna. Technologia rodzi się w określonym celu i jej wpływ na społeczeństwo ludzkie zawsze reprezentuje pewną formę ładu w relacjach społecznych i układ władzy, umożliwiając niektórym wykonywanie działań i blokując innym wypełnianie innych czynności. Ten konstytutywny wymiar władzy technologii zawsze obejmuje, w mniej lub bardziej wyraźny sposób, światopogląd tych, którzy ją zrealizowali i wypracowali.

Dotyczy to również programów sztucznej inteligencji. Aby były one narzędziami budowania dobra i lepszego jutra, muszą być zawsze ukierunkowane na dobro każdego człowieka. Muszą być inspirowane etycznie.

Etyczna decyzja to taka, która bierze pod uwagę nie tylko skutki danego działania, ale także wchodzące w grę wartości i obowiązki, które z tych wartości wynikają. Dlatego z zadowoleniem przyjąłem podpisanie „Rzymskiego apelu o etykę AI” w 2020 r.[13] i jego poparcie dla tej formy etycznego moderowania algorytmów i programów sztucznej inteligencji, które nazwałem „algoretyką”[14].

W pluralistycznym i globalnym kontekście, w którym widoczne są również różne wrażliwości i wielorakie hierarchie w skalach wartości, znalezienie jednej hierarchii wartości wydaje się trudne. Jednak w analizie etycznej możemy również uciec się do innych rodzajów narzędzi: jeśli mamy trudności ze zdefiniowaniem jednego zestawu globalnych wartości, możemy jednak znaleźć wspólne zasady, za których pomocą można rozwiązać wszelkie dylematy lub konflikty życia.

Z tego powodu zrodził się „Rzymski apel”: w terminie „algoretyka” skupia się zestaw zasad, które okazują się globalną i pluralistyczną platformą, zdolną do znalezienia wsparcia ze strony kultur, religii, organizacji międzynarodowych i dużych koncernów, kluczowych uczestników tego rozwoju.

Paradygmat technokratyczny i zdrowa polityka

Nie możemy zatem ukrywać konkretnego zagrożenia, że sztuczna inteligencja ograniczy wizję świata do rzeczywistości wyrażalnej w liczbach i zamkniętej w gotowych kategoriach; wypierać będzie wkład innych form prawdy i narzucać jednolite modele antropologiczne, społeczno-ekonomiczne i kulturowe.

Paradygmat technologiczny, którego ucieleśnieniem jest sztuczna inteligencja, niesie ze sobą ryzyko ustąpienia miejsca znacznie bardziej niebezpiecznemu paradygmatowi, który zidentyfikowałem już jako „paradygmat technokratyczny”[15]. Nie możemy pozwolić, aby narzędzie tak potężne i niezbędne jak sztuczna inteligencja wzmocniło ten paradygmat; wręcz przeciwnie, musimy uczynić sztuczną inteligencję bastionem właśnie przeciwko jego ekspansji.

I to właśnie tutaj pilnie potrzebne są działania polityczne, jak przypomina encyklika „Fratelli tutti”. Z pewnością „dla wielu polityka jest dziś brzydkim słowem i nie można ignorować, że często za tym faktem kryją się błędy, korupcja i nieskuteczność niektórych polityków. Dochodzą do tego strategie, które mają na celu jej osłabienie, zastąpienie jej gospodarką lub zdominowanie jej jakąś ideologią. Ale czy jednak świat może funkcjonować bez polityki? Czy może istnieć skuteczna droga do powszechnego braterstwa i pokoju społecznego bez dobrej polityki?”[16].

Nasza odpowiedź na te ostatnie pytania brzmi: nie! Polityka jest potrzebna! Chcę przy tej okazji powtórzyć, że „w obliczu tak wielu małostkowych i doraźnych form polityki […] wielkość polityczna ukazuje się wtedy, gdy w trudnych chwilach działamy opierając się na wielkich zasadach i myślimy długofalowo o dobru wspólnym. Władzy politycznej bardzo trudno przyjąć ten obowiązek w planie narodowym, a tym bardziej we wspólnym projekcie dla obecnej i przyszłej ludzkości”[17].

Szanowne Panie, Dostojni Panowie! Niniejsza refleksja na temat wpływu sztucznej inteligencji na przyszłość ludzkości, prowadzi nas zatem do rozważenia znaczenia „zdrowej polityki”, aby patrzeć w naszą przyszłość z nadzieją i ufnością. Jak już powiedziałem w innym miejscu, „globalne społeczeństwo ma poważne braki strukturalne, których nie można rozwiązywać za pomocą łatek lub szybkich, czysto okazjonalnych napraw.

Są kwestie, które trzeba zmienić poprzez gruntowne przemyślenia i poważne transformacje. Może do tego doprowadzić jedynie zdrowa polityka, angażując najbardziej zróżnicowane sektory i najbardziej różnorodne dziedziny wiedzy. W ten sposób gospodarka zintegrowana w ramach projektu politycznego, społecznego, kulturalnego i ludowego, dążącego do dobra wspólnego, może «otworzyć nowe drogi dla różnych możliwości, które nie oznaczają powstrzymywania kreatywności człowieka i jego marzeń o postępie, a raczej ukierunkowują tę energię w nowy sposób»” („Laudato si’”, 191)[18].

Tak jest właśnie w przypadku sztucznej inteligencji. Obowiązkiem każdego jest jej dobre wykorzystanie, a do obowiązków polityki należy stworzenie warunków, w których takie dobre wykorzystanie będzie możliwe i owocne.

Wesprzyj Więź

[1] Orędzie na 57. Światowy Dzień Pokoju, 1 stycznia 2024, s. 1.
[2] Tamże.
[3] Tamże, s. 2.
[4] Tę ambiwalencję dostrzegał już papież Paweł VI w swoim przemówieniu do pracowników Ośrodka Automatyzacji Analizy Językowej Aloysianum, 19 czerwca 1964.
[5] Por. A. Gehlen, „L’uomo. La sua natura e il suo posto nel mondo”, Milano 1983, s. 43.
[6] „Laudato si’. O trosce o wspólny dom” , 24 maja 2015, s. 102–114.
[7] Por. Orędzie na 57 Światowy Dzień Pokoju, 1 stycznia 2024, s. 3.
[8] Szczególnie istotne dla konsekwencji korzystania ze sztucznej inteligencji są spostrzeżenia M. McLuhana i J. M. Culkina.
[9] Por. Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[10] Por. Orędzie na 57. Światowy Dzień Pokoju, 1 stycznia 2024, s. 4.
[11] Tamże, s. 3 i 7.
[12] Por. Deklaracja Dignitas infinita o godności człowieka, 2 kwietnia 2024.
[13] Por. Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[14] Por. Discorso ai partecipanti al Convegno „Promoting Digital Child Dignity – From Concet to Action”, 14 novembre 2019; Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[15] Aby uzyskać szersze omówienie, odsyłam do mojej encykliki „Laudato si’. O trosce o wspólny dom” z 24 maja 2015.
[16]  „Fratelli tutti. O braterstwie i przyjaźni społecznej”, 3 października 2020, s. 176.
[17] Tamże, s. 178.
[18] Tamże, s. 179.

KAI, st. Tytuł i śródtytuły od redakcji Więź.pl

Przeczytaj też: Po co papież siada do stołu z możnymi tego świata?

Podziel się

4
1
Wiadomość

5 stycznia 2024 r. wyłączyliśmy sekcję Komentarze pod tekstami portalu Więź.pl. Zapraszamy do dyskusji w naszych mediach społecznościowych.