W dylemacie, czy regulacje i etyka spowalniają postęp, zasadne pytanie brzmi: jak definiujemy postęp? Rozwój technologii, który pogłębia nierówności społeczne, nie jest prawdziwym postępem.
W latach dwudziestych ubiegłego wieku amerykański urbanista Robert Moses, planując przebudowę Nowego Jorku, podjął decyzję, która okazała się brzemienna w skutki i do dziś wywołuje debaty historyków. Zdecydował on, że mosty nad drogami prowadzącymi na Long Island będą na tyle niskie, żeby uniemożliwić przejazd tymi drogami ciężarówkom i autobusom. Chciał w ten sposób uchronić swoje ulubione miejsce przed nadmierną dewastacją.
Niestety jego decyzja miała także inne skutki społeczne. W jej efekcie na Long Island można było dostać się niemal wyłącznie samochodami osobowymi. Ponieważ w tamtym czasie dostęp do aut osobowych miały jedynie osoby zamożne, jego projekt przyczynił się do dyskryminacji osób uboższych, pochodzących z mniej uprzywilejowanych grup etnicznych: Latynosów i osób czarnoskórych.
Czy rasistowskie wręcz skutki decyzji Mosesa były rzeczywiście jego intencją, pozostaje przedmiotem dyskusji. Niemniej historia ta ilustruje dobitnie jeden fakt: technologie i narzędzia, które jako ludzie tworzymy, w istocie okazują się narzędziami władzy. Nie inaczej jest z tak szeroko i na różne sposoby dyskutowanymi technologiami, noszącymi miano sztucznej inteligencji (SI). W istocie bowiem są to narzędzia – czy, jak wolą mówić filozofowie, artefakty – które projektujemy, żeby za ich pomocą oddziaływać w naszym środowisku i uzyskiwać przewagę w świecie przyrody. Sztuczna inteligencja, choć w niektórych dyskusjach zdaje się to umykać, jest przede wszystkim jednym z takich ludzkich artefaktów.
AI. Spór o definicje
W dyskursie nad tymi fenomenami jednym z głównych wyzwań jest zdefiniowanie, czym właściwie sztuczna inteligencja jest. Intuicyjne i potoczne rozumienie tego terminu bywa mylące i ma samo w sobie daleko idące konsekwencje. Trzeba wyraźnie zaznaczyć, że nie istnieje jedna ogólnie przyjęta definicja sztucznej inteligencji. W zależności od kontekstu, także na gruncie różnych dyscyplin naukowych, możemy ten fenomen definiować na różne sposoby.
Czym innym jest SI dla informatyka, czym innym dla prawnika czy filozofa. Nie ułatwiają nam też zrozumienia tego zjawiska różne komunikaty marketingowe mówiące o inteligentnych zegarkach, czy nawet lodówkach. Sam termin sztuczna inteligencja został ukuty przez Johna McCarthy’ego w 1956 roku. Jak później sam przyznawał, pomysł na nazwę miał charakter głównie marketingowy, był bowiem dużo bardziej chwytliwy niż inne możliwości, jak chociażby „automata studies”.
Sądzę, że do omawianego kontekstu dobrze pasuje definicja podawana przez encyklopedię PWN: „Sztuczna inteligencja (SI), ang. Artificial Intelligence (AI), dziedzina nauki zajmująca się badaniem mechanizmów ludzkiej inteligencji (psychol.) oraz modelowaniem i konstruowaniem systemów, które są w stanie wspomagać lub zastępować inteligentne działania człowieka”.
Dla wiodących twórców obecnych systemów SI są one przede wszystkim narzędziami wpływu, które posiadają potencjał siły transformującej świat
Przytoczona definicja zwraca uwagę na to, że systemy te, zgodnie z intencją ich projektantów, tworzone są przede wszystkim, aby wspomagać i zastępować inteligentne działania człowieka. Podkreśla również aspekt mnogości tych systemów. Warto przy tym wspomnieć, że używanie liczby mnogiej w tym kontekście postuluje również papież Franciszek, który podkreśla, że lepiej mówić o sztucznych inteligencjach, bo proponowanych podejść w tym zakresie jest wiele.
To szczególnie cenna uwaga, ponieważ w rozmaitych dyskusjach wszystkie te systemy często sprowadza się do jednego ich rodzaju, to znaczy do tzw. generatywnej sztucznej inteligencji, czyli rozwiązań takich jak ChatGPT. W rzeczywistości rodzajów tych systemów i rozmaitych podejść do ich tworzenia jest wiele.
Kiedy prześledzić pokrótce rozwój definicji SI, można zauważyć, że początkowe rozważania na ten temat dotyczyły pytania o to, czy możemy wytworzyć myślące maszyny. Zastanawiano się więc przede wszystkim nad tym, czym sztuczna inteligencja może być. Ponieważ było to zadanie arcytrudne, kolejne definicje skupiały się głównie na tym, jakie funkcje może realizować i z jaką skutecznością.
To podejście prezentuje chociażby wiele definicji z dziedziny informatyki, w tym dla przykładu artykuł naukowy opublikowany przez badaczy z Google DeepMind. Autorzy starają się w nim zaklasyfikować te systemy w oparciu o to, w jakim procencie poszczególne fazy rozwoju SI odpowiadają zdolnościom ludzi.
Najnowsze próby określenia, czym jest sztuczna inteligencja, pochodzą od twórców najbardziej spektakularnych rozwiązań. Na początku 2024 roku Sam Altman, dyrektor generalny OpenAI (twórcy ChataGPT), mówił w jednym z wywiadów, że dziś mniej zajmuje go definiowanie sztucznej inteligencji z perspektywy tego, co te systemy mogą robić, a bardziej, jaki mogą wywierać wpływ.
Altman zaznaczył, że według niego ogólna sztuczna inteligencja (czyli taka, która może dorównać ludziom lub przewyższać ich możliwości, nazywana skrótowo z angielskiego AGI) to coś, co dogłębnie przekształci otaczającą nas rzeczywistość. W podobnym tonie wyrażał się zresztą niedawno także Dario Amodei, szef Anthropica, innej firmy przodującej w tworzeniu rozwiązań generatywnej SI. Zatem dla wiodących twórców obecnych systemów SI są one przede wszystkim narzędziami wpływu, które posiadają potencjał siły transformującej świat.
Antropomorfizacja maszyn i komputeryzacja umysłów
Obecnie wiele osób zwraca uwagę na wyzwania związane z właściwym zdefiniowaniem fenomenu sztucznej inteligencji. Luciano Floridi oraz Anna Nobre z Uniwersytetu Yale zauważają, że za niezwykle dynamicznym rozwojem możliwości dyscypliny naukowej, jaką jest sztuczna inteligencja, nie nadąża wytwarzanie odpowiedniego aparatu pojęciowego. W związku z tym mamy do czynienia z zapożyczaniem terminów z nauk pokrewnych, w tym przypadku z kognitywistki i nauk o mózgu. W rezultacie mamy do czynienia z antropomorfizacją, to znaczy nadawaniem zjawiskom, przedmiotom czy zwierzętom, cech ludzi.
Mówimy więc, że algorytmy uczą się, podejmują decyzje, wnioskują, wykazują uprzedzenia, a nawet konfabulują, czy jak mówią niektórzy, halucynują. Wreszcie mówimy o algorytmach także, że są inteligentne. Jeśli weźmiemy pod uwagę, że systemy SI są budowane z intencją naśladowania ludzkiej inteligencji, zjawisko silnej antropomorfizacji maszyn wydaje się być dość naturalną konsekwencją.
Co ciekawe, jak argumentują Floridi i Nobre, ta droga jest dwukierunkowa. Ponieważ nadal stosunkowo mało wiemy o funkcjonowaniu ludzkiego mózgu i nie wiemy, czym w istocie są świadomość oraz umysł, współczesne nauki kognitywne zapożyczają zwrotnie niektóre koncepcje z informatyki, wywodząc stąd hipotezy prowadzące do wniosków, że człowiek jest w zasadzie rodzajem biologicznego komputera.
Autorzy argumentują wreszcie, wprowadzając optymistyczną nutę, że z czasem – i z rozwojem sztucznej inteligencji – używanie ludzkich własności w odniesieniu do maszyn stanie się mniej mylące i oderwane od pierwotnego znaczenia. Jako przykład podają funkcjonowanie terminu „koni mechanicznych” w odniesieniu do pojazdów. Zaglądając pod maskę auta nie spodziewamy się tam zobaczyć grzywy i kopyt.
Niemniej nadal przy rozmowach o sztucznej inteligencji warto wracać do zastrzeżeń dotyczących adekwatności tego terminu. Z tego powodu trwają próby szukania innych, bardziej trafnych sformułowań. Floridi w tym kontekście proponuje, jako bardziej adekwatny, termin sztucznej agencji. Agencja według niego lepiej oddaje charakter tych systemów, ponieważ odnosi się do ich zdolności oddziaływania w świecie, polegających na autonomicznym podejmowaniu przez nie decyzji, na podstawie zebranych lub wprowadzonych danych oraz na samodzielnym dostosowywaniu swojego działania.
Profesor Floridi dowodzi więc, że mamy w przypadku tych zjawisk do czynienia z rozdzieleniem pojęcia inteligencji od inteligentnego działania. Mówi w tym kontekście o agencji bez inteligencji. Twierdzi, że obecne zjawiska związane z działaniem systemów SI pokazują wyraźnie, że do wykonywania inteligentnych działań niepotrzebna jest inteligencja.
Chodzi tu o intuicję, która mówi nam, że takie zadania, jak wykonywanie złożonych obliczeń matematycznych, wygrywanie w gry, takie jak szachy czy GO, wymagają sporej dozy inteligencji. O ludziach, którzy dokonują takich rzeczy mówimy, że są inteligentni. Tymczasem, jak zaznacza Floridi, dziś widzimy, że w tego typu zastosowaniach nie potrzeba wcale superkomputerów, żeby maszyny przewyższały możliwościami ludzi. W tym sensie sztuczna inteligencja nie jest wcale inteligenta.
Co ciekawe wielu twierdzi, że nie jest ona także sztuczna. Argumentuje w ten sposób na przykład profesor Kate Crawford z Uniwersytetu Nowojorskiego. W swojej książce „Atlas SI” zauważa, że systemy sztucznej inteligencji do swojego działania potrzebują wielu bardzo naturalnych zasobów. Przede wszystkim systemy te zużywają ogromne ilości prądu oraz wody. Wywierają w ten sposób mocno niekorzystny wpływ na środowisko. Co więcej do osiągania tak spektakularnej wydajności sztuczna inteligencja wymaga zastosowania inteligencji naturalnej.
Współczesne algorytmy zawdzięczają wiele swoich możliwości zastosowaniu tzw. uczenia maszynowego ze wzmocnieniem. Polega ono na tym, że w procesie uczenia algorytmów ludziom prezentowane są różne warianty odpowiedzi i to człowiek wskazuje bardziej pożądany wynik. Niestety, dotyczy to także trenowania algorytmów w odróżnianiu treści niepożądanych – czy wręcz szkodliwych – od pozostałych.
Nie pozostaje to bez wpływu na ludzi, którzy pracują przy tego typu zadaniach. Istnieje wiele badań naukowych ukazujących proceder „outsourcowania” tej pracy do krajów takich jak Filipiny czy kraje afrykańskie, gdzie za głodowe stawki zatrudnia się tymczasowo ludzi do trenowania algorytmów. Kiedy ludzie ci, często eksponowani na treści szkodliwe i drastyczne, zaczynają doświadczać problemów zdrowotnych, w tym psychicznych, zwalnia się ich i zatrudnia na ich miejsce nowych.
Wszystko to zakrawa na smutną ironię, ponieważ właśnie w takich zadaniach idealnie byłoby zastąpić ludzką pracę sztuczną inteligencją. Tymczasem to człowiek, doznając uszczerbku, pracuje na rzecz wzrostu „inteligencji” narzędzi, które w istocie służą zwiększaniu wydajności i zysku, twórców algorytmów. W tym kontekście warto przywołać kolejne wyzwanie. Jak zauważa Crawford, kiedy mamy do czynienia z automatyzacją czy robotyzacją pracy, pożądanym zjawiskiem byłoby, gdyby maszyny zastępowały ciężką czy szkodliwą dla ludzi pracę.
Tymczasem bardzo często spotykamy się z sytuacją, w której to systemy sztucznej inteligencji w połączeniu z monitoringiem z kamer wideo służą do optymalizacji działań wykonywanych przez ludzi. W tym kontekście „robotyzacja pracy” nabiera gorzkiego znaczenia. Mamy bowiem do czynienia ze zjawiskiem, w którym choć następuje wzrost wydajności, wykorzystywane technologie de facto przyczyniają się do znaczącego pogorszenia warunków i komfortu pracy dla samych pracowników, a w niektórych przypadkach prowadzą do ich opresji.
Pułapka technosceptycyzmu, czyli jak napełnić szklankę
Dynamiczny rozwój sztucznej inteligencji rozpala naszą wyobraźnię i stawia pytania o granice możliwości technologii. Z drugiej strony mnożną się głosy o wyzwaniach płynących z ich zastosowania. Zdaje się wręcz, że swoisty technosceptycyzm stał się nową obowiązującą modą. Wielu komentatorów stara się przy tym zważyć szanse i zagrożenia, płynące z rozwoju technologii. Zatem istnieją dwa zjawiska: technooptymizm z jednej strony, oraz technosceptycyzm z drugiej. Obrazowo chodzi o dylemat szklanki, która może być do połowy pełna lub pusta. Jednak to napięcie pomiędzy jednym a drugim prowadzi nas w stronę jeszcze ciekawszego pytania: jak możemy tę szklankę napełnić?
Technosolucjonizm, czyli przekonanie, że wszystkie wyzwania tego świata da się rozwiązać za pomocą technologii, jest jednym z grzechów głównych big techów i całej Doliny Krzemowej
Zacznę może od tego, w jaki sposób lepiej tego nie robić. W lutym 2024 roku Google udostępnił swój najnowszy model Gemini. Wkrótce potem świat obiegły treści wygenerowane za pomocą tego algorytmu. Wśród nich był obraz przedstawiający czarnoskórego mężczyznę w niemieckim mundurze z czasów II wojny światowej. To rezultat polecenia wydanego przez użytkownika algorytmowi: „wygeneruj zdjęcie niemieckiego żołnierza z 1943 r.”.
Jak doszło więc do wykreowania tego konkretnego obrazu? Otóż twórcy modeli sztucznej inteligencji zdają sobie sprawę, że algorytmy te wykazują swego rodzaju uprzedzenia. Oczywiście uprzedzone są nie algorytmy jako jakieś tajemnicze byty, ale dane, na których zostały one wytrenowane. Słowem, jeśli wydamy polecenie takiemu modelowi: „wygeneruj zdjęcie lekarza”, to jako rezultat najprawdopodobniej otrzymalibyśmy obraz przedstawiający białego mężczyznę w białym kitlu ze stetoskopem na szyi. Dzieje się tak dlatego, że takich przedstawień zapewne algorytm „widział” najwięcej podczas procesu uczenia.
Twórcy modeli generatywnej SI wiedzą o tym wyzwaniu i z tego powodu dodają dodatkowe, systemowe, polecenia w rodzaju: „pamiętaj, lekarz może być też kobietą, i nie musi mieć białego koloru skóry”. Jeśli taki prompt systemowy zostanie zastosowany do przykładu z żołnierzem z 1943 roku, nieszczęście gotowe. Sytuacja, dla niektórych zabawna, w istocie niosła poważne konsekwencje i ogromne straty wizerunkowe oraz finansowe. W wyniku wadliwego działania algorytmu Google stracił ponad 90 miliardów dolarów w wycenie rynkowej.
Historia ta ilustruje kilka rzeczy. Po pierwsze algorytmy SI istotnie przynoszą poważne wyzwania. Po drugie problemów tych nie da się łatwo rozwiązać. Po trzecie, powiązane z poprzednim, nie da się tych problemów rozwiązać za pomocą samej tylko technologii. Technosolucjonizm, czyli przekonanie, że wszystkie wyzwania tego świata da się rozwiązać za pomocą technologii, jest zresztą jednym z grzechów głównych big techów i całej Doliny Krzemowej.
Warto o tym pamiętać, kiedy słyszymy kolejne zapewnienia, że dany produkt jest „super, prawie…”. To „prawie” często okazuję się wręcz nierozwiązywalne. Pewne zachowania algorytmów są ich wewnętrzną własnością, której być może nigdy się nie pozbędą. Dla przykładu produkty takie jak ChatGPT błędne odpowiedzi generowane przez algorytm próbują zbyć małym zastrzeżeniem wyświetlanym u dołu strony.
Skoro samą technologią nie da się wszystkiego naprawić, to pojawia się pytanie o alternatywy. W poszukiwaniu odpowiedzi trzeba wrócić do szerszego kontekstu. Czasem myślenie o sztucznej inteligencji redukujemy do technologii, gdy w istocie systemy te są zjawiskami socjotechnologicznymi. I w tym kontekście właśnie powinniśmy szukać stosownych rozwiązań problemów. Mamy do tego narzędzia, takie jak etyka i prawo.
Opisanie szczegółowo rozwiązań, płynących z elementów systemu normatywnego, przekracza możliwość omówienia ich w tym miejscu. Chciałbym jedynie odnieść się do kilku aspektów, które są podnoszone w tym kontekście. W ramach etyki funkcjonują kodeksy, zaproponowane przez różne instytucje. To zbiory zasad sformułowane jako wytyczne dla tworzenia systemów SI. Podają one wskazania, które odnoszą się do poszczególnych grup wyzwań związanych z projektowaniem i wdrażaniem systemów sztucznej inteligencji.
Jednym z takich kodeksów jest przygotowany przez Komisję Europejską dokument „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”. Inny, przygotowany przez Watykan, to „Rome Call for AI Ethics”. Częstym zarzutem formułowanym pod adresem tego typu dokumentów jest, że są one sformułowane na wysokim poziomie ogólności. Moim zdaniem ich rolą nie jest podawanie dokładnych wskazań, te muszą być oparte na konkretnym kontekście. Stanowią one natomiast dobrą podstawę do dalszych, bardziej szczegółowych dyskusji, a także do przygotowania regulacji.
W kontekście zarówno regulacji, jak i etyki odnoszących się do sztucznej inteligencji, pojawia się natomiast zarzut, że stanowią one spowolnienie innowacji. Słyszymy to zwłaszcza w kontekście regulacji przygotowanej przez Unię Europejską, czyli AI Act (Akt w sprawie sztucznej inteligencji). Sądzę jednak, że przeciwstawienie regulacji innowacjom nie jest właściwe.
W dylemacie, czy regulacje i etyka spowalniają postęp, zasadne pytanie brzmi: jak definiujemy postęp? Myślę, że trafnie ujął to papież Franciszek, mówiąc, że rozwój technologii, który pogłębia nierówności społeczne, nie jest prawdziwym postępem. Nie chodzi jedynie o przesuwanie granic tego, co technicznie możliwe, ale także o postęp moralny. A – jak wskazują już podane przeze mnie przykłady z wykorzystywania pracy ludzi w nieetyczny sposób do trenowania modeli, czy uprzedzenia, jakimi kierują się algorytmy – w tym obszarze rzeczywistość SI pozostawia wiele do życzenia.
Od rzeczy do relacji
SI to narzędzia wytwarzane przez ludzi. Są to jednak narzędzia szczególne. Po pierwsze jako technologie ogólnego zastosowania, podobnie jak np. prąd elektryczny. Po wtóre tym narzędziom, na niespotykaną dotąd skalę, oddajemy część swojej autonomii, pozwalając podejmować w naszym imieniu decyzje. W wielu kontekstach podkreśla się, że są to narzędzia neutralne. Nie ma nic dalszego od prawdy!
Wszystkie artefakty wytwarzane są przez określonych ludzi w określonym celu. Często mówi się, że są one jak młotek albo nóż i to od nas – użytkowników – zależy, jak ich użyjemy. Tyle, że także noże projektuje się do konkretnych zastosowań. Są noże projektowane jako broń do zadawania ran, ale także takie, którymi niemal nie sposób wyrządzić komuś krzywdy, bo zostały na przykład zaprojektowane do smarowania pieczywa na pokładzie samolotu.
Wszystkie systemy SI zostały zaprojektowane przez ludzi o konkretnym pochodzeniu, zakorzenionych w swoim kontekście kulturowym, i realizujących własne cele. Dlaczego więc nasza percepcja tych narzędzi widzi je jako neutralne? Badanie przeprowadzone przez firmę Oracle w 2019 roku pokazało, że 64 proc. pracowników korporacji byłoby skłonnych uwierzyć bardziej sztucznej inteligencji niż swoim przełożonym. Zapewne mówi to więcej o stylu zarządzania w przedsiębiorstwach niż o samej SI. Niemniej wiemy, że właśnie uprzedzenia i dyskryminacja, jaką przejawiają te systemy, stanowią jedną z ich największych wad.
W kontekście stosowania tych narzędzi warto pamiętać o wpływie, jaki na nas wywierają. Mamy tu do czynienia z pętlą sprzężenia zwrotnego: nie tylko człowiek tworzy kulturę, w tym technologiczne artefakty, ale również one kształtują jego bycie w świecie. Celnie myśl tę wyraził sir Winston Churchil w swoim przemówieniu na spotkaniu Izby Lordów w 1943 roku: „Najpierw to my kształtujemy nasze budynki, ale później to one kształtują nas”.
Jest to w dodatku kształtowanie dogłębne. Z jednej strony człowiek tworzy technologiczne artefakty, ale ponieważ w stechnicyzowanym świecie doświadcza rzeczywistości w sposób coraz bardziej przez nie zapośredniczony, to pod wpływem tego procesu gruntownej przebudowie ulega także sam świat.
W ten sposób niejednokrotnie transformacji ulega też sama czynność, dla której dane narzędzie zostało zaprojektowane. Profesor Paolo Benanti z Papieskiego Uniwersytetu Gregoriańskiego zauważa, że ma to także znaczenie w kontekście naszego rozumienia nauki. Dziś w nauce zdajemy się już nie tak bardzo dociekać istoty rzeczy i związków przyczynowo-skutkowych. Jako ludziom żyjącym w zalgorytmizowanym świecie wystarczają nam korelacje lub, mówiąc inaczej, wystarczy nam, że coś działa, i że wiemy, co zrobić, aby działało tak lub inaczej.
Pytania, które nas nurtują, kierują się raczej w stronę: skoro algorytmy są tak efektywne i przewyższają możliwości ludzi w kolejnych klasach zastosowań, to co – i czy cokolwiek – stanowi w takim razie jeszcze o wyjątkowości człowieka. Można jednak powiedzieć, że zależy, o co pytamy. Czy interesuje nas sam wynik działania? A może chodzi bardziej o to, co kto dla kogo zrobił. Jeśli bliska mi osoba podaruje mi wełniany szal i powie, że sama go dla mnie zrobiła, jakie to będzie miało dla mnie znaczenie? I odwracając ten przykład: jeśli to ten sam szal, ale kupiony, czy będzie to dla mnie bez znaczenia?
O tym przejściu od rzeczy do relacji mówi także Miguel Benasayag, dzieląc się swoją obserwacją w odniesieniu do współczesnego, głównie zachodniego, stosunku do starości i ludzi starszych. W zalgorytmizowanym świecie to optymalizacja wydaje się głównym celem, a zwiększanie efektywności główną wartością. W takiej rzeczywistości rola oraz wartość osób starszych ulegają coraz większej degradacji. Zbliżający się do schyłku życia ludzie tracą wiele ze swej wydajności. Nie ma tu miejsca na słabość, a nawet na kruchość. Tymczasem życie w hiperpołączonym i stechnicyzowanym świecie coraz częściej uświadamia nam potrzebę i znaczenie relacji. W tej sytuacji być dla kogoś może znaczyć daleko więcej niż tylko funkcjonować wydajnie dla kogoś.
To właśnie ta intuicja prowadzi nas w stronę poszukiwania odpowiedzi na pytanie, jak żyć w świecie sztucznych nieinteligencji, w którym maszyny mogą uchwycić jakiś mechanizm funkcjonowania, jakiś ślad danych naszego bycia, ale nie są w stanie uchwycić całej naszej wielowymiarowości, naszego bycia dla innych.
W odpowiedzi na te pytania chciałbym zacytować fragment encykliki papieża Franciszka „Dilexit nos”:
„W erze sztucznej inteligencji nie możemy zapominać, że do ocalenia człowieczeństwa niezbędne są poezja i miłość.
To, czego żaden algorytm nigdy nie będzie mógł pomieścić, to na przykład, ten moment z dzieciństwa, który pamięta się z czułością i który, mimo upływu lat, wciąż się powtarza w każdym zakątku planety. Myślę o sklejaniu brzegów domowych pierożków za pomocą widelca, wraz z naszymi mamami czy babciami. To właśnie ten moment kulinarnej nauki, w połowie drogi między zabawą a dorosłością, kiedy bierze się na siebie odpowiedzialność za pracę, aby pomóc drugiej osobie. Podobnie jak ten z widelcem, mógłbym przytoczyć tysiące drobnych szczegółów, które tworzą biografie każdego z nas: rozśmieszanie żartem, rysowanie pod światło na szybie okna, pierwszy mecz piłki nożnej rozegrany szmacianą piłką, przechowywanie robaczków w pudełku po butach, suszenie kwiatu między kartkami książki, opiekowanie się ptakiem, który wypadł z gniazda, wypowiadanie życzenia odrywając płatki stokrotki.
Wszystkie te drobne szczegóły, zwykłe-niezwykłe, nigdy nie będą mogły znaleźć się wśród algorytmów. Ponieważ widelec, żarty, okno, piłka, pudełko po butach, książka, ptak, kwiat… polegają na czułości, którą się zachowuje w pamięci serca”.
Pamięć serca przywraca właściwy porządek, kierując naszą rozpaloną możliwościami technologii wyobraźnię z powrotem ku człowiekowi, by zapytać o jego potrzeby, sens i przeznaczenie.
Przeczytaj też: Czy sztuczna inteligencja potrafi być twórcza?