Być może pora oswoić się z myślą o bardzo już bliskiej przyszłości, mającej znamię antycznego politeizmu. Za 10-20 lat możemy być zdani na łaskę i niełaskę algorytmicznych wyroczni.
W tym samym miesiącu, w którym Yuval Harari opublikował książkę „Nexus”, opowiadającą historię sieci informacyjnych od epoki kamienia do powstania sztucznej inteligencji, Helen Toner, ekspertka w zakresie bezpiecznego użycia AI, opowiedziała w Senacie USA o swoich doświadczeniach z pracy w OpenAI.
Mówiła: „W debacie publicznej i politycznej temat AI o inteligencji dorównującej człowiekowi (inaczej: ogólnej sztucznej inteligencji, ang. artificial general intelligence, AGI) jest często uznawany za fantastykę naukową albo strategię marketingową. A jednak wiele wiodących korporacji, budujących AI – włącznie z OpenAI, Google, Anthropic – całkowicie poważnie stawia sobie za cel zbudowanie AGI. Wiele osób zatrudnionych w tych firmach uważa, że cel ten można osiągnąć w ciągu 10-20 lat, a część sądzi nawet, że będzie to możliwe w ciągu 1-3 lat. Co ważniejsze, te same osoby są przekonane, że jeśli faktycznie uda im się zbudować komputery równie inteligentne, a być może o wiele inteligentniejsze od ludzi – tego rodzaju technologia będzie w najlepszym razie niezwykle destrukcyjna (ang. disruptive), a w najgorszym razie może dosłownie spowodować zagładę ludzkości”[1].
Niełatwo brać na serio tego rodzaju zapowiedzi, nawet jeśli słyszymy je z ust kogoś tak świetnie zorientowanego w realiach Doliny Krzemowej, jak Helen Toner, czy posiadającego tak ogromny autorytet w swoim środowisku, jak noblista Geoffrey Hinton, który także daje nam co najwyżej 20 lat, zanim powstaną sztuczne inteligencje przewyższające człowieka[2]. W tej sytuacji nowa książka Harariego wydaje się szczególnie cenna, gdyż zawiera bogaty historyczny materiał, pozwalający nam uzmysłowić sobie skalę zmian, jakie może wywołać AGI.
Od glinianych tabliczek do mediów społecznościowych
Czym jest AI? To technologia informatyczna – odpowiada Harari. Czym są technologie informatyczne? Służą one rozpowszechnianiu informacji. Do tego służą zarówno gliniane tabliczki, książki i gazety, telefon, radio i telewizja, media społecznościowe, a w końcu – sztuczna inteligencja. A czemu służy informacja? W tym momencie autor „Nexusa” kładzie ogromny nacisk na rozróżnienie między informacją a prawdą. Prawdziwe informacje to bardzo rzadki, trudny do wytworzenia rodzaj informacji. Większość docierających do nas informacji to śmieci, hałas. A bardzo duża część tego, co słyszymy i widzimy w mediach, to mity, ideologie, wierzenia. Ich zadaniem nie jest „informowanie” nas o czymkolwiek, tylko łączenie pojedynczych ludzi w grupy i społeczności: obywateli, wyznawców, klientów, fanów itp.
„Gliniane tabliczki z zapisami należnych podatków pomogły w powstaniu pierwszych miast-państw w starożytnej Mezopotamii. Kanonizując wizje proroków, święte księgi szerzyły nowe rodzaje religii – zauważa Harari. – Dzięki szybkiemu nagłaśnianiu słów prezydentów i obywateli – gazety i telegraf otworzyły drzwi masowej demokracji, ale także totalitaryzmowi. Rejestrowane i rozpowszechniane na różne sposoby informacje były czasami prawdziwe, często fałszywe, ale zawsze tworzyły nowe powiązania między ogromną liczbą ludzi”[3].
Od druku do odkułaczania
Wbrew optymizmowi dyrektorów Alphabet (Google) czy Mety (Facebook), większa dostępność informacji to niekoniecznie dobra wiadomość. Przypomina o tym historia historia 10-letniego Hansela Pappenheimera, który na początku XVII wieku oglądał egzekucję całej swojej rodziny, a później sam został stracony przez inkwizytorów z Monachium. Podczas przesłuchania z użyciem tortur rodzina Pappenheimerów przyznała się do zabicia 265 osób i wywołania 14 burz przy użyciu czarów.
Harari podkreśla, że w średniowieczu procesy o czary były rzadkie, a nabrały rozmachu dopiero w momencie, kiedy stało się możliwe drukowanie książek. Kościół początkowo odrzucił fantazje Heinricha Kramera na temat spisku czarownic, ale kiedy jego „Malleus Maleficarum” okazał się bestsellerem, z trzydziestoma edycjami na przestrzeni kilkudziesięciu lat, autor został oficjalnym inkwizytorem. W XVI i XVII wieku w procesach o czary mogło stracić życie nawet 50 tys. osób.
W latach 30. XX wieku jedenastoletnia Antonina Gołowina została wywołana do tablicy przez swojego nauczyciela w Pestowie w ZSSR. Nauczyciel zaczął ją wyzywać od „wrogów ludu”, „obrzydliwych kułaków”, cieszył się z deportacji jej rodziny i życzył jej śmierci. Rodzina Antoniny padła ofiarą ogromnej akcji „polowania na kułaków”, spiskujących na szkodę komunistycznego państwa i winnych temu, że zbiory plonów w nowo powstałych kołchozach były o wiele niższe, niż się początkowo spodziewano. 30 tys. domniemanych „kułaków” zamordowano, a przesiedlenia i inne drastyczne represje objęły ok. 5 mln. ludzi.
„Moskiewscy biurokraci i twórcy mitów wymyślili globalny spisek i stworzyli całą wcześniej nieistniejącą kategorię wrogów – pisze Harari. – Podobnie jak w wyobraźni Kramera czarownice służące szatanowi wyczarowywały gradobicia, które niszczyły plony – w stalinowskiej wyobraźni wierni światowemu kapitalizmowi «kułacy» sabotowali radziecką gospodarkę”[4].
Dzisiejsze prawa nie biorą pod uwagę, że decyzje AI są niekontrolowalne ze względu na fakt, że decydujące o naszym losie programy są biznesową tajemnicą, chronioną przez prawa własności
W swoich wcześniejszych głośnych książkach, jak „Sapiens” (2011) Harari wielokrotnie opisywał człowieka jako istotę zdolną do tworzenia i życia w intersubiektywnych rzeczywistościach: takich jak klub sportowy, siły zbrojne albo gospodarka rynkowa. Niestety nawet największe z ludzkich społeczności, takie jak XVI-wieczny Kościół czy XX-wieczny Związek Radziecki, miewają bardzo wadliwe mechanizmy korekcyjne.
Kiedy niszczące burze albo brak motywacji do pracy w kołchozie wywoływały dotkliwy spadek produkcji rolnej, wyobraźnia mnichów i biurokratów, a także dostęp do technologii druku, radia i telefonu pozwoliły na stworzenie i narzucenie milionom ludzi pozornych „rozwiązań” tych problemów. I „czarownica”, i „kułak” to w 100 proc. fikcje, ale cierpienie i śmierć dziesiątek tysięcy ofiar były w 100 proc. realne.
Posunięcie nr 37
Zdaniem Harariego w przypadku sztucznej inteligencji sytuacja może okazać się nawet bardziej dramatyczna. Od tysięcy lat ośrodkami komunikacji mogli być wyłącznie ludzie, natomiast gliniane tabliczki, gazety czy telefony tworzyły tylko linie komunikacyjne, łączące te ośrodki. W swojej książce i w niezliczonych wywiadach Harari podkreśla, że wraz z pojawieniem się sztucznej inteligencji ta sytuacja uległa zasadniczej zmianie: AI to pierwsza w historii technologia, która może sama podejmować decyzje, a także wymyślać nowe idee. Maszyny stały się w ten sposób nowymi nie-ludzkimi ośrodkami komunikacji i zaczynają dziś tworzyć własne „rzeczywistości informacyjne”.
Autor „Nexusa” przypomina dwie z pozoru różne sytuacje: rolę algorytmu Facebooka w wybuchu czystek etnicznych w Birmie i zwycięstwo algorytmu AlphaGo w meczu w grę Go z południowokoreańskim mistrzem Lee Sedoulem. W pierwszym wypadku programiści Facebooka postawili algorytmom zadanie zwiększenia ilości czasu, jaki użytkownicy spędzają, korzystając z tej aplikacji, a decyzja, aby to zadanie spełnić poprzez nagłaśnianie najbardziej ekstremalnych i agresywnych poglądów, została podjęta przez sam algorytm.
Z kolei w meczu z Lee Sedoulem do historii przeszedł 37 ruch AlphaGo. Początkowo wyglądał on na pomyłkę, jednak po chwili okazał się kluczem do zwycięstwa w rozgrywce. W krajach wschodniej Azji Go uważane jest za ważną część kultury, a każda strategia była wypróbowana na przestrzeni tysięcy lat przez niezliczoną ilość graczy. Mimo to ludzka wyobraźnia, ze względu na swoje naturalne ograniczenia, nie była w stanie odkryć znaczenia ruchu nr 37.
Obce umysły
W przeciwieństwie do teorii spiskowych o czarownicach i kułakach, fikcje tworzone przez AI mogą być groźne nawet dla społeczności demokratycznych, gdzie istnieją silne mechanizmy korekcyjne. W demokracji hipoteza o czarownicach wywołujących burze nie wytrzymałaby krytyki ze strony niezależnych od państwa uniwersytetów, a wolna prasa i telewizja mogłyby dotrzeć do prawdziwych przyczyn złego funkcjonowania kołchozów. Gdy jednak decyzje AGI zaczną przypominać ruch 37 algorytmu AlphaGo – staną się niezrozumiałe dla naszych umysłów – demokracja upadnie. Wymaga ona bowiem nie tylko samego aktu wyborów, ale także zrozumienia przez wyborców, za czym lub przeciw czemu głosują.
Ten proces już się toczy. Dziedzin, gdzie o naszym losie już dziś współdecydują algorytmy, szybko przybywa. Wpływają one na decyzje o przyjęciach na uniwersytety, do pracy, o przyznawaniu świadczeń socjalnych i kredytów bankowych, o wysokości rat ubezpieczeniowych, o tym, jakie czytamy wiadomości, a nawet o tym, z kim umawiamy się na randki. Z drugiej strony, same algorytmy stają się coraz bardziej nieprzeniknione.
„Nie chodzi tylko o to, że biorą one pod uwagę niezliczone ilości danych. Być może najważniejsze jest to, że nie bylibyśmy w stanie zrozumieć sposobu, w jaki algorytmy wykrywają w tych danych powtarzające się schematy (ang. pattern) i decydują o ilości punktów. Nawet jeśli wiemy, że algorytm bankowy odejmuje pewną liczbę punktów osobom, które pozwoliły, aby poziom naładowania baterii ich smartfonów spadł poniżej 25 proc. – jak moglibyśmy ocenić, czy jest to sprawiedliwe? Ta reguła nie została wprowadzona do algorytmu przez inżyniera; wpadł na nią sam algorytm, odkrywając powtarzający się schemat w milionach poprzednich wniosków pożyczkowych. Jak indywidualny klient-człowiek miałby przejrzeć wszystkie te dane i ocenić, czy ten schemat jest faktycznie wiarygodny i bezstronny?” – pisze Harari[5].
Dzisiejsze prawa nie biorą pod uwagę, że decyzje AI są niekontrolowalne nie tylko z powodu ograniczeń naszych umysłów, a także ze względu na fakt, że decydujące o naszym losie programy są biznesową tajemnicą, chronioną przez prawa własności.
Świetnym tego przykładem jest amerykański COMPASS czy brytyjski Oasys – dwa potężne systemy oceniania sprawców przestępstw – które działają na zasadzie „czarnej skrzynki”. To modele analizy danych, o których wewnętrznej konstrukcji nic nie wiemy, a więc obwinieni nie są w stanie sprawdzić, jakie rozumowanie doprowadziło do takiej, a nie innej oceny ich szans na powtórne popełnienie przestępstwa. Mimo tego sędziowie korzystają z tych narzędzi, wydając wyroki[6].
Do więzienia za rozlaną kawę
Zdaniem Harariego potrzebne są zupełnie nowe prawa i nowe instytucje, które mogłyby sprostać zadaniu krytycznej oceny decyzji sztucznej inteligencji. Konieczne jest także popularyzowanie tej trudnej problematyki w formie zrozumiałych dla nas opowieści. Na przykład – podpowiada nam Harari – odcinek „Nosedive” (Upadek) z serialu „Black Mirror” to przekonująca i dająca do myślenia satyra na algorytmiczny system wszechobecnej inwigilacji i „kredytu społecznego”, już dziś wprowadzanego w Chinach.
Bohaterka tego odcinka Lacie Pound przypadkiem oblewa kawą osobę o wysokim kredycie społecznym, co zapoczątkowuje kaskadę konsekwencji – jej własny kredyt spada, linia lotnicza odmawia jej miejsca w samolocie, Lacie nie dociera na wesele przyjaciółki, i tak szybko traci kolejne punkty kredytu. Wreszcie, pod koniec dnia trafia już do więzienia.
Historia Lacie jest fikcyjna, ale Eric Loomis z Wisconsin (USA) został naprawdę skazany na sześć lat więzienia i pięć lat nadzoru za… prowadzenie auta bez zgody właściciela i próbę uniknięcia policyjnej kontroli. Niezwykle surowy wyrok za stosunkowo lekkie wykroczenia był przez sędziego uzasadniany m.in. bardzo wysokim prawdopodobieństwem recydywy, obliczonym przez wspomniany tu system COMPASS. „Nadanie przez COMPAS etykietki «wysokiego ryzyka» może mieć poważne konsekwencje dla życia realnych osób” – komentowała prof. Cecelia Klingele z University of Wisconsin Law School.
„Chodzi o to, jaki wyrok zostanie wydany, jak długo on trwa i jak restrykcyjne warunki zostaną nałożone na osobę odbywającą karę w zawieszeniu – wyjaśnia prof. Klingele. – Ale co to «ryzyko» tak naprawdę znaczy – pozostaje tajemnicą. Społeczeństwo i sądy muszą ślepo ufać zapewnieniom pewnej firmy, że jej produkt jest niezawodny. Być może te zapewnienia są uzasadnione, ale bez większej transparentności nie ma sposobu, aby się o tym przekonać. W międzyczasie wolność realnych ludzi wisi na włosku”[7].
Nowe wyrocznie
Apelacje Loomisa zostały odrzucone przez wszystkie instancje odwoławcze – włącznie z Sądem Najwyższym Stanów Zjednoczonych. Jego historia nie napawa optymizmem. Jeśli zabraknie woli politycznej, aby stworzyć nowe prawa i nowe kontrolne instytucje, a artyści nie będą w stanie stworzyć wyjaśniających naszą nową rzeczywistość opowieści – pojawienie się AGI zmieni naszą codzienność tak gruntownie, że nawet nie jesteśmy w stanie sobie tego dziś wyobrazić.
Być może pora oswoić się z myślą o bardzo już bliskiej przyszłości, mającej znamię antycznego politeizmu. Za 10-20 lat możemy być nie tylko zdani na łaskę i niełaskę algorytmicznych wyroczni. Będziemy także zmuszeni borykać się z coraz mniej dla nas zrozumiałymi wytworami nie-ludzkiej kultury we wszystkich dziedzinach naszego życia.
„W całej dotychczasowej historii ekonomia i polityka wymagały uwzględnienia intersubiektywnych rzeczywistości, takich jak religie, narody i waluty – przypomina nam w swojej książce Harari. – Ktoś, kto chciał zrozumieć amerykańską politykę, musiał wziąć pod uwagę rzeczywistości międzyludzkie, takie jak «chrześcijaństwo» czy «skolateralizowane obligacje dłużne». Coraz częściej jednak rozumienie polityki w USA będzie wymagało rozeznania w rzeczywistościach międzykomputerowych: od generowanych przez sztuczną inteligencję nowych kultów i walut po zarządzane przez nią partie polityczne”[8].
Przeczytaj również: Czas na cyfrowy personalizm
Przypisy:
[1] Oversight of AI: Insiders’ Perspectives, przesłuchanie w Senacie USA, 17 września 2024 https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-insiders-perspectives (42 min. 23 s.).
[2] Nobel Prize-Winner on AI 'Existential Threat’, wywiad Geoffreya Hintona dla BloombergTV, opubl. 26 października 2024, link: https://www.youtube.com/watch?v=90v1mwatyX4 (23 min. 31 s.).
[3] Yuval Harari, Nexus, Nowy Jork 2024, s. 398.
[4] Tamże, s. 168.
[5] Tamże, s. 337.
[6] Melissa Hamilton, Pamela Ugwidike, A ‘black box’ AI system has been influencing criminal justice decisions for over two decades – it’s time to open it up.
[7] Katelyn Ferrar, Wisconsin Supreme Court allows state to continue using computer program to assist in sentencing.
[8] Tamże, s. 288.