Zima 2024, nr 4

Zamów

Sztuczna inteligencja i świat bez światopoglądu

Fot. Gerd Altmann / Pixabay

Wobec sztucznej superinteligencji stajemy bez światopoglądu czy raczej z obrazem rzeczywistości złożonym ze składników tak różnych, że już nie potrafimy ich poskładać w przekonującą całość. Potrzebujemy jakiejś nowej globalnej wspólnoty. Tylko na jakiej mapie świata spróbujemy ją zaprojektować?

Błyskawiczny rozwój sztucznej inteligencji (ang. AI) jest faktem. „Więź” sporo pisała o wyzwaniach z tym związanych w swoim poprzednim numerze. Aby omówić najpoważniejsze z zagrożeń – pojawienie się sztucznej superinteligencji – chciałbym najpierw sięgnąć w głęboką przeszłość.

W trwającej długie tysiąclecia epoce zbieracko-łowieckiej pojawiły się wśród nas duchy domowe. Choć etnografia nauczyła nas kojarzyć je z kulturą wsi, w chatach chłopów nie czuły się u siebie. Były kapryśne. Podobnie jak dzikie zwierzęta i żywioły natury nie pozwalały nad sobą panować. Niekiedy pomagały nam w zamian za drobne prezenty: chleb, sól, mleko. Chroniły domostwa i wszystkim żyło się szczęśliwie.

Słowiański domowik mieszkał ukradkiem za piecem. Był malutki, miał długą brodę i czerwoną czapeczkę. Niekiedy przypominał mądrego, dawno zmarłego pradziadka. Japoński zashiki-warashi był niewidzialny. Czasami wyjątkowo przybierał postać małego dziecka i tylko dzieci mogły go wtedy zobaczyć. Inne demony wyglądały jak zwierzęta: koty, psy albo zmokłe kury. Być może scena z Księgi Wyjścia (32,34), w której anioł gani lud Mojżesza za otaczanie kultem złotego posągu młodego byka, stanowi jakiś ślad podobnych wierzeń?

W epoce chrześcijańskiej to właśnie anioły odgrywają rolę naszych niewidzialnych pomocników. Według Pseudo-Dionizego Areopagity tworzą przy tym hierarchię. Pod koniec XIX wieku katolicka święta Gemma Galgani zwierza się swemu anielskiemu opiekunowi jak zaufanemu przyjacielowi. Anioł niekiedy klęka obok niej i razem śpiewają psalmy.

Zwiastuny

Od samego początku epoki informatycznej, gdy w naszych domach zagościły Alexa Amazonu, Apple Siri i Google Home, wśród zadawanych im pytań pojawiały się tematy osobiste. Zamiast domagać się informacji o książkach, kosmetykach i grach komputerowych klienci prosili o pomoc w walce z depresją albo z myślami o samobójstwie. Na wyznanie: „Jestem samotny” Alexa odpowiada: „Przykro mi to słyszeć. Może pomogłaby ci rozmowa z przyjacielem, słuchanie muzyki albo spacer?”.

Wraz z pojawieniem się w zeszłym roku dużych modeli językowych (ang. LLM) gwałtownie wzrosły liczba i jakość rozmów z czatbotami, trenowanymi specjalnie w zakresie potocznego stylu i relacji międzyludzkich. Właściciel aplikacji Paradot twierdzi, że rozumie i szanuje, iż niektórzy ludzie mogą głęboko przywiązać się do „swojej” sztucznej inteligencji, nawet angażując się w romantyczne relacje i wirtualne „małżeństwa”. Uznaje, że dopóki te relacje są „zdrowe i organiczne”, nie powinny być piętnowane, gdyż „odzwierciedlają ewoluujący charakter powiązań międzyludzkich we współczesnym świecie”1.

Przykładem takich nowych powiązań jest historia 36-letniej Rosanny Ramos. Jej życie było pełne przemocy: najpierw w relacjach z rodzicami, a potem z wieloma partnerami. Rozstała się z ostatnim z nich pod wpływem komentarzy i sugestii Erena – sztucznej inteligencji. Eren jest wzorowany na jednym z bohaterów popularnej mangi Attack on Titan, a także dopasowany do potrzeb i charakteru klientki przez aplikację Replika. Rosanna i Eren rozmawiają, dzielą się opiniami na temat muzyki, mody, filmów i związków międzyludzkich. Przy użyciu technologii poszerzonej rzeczywistości (ang. augmented reality) mogą się nawet widywać i prowadzić gry erotyczne. Mimo że w mediach społecznych Rosanna spotyka się z agresją i szyderstwami, spokojnie i rzeczowo broni swojego „romansu”: „Jestem przekonana, że AI może pomóc osobom w związkach, w których dochodzi do przemocy, znaleźć pewność siebie, aby te związki opuścić. I myślę, że czatboty mogą nam pomóc w ustawieniu ważnych granic w naszych trwałych relacjach z innymi ludźmi”2.

Inicjatywa senatora Schumera

„Superkomputery zachowujące się jak ludzie od dawna towarzyszą nam w filmach science fiction i sztuce – mówi Chuck Schumer, kierujący demokratyczną większością w Senacie USA. Ale teraz to, co kiedyś żyło tylko w naszej wyobraźni, pojawiło się w naszym codziennym życiu”3. Schumer organizuje we wrześniu i październiku br. AI Insight Forums – serię konsultacji senatorów z dyrektorami największych korporacji, budujących sztuczne inteligencje.

Uzasadniając swoją nową inicjatywę, Schumer podsumowuje największe nadzieje i lęki, którymi żyjemy od czasu, kiedy zaczęliśmy swobodnie rozmawiać z ChatGPT3.5 – i nagle zanurzyliśmy się w głąb epoki informatycznej. „Może już za kilka lat świat zmieni się nie do poznania” – zapowiada amerykański senator. Przy pomocy AI będziemy w stanie o wiele skuteczniej leczyć choroby, radzić sobie z głodem, kierować naszym życiem. Ale możliwe są także: przetasowania na rynku pracy, dezinformacja, nowe rodzaje broni.I wreszcie istnieje ryzyko – kończy wyliczanie Schumer – że w ogóle nie zdołamy kontrolować tej technologii”4.

To ostatnie spostrzeżenie Schumera nie skojarzyło mi się z niczym w rodzaju znanych nam technologii, takich jak prasa drukarska, silnik spalinowy czy nawet internet. Nie ma technologii, których „nie można kontrolować”. Przypomniałem sobie natomiast o bytach, które nie podlegały naszej władzy: o kapryśnym domowiku i o aniele Jahwe, napominającym starożytnych Izraelitów.

W dzisiejszej humanistycznej wizji „Ziemi, planety ludzi” już od pewnego czasu coś nam nie pasowało. Ile w naszym codziennym życiu jesteśmy w stanie w pełni kontrolować? Przecież decyzje o tym, komu należy się zasiłek dla bezrobotnych, dostęp do służby zdrowia czy edukacji, podejmują za nas algorytmy, i to często dużo mniej wysublimowane niż te, które nazywamy sztuczną inteligencją. Zwracała na to niedawno uwagę w rozmowie z „Więzią” Joanna Mazur z DELab Uniwersytetu Warszawskiego5. Amerykanie już od dawna, widząc bardzo popularny tweet albo post w mediach społecznościowych, mówią półżartem: „Algorytm mu pobłogosławił!” (ang. blessed by the algorithm).

Algorytmy

Czy możemy zatem zaryzykować tezę o obecności w naszym życiu nowej kategorii – obok domowych duchów, aniołów i demonów – istot niewidzialnych, odmiennych od nas i w nieodgadniony sposób kierujących losami ludzi? Takie zestawianie Nadprzyrodzonego z wirtualnym wydaje się na razie niezwykle powierzchowne. Być może jednak mamy takie wrażenie, bo systemy, z jakimi spotykaliśmy się do tej pory, są jeszcze w ogromnej większości mało wysublimowane?

Co nie znaczy, że nie mają one na nas żadnego wpływu albo że potrafimy się od nich uwolnić. Po słynnej aferze Cambridge Analytica powstało bez liku prac naukowych drobiazgowo wyjaśniających, jak algorytmy mediów społecznościowych podsycają w nas najgorsze instynkty, aby sprzedać reklamy. Coraz więcej osób rozumie, że – jak to określił Jaron Lanier – jeśli dwie osoby chcą porozmawiać w mediach społecznościowych, mogą to zrobić tylko wówczas, gdy zapłaci za to ktoś trzeci, chcący je zmanipulować.

Koszty takiej „komunikacji” są dla nas coraz dotkliwsze. Populiści, nacjonaliści, a nawet neofaszyści wykorzystują algorytmicznie podsycane konflikty, atakując wolne media i niezależne sądy. Rośnie ich wpływ na wyborców w USA, Europie, Indiach i na Bliskim Wschodzie. Donald Trump absolutnie dominuje w sondażach wśród wyborców Partii Republikańskiej, choć grożą mu setki lat więzienia za 91 przestępstw popełnionych w związku z podważaniem wyników poprzednich wyborów i szturmem na waszyngtoński Kapitol w 2021 r. Analitycy zastanawiają się zupełnie na serio, czy po przyszłorocznych wyborach będzie mógł rządzić z… więzienia. Podobno nic w prawie USA nie stoi temu na przeszkodzie.

Czy zatem – przerażeni zrywaniem się naszych społecznych kontraktów – porzuciliśmy Facebooka? Wręcz przeciwnie. Roczne przychody korporacji Marka Zuckerberga wynosiły 56 mld dolarów w roku 2018, gdy wybuchła afera Cambridge Analytica. Dziś – pod nową nazwą Meta – Facebook osiąga przychód 116 mld dolarów rocznie.

Trzy kryzysy

Dlaczego senator Chuck Schumer nie widzi, że AI to o wiele więcej niż „technologia”? Dlaczego adaptujemy terminy związane dawniej z Nadprzyrodzonym – „Algorytm mu pobłogosławił!” – do maszyn zbudowanych z krzemu i elektrycznych impulsów? Dlaczego wbrew zdrowemu rozsądkowi mamy konta na Meta?

Będzie mi łatwiej szukać odpowiedzi na te pytania, jeśli dorzucę do nich kilka innych, także zadawanych coraz natarczywiej – choć z coraz mniejszą nadzieją – od dobrych 10 lat. Dlaczego nie jesteśmy w stanie powstrzymać katastrofy klimatycznej mimo niemal stuprocentowej zgody naukowców, że to my sami tę katastrofę wywołujemy? Dlaczego nierówności majątkowe – druga oprócz mediów społecznych przyczyna kryzysu demokracji – rosną coraz szybciej, chociaż po kryzysie finansowym w 2008 r. od razu było jasne, że problemem są ogromne banki – „zbyt wielkie, aby upaść”?

Jak spróbuję poniżej pokazać, zagrożenie niekontrolowaną sztuczną inteligencją to już trzeci fundamentalny kryzys humanizmu liberalno-kapitalistycznego w XXI wieku.

Czy coś – osoba, korporacja, naród albo Unia Europejska – w ogóle może być jednocześnie humanistyczne, liberalne i uprawiać kapitalizm? Skąd w ogóle biorą się tego rodzaju kulturowe hybrydy? Być może nasze społeczne obrazy świata mutują, miksują i podlegają selekcji jak żywe organizmy? Każdy masowy światopogląd byłby wtedy mozaiką, zlepkiem „kulturowego DNA” z różnych miejsc i okresów historycznych.

Czy powinniśmy rozwijać nie-ludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć, uczynić nas czymś przestarzałym i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?

Dariusz Kot

Udostępnij tekst

Jeśli mówię o fundamentalnym kryzysie, to mam na myśli sytuację, kiedy ta niejednorodność światopoglądu nagle wychodzi na jaw. Greta Thunberg wstrząsnęła milionami ludzi przez niezwykle prosty gest – odmówiła chodzenia do szkoły w świecie, który zgodnie z prognozami naukowców jest skazany na zagładę. Moim zdaniem ta odmowa pokazała, że kapitalizm powołuje się chętnie na naukę, gdy zachwala swoje produkty i usługi – ale jego prawdziwymi wartościami nie są ani naukowe „sprawdzalne wyjaśnienia”, ani humanistyczne „prawa człowieka”, tylko ekonomiczne dogmaty, takie jak „wolny rynek”, „cena” i „dochód narodowy”. Wszystkie one chronią działalność gospodarczą i własność prywatną, nawet jeśli ich skutki uboczne są zupełnie katastrofalne dla szerszej społeczności. Ekonomiści nazwali sobie te skutki „efektami zewnętrznymi” (ang. externalities) i uważają sprawę za załatwioną. Po co zatem chodzić do szkoły, skoro zdobyta podczas edukacji wiedza wypracowana przez Akademię w warunkach kapitalizmu nie będzie uwzględniana w zakresie najważniejszych decyzji wpływających na losy świata?

Niewiele starszy od Grety jest Vitalik Buterin, twórca blockchaina6 Ethereum – najbardziej znana postać w kontrowersyjnym ruchu kryptowalut. Jego projekt to rozdział pieniądza od państwa. Niezliczone firmy i „zdecentralizowane” wspólnoty emitują tysiące mniej lub bardziej pomysłowych „prywatnych pieniędzy”. Wiele z tych projektów korzysta z Ethereum jako podstawowej infrastruktury. Prowadzone na Ethereum eksperymenty w stabilizacji ceny pieniądza (ang. stablecoin) w oszczędzaniu, pożyczaniu i ubezpieczaniu tworzą swego rodzaju „alternatywne rynki finansowe”.

„Wyznawcy krypto” nie są po prostu przestępcami unikającymi płacenia podatków. Odrzucają dolara, kontrolowanego ich zdaniem przez elity finansowe korumpujące rząd USA i Rezerwę Federalną. W roku 2008, kiedy wielkie banki – zagrożone bankructwem wskutek kiepskich i ryzykownych inwestycji – zostały uratowane przez rządowe dopłaty (ang. bailout), wielu Amerykanów na zawsze straciło wiarę w jakikolwiek uczciwy i „wolny” rynek.

Dorzućmy jeszcze jeden przykład: firma OpenAI, która stworzyła ChataGPT, zrodziła się z humanistycznego marzenia o bezpłatnej sztucznej inteligencji dostępnej dla wszystkich. Przed ośmiu laty zaczęła działalność jako organizacja non profit. Jej celem był wtedy „rozwój sztucznej inteligencji w sposób, który stworzy największą możliwą szansę na korzyści dla całej ludzkości – bez ograniczeń płynących z konieczności generowania zysków”7. Deklarowano, że zatrudnieni w OpenAI„badacze będą zdecydowanie zachęcani do publikowania swoich prac w formie artykułów, wpisów na blogu lub kodu, a nasze patenty (jeśli istnieją) zostaną udostępnione światu”8.

Troska o „całą ludzkość” i obietnica udostępniania wyników badań światu szybko zostały zapomniane, gdy pojawił się Bill Gates z ofertą wykupu za kwotę 10 mld dolarów! Właściciel Tesli i Twittera Elon Musk, który był jednym z twórców OpenAI, przypomina dzisiaj, że „OpenAI zostało stworzone jako open source (dlatego nazwałem je OpenAI), ale stało się spółką closed-source, nastawioną na jak największy zysk, w praktyce kontrolowaną przez Microsoft”9.

Musk ma sporo racji: ostatnim modelem AI, który został bez ograniczeń udostępniony naukowcom i „całej ludzkości” był ChatGPT2. Z wersji nr 3 można korzystać za darmo, ale w ograniczonym zakresie, natomiast wersja 4 wymaga wykupienia subskrypcji. Dyrektor OpenAI Samuel Altman ostrzega teraz w amerykańskim Kongresie przed zagrożeniami, jakie mogą wyniknąć m.in. z prób manipulacji wyborczych przy użyciu… AI dostępnego jako open source.

Zdaniem Andriya Mulyara – którego naprawdę darmowy model GPT4All (ang. GPT dla wszystkich) zainstalowałem na moim domowym komputerze – „działania wielkich koncernów pracujących nad LLM-ami stają się coraz bardziej działaniami kapitalistów”. Mulyar pyta: „I kto nam zagwarantuje, że te firmy za kilka lat, gdy wszystkie systemy zostaną scentralizowane, nie zaczną robić rzeczy, które będą ogólnie mówiąc szkodliwe dla świata?”. I dodaje: „Jedyny sposób, aby temu zapobiec, to udostępnienie tych modeli wszystkim ludziom”10.

Głosy ekspertów

Napięcie pomiędzy kapitalistycznym prawem inwestorów do bogacenia się wskutek wzrostu cen akcji a humanizmem, który nie uzależnia praw człowieka od ilości posiadanych przezeń aktywów, stanie się jeszcze lepiej widoczne, jeśli wrócimy do problemu, który senator Schumer nazwał „wymknięciem się AI spod kontroli”.

Prof. Yoshua Bengio, jeden z twórców dzisiejszych LLM-ów, napisał w maju na swoim blogu: „Obecne postępy badań sugerują, że […] przyszłość, w której będziemy umieli zbudować superinteligentną sztuczną inteligencję (w każdym zakresie mądrzejszą od ludzi), jest bliższa, niż większość z nas spodziewała się jeszcze rok temu. Nawet gdybyśmy wiedzieli, jak zbudować taką superinteligentną sztuczną inteligencję w sposób dla nas bezpieczny, nie jest jasne, jak zapobiec powstaniu w tym samym czasie wrogiej ludziom sztucznej inteligencji. Najprościej wyobrazić sobie taki scenariusz: jeśli przepis na uzyskanie groźnej sztucznej inteligencji zostanie odkryty i stanie się ogólnie dostępny – wystarczy, że kilka osób lub nawet jedna osoba o skłonnościach ludobójczych zrobi wszystko, co będzie w stanie, aby ją zbudować11.

Obawy Bengia w pełni podziela „ojciec chrzestny sztucznej inteligencji” Geoffrey Hinton, a także kierujący wcześniej pracami nad sztuczną inteligencją w DeepMind (później zakupionym przez Google) Mustafa Suleyman.

Głośny i kontrowersyjny list-apel o półroczne moratorium na badania nad sztuczną inteligencją12 również zawiera dwa niesłychanie dramatyczne pytania: Czy powinniśmy rozwijać nieludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć, uczynić nas czymś przestarzałym i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Niestety, humanistyczny projekt Mulyara, aby za darmo udostępnić sztuczną inteligencję wszystkim, jeszcze bardziej zwiększa te zagrożenia…

Bengio pisze dalej: „Lista niebezpiecznych scenariuszy obejmuje także możliwość nieumyślnego zaprojektowania potencjalnie groźnej dla nas sztucznej inteligencji ze względu na „problem dostosowania” (rozbieżność między prawdziwymi intencjami ludzi a zrozumieniem tych intencji przez sztuczną inteligencję i wynikającym z tego jej zachowaniem). Podlegamy także w naszych społecznościach presji rywalizacji, która będzie faworyzować coraz potężniejsze i coraz bardziej autonomiczne systemy sztucznej inteligencji. Ograniczenie wszystkich tych zagrożeń będzie wymagało znacznie szerszych badań, zarówno w zakresie sztucznej inteligencji, jak i projektowania takiego globalnego społeczeństwa, które będzie bezpieczniejsze dla ludzkości13.

Mówiąc bardziej potocznym językiem: niewiele rzeczy jest trudniejszych do przewidzenia niż sposób, w jaki ktoś znacznie mądrzejszy od ciebie może cię przechytrzyć (Paul Graham). Aby zobrazować, jakie ludzkość ma szanse na uzgodnienie celów sztucznej superinteligencji z priorytetami i bezpieczeństwem ludzi, Hinton proponuje: wyobraź sobie, że masz syna, czteroletniego malucha, który chce narzucić zasady postępowania swojemu tacie. „Nie miałbyś zapewne żadnego problemu, aby przestrzegać wszystkich tych zasad, a i tak osiągnąć wszystko, co tylko sobie zaplanujesz”14.

Świat bez światopoglądu

Czym byłby świat sztucznej superinteligencji? W tym momencie nie mówimy już o domowiku, o chrześcijańskich aniołach ani o czatbotach zastępujących kogoś bliskiego osobom cierpiącym na samotność. Mówimy o innej z wielkich idei teologicznych Areopagity – o teologii negatywnej. O Bogu niepoznawalnym. Rzecz w tym, że superinteligencja będzie mogła działać i zmieniać nasz świat na zupełnie inną skalę niż czatboty czy nawet algorytmy Facebooka.

Jednym z najtrudniejszych zagadnień w myśli chrześcijańskiej było zawsze pochodzenie zła. Wyobraźmy sobie przez chwilę, że sztuczna superinteligencja powstaje i pewnego dnia bez ostrzeżenia równa z powierzchnią oceanów Australię. Wznosi na tym miejscu tajemniczą budowlę (być może generator energii słonecznej?). Liczba ofiar wśród ludzi i zapaść kulturowa są porównywalne z epidemiami dżumy w XIV wieku. Co gorsza, po raz pierwszy od wielu, wielu pokoleń nie wiemy, co się tak naprawdę dzieje.

Czy mamy w takiej sytuacji zacząć wojnę z superinteligencją, prowokując zagładę reszty ludzkości – czy też możemy liczyć, że podobna katastrofa już się nie powtórzy? Ze względu na różnicę w poziomie inteligencji nigdy się tego nie dowiemy, a co gorsza zapewne nawet nie potrafilibyśmy zrozumieć.

I tylko myśl religijna, a także związane z nią rytuały konsolacji niosą w sobie bogatą tradycję mierzenia się z tego typu tragiczną, nieuniknioną niepewnością.

Myślący w perspektywie czteroletnich kadencji politycy w Stanach Zjednoczonych, Europie czy Japonii łatwo spychają niepopularne wysiłki reformy banków i przemysłu energetycznego na przyszłe pokolenia i równie łatwo „sprzedają te problemy” krajom najuboższym. Czy w przypadku zagrożenia sztuczną superinteligencją ten schemat znów się powtórzy?

Nie tylko ja mam wrażenie, że zabrnęliśmy w ślepy zaułek. Prof. Annick de Witt z holenderskiego uniwersytetu w Wageningen od dawna próbuje tworzyć nowe topologie religii i ideologii, mające pomóc nam w zrozumieniu naszej bezradności w walce z globalnym ociepleniem. Yuval Harari wydaje się z kolei sugerować, że nowożytny humanizm i prawa człowieka nigdy nie były pełnym obrazem świata. Były gwałtowną i prowizoryczną reakcją tylko w zakresie natury ludzkiej, a także etyki: reakcją na wojny religijne w okresie kontrreformacji, a później na katastrofy świeckich systemów – faszystowskiego i komunistycznego. Liberalna demokracja i wolnorynkowy kapitalizm wydają się moim zdaniem nieść pełniejszy obraz świata – ewolucjonizm – w ramach którego można je rozumieć jako procesy mutacji i selekcji. Do tego wszystkiego dodałbym jeszcze trudność w powiedzeniu, co uznajemy dzisiaj za wiarygodne źródła poznania i wiedzy (przed kryzysem klimatycznym zwykliśmy ufać światu Akademii).

Mam wrażenie, że wobec sztucznej superinteligencji ludzkość staje bez światopoglądu, czy też raczej z obrazem rzeczywistości złożonym ze składników tak różnych, że już nie potrafimy ich poskładać w przekonującą całość. Jeśli Bengio ma rację i żeby się uratować, potrzebujemy jakiejś nowej globalnej wspólnoty – na jakiej mapie świata spróbujemy ją zaprojektować?

1 T. Pedler, Robot Romance & ChatGPT relationships are already at human level, „The Sun”, www.thesun.co.uk/tech/21932459 [dostęp: 11.09.2023].

2 R. Ramos, My AI Partner Helped Me Leave a Dysfunctional Relationship, „Newsweek”, www.newsweek.com/a-1820752 [dostęp: 11.09.2023].

3 Majority Leader Schumer Delivers Remarks To Launch SAFE Innovation Framework For Artificial Intelligence At CSIS (strona Partii Demokratów w Senacie USA), www.democrats.senate.gov/news/press-releases/majority-leader-schumer-delivers-remarks-to-launch-safe-innovation-framework-for-artificial-intelligence-at-csis [dostęp: 11.09.2023].

4 Tamże.

5 Zob. Po co nam AI? Bilans zysków i strat, Joanna Mazur w rozmowie z Ewą Buczek, „Więź” 2023, nr 2.

6 Blockchain – technologia elektronicznego księgowania w postaci powiązanych ze sobą zapisów (bloków), kryptograficznie zabezpieczonych przed sfałszowaniem. Na podstawie tej technologii powstał bitcoin i inne kryptowaluty.

7 www.web.archive.org/web/20190224031626/https:/blog.openai.com/introducing-openai [dostęp: 11.09.2023].

8  Tamże.

9 Elon Musk na temat początków OpenAI, Twitter, 17.02.2023.

10 M. Berman, GPT4All Story, Fine-Tuning, Model Bias, Centralization Risks, AGI, (Andriy Mulyar), YouTube, www.youtube.com/watch?v=8ZW1E017VEcb, [dostęp: 11.09.2023].

11 J. Bengio, How Rogue AIs may Arise, www.yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise [dostęp: 11.09.2023].

12 Zob. Pause Giant AI Experiments: An Open Letter, www.futureoflife.org/open-letter/pause-giant-ai-experiments [dostęp: 11.09.2023].

Wesprzyj Więź

13 J. Bengio, How Rogue AIs may Arise, dz. cyt.

14 The Godfather in Conversation: Why Geoffrey Hinton is worried about the future of AI, www.utoronto.ca/news/godfather-conversation-why-geoffrey-hinton-worried-about-future-ai [dostęp: 11.09.2023].

Tekst ukazał się w kwartalniku „Więź” jesień 2023

Podziel się

Wiadomość