Zima 2024, nr 4

Zamów

Czy sztuczna inteligencja potrafi być twórcza?

Fot. Gerd Altmann / Pixabay

Media czeka radykalna nadpodaż tekstów, które powierzchownie będą wyglądały jak te, które zostały napisane przez dobrych dziennikarzy. W związku z tym rodzi się pytanie: co będzie wartością dodaną tekstów pisanych przez prawdziwych ludzi?

Ewa Buczek: Kilka miesięcy temu głośno było o liście otwartym, zainicjowanym m.in. przez Elona Muska, wzywającym do sześciomiesięcznej przerwy w opracowywaniu systemów potężniejszych niż ChatGPT-4, w celu „opracowania i wdrożenia przez niezależnych ekspertów wspólnych protokołów bezpieczeństwa dla takich projektów”. Ton listu był wysoce alarmujący, padły w nim nawet słowa o „zagrożeniu dla ludzkości”. Czy jest się czego bać? Naprawdę jesteśmy u progu rewolucji, która może zagrozić człowiekowi?

Dariusz Jemielniak: Nie przeceniałbym roli tego apelu, bo Elon Musk jest biznesmenem, który chciał po prostu poprawić swoją sytuację strategiczną na rynku, na którym sam działa. Z drugiej strony rzeczywiście jesteśmy u progu radykalnej rewolucji, która zmieni ludzkość. Czy kolejna iteracja tej technologii może być groźna w skali globalnej? Bardzo wątpię. Natomiast brak regulacji dotyczących AI, które miałyby przecież większy wpływ na ludzkość niż chociażby regulacja rynku leków, to ważny temat i tutaj jak najbardziej coś jest na rzeczy.

Jarema Piekutowski: Istotnie pojawiają się obawy – moim zdaniem uzasadnione – że AI z czasem nie tylko przewyższy nas umiejętnościami, ale także zdobędzie swego rodzaju autonomię. I to jest faktycznie pewne zagrożenie. Pamiętajmy, że już teraz bywa ona używana do złych celów, na przykład do tworzenia wiadomości phishingowych, czyli wyciągających od użytkowników różne dane, a nawet dostęp do ich pieniędzy. Albo weźmy technologie deep fake oraz deep voice, potrafiące tworzyć obrazy, filmy i nagrania przedstawiające wydarzenia, które nigdy nie miały miejsca.

Papież jednak nie nosił białej puchowej kurtki, a Barack Obama nie pląsał na brzegu morza z Angelą Merkel.

Piekutowski: No właśnie. Te obrazy zostały wygenerowane przez sztuczną inteligencję przy użyciu technik uczenia maszynowego. Tyle że te narzędzia nie są tak potężne, jak jeszcze niedawno się o nich mówiło. Pod koniec zeszłego roku wielu analityków branży IT twierdziło, że oto nastaje koniec ery programistów, bo pojawiła się nowa wersja ChatuGPT. Sam z niego korzystam jako programista oraz data scientist i mogę zapewnić, że jest to nadal narzędzie mocno niedoskonałe. W najbliższym czasie na pewno nie wyruguje jeszcze ludzi. Myślę, że realnie może stanowić zagrożenie za 50, 60 lat.

Jemielniak: Pan mówi o 50, 60 latach, ale równie dobrze można powiedzieć o 20 albo 100, bo nie mamy zielonego pojęcia, w jakim tempie ta technologia się rozwija. Raczej nie jest to tempo rewolucyjne, bo cały proces jest dość kosztochłonny, ale nic więcej nie da się powiedzieć z pewnością.

Ja też korzystam przy programowaniu z ChatuGPT i uważam, że to jest przydatne narzędzie, tylko na obecnym etapie trzeba i tak mieć pewne podstawowe kompetencje w kodowaniu, żeby w ogóle móc go użyć. Natomiast w przyszłości zapewne te problemy znikną – coś, co było dotąd niedostępną wiedzą, stanie się osiągalne dla przeciętnego Kowalskiego. Wtedy najprostsze usługi programistyczne, jak postawienie strony czy stworzenie skryptu, który będzie sprawdzał ceny o określonej godzinie, radykalnie stanieją. Tylko to wcale nie musi oznaczać, że będzie potrzeba mniej programistów. Koniec końców, gdy dojdziemy do etapu integracji tych systemów czy ich wspierania w długim okresie, ludzie nadal będą niezbędni. AI nie jest jeszcze w stanie stworzyć architektury dla tych systemów. W ogóle nie mamy pomysłu, jak mogłoby to wyglądać. Mamy już poszczególne kawałeczki, krótkie kody, ale nie umiemy zrobić dużej struktury.

Piekutowski: Wydaje mi się, że nawet jeśli te technologie będą dużo bardziej precyzyjne, to jeszcze długo nie pozwolimy im robić, co chcą – zawsze będzie ktoś, kto po pierwsze je tworzy, a po drugie nadzoruje. Bo przecież chodzi o to, żebyśmy się nie kłaniali przed tą sztuczną inteligencją jak przed nadejściem proroka czy wielkiego umysłu z zewnątrz, ale żebyśmy potraktowali ją jako naszego sługę, który może uwolnić nas od ogromnej ilości pracy mechanicznej i męczącej, żeby zostawić nam pracę kreatywną i rozwojową.

Jemielniak: Raczej obawiałbym się, że AI może stanowić potencjalne zagrożenie dla rynku pracy. Nie mamy podstaw, by sądzić, że masowe wprowadzenie technologii wykonujących w bardzo tani sposób czynności, do których obecnie są zatrudniani ludzie za dużo większe pieniądze, spowoduje powszechny dobrobyt. Już szybciej możemy się spodziewać, że system kapitalistyczny będzie dalej taki, jaki jest, czyli nastąpi jeszcze większe rozwarstwienie ekonomiczne – będzie grupa beneficjentów tego systemu i olbrzymia większość, która nie będzie w stanie funkcjonować bez wsparcia państwa.

Czy za tak dynamicznym rozwojem tej technologii nadąża refleksja? Wiemy, czego chcemy uczyć te algorytmy?

Piekutowski: Refleksja filozoficzna próbuje usilnie nadążyć za przełomami technologicznymi. Nie do końca oczywiście jej się to udaje, ale stawia ciekawe pytania, na przykład o to, czy sztuczna inteligencja posiada świadomość. W filozofii jest coś takiego jak problem chińskiego pokoju. To jest zagadnienie, które podejmował filozof analityczny John Searle, i w uproszczeniu sprowadza się do pytania: czym jest rozumienie? W tym przypadku moglibyśmy zapytać: czy sztuczna inteligencja w sensie mocnym – czyli rozumiejąca to, co my mówimy – istnieje? Czy też po prostu wykonuje pewne procedury, które naśladują rozumienie?

Jeśli komputer ma procedury, które wskazują, w jaki sposób ma konstruować słowa i zdania po chińsku, żeby odpowiedzieć na pytania w tym języku, może w ogóle nie rozumieć chińskiego, ale dzięki tym skryptom tak łączy poszczególne symbole ze sobą, że udzieli właściwych odpowiedzi. Stan dyskusji filozoficznej na temat świadomości sztucznej inteligencji jest niejasny, a to przecież jest podstawowa sprawa. Od jej wyniku zależy, czy sztuczna inteligencja może w jakiś sposób przewyższyć człowieka także w sferach kreatywnych, takich jak sztuka.

Chodzi o to, żebyśmy potraktowali sztuczną inteligencję jako naszego sługę, który może uwolnić nas od ogromnej ilości pracy mechanicznej i męczącej, żeby zostawić nam pracę kreatywną i rozwojową.

Jarema Piekutowski

Udostępnij tekst

Jemielniak: Już dziś wiadomo, że algorytmy mogą być lepsze niż ludzie w zawodach kreatywnych. Znamy przykłady konkursów literackich, malarskich, fotograficznych, w których algorytmy wygrywały z ludźmi, jeśli sędziowie nie wiedzieli, kto stworzył dane dzieło. Tak to jest, ten statek już odpłynął. Powiem więcej, niezależnie od postępów prac nad sztuczną inteligencją od lat jesteśmy już pod władzą algorytmów i tego nie da się cofnąć. One rządzą elektrowniami, systemami finansowymi i bankowymi, gospodarką, łańcuchami dostaw – to jest bardzo wysoko postawiony zamek z superdelikatnych elementów i nawet drobne ich poruszenie może mieć katastrofalne skutki. Nie wiemy do końca, jak te algorytmy działają łącznie i jako cały system, ale już nie możemy z nich zrezygnować. Nie ma odwrotu.

I jeszcze nawiązując do słów przedmówcy: nie mam przekonania, że w dyskusji o AI akurat kwestia świadomości jest tak istotna. Przypisywanie świadomości jakiegoś szczególnego statusu to dziś już problematyczny koncept. Mamy wiele przykładów na to, że my, ludzie, nie dostrzegamy, że inne istoty też są świadome. Wiele ssaków, nie tylko naczelnych, jest w stanie na przykład rozpoznać się w lustrze, więc wiedzą, że one to one. Ludzi nie wyróżnia świadomość, ale system długotrwałego kodowania i przekazywania wiedzy pomiędzy osobami – nawet gdy nie komunikują się ze sobą bezpośrednio – w sposób umożliwiający budowanie systemu wiedzy przez dokładanie kolejnych elementów na podstawie poprzednich. To jest coś, czego żaden inny gatunek na tej planecie nie potrafi, przynajmniej według obecnego stanu naszej wiedzy.

Zatrzymajmy się przez chwilę przy tych obszarach, które wiążą się z twórczością, bo tu rysuje się kilka problemów. Zacznijmy od kwestii praw autorskich. Duże modele językowe, takie jak ChatGPT, mają dostęp do ogromnej liczby cudzych tekstów, które przetwarzają, aby stworzyć własny. W żaden sposób nie odsyłają przy tym do źródeł, z których korzystały. Czy autorzy tych tekstów mają możliwość dociekać swoich praw autorskich?

Piekutowski: Wszystko wskazuje na to, że jednak kwestii świadomości AI tak całkiem nie unikniemy, bo dyskusja o tym, czy działanie sztucznej inteligencji możemy nazwać twórczością, jest bliźniacza wobec tej o świadomości. Podkreślmy, że w działaniu sztucznej inteligencji nie ma praw autorskich, i to na wielu poziomach. Zacznę od drugiej strony: sama sztuczna inteligencja nie jest bytem, który by miał prawa do wygenerowanej przez siebie treści. Ale i osoba, która zada sztucznej inteligencji jakieś pytanie, też zasadniczo nie ma prawa autorskiego do formuły, jaką dostanie w odpowiedzi.

Pewnie znają Państwo tę anegdotę o Michale Aniele, który, zapytany o to, jak stworzyć rzeźbę będącą dziełem sztuki, odparł, że wystarczy odłupać z kawałka marmuru wszystko, co niepotrzebne. W pewnym sensie tak samo wygląda praca ze sztuczną inteligencją. Człowiek pisze mądry prompt, a sztuczna inteligencja z całego swojego zasobu wiedzy odłupuje rzeczy niepotrzebne i zostawia to, co istotne.

Z drugiej strony mamy problem z danymi treningowymi, na których uczą się algorytmy. To wyraźnie widać w modelach służących do tworzenia obrazów, na przykład DALL-E czy Midjourney – często na tych obrazach łatwo rozpoznać konkretne inspiracje, które sztuczna inteligencja połknęła w ramach treningu. Tylko że są one do tego stopnia przetworzone, że trudno uznać to za bezpośrednie wykorzystanie danego utworu. Zresztą tu pojawiają się te same pytania, które stawiamy w odniesieniu do dzieł stworzonych przez człowieka – o granice plagiatu i inspiracji. O ile jednak w przypadku ludzi mamy pewien konsensus, jeśli chodzi o prawa autorskie, o tyle tutaj w większości przypadków nie ma sztywnych regulacji.

Jemielniak: Akurat Amerykańskie Biuro Patentowe dość jasno stwierdziło, że utwory generatywnej AI nie podlegają prawu autorskiemu. Swoją drogą to mi przypomina pewną sytuację, którą mieliśmy w Fundacji Wikimedia. Rzecz dotyczyła opublikowania przez nas zdjęć, które powstały w nietypowy sposób: fotograf oddał makakom swój aparat, a te wykonały nim serię selfie, które szybko stały się bardzo popularne. I ten fotograf pozwał nas o tantiemy, twierdząc, że do niego należą prawa autorskie do tych fotografii. My staliśmy na stanowisku, że autorami są zwierzęta, a im nie przysługują żadne prawa autorskie, podobnie jak sztucznej inteligencji. Sprawę w sądzie oczywiście wygraliśmy. Myślę zresztą, że tego typu procesów właśnie w kontekście generatywnej AI będzie coraz więcej.

Problem jest złożony, bo z jednej strony ten system uczy się w sposób podobny do człowieka – przecież artysta nie jest czystą kartą, on też czymś się inspiruje, procesuje w głowie ileś obrazów, podejmuje kolejne próby stworzenia czegoś – ale jednocześnie ten system czerpie pełnymi garściami z dóbr wspólnych, niedoskonale je przerabiając (jeśli jesteśmy encyklopedyczni, wystarczy zapytać sztuczną inteligencję o informacje na swój własny temat, żeby przekonać się, jak dalece niedoskonale i jak bardzo żywcem czerpie z Wikipedii) i nie dając nic w zamian. Mamy tu zatem wykorzystanie dóbr wspólnych i internalizację zysków. W mojej prywatnej opinii gdy powstawała licencja Creative Commons – pozwalająca na bezpłatne wykorzystywanie treści na dowolny użytek – nie obejmowała takiego pola eksploatacji, jakim jest generatywna AI. Dlatego dziś również nie powinna być bez ograniczeń wykorzystywana w tym obszarze.

Piekutowski: Jeśli rozmawiamy o twórczości, warto zatrzymać się na chwilę przy samym jej pojęciu. Zgodnie z podejściem systemowym istnieją dwa sposoby tworzenia nowych dzieł i idei: generowanie i emergencja. Generowanie to jest w zasadzie reprodukcja, czyli tworzenie nowych wzorców z istniejących już elementów, budowanie między nimi nowych połączeń. I to jest właśnie to, co robi sztuczna inteligencja – tworzy nowe wzorce tego, czego już się nauczyła. Istnieje jednak jeszcze jeden rodzaj twórczości i zdaniem prof. Moniki Kostery, tutaj sztuczna inteligencja nigdy nas nie pokona: emergencja, czyli działanie bez przyjętego kodu, poza schematem, stworzenie takiego dzieła sztuki, które jakby wyłania się przez artystę i doprowadza do przełomu. Patrząc na sposób funkcjonowania i treningu AI, ciężko uwierzyć, że byłaby ona kiedykolwiek do tego zdolna.

Skoro każdy z nas może mieć narzędzia opierające się na AI na swoim domowym komputerze, muszę zapytać o relację człowieka do jego twórczości. W jaki sposób możemy zweryfikować, czy twórca naprawdę jest autorem dzieła, które przedstawia jako swoje?

Jemielniak: Zastanawiam się, czy naprawdę mamy dziś do czynienia z jakimś przeskokiem jakościowym. Gdy popularne stały się programy do obróbki zdjęć, też wywoływały sporo kontrowersji. A teraz? Większość z nas stosuje filtry lub poprawia kadrowanie i nikt nie uważa tego za nadużycie. Być może zatem pojawi się taki rodzaj twórcy, którego byśmy nazwali prompt artist – osoba mająca rzeczywiście świetne oko do fotografii, ale twórczo modyfikująca swoje prace z użyciem AI, w wyniku mozolnego procesu prób i błędów, w kulturze wiecznego remiksu. Nie ma natomiast wątpliwości, że treści wygenerowane przez AI będą bestsellerami, bo zwyczajnie sztuczna inteligencja będzie lepiej niż pojedynczy twórcy czy twórczynie trafiać w masowe gusta.

Doprecyzuję moje pytanie: czy mój szef, płacąc mi za wykonaną pracę, będzie miał narzędzia, żeby zweryfikować, czy ja realnie tę pracę uczciwie wykonałam – spędziłam czas na zbieraniu źródeł, sprawdzaniu faktów, pisaniu – czy po prostu wrzuciłam zapytanie w ChatGPT i dostałam gotowy materiał w 5 minut?

Jemielniak: Gwoli ścisłości, obecnie też tych narzędzi nie ma, bo w jaki niby sposób pracodawca mógłby sprawdzić, czy pracownik wykonał swój research, czy zmyślił sobie niektóre fakty. Ale odpowiadając na Pani obawy: na pewno media czeka radykalna nadpodaż tekstów, które powierzchownie będą wyglądały jak te, które zostały napisane przez dobrych dziennikarzy. I tutaj zadziała prawo Kopernika–Greshama mówiące, że pieniądz gorszy wypiera pieniądz lepszy. Nie mamy możliwości nad tym zapanować. W związku z tym rodzi się pytanie: co będzie wartością dodaną tekstów pisanych przez prawdziwych ludzi? W moim przekonaniu nie będzie nią składanie poprawnych, gramatycznych zdań. Modele językowe już dziś piszą lepszym językiem niż przeciętny dziennikarz. Natomiast są od niego gorsze pod względem weryfikacji faktów. Dlatego warto wiedzieć, do czego mogą być dziennikarzom i dziennikarkom przydatne w ich pracy: argumentatywne strategie układania tekstu – tak, robienie researchu – nie.

Piekutowski: Wrócę do tego, o czym mówiłem na początku. Sztuczna inteligencja na pewno nie zastąpi całego dziennikarstwa, ani nawet jego dużej części, a jedynie zdejmie z nas pracę nudną, żmudną, spędzającą sen z powiek, czyli na przykład dziennikarstwo newsowe, niewymagające dużej kreatywności, łączenia ze sobą pozornie odległych problemów, wrażliwości poetyckiej itd. Ale już reportażu wojennego nie napisze, zresztą żadnego dobrego reportażu nie napisze. Zgadzam się z przedmówcą, że istotą dziennikarstwa nie jest składanie zdań w poprawne ciągi. Owa istota to – i tu pozwolę sobie sięgnąć po podejście personalistyczne – głęboko ludzka działalność. Dobry tekst może napisać tylko osoba, która rozmawia z innymi osobami, i tego sztuczna inteligencja zwyczajnie nie zrobi.

Istnieje jednak obszar, w którym AI ma pole do popisu: system edukacji. Obecnie opiera się on często na składaniu pisemnych dowodów posiadanej wiedzy – od prac domowych w szkole podstawowej, przez wypracowania w liceum, aż po prace doktorskie. Jakie zmiany w tym sektorze wymusi rozwój sztucznej inteligencji?

Piekutowski: Od bardzo dawna mówi się o tym, że potrzebna jest rewolucja w systemie edukacji, który przez setki lat był nastawiony główne na przekazywanie wiedzy, podczas gdy dziś całą tę wiedzę każdy uczeń ma w zasięgu ręki. Dlatego szkoła musi skończyć z dotychczasowym systemem, w którym uczeń miał za zadanie udowadniać, że posiada wiedzę. Obecnie dużo istotniejsze jest nauczenie go, jak z tej wiedzy wyselekcjonować informacje rzetelne i wiarygodne oraz jak z tą wiedzą twórczo i racjonalnie postępować – jak ją analizować, jak ją zastosować do konkretnych sytuacji i kreatywnie przetworzyć na coś nowego.

Jemielniak: Rzeczywiście, słabe uczelnie mają się czego bać. Słabe, czyli takie, gdzie podstawą do oceny ucznia są jakieś wypracowania, do których zresztą nawet nie zawsze wykładowca zagląda. Warto zadać sobie pytanie, czy właśnie w ten sposób wykształcamy w ludziach najbardziej potrzebne dziś kompetencje. Moim zdaniem, jeśli zabieramy się za uczenie ludzi, to musimy ich przygotowywać do życia we współczesnym świecie.

Akademia Leona Koźmińskiego, której jestem wykładowcą, wypracowała politykę używania ChatuGPT w pracach studenckich, bo zabranianie ludziom korzystania z tej technologii en bloc byłoby wręcz dziwaczne. To jest sytuacja jak z tej anegdoty, w której średniowieczni profesorowie lamentują, że od kiedy papier potaniał, studenci przestali się już naprawdę uczyć, bo powinni wszystko zapamiętywać, a oni sobie teraz bezczelnie robią notatki. Ta technologia istnieje i będzie istnieć. Nauczyciel, który zakłada, że jego uczniowie przy pisaniu wypracowań nie sięgają po ChatGPT, jest po prostu naiwny.

Natomiast realne jest zagrożenie, że przez nią przeskoczymy nad pewnymi etapami uczenia się, na przykład umiejętnością pisania. Tak jak zanikła sztuka kaligrafii, być może umiejętność pisania samodzielnie u większości populacji również zaniknie. Będą oczywiście wyspecjalizowane w niej zawody – dziennikarze czy naukowcy – ale cała reszta będzie posługiwać się narzędziami. Ale znowuż – krytycznego korzystania z tych narzędzi musimy ludzi nauczyć.

Nie mamy podstaw, by sądzić, że masowe wprowadzenie technologii wykonujących w bardzo tani sposób czynności, do których obecnie są zatrudniani ludzie za dużo większe pieniądze, spowoduje powszechny dobrobyt.

Dariusz Jemielniak

Udostępnij tekst

Piekutowski: To jest duże niebezpieczeństwo. Przestrzegałbym przed nadmiernym optymizmem w tym zakresie. Człowiek nie nauczy się myśleć bez umiejętności pisemnego lub ustnego wyrażania myśli w sposób poprawny językowo. Przecież formułowanie myśli w języku to jest podstawowa umiejętność, która pozwala te myśli obrabiać, analizować i znajdować między nimi logiczne powiązania.

Jacek Dukaj w książce Po piśmie mówi, że czas pisma się kończy i dzięki nowym technologiom idziemy w stronę bezpośredniego transferu przeżyć i emocji. I to by już było faktycznie niebezpieczne, bo upośledzałoby podstawową umiejętność myślenia. Paradoksalnie zatem ChatGPT jako narzędzie opierające się na słowie może ten proces spowalniać. Uważam, że wyrażanie myśli w języku to jest jeden z fundamentów społeczeństwa.

Jemielniak: Jeszcze całkiem niedawno mówiło się, że fundamentem naszej cywilizacji jest zapamiętywanie, a przecież dziś w bardzo dużym stopniu to zeksternalizowaliśmy. I fakt, że obecnie mamy sumę ludzkiej wiedzy na wyciągnięcie ręki, radykalnie nas nie odmienił, a przynajmniej nadal mamy poczucie ciągłości gatunkowej z tymi zacofanymi nieszczęśnikami z lat 50., którzy wychowali się bez Wikipedii. Oczywiście zgadzam się, że struktura myślenia, zwłaszcza budowania dłuższych wywodów argumentacyjnych, jest cenna, aczkolwiek dotyczy bardzo niewielkiej liczby osób. To jest nadal umiejętność wyspecjalizowana, przynależna wyłącznie do elit intelektualnych.

Co ciekawe, ChatGPT akurat tutaj okazuje się pomocny. Sam sposób korzystania z tej technologii – zadawanie odpowiednich pytań, poprawianie odpowiedzi – również jest specyficzną kompetencją, po którą można sięgnąć przy tworzeniu dobrej argumentacji. Natomiast zgadzam się w zupełności, że ten przeskok może być zbyt radykalny. Jeżeli ktoś chce się nauczyć rysować, może być przytłoczony tym, jak łatwo algorytmy mogą wygenerować obraz, którego stworzenie wymagałoby od człowieka wielu lat doskonalenia umiejętności.

Piekutowski: No właśnie, to rodzi niebezpieczeństwo zachłyśnięcia się możliwościami AI – skoro ChatGPT zrobi coś za nas, to może nie warto się tego uczyć? Zapewne są sfery, w których to będzie prawda, ale zdecydowanie nie wszystkie do nich należą.

Chciałabym na koniec naszej rozmowy zadać Panom pytanie o umiejętność odróżniania prawdy od fikcji w kontekście rozwoju nowych technologii. Już samo pojawienie się techniki deep fake video zachwiało naszym przeświadczeniem, że to, co widzimy, musi być tym, na co wygląda. Teraz narzędzia do tworzenia fikcyjnych filmów czy obrazów mamy wszyscy w zasięgu ręki, co może prowadzić w najlepszym razie do nieporozumień, a w najgorszym – do destabilizacji całych systemów gospodarczych czy politycznych. Jak możemy w tym kontekście chronić prawdę?

Jemielniak: Moim zdaniem fakt, że nie jesteśmy już w stanie odróżnić wygenerowanych tekstów, obrazów, a niedługo także filmów od tych prawdziwych, paradoksalnie może prowadzić do wielkiego renesansu zwracania uwagi na źródła. Problem z dezinformacją w internecie polega między innymi na tym, że ludzie niespecjalnie zwracają uwagę na to, kto coś powiedział. Dlatego funkcjonuje bardzo wiele rozdrobnionych źródeł – mnóstwo stron z adresem podobnym do uznanych mediów – które rozprzestrzeniają dezinformację, choć są też takie, które nawet się nie silą na udawanie czegokolwiek, tylko otwarcie dezinformują.

Ale skoro odbiorcy zaczynają zauważać, że sama treść informacyjna nie może być rozpatrywana w oderwaniu od tego, czy jest prawdziwa, czy nie, a gwarantem jej jakości jest proces redakcyjny, to może prowadzić do zwiększenia roli mediów tradycyjnych. Bardzo bym chciał, żeby tak było, bo inną drogą jest całkowity rozpad pojęcia prawdy i życie w radykalnie zatomizowanym odejściu od wielkich narracji, gdzie każdy ma swój krąg plemienny i z wykorzystaniem technologii cyfrowych tworzy sobie jakieś lokalne prawdki.

Piekutowski: Swego czasu w redakcji „Nowej Konfederacji”, z którą jestem związany, przeprowadziliśmy eksperyment. Opublikowaliśmy tekst niejakiej Joanny Nowak pod tytułem Ostrzeżenia przed technologią. Peterson i Hawkins o zagrożeniach sztucznej inteligencji. Materiał był dość poczytny, zebrał w mediach społecznościowych dużo lajków, nikt nic nie kwestionował, nikt o nic nie pytał. Po dwóch tygodniach ujawniliśmy, że artykuł napisał ChatGPT, także zdjęcie i biogram Joanny Nowak stworzyła sztuczna inteligencja. Co ciekawe, nawet cytaty z Petersona i Hawkinga, użyte w tym tekście, były zmyślone. Chyba nikt tego nie wyłapał. Problem z odróżnianiem prawdy od fikcji jest realny, zwłaszcza w fazie przejściowej, gdy nie mamy jeszcze regulacji pozwalających te rzeczy od siebie oddzielać. Jednak wierzę, że z czasem, tak jak organizm nabywa zdolności do bronienia się przed chorobami, tak samo ludzie zbiorowo wykształcą w sobie „przeciwciała” na dezinformację i damy sobie z nią radę. Być może czeka nas starcie z fałszywymi informacjami, ale one nie będą miały ostatniego słowa. Wierzę w immunologię gatunku ludzkiego.

Wesprzyj Więź

Dariusz Jemielniak – ur. 1975. Prof. dr hab., członek korespondent i wiceprezes Polskiej Akademii Nauk. W Akademii Leona Koźmińskiego kieruje Katedrą Zarządzania w Społeczeństwie Sieciowym. Od 2015 r. pracuje jako faculty associate w Berkman Klein Center for Internet and Society na Uniwersytecie Harvarda. Jest też członkiem Rady Powierniczej Fundacji Wikimedia. Specjalizuje się w strategii organizacji z branży technologicznej (internetowej) i w badaniu społeczności otwartej współpracy. Autor wielu książek i publikacji naukowych, m.in. Strategizing AI in Business and Education (2023, z A. Przegalińską), Collaborative Society (2020, z A. Przegalińską), Thick Big Data (2020), Common Knowledge? (2014).

Jarema Piekutowski – ur. 1978. Socjolog, publicysta i analityk. Członek zespołu thinkzine’u „Nowa Konfederacja”. Współpracownik Uniwersytetu Warszawskiego, Fundacji Pole Dialogu i Ośrodka Ewaluacji. Członek Zespołu Laboratorium „Więzi”. Autor fabularyzowanej biografii Gilberta Keitha Chestertona pt. G. K. Chesterton. Geniusz ortodoksji, zbioru esejów Od foliowych czapeczek do seksualnej recesji oraz wywiadów rzek (m.in. z Ludwikiem Dornem i Wojciechem Maksymowiczem).

Dyskusja ukazała się w kwartalniku „Więź” lato 2023 jako część bloku „Ludzie vs. sztuczna inteligencja”
Pozostałe teksty bloku:
Po co nam AI? Bilans zysków i strat. Rozmowa z Joanną Mazur
Jan Andrzej Lipski, Czy sztuczną inteligencję można wyposażyć w cnoty?

Podziel się

Wiadomość