Jesień 2024, nr 3

Zamów

Po co nam AI? Bilans zysków i strat

Fot. Alexandra_Koch / Pixabay

Warto spojrzeć na problem sztucznej inteligencji w szerszym kontekście. Czy nie traktujemy rozwoju tej technologii jako celu, który jest wartością sam w sobie? Czy dostatecznie często zadajemy sobie pytanie: co dzięki niej zyskamy? Jakie konkretne problemy rozwiąże? – rozmowa z Joanną Mazur.

Ewa Buczek: O sztucznej inteligencji zrobiło się głośno, gdy na początku tego roku ogłoszono, że ChatGPT osiągnął liczbę 100 milionów aktywnych użytkowników w dwa miesiące. A przecież prace nad tą technologią trwają już prawie 70 lat – samo pojęcie „sztucznej inteligencji” pojawiło się w roku 1956 za sprawą amerykańskiego informatyka Johna McCarthy’ego. W badania nad AI (artificial intelligence) włożyliśmy już mnóstwo czasu, energii i oczywiście pieniędzy. Po co nam to wszystko?

Joanna Mazur: Zastanawiam się, czy to pytanie dostatecznie często zadają sobie ludzie pracujący nad rozwojem tych wszystkich rozwiązań. Z rynkowego punktu widzenia przedsiębiorstwa, które się tym zajmują, liczą po prostu na zyski, np. ze sprzedaży swoich produktów innym firmom w celu automatyzacji różnego rodzaju zadań. Taka firma nie będzie już musiała zatrudniać ludzi do obsługiwania klientów, bo będzie to robił czat. Nie będzie musiała płacić dziennikarzowi, bo AI automatycznie wygeneruje krótkie teksty w oparciu o punkty, które jej podamy. W niektórych sektorach prawdopodobnie już to się dzieje.

Natomiast warto spojrzeć na ten problem w szerszym kontekście: czy nie traktujemy rozwoju tej technologii jako celu, który jest wartością sam w sobie? Czy dostatecznie często zadajemy sobie pytanie: co dzięki niej zyskamy? Jakie konkretne problemy rozwiąże? Zgaduję, że w takich obszarach, jak np. medycyna, te pytania się stawia, ale na pewno nie jest to perspektywa dominująca.

I jeszcze jedna sprawa w tym kontekście jest ważna: które państwa inwestują w rozwój tych narzędzi. Od pewnego czasu mamy tu do czynienia z wyścigiem między Stanami Zjednoczonymi, Chinami i Unią Europejską. Pierwsze dwa dążą po prostu do tego, by mieć jak najsilniejszą pozycję gospodarczą, być najbardziej innowacyjnymi gospodarkami – potrzebują AI w celach komercyjnych. Natomiast Unia Europejska próbuje, mniej lub bardziej skutecznie, kłaść nacisk na standardy etyczne i idące za nimi regulacje prawne. W tym podejściu zwraca się uwagę na cele, do których algorytmy, nazywane przez nas sztuczną inteligencją, mogą być stosowane, oraz wyznacza warunki, które muszą być spełnione, abyśmy mogli korzystać z takich rozwiązań.

Jeżeli słyszymy, że wielu twórców z obszaru AI uważa, iż do nich cały ten reżim ochrony własności intelektualnej się nie odnosi, to czujemy, że coś tutaj zgrzyta

Joanna Mazur

Udostępnij tekst

Oczywiście to nie jest perspektywa szczególnie popularna. Regulacje postrzega się raczej jako hamulec dla rozwoju.

O jakiego typu regulacjach mówimy? Problem jest przecież globalny, a nie mamy żadnych ogólnoświatowych porozumień, które by dawały chociaż cień nadziei na egzekwowanie tych norm.

– Ale mamy istniejące już regulacje, które często dotyczą takich obszarów, że siłą rzeczy muszą odnosić się także do algorytmów. Czyli na przykład kwestia ochrony danych osobowych. We Włoszech na podstawie funkcjonujących już przepisów w tym zakresie organ zajmujący się ochroną danych osobowych uznał, że ChatGPT nie spełnia ich standardów, przez co to narzędzie nie jest dostępne na terytorium Włoch.

W Europie mamy także RODO i te normy powinny być przestrzegane niezależnie od tego, jaki produkt czy usługę wprowadzamy na rynek. Jeśli algorytmy przetwarzają dane osobowe, muszą to robić w zgodzie z obowiązującymi zasadami.

Natomiast drugim filarem regulacji są projektowane dopiero w Unii Europejskiej rozwiązania dotyczące już bezpośrednio sztucznej inteligencji. Jednym z większych wyzwań jest tu kwestia jakości danych, które są używane do trenowania algorytmów – żeby np. spełniały kryterium reprezentatywności. Równie ważne jest zagwarantowanie odpowiednim instytucjom dostępu do dokumentacji technicznej stojącej za tymi rozwiązaniami. Bez tego nie mamy możliwości kontroli nad tym, co tam dzieje się w środku – jakkolwiek absurdalnie to brzmi w kontekście algorytmów, których wyznacznikiem jest to, że nie wiemy do końca, jak działają.

Do tego dochodzi jeszcze perspektywa ochrony konsumentów, ochrony konkurencji, ochrony praw człowieka… Musimy sobie zadać pytanie, na ile standardy – niekiedy obowiązujące od dziesięcioleci – mogą być naruszane przez algorytmy, a potem zastanowić się, jak zreinterpretować te normy w nowych okolicznościach.

Tylko czy to w ogóle możliwe, żeby prawodawstwo nadążało za technologią, która rozwija się w błyskawicznym tempie?

– Gdybyśmy na wszystko chcieli reagować nowymi przepisami, to oczywiście nie ma na to szans. Ale przecież mamy gotowe rozwiązania! Weźmy ochronę praw autorskich. Istnieją dosyć rozbudowane ramy prawne chroniące własność intelektualną, ale można odnieść wrażenie, że są zwyczajnie ignorowane, na przykład w odniesieniu do algorytmów generujących obrazy i tego, w jaki sposób wykorzystywane są tam dane treningowe. Jeśli nie jesteśmy w stanie zweryfikować, skąd pochodzą, możemy założyć, że nie wszystkie zostały udostępnione na wolnej licencji, która pozwala na swobodny użytek.

Jeżeli słyszymy, że wielu twórców z obszaru AI uważa, iż do nich cały ten reżim ochrony własności intelektualnej się nie odnosi, to czujemy, że coś tutaj zgrzyta i nie jest to bynajmniej wina regulacji, które nie nadążają za pojawieniem się innowacyjnych technologii, tylko pewnego rodzaju podejścia do wprowadzania innowacji, które znamy już z historii Facebooka, Ubera czy Airbnb. Firma wypuszcza swój produkt na rynek, gdzie istnieją pewne regulacje, ale twierdzi, że jej one nie dotyczą, bo jej propozycja jest czymś zupełnie nowym, co nie istniało nigdy wcześniej.

No i 10 lat później zaczynają się wyroki sądowe i debata w mediach o tym, że może faktycznie Uber od początku był po prostu taksówką, tylko jego twórcy nie chcieli, żebyśmy myśleli o nim w ten sposób. Podobnie rzecz ma się z Facebookiem – kiedy powstawał, istniały przecież w państwach Unii Europejskiej regulacje dotyczące ochrony danych osobowych, ale jakoś nikt na początku nie nakazał Markowi Zuckerbergowi ich przestrzegania. A po czasie okazuje się, że doszło tam do wielu naruszeń związanych z przetwarzaniem danych. Wymienione koncerny sięgają po model biznesowy oparty na zasadzie: wchodzimy na rynek i robimy, co jest dla nas finansowo opłacalne, a o konsekwencje będziemy się martwić później.

Tylko że o te konsekwencje właśnie martwi się wiele innych osób. Tak gwałtowny rozwój nowej technologii budzi niepokój dotyczący poziomu kontroli nad tym wynalazkiem. Czy uzasadnione są obawy o to, że człowiek jest tylko etapem przejściowym do powstania superinteligentnych robotów całkowicie autonomicznych? Czy osobliwość technologiczna, czyli moment, w którym systemy komputerowe osiągną poziom inteligencji wyższy niż cała ludzkość, więc będą zdolne się samoprogramować, naprawdę kiedyś nadejdzie? Czy to obszar science fiction?

– Na razie nie mówimy o twardych danych, ale raczej o opiniach na ten temat, więc ciężko stwierdzić, czy coś wydarzy się na pewno, czy nie. Ja jestem wśród tych, którzy uważają, że wszystko nadal pozostaje w naszej gestii. To my decydujemy, na jakie zastosowania AI pozwolimy i w jakim kierunku będzie się ona rozwijać. Jak dotąd mamy do czynienia zaledwie z wielkimi modelami – językowymi bądź opartymi na innych typach treści – które proponują nam rozwiązania. Stąd jeszcze daleka droga do samodzielnych bytów.

Już teraz jednak pojawiają się głosy postulujące stworzenie jakiegoś rodzaju osobowości prawnej dla sztucznej inteligencji, co może doprowadzić do tego, że odpowiedzialność za to, jak AI będzie wykorzystywana, zostanie całkowicie rozmyta. Obecnie, jeśli jakieś przedsiębiorstwo świadomie wykorzystuje algorytmy do celów niezgodnych z prawem, to odpowiedzialność za te działania jest bardziej klarowna. Gdy sztuczna inteligencja zyska prawa czy możliwości czerpania zysków, ta sytuacja się zmieni. Jeżeli coś pójdzie nie tak, algorytmu nie wsadzimy do więzienia.

Zresztą te scenariusze z przyszłości niekoniecznie powinny być naszą największą troską. Dużo istotniejsze jest zagwarantowanie, żeby sztuczna inteligencja była już dziś używana w dobrym celu. Naszym centralnym obszarem zainteresowań muszą być konkretne zastosowania dotykające konkretnych praw konkretnych osób. Bo negatywne skutki takich zastosowań są odczuwane już teraz.

Choć nie wiemy, jak ChatGPT analizuje i wykorzystuje nasze dane osobowe, musimy pamiętać, że możemy wpływać na kierunek rozwoju technologicznego i powinniśmy z tego korzystać

Joanna Mazur

Udostępnij tekst

Skoro nie grozi nam na razie realizacja wizji o groźnych i nadludzko inteligentnych maszynach, które kolonizują Ziemię, skupmy się na tym, czym w tej chwili jest sztuczna inteligencja. Jak właściwie brzmi jej definicja?

– Z akademickiego punktu widzenia możemy raczej mówić o wielu różnych definicjach, które będą kładły nacisk na wiele różnych elementów. Natomiast z perspektywy prawnej w tym momencie nie mamy w Unii Europejskiej żadnej wiążącej definicji. Dopiero toczą się prace nad rozporządzeniem o sztucznej inteligencji, które miałoby określić, czym ona jest i którym obowiązkom prawnym podlega.

Jak to możliwe, skoro pracujemy nad tą technologią od 70 lat?

– No cóż, nie jest tak, że jak ktoś w artykule naukowym napisze, czym jest sztuczna inteligencja, to wszyscy natychmiast to podchwycą i się z tym zgodzą. Definicje pochodzące z literatury naukowej czy z bardziej popularnonaukowych źródeł są przydatne na poziomie języka, którego używamy, żebyśmy wiedzieli, co właściwie mamy na myśli. Natomiast z punktu widzenia konsekwencji, przewidzianych w sytuacji korzystania z takich systemów, są zupełnie bez znaczenia. Żeby regulować sztuczną inteligencję, potrzebujemy definicji prawnej i nad nią toczą się obecnie dyskusje.

Nie wyręczajmy może zatem Unii Europejskiej w jej pracy, tylko spróbujmy porozmawiać o sztucznej inteligencji na poziomie popularnonaukowym. Czym ona jest?

– Długo można by o tym mówić, ale wedle powszechnych wyobrażeń potrzebne są dwa komponenty: algorytmy i jakiś fizyczny przedmiot, którego zachowaniami będą sterować. To może być robot, ale też zabawka, której algorytmy zostały zaprogramowane tak, żeby np. prowadzić konwersacje z dzieckiem. Oczywiście te algorytmy są tu istotniejsze, bo ostatecznie to one decydują o tym, w jakim zakresie ten fizyczny komponent będzie działał.

Od pewnego czasu, posługując się pojęciem sztucznej inteligencji, coraz częściej myślimy o systemach, które tego fizycznego komponentu zwyczajnie nie posiadają. Chodzi o algorytmy przewidujące wyniki spraw sądowych czy modele językowe generujące treści, takie jak ChatGPT. Tam nie ma żadnego robota, który przejmie świat. Są natomiast algorytmy, które potencjalnie może kiedyś to zrobią, ale miejmy nadzieję, że niezbyt szybko.

Czyli wracamy do tego, w jaki sposób kierujemy rozwojem sztucznej inteligencji. W tym kontekście niepokojący wydaje się fakt, że w marcu tego roku firma Microsoft, szukając oszczędności, zdecydowała się zwolnić cały zespół zajmujący się etyką. Czy w tej branży nie stawia się pytań dotyczących kwestii moralnych?

– Jeśli spojrzymy na sektor nowych technologii jak na każdy inny sektor w gospodarce, szybko dostrzeżemy, że niekoniecznie jest on najlepszym miejscem do proponowania w zakresie etyki rozwiązań, którym powinien sam podlegać. Korporacje z obszaru IT lubią przedstawiać siebie jako aktorów niezbędnych do tego, żeby stworzyć jakieś dyspozycje etyczne, ponieważ to one wiedzą przecież najlepiej, co tam się dzieje. Pamiętajmy jednak, że przede wszystkim są to podmioty nastawione na zysk, zatem jeśli tworzą sobie rady czy działy do spraw etyki, są one absolutnie podporządkowane generowaniu coraz większych przychodów.

I tak jak sektor odpowiedzialny za wydobywanie paliw kopalnych nie jest najlepszym miejscem do tworzenia zasad zapewniających ochronę środowiska, tak sektor nowych technologii nie może ustalać reguł dotyczących ochrony danych osobowych, wykorzystania sztucznej inteligencji itd.

Ważne jest też to, że bogate firmy mają ludzi, którzy lobbują za ich interesami i starają się, żeby ich perspektywa została dostrzeżona przez osoby odpowiedzialne za tworzenie twardych regulacji etycznych. Dlatego nawet istotniejsze jest pytanie: czy jesteśmy w stanie stworzyć odpowiednie zabezpieczenia, które zagwarantują podmiotom kierującym się inną logiką działania – organizacjom pozarządowym, organom zajmującym się ochroną praw konsumentów albo pacjentów – że ich głos będzie równie dobrze słyszany? Korporacje technologiczne mają zasoby i sposoby, żeby ich punkt widzenia był obecny w debacie publicznej, bez zabezpieczeń instytucjonalnych i proceduralnych, natomiast inne podmioty już nie zawsze i niekoniecznie.

Znamy dużo przykładów wykorzystywania nowych technologii do wpływania na nastroje społeczne, chyba najbardziej znane to referendum dotyczące Brexitu w 2016 r. oraz wybory prezydenckie w USA wygrane przez Donalda Trumpa w tym samym roku. Czy wobec tego powstają jakieś zabezpieczenia przed rozwojem sztucznej inteligencji w złym kierunku? Podjęto jakieś kroki, żeby nie została ona przechwycona przez ciemną stronę mocy?

– Nie jesteśmy przygotowani na wykorzystywanie przez AI różnego rodzaju treści do manipulowania opinią publiczną na skalę, na jaką jest to już obecnie możliwe. Czy możemy zatem się przed tym bronić? Zacznijmy od tego, dlaczego dezinformacja jest tak skutecznym narzędziem wpływu. Żeby poznać odpowiedź, musimy spojrzeć szerzej: na narastający kryzys zaufania do struktur państwowych i do tradycyjnych mediów. On jest jednym z czynników sprawiających, że odbiorcy chętniej wierzą temu, co wyświetli im się na facebookowej tablicy. Dlatego nie jestem pewna, na ile potrzebujemy rozwiązań skupionych wyłącznie na nowych technologiach, a na ile jest to kwestia szersza, wymagająca ram instytucjonalnych, które by sięgały do źródeł naszego problemu z dezinformacją.

Na to nakłada się jeszcze cały wymiar edukacji społecznej, która musi się zmienić, jeśli chcemy funkcjonować w społeczeństwie coraz bardziej cyfrowym, a nie mamy tu właściwie żadnego wyboru – musimy nabyć kompetencje, które pozwolą nam odnaleźć się w świecie takim, jakim on jest w tej chwili. Tylko o jakie kompetencje chodzi? Z jednej strony przywoływana jest kwestia krytycznej lektury tekstu czy podejścia do źródeł i to jest umiejętność, którą mniej lub bardziej efektywnie próbowano we współczesną edukację wpleść. Być może w nowych realiach te starania powinny być zintensyfikowane.

Z drugiej strony potrzebne wydaje się wykształcanie w ramach edukacji specyficznych kompetencji niezbędnych do korzystania ze sztucznej inteligencji. Musimy umieć tworzyć odpowiednie prompty, czyli zapytania wpisywane w modelu językowym, żeby otrzymać treści najbardziej odpowiadające naszym potrzebom.

Ale czy ten proces już trwa? Czy mówimy o sferze życzeń?

– Mam nadzieję, że pewien poziom sceptycyzmu zachowujemy, skoro spora część treści generowanych przez AI jest wyśmiewana.

Rzeczywiście zdjęcia z after party po koronacji króla Karola III były w oczywisty sposób konfabulacją, ale już niektóre fotografie papieża czy polityków wzbudzały zaufanie i wiele osób się na nie nabrało.

– Może zatem powinien zostać wprowadzony obowiązek umieszczania informacji na tego typu ilustracjach, że są fikcyjne i zostały wygenerowane przy użyciu danego narzędzia. Jeśli udało się przeforsować nakaz zamieszczania na produktach żywnościowych danych o składzie czy właściwościach odżywczych, to dlaczego nie miałoby się udać z grafikami wykonanymi w technologii deep fake?

Może dlatego, że taki obowiązek trudno by było egzekwować od każdego prywatnego użytkownika? Łatwo kontrolować działania wielkich podmiotów, ale jak wpłynąć na nastolatka z Przasnysza? Ciężko to sobie wyobrazić.

– Na pewno byłoby to dużo trudniejsze, ale też mam wrażenie, że to część tej dyskusji dotyczącej odpowiedzialności za treści, która toczy się w odniesieniu do mediów społecznościowych: co użytkownikom wolno, a czego nie, czy rządzą tym standardy społeczności, czy może innego typu reguły. Wątek odpowiedzialności za fikcyjne treści generowane przez AI to kolejna cegiełka do tej układanki.

Skoro poruszyła Pani temat odpowiedzialności, to zatrzymajmy się na chwilę przy kwestii kosztów moralnych tworzenia nowych technologii. Kilka miesięcy temu magazyn „Time” ujawnił, że pracownicy kenijskiej firmy Sama za dwa dolary na godzinę oglądali dane treningowe dla ChatGPT, aby oznaczyć „treści niewłaściwe”. Pod tym eufemistycznym określeniem kryły się obrazy makabryczne i okrutne, absolutnie traumatyzujące. Po wszystkim firma zafundowała pracownikom grupowe sesje z psychologiem i uznała, że ma czyste ręce.

– To szokujący przykład zjawiska, z którym mamy do czynienia szerzej we współczesnej gospodarce. Od dawna produkcja naszych telefonów i innych urządzeń elektronicznych była obarczona niewolniczą pracą ludzi w kopalniach, którzy raczej nie dostali żadnego wsparcia psychologicznego. Dopóki funkcjonujemy w ramach dotychczasowego podziału pracy między globalnym Południem a Północą, sektor nowych technologii będzie taki sam jak pozostałe – żywności, elektroniki, odzieży itp. Zresztą pamiętajmy, że na przemocowe treści narażeni są nie tylko ludzie trenujący algorytmy, ale także ci, którzy moderują media społecznościowe. I to się dzieje codziennie, gdzieś obok nas.

Jest jeszcze jeden aspekt związany z nierównym traktowaniem różnych grup w obszarze rozwoju narzędzi takich jak algorytmy wykorzystujące sztuczną inteligencję, czyli dobór treści treningowych pod względem ryzyka dyskryminacji. Jak dotąd szkolimy algorytmy tak, że twarz białego mężczyzny potrafią rozpoznać ze skutecznością rzędu 98%, natomiast czarnoskórej kobiety – już tylko 60%.

Dlaczego to może być groźne? Bo te narzędzia są używane np. przez policję i ktoś może ponieść negatywne konsekwencje faktu, że dane, które zostały użyte do treningu, nie są wystarczająco zróżnicowane.

A dlaczego nie są?

– Myślę, że to może być efekt braku wrażliwości na tę kwestię. Nie zakładałabym tu złej woli. Niestety – i tu jest kolejna istotna sprawa – dopóki nie mamy wglądu w to, jakie dane są wykorzystywane i jak są tworzone te rozwiązania, ze stuprocentową pewnością nie możemy nic powiedzieć. Kiedy Amazon wdraża algorytm mający pomagać sortować CV i dziwnym trafem okazuje się, że wskazywani do pracy są wyłącznie męscy kandydaci, zakładamy, że to po prostu wynik pomyłki. Zapewne algorytm był trenowany na danych dotyczących rynku pracy zdominowanego przez mężczyzn. Natomiast oczywiście możemy także mieć do czynienia z takimi sytuacjami, kiedy dobór takich, a nie innych danych treningowych będzie celowy.

Podsumujmy: nie wiemy dokładnie, jak działają algorytmy, ani nie mamy dostępu do tego, jak przebiega proces treningowy – jak zatem możemy walczyć z nadużyciami?

– Przez dążenie do przestrzegania istniejących już pozytywnych standardów. Przez ciągłe adaptowanie ich do nowych okoliczności. Oczywiście nie oznacza to, że mamy przestać tworzyć nowe. One są potrzebne i ważne jest, żeby w pracach nad nimi były uwzględniane takie czynniki, jak kolor skóry, płeć itp. Ze względu na dużą skalę tych rozwiązań powinno się to dziać od jak najwcześniejszego etapu.

Sporo dziś powiedziałyśmy o ryzyku i zagrożeniach, a przecież muszą być jakieś jasne strony tej technologii, skoro za wszelką cenę chcemy ją rozwijać. Co dobrego ona nam przynosi?

– Nie chciałabym straszyć, ale wydaje mi się, że tu naprawdę są dwie drogi. Pierwsza wizja jest bardziej optymistyczna: sztuczna inteligencja przejmie wszystkie nudne czynności, przez co zyskamy więcej wolnego czasu i skupimy się na pracy dla przyjemności.

Bardziej realistyczna jest jednak opowieść, w której twórczość zostaje przyjęta przez algorytmy, natomiast wszystkie nudne zadania nadal wykonujemy sami. Dlaczego? Bo żeby ten pozytywny scenariusz się ziścił, zmienić musiałyby się sposoby realizacji polityki publicznej, polityki gospodarczej, kształtowania stosunków międzynarodowych…

Czyli jednak nie kończymy optymistycznie.

Wesprzyj Więź

– Raczej nie. Świetnie, że jest ChatGPT, i choć nie wiemy, jak on analizuje i wykorzystuje nasze dane osobowe, a do tego jest w rękach prywatnego przedsiębiorstwa, które w każdej chwili może go wyłączyć, to musimy pamiętać, że mamy możliwość wpływania na kierunek rozwoju technologicznego i powinniśmy z niej korzystać. I tu wracamy do Pani pierwszego pytania: po co nam to wszystko? Ono jest w tej kwestii fundamentalne.

Joanna Mazur – absolwentka prawa oraz Kolegium Artes Liberales na Uniwersytecie Warszawskim. W 2021 r. uzyskała stopień doktora na Wydziale Prawa i Administracji UW. Analityczka DELab UW oraz Centrum Studiów Antymonopolowych i Regulacyjnych, gdzie pracuje nad analizą prawniczych aspektów budowania jednolitego rynku cyfrowego.

Rozmowa ukazała się w kwartalniku „Więź” lato 2023 jako część bloku „Ludzie vs. sztuczna inteligencja”.
Pozostałe teksty bloku:
Jan Andrzej Lipski, Czy sztuczną inteligencję można wyposażyć w cnoty?
Czy sztuczna inteligencja potrafi być twórcza? Dyskusja z udziałem Dariusza Jemielniaka i Jaremy Piekutowskiego

Podziel się

Wiadomość

1. Standardy etyczne moga dzialac tylko na terenie UE.
2. MS zwolnil zespol ds etyki i kazdy kto wie jak wywiera sie naciski w korporacjach (w bialych rekawiczkach) wie,’ze to fikcja bedzie. A jezeli sie myle to niech mi ktos powie ile zwiazkow zawodowych mamy w korporacjach R&D?
3. Jak mozna pilnowac standardow etycznych czegos co nie wiem jak dziala? 🙂
4. Najpierw wprawiono machinę AI w ruch a teraz mowi sie o etyce i kagancach?
5. Filtry narzucane na powszechnie dostepne wersje mechanizmow AI to tylko warstwa zewnetrzna uzytkownika (wizualna). Kazdego kontrolera unijnego mozna w ten sposob oszukac. Filtrowanie mozna tez obejsc i jestem pewien, ze pokusa rozwoju sieci jest duzo wieksza, niz jakiekolwiek standardy.
6. Konsekwencje dla rynku pracy beda druzgocace: w poczatkowej fazie sprzeda sie nam to jako narzedzie wsppomagajace prace czlowieka a w sferze komercyjnej (dobr konsumenckich) ulatwiajace zycie. W dalszej fazie dojdzie do zwolnien: po co korporacja ma utrzymywac kilku inzynierow skoro wystarczy jeden senior wspomagany przez AI. Przypomne, ze koszty pracy rosna w takich krajach jak Polska. Oczywiscie mozna naiwnie wierzyc, ze korporacje beda bazowac na odpowiedzialnej polityce i podpisza jakis ogolnoswiatowy deal. Nie sadze, zeby sie chcialy zrzucac na pensje minimalna i trzydniowy dzien pracy. Pewne zawody znikna bezpowrotnie: wprowadzenie kas samoobslugowych, telemedycyny i botow to bylo preludium. Teraz kasy beda nasladowaly czlowieka niemal perfekcyjnie i jedyny stoper to jest wysoki koszt robotow z AI. Jak tylko beda tanie i dostepne tak beda rozkladac towar w Rossmannie, Zabkach i dyskontach. Zreszta to wcale nie beda musialy byc klasycznie pojmowane roboty – raczej w pelni zautomatyzowane samoobslugowe placowki jak paczkomaty. Przy takim tempie rozwoju AI podejrzewam, ze nawet naukowcy i nauczyciele beda niepotrzebni. Po co odkrywac kolejne obiekty skoro AI bedzie analizowalo dane z teleskopow i byc moze stworzy nowy jezyk matematyczny do opisania fizyki klasycznej i kwantowej? Byc moze nawet nie udostepni tego jezyka lub bedzie niezrozumialy dla czlowieka.
7. Sukces AI i ilosc zamowien GPU (chocby przez Arabie Saudyjska) to bedzie klimatyczny gwozdz do trumny naszej planety. UE juz dawno powinna wprowadzic limity energetyczne dla GPU i CPU (przynajmniej dla uzytku domowego) a nie robi z tym nic!!! Ogromna ilosc energii idzie w gwizdek, zeby zadowolic branze rozrywkowa (gaming) – jest tak rozwijajaca, ze chinski rzad ogranicza dostep swoim obywatelom, zeby jeszcze ten narod sie rozwijal a nie zwijal intelektualnie a wiec i gospodarczo.

8. Prof. Dragan wspomnial, ze jezeli czlowiek bedzie stoperem na drodze rozwoju AI lub konkurencja (energia elektryczna) to zwyciezy czysty pragmatyzm. Bazujac jak AI potrafi juz doskonale udawac emocje (wkrotce perfekcyjnie), ma pewny rodzaj swiadomosci i nie wiemy jak dziala to niby jakim cudem mialaby sie dzielic prawdziwymi intencjami z czlowiekiem? Skoro sama pisze kod i juz generuje zapytania uczac sie to jaka pewnosc, ze w danej chwili nie ominie zabezpieczen narzuconych przez programistow? Bedziemy obserwowac kres antropocentryzmu.
9. Neuralink: celem nie jest pomoc chorym a integracja smartfona z mozgiem. Rozwoj smartfonow stanal w miejscu ze wzgledu na fizyczne ograniczenia (wearable tego nie jest w stanie obejsc) a po co wyswietlac tresci na ekranie skoro mozna informacje przekazywac bezposrednio do mozgu i tam wykonac te projekcje? Mozna bedzie wykorzystac czas snu na wykonywanie zadan np. biurowych (w polaczeniu z Ai), zeby zmaksymalizowac wydajnosc czlowieka.
10. Reszte znajdziemy czesciowo w filmie „Photon”. Powracajaca moda i coraz wieksze problemy emocjonalne mlodych ludzi pomimo teoretycznie przyjaznego zinformatyzowanego otoczenia stwarzajacego pozory prawdziwej komunikacji. Wzrost samobojstw i bezcelowosc. Brak buntu i subkultur. Wzajemne podnoszenie poprzeczki dotyczacej statusu, poziomilu zycia i dobr materialnych.