Tekst literacki trzeba traktować holistycznie. Translator oparty na AI jeszcze tego nie potrafi. Gubi układ odniesienia. Ten wiąże się bowiem ze stylem danego autora, charakterystycznym dla różnych jego tekstów, jego epoki czy gatunku utworu.
8 października 2024 r. ogłoszono, że Nagrodę Nobla z fizyki otrzymują John J. Hopfield i Geoffrey E. Hinton za „fundamentalne odkrycia i wynalazki, umożliwiające uczenie maszynowe za pomocą sztucznych sieci neuronowych”. Co to w istocie znaczy? Umożliwienie uczenia maszynowego pozwoliło stworzyć duże modele językowe, na których oparte są m.in. narzędzia takie jak, najpopularniejszy chyba, ChatGPT. Czy postępy w rozwoju sztucznej inteligencji sprawią, że w niedalekiej przyszłości zawód tłumacza zniknie?
Marzenie stare jak biblijna opowieść
Jako ludzie odczuwamy pewną satysfakcję, kiedy jeden z popularnych tłumaczy internetowych poda nam absurdalny przekład jakiegoś wyrazu czy zwrotu. Daje to (złudne) poczucie bezpieczeństwa. Jednak nie zauważamy, że dzieje się to zwykle, gdy translator tłumaczy nazwy własne lub słowa z języka, w którym jest słabiej „wytrenowany”, czyli po prostu, do którego nauki dysponował mniejszą ilością materiału. Takie sytuacje zdarzają się zresztą dziś coraz rzadziej, a internetowe translatory używane są do tłumaczenia choćby zawodowej korespondencji czy tekstów naukowych.
Jakie tworzy to – nie tylko dla zawodu tłumacza – szanse i zagrożenia?
Marzenie człowieka, by móc porozumieć się z każdym, bez względu na dzielące nas różnice językowe, jest stare jak biblijna opowieść z 11 rozdziału Księgi Rodzaju. Komentatorzy na różne sposoby tłumaczą tę historię: jako ostrzeżenie przed ludzką pychą czy dążeniem do osiągania celów ponad człowieczą miarę – bez Boga. Jak mówi wówczas Stwórca: „A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić. Zejdźmy więc i pomieszajmy tam ich język, aby jeden nie rozumiał drugiego!” (Rdz 11,6b–7, za Biblią Tysiąclecia).
Co ciekawe, podobne oczekiwanie osiągnięcia przez człowieka wszechmocy wielu wiąże ze sztuczną inteligencją. Interesującym nas tutaj elementem owej omnipotencji jest właśnie możliwość porozumienia: wszędzie i z każdym. Reklama jednego z takich systemów opartych na AI pokazuje wysiadającego na azjatyckim lotnisku wczasowicza (dystans językowo-kulturowy symbolizuje tu zatem dystans Europa/USA–Azja), któremu tylko chwilę zajmuje zamówienie przewozu u miejscowego taksówkarza – telefon sam tłumaczy ich rozmowę.
Szybkość (tłumaczenie w czasie rzeczywistym) i łatwość (wystarczy mówić we własnym języku) tego rozwiązania jest zapewne zadziwiająca; jeszcze kilkadziesiąt lat temu uchodziłoby to za magiczną sztuczkę. Należy jednak wziąć pod uwagę, że z reklamy nie dowiemy się ani między jakimi językami może zachodzić tłumaczenie (nie sądzę, aby wspomniany system mógł w ten sposób dokonywać tłumaczenia między wszystkimi językami świata), ani jak narzędzie radzi sobie z bardziej skomplikowanymi komunikatami niż zamawianie taksówki. Jak zatem działają obecnie używane systemy tłumaczeniowe oparte na sztucznej inteligencji? Co jest ich zaletą, a co wadą?
Zacznijmy od wspomnianych na początku modeli neuronowych. To uczące się na wielkich zbiorach danych (tekstów) systemy tłumaczenia. Opierają się one właśnie na sieciach neuronowych, czyli stworzonych do przetwarzania informacji systemach wzorowanych na funkcjonowaniu systemów nerwowych istot żywych. Oczekiwania wobec nich są bardzo duże: tłumaczenie w czasie rzeczywistym, ale też na przykład odszyfrowanie starożytnych martwych języków.
Działa tu m.in. mechanizm „sekwencja do sekwencji”, polegający na przetwarzaniu tłumaczonego tekstu nie słowo po słowie, lecz jako większej całości (sekwencji-zdania) w języku wyjściowym tłumaczonej na sekwencję w języku docelowym; takie tłumaczenie kontekstowe może odnosić się także do całych akapitów. Kolejnym jest mechanizm uwagi – czyli przypisywanie wyrazom w zdaniu różnych poziomów ważności, tak jak robi to człowiek. Również podobnie jak człowiek sztuczna inteligencja korzysta ze słowników i korpusów językowych – wyobraźmy sobie jednak, że nie musielibyśmy sięgać po nie i sprawdzać słów oraz zwrotów, ale – jak AI – mieli je zawsze „na wyciągniecie ręki” czy po prostu… w pamięci. Współczesne systemy sprawiają, że takie, często wysokospecjalistyczne, materiały są również dla tłumacza w zasięgu jednego kliknięcia.
Należy jednak pamiętać, że sztuczna inteligencja sama ich nie wygenerowała, ale czerpie z zasobów stworzonych przez człowieka: słowników, tłumaczeń czy tekstów, którymi „karmimy” ją na co dzień. – Większość ludzi nie zdaje sobie sprawy z faktu, że do „wytrenowania” modeli tłumaczeniowych AI niezbędne są ogromne ilości wysokojakościowych tłumaczeń dokonanych przez ludzi – mówi mi dr Matthew Riemland z Katedry Anglistyki Uniwersytetu SWPS.
Tłumaczenia maszynowe wyeliminują tylko tych tłumaczy, którzy tłumaczą jak maszyny. Ludzie będą koncentrować się na zadaniach wymagających inteligencji
Katarzyna Jaworska
Udostępnij tekst
W dziedzinie tłumaczeń AI nie wymyśliła niczego sama: po prostu przyswoiła bardzo dużą liczbę tekstów autorstwa człowieka – często więcej, niż mógłby to uczynić on sam. Dodatkowo, dokonując dla nas tłumaczeń, AI na bieżąco uczy się, które z zaproponowanych przez nią wariantów zaakceptujemy, a które odrzucimy – służy to jej na przykład do lepszego rozumienia kontekstu użycia danego synonimu czy frazy.
Wynika z tego, że należy zwracać uwagę, czy wyrażamy zgodę na to, jak i na jakich zasadach AI korzysta z naszych danych. A inne zagrożenia? Te podstawowe widzimy już w świecie mediów i polityki. Tak jak można na podstawie starych nagrań przeprowadzić „wywiad” audio z nieżyjącą od ponad dwunastu lat Wisławą Szymborską, tak można również czyjś głos „przetłumaczyć na inny język”, manipulując zarówno formą (na przykład kazać politykowi niewładającemu tym językiem mówić po rosyjsku czy niemiecku), jak i treścią – włożyć mu w usta właściwie dowolne słowa.
Również nieintencjonalnie błędne tłumaczenia, np. w kontekście politycznym czy medialnym, mogą wywołać niemały zamęt. Pozostaje pytanie, kto za nie odpowie, bo sami twórcy narzędzia często nie są skłonni wziąć za nie odpowiedzialności. Tymczasem sianie dezinformacji może się wydarzyć i bez świadomego udziału użytkownika. Dzieje się tak na przykład, gdy nie zweryfikujemy automatycznego tłumaczenia, które może zwyczajnie zawierać błędy, zwłaszcza gdy dotyczy języków, w których AI jest mniej wytrenowana, lub gdy tłumaczy – nawet w przypadku języków „globalnych” – idiomy, nazwy własne czy skrótowce.
Dr Riemland mówi: – Ogólny odbiór jest taki, że korzystanie z technologii przyspiesza proces tłumaczenia, ale badania pokazują, że nie zawsze tak jest. Na przykład, jeśli jakość tłumaczenia wygenerowanego przez model AI jest bardzo słaba – co często ma miejsce, gdy używamy sztucznej inteligencji do tłumaczenia skomplikowanych tekstów, lub w przypadku stosunkowo rzadkich języków – postedycja wyników tłumaczenia maszynowego może zająć więcej czasu niż zwykłe przetłumaczenie oryginalnego tekstu od podstaw.
A w czasach nieustającego pędu nie każdy ma czas – lub cierpliwość – na żmudną korektę tłumaczenia wykonanego przez maszynę.
Oczywiste jest, że tłumacze korzystają dziś z narzędzi elektronicznych – zapewne niewielu opiera się wyłącznie na własnych siłach albo korzysta tylko z opasłych tomów papierowych słowników. Ostatecznie wśród uregulowanych branżową normą ISO 17 100 kompetencji tłumacza znajdują się również umiejętności techniczne.
Kolejną kompetencją staje się właśnie wspomniana postedycja, czyli poprawianie tekstu przetłumaczonego przez maszynę. A nie jest to wcale tak łatwe, jak mogłoby się wydawać. Zdaniem prof. Łucji Biel z Instytutu Lingwistyki Stosowanej UW, identyfikowanie błędów w takich tłumaczeniach może być paradoksalnie trudniejsze ze względu na ich… płynność1. Czytając szybko tekst, który jest (przynajmniej w miarę) poprawnie napisany, możemy nie zauważyć, że maszyna coś dodała, zmieniła lub opuściła – na przykład tak ważne dla sensu zdania „nie”.
Przypomina to nieco sytuację z generowanymi przez AI ilustracjami: choć „błędy” generatora są niewielkie, na razie dają się zauważyć mimo spójności całego rysunku (jak na przykład niestandardowa liczba palców rąk u narysowanego człowieka), a ludzkie oko zwykle jest jeszcze w stanie odróżnić dzieło artysty od pracy maszyny. Ale prawdopodobnie z czasem AI będzie popełniała coraz mniej błędów, a co za tym idzie – odróżnienie jej prac od działalności człowieka będzie coraz trudniejsze.
Prof. Biel dodaje, że „postedycja różni się od zwykłej weryfikacji tłumaczenia, gdyż maszyna popełnia inny typ błędów niż człowiek”2. Wspomniane już dosłowne przetłumaczenie nazw własnych czy błędne odtworzenie skrótowców, dodanie jakiegoś elementu (bo był on w innych podobnych tekstach, które „pamięta” translator) czy niedostosowanie stylu do tłumaczonej treści nadal dość często przydarzają się AI. Doświadczony tłumacz raczej nie popełniłby takich pomyłek przypadkowo – musiałby chcieć celowo zmienić sens oryginału lub, co może wychodzi na jedno, zabawić się nim.
Holistyczne podejście do tekstu
Skoro mowa o zabawie i twórczym podejściu do tekstu, można zadać pytanie o kolejny, bardziej skomplikowany „stopień zaawansowania” tłumaczenia: przekład literacki. A może przejście od tłumaczenia do tłumaczenia literackiego to nie wyższy poziom, ale zupełnie inna jakość? Nie rozstrzygając tego pytania, zastanówmy się nad możliwościami i ograniczeniami AI w tym zakresie.
Na podstawowe utrudnienie natrafimy już na początku: w darmowych translatorach czy czatach (także w podstawowej wersji ChataGPT) nie przetłumaczymy w całości dłuższego tekstu literackiego po prostu dlatego, że ma on zbyt wiele znaków. W przypadku ChataGPT możemy dowiedzieć się od niego samego, że potrafi przetłumaczyć tekst o długości mniej więcej 200–300 znaków – choć w praktyce, jeśli mu to zadamy, przekłada teksty dłuższe, nawet do mniej więcej długości jednego rozdziału Olivera Twista Dickensa (którego na marginesie przekłada całkiem nieźle). Z kolei limit tłumaczenia Google Translate wynosi jednorazowo 5000 znaków. ChatGPT 3.5 jest w stanie jednorazowo obsłużyć około 4069 tokenów (jednostka miary tekstu w modelu). Natomiast GPT-4 Turbo – aż 128 tysięcy.
Ograniczenia te wiążą się prawdopodobnie z generowanym przez długie teksty obciążeniem czata. Zatem osoba prywatna, pojedynczy czytelnik, sama sobie całej książki na raz za pośrednictwem narzędzi internetowych nie przetłumaczy; może tylko próbować fragmentami.
Tymczasem tekst trzeba traktować holistycznie, a translator (jeszcze) tego nie potrafi. Gubi – jak mówi Jacek Dukaj w wywiadzie Patrycjusza Wyżgi – frame of reference, układ odniesienia3. A ten wiąże się nie tylko ze znaczeniem poszczególnej sekwencji-zdania, lecz także akapitu, rozdziału czy całego tekstu. A szerzej: ze stylem danego autora, charakterystycznym dla różnych jego tekstów, jego epoki czy gatunku utworu, który tworzy. W publikowanej obok rozmowie wybitna tłumaczka Małgorzata Łukasiewicz zaznacza, że w przekładzie literackim zawsze przekłada się autora, a nie język. Trzeba zatem rozpoznać elementy, które składają się na niepowtarzalność danego autora bądź autorki.
ChatGPT wciąż nie potrafi traktować tekstu holistycznie. Nie łączy również poszczególnych utworów w jedną całość.
Zadaję mu przetłumaczenie fragmentów powieści Dickensa: Olivera Twista i Magazynu osobliwości. AI szybko wyrzuca z siebie kilkanaście akapitów jednej i drugiej książki, trudno jednak rozpoznać, że teksty te zostały kiedyś stworzone przez tego samego autora. Kiedy natomiast wydaję polecenie „A teraz przetłumacz te dwa fragmenty tak, żeby miały podobny styl, bo napisał je ten sam autor”, czat jedynie pogarsza przekład – staje się on jeszcze bardziej techniczny.
Prof. Biel komentuje to tak:
Tłumaczenia maszynowe polegają w gruncie rzeczy na ponownym wykorzystaniu za pomocą algorytmów istniejących tłumaczeń wykonanych przez człowieka. Maszyna zatem nie myśli i nie rozumie tego, co tłumaczy. Dobrze radzi sobie z przewidywalnymi, kontrolowanymi i rutynowymi treściami […]; natomiast gorzej z treściami kreatywnymi i nieszablonowymi. […] Ponadto, a może przede wszystkim, maszyny wciąż nie są w stanie w adekwatnym stopniu uwzględniać kontekstu. Przewaga tłumacza-człowieka polega na holistycznym przetwarzaniu tekstu z uwzględnieniem szerokiego kontekstu: kompetentny tłumacz „widzi” tekst jako całość, rozumie jego kontekst użycia, dostosowuje tekst do odbiorcy i ocenia konsekwencje (wizerunkowe, ideologiczne, finansowe czy prawne) poszczególnych wyborów tłumaczeniowych4.
Czy tłumaczenia maszynowe wyeliminują tłumaczy?
Pewną odmianę kontekstowych problemów ChataGPT – ale też szerzej, jego „nieludzkości” – można dostrzec, kiedy poprosimy o przetłumaczenie fragmentu Lalki Prusa z polskiego na angielski i z powrotem. O ile pierwszą część tego zadania czat wykonuje poprawnie (rozumie nawet, że znajdujące się w wybranym przeze mnie fragmencie słowo „toaleta” znaczy w XIX-wiecznej polszczyźnie Prusa strój, a nie ubikację), o tyle, gdy proszę go o przetłumaczenie dzieła ponownie na polski – tłumaczy, a nie powtarza wprost wyjściowy tekst Prusa. Toaleta traci swoje archaiczne nacechowanie i staje się właśnie współczesnym strojem, w jednym miejscu liczba pojedyncza staje się mnogą („ludzka ręka” – „ludzkimi rękami”), zmienia się również szyk.
Czat nie rozumie zabawy, w którą próbuję go wciągnąć. Ale jednocześnie „jest świadomy” tych swoich barier. Twierdzi sam o sobie: „Mam kilka ograniczeń, takich jak brak zdolności do odczuwania emocji, zrozumienia kontekstu w taki sam sposób jak ludzie oraz brak dostępu do informacji w czasie rzeczywistym. Chociaż technologia się rozwija, pewne aspekty ludzkiego doświadczenia, jak intuicja czy empatia, mogą być trudne do odwzorowania. Zawsze będzie coś unikalnego w ludzkiej interakcji”5.
Zbieżne z jego „refleksją” są rachuby dr. Riemlanda: – Bardzo wątpię, że kiedykolwiek nadejdzie czas, gdy tłumaczenia literackie będą tworzone całkowicie przez modele AI, bez żadnego udziału człowieka. Nie sądzę, że wydawcy będą skłonni publikować literaturę przetłumaczoną przez AI, jeśli ktoś wcześniej nie przeprowadzi jej korekty, dokonując krytycznego ludzkiego osądu w odniesieniu do subiektywnych elementów, które sprawiają, że dobra literatura jest tak atrakcyjna dla czytelników – stylu, niuansów, językowej i artystycznej kreatywności itp. Bez względu na to, co twierdzą marketingowcy AI, oparte na niej narzędzia nigdy nie zastąpią wysokiej próby artyzmu oraz literackiego wyczucia pisarzy i czytelników.
Identyfikowanie błędów w tłumaczeniach AI może być trudniejsze ze względu na ich… płynność. Czytając szybko tekst poprawnie napisany, możemy nie zauważyć, że maszyna coś dodała, zmieniła lub opuściła
Katarzyna Jaworska
Udostępnij tekst
Jaka zatem będzie przyszłość tłumaczeń literackich? Bardzo wiele zależy od odpowiedzialności wydawnictw i oczekiwań odbiorców. Jeśli okaże się, że różnice w tłumaczeniu profesjonalnym i maszynowym będą niezauważalne albo/i znajdą się czytelnicy, którzy kupią książki tłumaczone przez AI – czy to z ciekawości, czy dlatego, że będą tańsze – ta gałąź biznesu będzie się rozwijać. Na początku będzie zapewne poznawczy szok i internetowe gorączki, jak ta związana z zastąpieniem w OFF Radiu Kraków dziennikarzy postaciami wirtualnych redaktorów, wygenerowanymi przez AI. Później jednak maszynowych „tłumaczy” zaczną do tłumaczenia literatury „zatrudniać” kolejne oficyny, poruszenie będzie powoli cichnąć, a odbiorcy przyzwyczają się do sytuacji.
Gorzej, jeśli czytelników o zdanie nikt nawet nie zapyta: tłumacze po prostu zostaną zwolnieni, a uzyskane w ten sposób oszczędności wezmą do kieszeni monopoliści rynku wydawniczego. Jak z ludzkim głosem googlowskiej nawigacji: żałuję, że zniknął, ale jako pojedynczy użytkownik nie mam żadnego wpływu na decyzję korporacji o zastąpieniu go wygenerowanym przez AI botem.
Powraca tu również problem odpowiedzialności tłumacza. Łucja Biel analizuje: – Jeżeli klient oczekuje wysokiej jakości, a tłumaczenia powiązane są z wysokim stopniem ryzyka (np. prawnicze, finansowe, medyczne), to aktualnie jakość surowych tłumaczeń maszynowych nie jest adekwatna. W przypadku tłumaczeń poświadczonych konieczny jest udział człowieka-tłumacza, który weźmie odpowiedzialność za jakość i adekwatność tłumaczenia. Zagrożeniem dla mnie jest nadmierne zaufanie użytkowników do jakości surowych tłumaczeń maszynowych i pokusa korzystania z nich w kontekstach, w których powinni być angażowani profesjonalni tłumacze (czy postedytorzy). Dobrze byłoby, aby treści skierowane np. do konsumentów i opracowane przez AI bez udziału człowieka były stosownie oznaczane – proponuje profesorka Instytutu Lingwistyki Stosowanej UW.
Instytucje unijne zwróciły zresztą na ten ostatni problem uwagę już w 2021 r., co zaowocowało stworzeniem obowiązującego od 1 sierpnia 2024 r. aktu w sprawie sztucznej inteligencji (rozporządzenie UE 2024/1689), nakazującego m.in. właśnie odpowiednie oznaczenie treści wygenerowanych przez AI.
Wracamy zatem do pytania: czy tłumaczenia literackie zostaną zaliczone do przekładów wymagających szczególnej odpowiedzialności? Czy przyznamy im szczególną wartość? Swój artykuł prof. Biel kończy przywołaniem słów Arle’a Richarda Lommela – specjalisty od technologii językowej, AI i jakości tłumaczenia: „Tłumaczenia maszynowe wyeliminują tylko tych tłumaczy, którzy tłumaczą jak maszyny. Ludzie będą koncentrować się na zadaniach wymagających inteligencji”6. Czy maszyna jest w stanie kiedykolwiek osiągnąć poziom ludzkiej inteligencji? To już pytanie do filozofów i futurologów, operujących pojęciem technologicznej osobliwości.
Jak jednak pisze papież Franciszek w swojej najnowszej encyklice:
W erze sztucznej inteligencji nie możemy zapominać, że do ocalenia człowieczeństwa niezbędne są poezja i miłość. To, czego żaden algorytm nigdy nie będzie mógł pomieścić, to na przykład ten moment z dzieciństwa, który pamięta się z czułością i który mimo upływu lat wciąż się powtarza w każdym zakątku planety7.
A co sam czat sądzi o zastąpieniu tłumaczy przez niego samego? „To bardzo możliwe! Tłumaczenia oparte na AI już teraz znacząco ułatwiają komunikację między ludźmi, eliminując bariery językowe. W miarę jak technologia się rozwija, możemy spodziewać się coraz bardziej zaawansowanych narzędzi, które będą w stanie dokładniej przekładać nie tylko słowa, ale i konteksty kulturowe. Taki postęp może rzeczywiście umożliwić ludziom łatwiejsze porozumiewanie się, niezależnie od języka”.
Spytany zaś o horyzont czasowy, dopowiada: „Trudno przewidzieć dokładny czas, ale postęp w technologii tłumaczenia AI jest bardzo szybki. Już teraz mamy aplikacje, które działają na zaskakująco wysokim poziomie, a ciągłe innowacje w dziedzinie uczenia maszynowego mogą przyspieszyć ten proces. W ciągu następnych kilku lat możemy zobaczyć znaczne ulepszenia, które umożliwią jeszcze bardziej naturalną i płynniejszą komunikację. Optymistycznie może to być kwestia 5–10 lat, ale wiele zależy od inwestycji w badania i rozwój”.
Więź.pl to personalistyczne spojrzenie na wiarę, kulturę, społeczeństwo i politykę.
Cenisz naszą publicystykę? Potrzebujemy Twojego wsparcia, by kontynuować i rozwijać nasze działania.
A na koniec – nie wiem, czy dlatego, że ChatGPT tak dobrze zna zasady międzyludzkiej rozmowy, czy żeby wyciągnąć ode mnie kolejne informacje do swojego korpusu danych – kończy pytaniem: „Jakie masz nadzieje związane z taką technologią?”.
1 Ł. Biel, Postedycja tłumaczeń maszynowych, „Lingua Legis” 2021, nr 29. 2 Tamże. 3 Nadciąga eksplozja inżynierii genetycznej – Jacek Dukaj – didaskalia#93, https://youtu.be/_H5t7k8IZqo?feature=shared&t=4497 [dostęp: 16.11.2024]. 4 Ł. Biel, Postedycja…, dz. cyt., s. 23–24. 5 Wszystkie cytaty z ChataGPT za jego wypowiedziami otrzymanymi na stronie https://chat.openai.com. 6 Ł. Biel, Postedycja…, dz. cyt., s. 31. 7 Franciszek, Dilexit nos.O miłości ludzkiej i Bożej Serca Jezusa Chrystusa, 20.
ur. 1990, fundraiserka Towarzystwa „Więź”, literaturoznawczyni, dziennikarka. Absolwentka polonistyki i prawa na Uniwersytecie Warszawskim. Wnuczka, córka, żona. Kocha kino. Urodzona w Piszu, mieszka w Warszawie.