Konferencja Tłumaczy 2023 – relacja
Konferencja Tłumaczy 2023 już za nami. Ale poniżej czeka na Was relacja. Zapraszamy do lektury!
W dniu św. Hieronima, patrona tłumaczy
Co roku, 30 września, w dniu św. Hieronima, tłumacza Biblii, uznawanego za patrona tłumaczy, obchodzony jest Międzynarodowy Dzień Tłumacza. I w tym samym terminie, już od kilku lat, organizowana jest Konferencja Tłumaczy. Nie inaczej było i w tym roku.
Motyw przewodni
Motywem przewodnim tegorocznej Konferencji Tłumaczy była INTELIGENCJA. Dyskusje toczyły się wokół inteligencji językowej (czyli czegoś, co każdy lingwista posiada, ale musi też o to dbać), społecznej (czyli umiejętności współpracy z innymi osobami), emocjonalnej (czyli umiejętności zarządzania sobą z perspektywy własnej osobowości i emocji odczuwanych w trakcie tłumaczenia) oraz sztucznej (czyli wokół narzędzi takich jak ChatGPT, ChatSonic, Chinchilla, DeepL).
Piątkowe warsztaty
Jako przedsmak samej konferencji w piątek, 29 września, odbyły się warsztaty z ekspertami, poruszającymi zarówno odwieczne, jak i aktualne kwestie nurtujące branżę tłumaczeniową.
Dyskutowano więc o kwestiach takich jak stawki za tłumaczenia, reklamowanie swoich usług tłumaczeniowych w sieci czy emisja głosu. Gratką dla uczestników były warsztaty dotyczące zastosowania ChatGPT i AI w tłumaczeniach. Było o wielkich modelach językowych (tzw. LLM-ach), prompt engineeringu, łączeniu CAT-ów (czyli narzędzi wspomagających tłumaczenie), NMT (neuronowego tłumaczenia maszynowego) i LLM (wielkich modeli językowych). Dyskutowano o anonimizacji, poufności i ochronie danych wrażliwych w ChatGPT.
Na koniec chętni uczestnicy mogli zobaczyć, jak działa narzędzie Juremy ułatwiające wyszukiwanie różnorakich terminów w 24 językach unijnych. Szkolenie to było skierowanie przede wszystkim do tłumaczy zajmujących się tłumaczeniem tekstów unijnych i prawniczych.
Sobotnia konferencja
Właściwa konferencja odbyła się w sobotę, 30 września. Na wykładach i prelekcjach pojawiło się mnóstwo tłumaczy i osób związanych z branżą tłumaczeniową. Kto nie mógł pojawić się osobiście, miał szansę uczestniczyć w konferencji online. Podobnie zresztą jak i niektórzy prelegenci, którym zobowiązania zawodowe czy rodzinne nie pozwoliły wziąć udziału w wydarzeniu osobiście.
Inteligencja i inne tematy okołotłumaczeniowe
Jak przystało na temat przewodni dyskutowano o szeroko pojętej inteligencji. Było więc i o neurobiologii inteligencji, i o inteligencji emocjonalnej – czyli o tym jak tłumacze ustni radzą sobie w trakcie tłumaczeń konferencyjnych i środowiskowych wywołujących duże i skrajne emocje. Znalazło się też miejsce na rozmowy o tym, jak rozpoznać u siebie mocne i słabe strony, jak osiągnąć satysfakcję z pracy, jak nauczyć się kontrolować stres, a także jak unikać rozczarowań i skutecznie się relaksować.
Dyskutowano również o praktycznych kwestiach z życia tłumaczy. Było o różnych formach pracy z innymi, czyli o tzw. co-workingu, fizjologicznej emisji głosu na co dzień oraz zarządzaniu procesami i projektami. Prelegenci dzielili się również swoją wiedzą i doświadczeniem w kwestii tego, jak się przebranżowić oraz jak wcześniej podnieść swoje kompetencje, żeby zmiana branży i zawodu poszła gładko i bezproblemowo.
Nie zabrakło też zabawnych historii wpadek językowych z życia tłumacza konferencyjnego, który często natrafia na rafy kulturowe czy językowe podczas tłumaczenia. Było też i o języku inkluzywnym, który coraz częściej pojawia się w dyskusjach w przestrzeni publicznej.
Gościem tegorocznej konferencji było również ukraińskie biuro tłumaczeń Task Force, którego przedstawiciele opowiadali o zmieniającej się branży tłumaczeniowej w Ukrainie, tendencjach i wyzwaniach stojących przed nimi.
AI i MT na tapecie
Jednak tegoroczna Konferencja Tłumaczy 2023 została zdominowana przez kwestie, które wywołują od jakiegoś czasu spore emocje, rodzą nadzieje i obawy nie tylko w przestrzeni publicznej, ale też w branży tłumaczeniowej. Chodzi mianowicie o tłumaczenie maszynowe i sztuczną inteligencję.
Temat AI widziany oczami biura tłumaczeń rozpoczęła Magdalena Pluta z biura tłumaczeń Skrivanek. Opowiedziała o tym, jak biuro wykorzystuje narzędzia AI, jak zmieniają się potrzeby klientów i jak w związku z tym zmienia się zakres procesów, używanego oprogramowania i innych rozwiązań oraz jak dostawcy radzą sobie z technologiami AI. Pałeczkę przejął następnie Agenor Hoffmann-Delbor, który jest znaną postacią nie tylko w branży tłumaczeniowej, ale również, a może przede wszystkim, lokalizacyjnej. Dzień wcześniej poprowadził warsztaty tematycznie powiązane z sobotnią prelekcją.
Zastosowanie AI w tłumaczeniach
Agenor Hoffmann-Delbor podszedł do tematu bardzo technicznie i rzeczowo. Było nie tylko o AI w tłumaczeniach, ale przede wszystkim ogólnie o sztucznej inteligencji, silnikach korzystających z niej, jej zastosowaniach, mocnych i słabych stronach.
Samo określenie „sztuczna inteligencja” pojawiło się już w latach 50. XX wieku i zostało spopularyzowane przez literaturę science-fiction wraz ze wzrostem jej popularności. Dlatego można powiedzieć, że nie jest to nowy twór, ale twór w nowej odsłonie, dający możliwości, których wcześniej nie było. A same prace nad AI, czyli zdolnością rozpoznawania pewnych wzorców, wyciągania z tych wzorców wniosków i stosowania ich w praktyce, trwają od dawna. Podobnie jest z obecnością AI w branży tłumaczeniowej.
AI w tłumaczeniach to nic nowego
Nie jest prawdą, że w branży tłumaczeniowej przez dziesięciolecia sztucznej inteligencji nie było, a pojawiła się nagle dopiero w ostatnim roku. Bo od dawna istnieją rozwiązania, które były wykorzystywane w branży tłumaczeniowej już wcześniej, np. rozpoznawanie tagów w CAT-ach, wybór tłumaczy przez AI zaszyte w TMS, wyodrębnianie terminologii, wspomaganie weryfikacji i redakcji, testy językowe w kontekście treści wrażliwych, alignment, rozpoznawanie nietłumaczalnych elementów, MT/SMT/NMT, czy ocena jakości MT (MTQE).
LLM-y w tłumaczeniach
Agenor opowiadał o zastosowaniach LLM-ów (czyli wielkich modeli językowych) w tłumaczeniach wg Custom.mt, których jest ponad 39. Wyróżniamy tu przygotowanie danych do tłumaczenia, ocenę jakości tekstu źródłowego, tłumaczenia, dalszą obróbkę, sprawdzenie jakości i wiele innych.
Prelegent mówił o tym, że w ciągu ostatniego roku zaobserwowano skok jakości tłumaczeń przy użyciu LLM-ów. Rozpoznawały one poprawnie 5 na 6 słów w tłumaczonym zdaniu, a co najwa żniejsze nie wymagało to poprawek przez postedytora. W październiku 2022 były to 2 na 3 słowa. Jest to skok jakości z 66% do 83%. – Tak więc tempo, w którym wielkie modele językowe zyskują na jakości tłumaczeniowej jest spore, ale to było do przewidzenia – stwierdził Agenor.
OpenAI Translator
Wskazując na obecność sztucznej inteligencji w tłumaczeniach Agenor opowiadał o dodatku do Tradosa, czyli jednego z narzędzi wspomagających tłumaczenie, tzw. CAT-ów. Dodatek ten ma zaszytą w sobie pewną liczbę promptów, czyli zapytań. Co to oznacza? Ni mniej, ni więcej to, że za jego pomocą można zrobić różne przeróbki techniczne tekstu. Zalicza się do tego: anonimizację, zmianę płci w tłumaczeniu, podsumowanie, skrócanie tekstu, zmianę terminologii, wiele wersji tłumaczenia, sprawdzenie gramatyki, sprawdzenie jakości podpowiedzi z różnych silników, sprawdzenie „stosowności” tłumaczenia, dokańczanie podpowiedzi z pamięci tłumaczeń i poprawianie ich.
Jak twierdzi prelegent, nie jest to najlepsze rozwiązanie. Po pierwsze dlatego, że bazuje na pracy z fragmentami tekstu, oderwanymi od całego dokumentu, od czego się dzisiaj odchodzi. Zwłaszcza, że modele językowe są w stanie pracować z całym dokumentem i w nim odnaleźć kontekst. Po drugie dlatego, że dodatek ten pozwala zaznaczyć i przeanalizować tylko jeden tekst – albo źródło, albo tłumaczenie. Nie możemy wybrać jednocześnie i źródła, i tłumaczenia i zbadać, czy źródło zostało dobrze przetłumaczone.
Trados i wtyczka Custom.MT
Ciekawostką jest wtyczka Custom.MT do Tradosa, która jest podłączona do wielu różnych silników. I jeśli jest to ChatGPT, który korzysta z translatora DeepL, to, jak twierdzi Agenor, możemy wrzucić do DeepL’a swój słownik ze swoją terminologią, a potem możemy jeszcze to, co wygeneruje DeepL za pomocą prompta dodatkowo udoskonalić.
ChatGPT
Tematem, który przewijał się przez całą prezentację był ChatGPT – jak działa, jak nim sterować, jak go uczyć, jakie ma źródła informacji (nie tylko Wikipedia), jak znaleźć idealne zapytanie dla czata, jak zwiększyć skuteczność zapytań, czy warto uczyć się „prompt engineering”.
Było o łamaniu modelu (poprzez zapytania typu jak zbudować bombę, czy jak porwać kogoś dla okupu czy polecenia mu napisania wirusa). Jest to coraz trudniejsze, bo wprowadza się coraz więcej zabezpieczeń przed tego typu zapytaniami. Prelegent wspominał o ChatGPT na komórkę (można się z nim porozumiewać głosowo, nie trzeba pisać promptów), poruszył temat poufności ChatGPT (przechowywanie danych z promptów do celów nauki czata jest domyślnie wyłączone), przeglądania Internetu w ChatGPT. Mówił, że istnieje ponad 1000 pluginów do ChatGPT. Wspominał też o tym, że OpenAI udostępnia detektor tekstu pisanego – można sprawdzić czy tekst (np. oddawany przez kogoś jako oryginalna praca autorska) został napisany przez model.
Wpływ AI na rynek pracy
„AI będzie potrzebować 10-15 lat, aby zastąpić dzisiejsze zawody. W tym czasie powstanie podobna liczba nowych.” (Yann LeCun, Chief AI Scientist, Meta)
Prelegent mówił o tym, że wpływ AI na rynek pracy jest widoczny już dziś. Istnieje wiele raportów, które podają, jaki wpływ na rynek pracy ma lub będzie mieć sztuczna inteligencja.
I tak, Goldman Sachs przewiduje, że na skutek popularyzacji AI pracę straci 300 milionów osób. Ale też jest gros osób, które pracy nie stracą, a będą korzystać z AI, żeby ją usprawnić. Prelegent podkreślał, że na rynku widoczny jest trend, że firmy wstrzymują duże rekrutacje, redukują zespoły, szczególnie w świecie IT. Trudno jest w tej chwili powiedzieć, na kogo firmy postawią, kto będzie korzystać z copilotów, wspomagaczy. Ale firmy będą stawiać raczej na doświadczone osoby, które będą w stanie ocenić rzetelność informacji, które modele wytwarzają.
Ponadto według przeanalizowanych raportów około 18% pracy na świecie da się skomputeryzować. A efekty są już widoczne na rynkach rozwiniętych. A ponad 66% zawodów w USA jest podatne na wprowadzenie AI: 7% zostanie całkiem zastąpionych, 63% będzie pracować wspólnie z AI, 30% pozostanie bez zmian.
Rozwiązania AI są wszędzie
-
Microsoft Copilot w aplikacjach Office
-
Przeglądarki, np. Bing
-
Facebook
-
Google Bard – alternatywa dla ChatGPT
-
Claude – dostępny w Wielkiej Brytanii, USA, jeszcze nie w Europie, świetnie sobie radzi z tekstami prawnymi, wyciąga pułapki, które prawnicy zastawili na użytkownika np. w warunkach licencyjnych
-
HuggingFace - darmowa platforma, rozwiązanie m.in. Whisper, czyli rozwiązanie do rozpoznawania mowy
Istnieją darmowe modele (open-source LLMs) takie jak:
-
LLaMa – posiada 65 mld parametrów
-
Alpaca (Uniwersytet Stanford) – za 600 USD można osiągnąć efekt porównywalny z GPT3
Powstały one dzięki temu, że z Facebooka/Meta wyciekły parametry, które powstały podczas trenowania dużego modelu językowego. Rozwiązania te szybko zyskują na jakości.
– I można sobie taką LLaMę czy Alpakę „postawić” na swoim komputerze za 600 dolarów – mówił Agenor. – Nie trzeba już trenować tego silnika tak, jak był trenowany duży model. Można mieć coś takiego we własnym zakresie.
Agenor wspominał też o modelach, które działają na telefonach komórkowych. Możemy więc wygenerować swój awatar. Możemy nagrać własny głos, który zostanie następnie zmapowany, a model będzie potem mówił naszym głosem przybierając różne emocje.