Czytelnia / Technologie tłumaczeniowe

Z tego powodu obiekt badań – translacja – potraktowany zostanie opisowo, czyli tak, jak jest on praktykowany i rozwija się profesjonalnie. Jednak translacja musi zostać zdefiniowana za pomocą nowych protokołów analitycznych i koniecznie zostać odsunięta od przeważających modeli interpretacyjnych.

Rozważając te założenia, opiszemy tylko zweryfikowane prace (zebrane przetłumaczone i opublikowane teksty) i użyjemy tego, co w tych pracach uważa się za empiryczne elementy, które mogą być przedmiotem testów „potwierdzających” lub uwierzytelniających. Ten cel nie wyklucza możliwości obserwacji innego rodzaju przy użyciu informacji niezawartej w owych dziełach zebranych.

Dane do analizy można podzielić na trzy główne kategorie. Pierwsza to teksty elektroniczne związane z obserwacją, druga – skomputeryzowany system hipotez i wskazówek, a ostatnia to uzasadnienie łączenia hipotez z danymi lingwistycznymi pochodzącymi z obserwacji.

Nasza praca opiera się przede wszystkim na trzech narzędziach: tekstach elektronicznych pogrupowanych w korpusy językowe, które mogą być odczytane przez maszynę, narzędziach do obserwacji i klasyfikacji danych lingwistycznych oraz narzędziach potwierdzających, służących do poświadczania rezultatów obserwacji.

Korpusy stosowane w tym badaniu musiały odpowiadać wymogom Sinclaira. Obserwacja danych lingwistycznych powinna prowadzić do określenia przedmiotu badań w zgodzie ze szczegółowym i ciągłym protokołem ekstrakcji. Wyniki tych obserwacji muszą być “niezwykłe” – rozumie się przez to, że powinny one wykazywać wysoką częstotliwość i występowanie w korpusie źródeł.

W związku z tym skupiliśmy się raczej na rzeczywistych wydanych pracach (tekstach, zdaniach, wyrażeniach, pojęciach), a nie na działaniach istotnych dla użycia języka (mówienie, pisanie, zapamiętywanie).

Założenie było takie, że zwyczaje dotyczące mowy nie mogą być przedmiotem rygorystycznych nakazów kontroli danych i że tylko obserwowane prace dopuszczają zastosowanie obiektywnych procedur. To wcale jednak nie oznacza, że to, co obserwujemy nie oddaje procesów zachodzących w głowie mówiącego[1].

Ten podział między „danymi” a „praktyką” ma swój odpowiednik w informatyce – jest to podział między wiedzą „deklaratywną” a „proceduralną[2]”. Aktualnie należy zdecydować, który rodzaj danych ma być poddany obserwacji, a dokładnie, które wyrażenia i pojęcia są potencjalnymi przedmiotami badań dla systematycznej translacji.

Do tej pory nasze podejście opierało się na empirycznie potwierdzonym założeniu, że teksty z korpusu językowego używane w celu sprawdzania danych przedstawiają kolejne i dobrze sformułowane wyrażenia dotyczące konkretnych sposobów myślenia. Dzięki temu pozwalają nam one odróżnić konstrukcję dyskursu od zlepku wyrażeń pozbawionego spójności i konsekwencji.

Ten punkt wyjścia jest istotny, ponieważ w obserwacji i analizie kładzie duży nacisk na znaczenie lingwistyki tekstu w porównaniu z lingwistyką teoretyczna i ogólną. To oznacza, że dążymy do kilku celów: po pierwsze, jest to odróżnienie tekstu od nielogicznego ciągu wyrażeń, po drugie znakowanie zawartości tekstu z typologicznego punktu widzenia (technicznego, dziennikarskiego itp.), a także klasyfikowanie informacji wybranych zgodnie z wcześniej określonym protokołem i kryteriami lingwistycznymi.