Czytelnia / Technologie tłumaczeniowe

W poszukiwaniu nowej wizji tłumaczenia maszynowego (TM)
Wstęp do konferencji poświęconej tłumaczeniu maszynowemu (TM),
18-22 wrzesień 2001, Santiago de Compostela

John Hutchins

tłum. Marcin Dziuba

Seria konferencji poświęconych tłumaczeniu maszynowemu rozpoczęła się 15 lat temu, w roku 1987, w japońskim mieście Hakone. Od tamtej pory w tej dziedzinie zmieniło się bardzo dużo. Wiele metod, systemów oraz technik, które znamy dzisiaj, powstały w ciągu ostatnich 15 lat. W latach osiemdziesiątych XX wieku nie istniały takie metody tłumaczenia maszynowego jak tłumaczenie przez analogię (EBMT), tłumaczenie oparte na metodach statystycznych (SBMT) czy techniki dopasowania tekstu, nie było też zlokalizowanego przemysłu, rzadkością było również oprogramowanie tłumaczenia maszynowego dla komputerów osobistych, a przede wszystkim nie było możliwości korzystania z Internetu, a wizja stworzenia takiej sieci była marzeniem. Z systemów tłumaczenia maszynowego korzystały wyłącznie duże organizacje, instytucje rządowe oraz kilka instytucji międzynarodowych. Przez dziesięciolecia, systemy tłumaczenia maszynowego przeznaczone były głównie dla dużych komputerów oraz drogich minikomputerów, a przetłumaczony tekst musiał być zawsze poprawiany przez człowieka, bez względu na jego przeznaczenie. Komputery osobiste (zwane w tamtych czasach mikrokomputerami) były zupełnie nowymi, stosunkowo drogimi urządzeniami o małych możliwościach, trudno było też zdobyć dla nich oprogramowanie tłumaczenia maszynowego.

Głównym celem rozwoju tłumaczenia maszynowego (nawet jeśli bardzo odległym) jest, tak jak na samym początku, uzyskanie tłumaczenia wysokiej jakości, porównywalnego z przekładem wykonanym przez człowieka, które nie wymagałoby korekty przed publikacją. W 1960 roku, Bar-Hillel przedstawił raport zwany FAHQT (w pełni automatyczne wysokiej jakości tłumaczenie), w którym zawarł wizję takiego tłumaczenia. Była to wizja pionierska, wydana przed upublicznieniem słynnego raportu Amerykańskiej Akademii Nauk ALPAC, wydanego w 1966 roku. Systemy tłumaczenia maszynowego były opracowane dla dużych komputerów (lub też mniejszych, tzw. minikomputerów), z których korzystały spółki międzynarodowe i organizacje rządowe w celu wytwarzania dokumentów nadających się do publikacji.

Pod koniec lat osiemdziesiątych XX wieku stało się jasne, że uzyskanie za pomocą systemów translacji automatycznej tłumaczenia nadającego się jakościowo do publikacji jest możliwe tylko wtedy, gdy człowiek będzie nadzorował pracę oprogramowania, dokonując korekty tekstu przetłumaczonego (tzw. postedycji) lub przystosowując i upraszczając tekst przeznaczony do tłumaczenia pod względem gramatycznym i leksykalnym (tzw. preedycji). Zauważono też, że w celu zbierania informacji możliwe jest wykorzystanie nie do końca poprawnych tekstów przetłumaczonych za pomocą systemów tłumaczenia maszynowego. Jednak takie wykorzystanie oprogramowania było uznawane za produkt uboczny działania omawianych systemów. Mówiąc w skrócie, twierdzono, że FAHQT powinno pozostać głównym celem, mimo że zdawano sobie sprawę z niewykonalności takiego założenia.